Hiperespacio Michio Kaku

January 11, 2018 | Author: Maria Machuca | Category: Universe, Physics & Mathematics, Physics, Theory, Space
Share Embed Donate


Short Description

Descripción: ciencia...

Description

¿Hay otras dimensiones más allá d las de nuestra experiencia cotidiana? ¿Hay puertas de acceso a universos paralelos? Muchos físicos creen que existen otras dimensiones más allá de las cuatro de nuestro espacio-tiempo, y que puede alcanzarse una visión unificada de las diversas fuerzas de la naturaleza, si consideramos que todo lo que vemos a nuestro alrededor son vibraciones en el hiperespacio. La teoría del hiperespacio —y su derivación más reciente, la teoría de supercuerdas— es el ojo de esta revolución. Michio Kaku nos muestra un panorama fascinante, que cambia por completo nuestra visión del cosmos, y nos lleva a un deslumbrante viaje por nuevas dimensiones: agujeros de gusano que conectan universos paralelos, máquinas del tiempo y «universo bebé» van surgiendo en unas páginas en las que todo se explica con una elegante sencillez y donde la formulación matemática es reemplazada por imaginativas ilustraciones que permiten visualizar los problemas.

Michio Kaku

Hiperespacio Una odisea científica a través de universos paralelos, distorsiones del tiempo y la décima dimensión ePub r1.0 Ba nshee 26.11.13

Título original: Hyperspace. A Scientific Odyssey Through Parallel Universes, Time Wraps and the Tenth Dimension Michio Kaku, 1994 Traducción: Javier García Sanz Diseño de portada: Jaime Fernández Editor digital: Banshee ePub base r1.0

Este libro está dedicado a mis padres

PREFACIO Las revoluciones científicas, casi por definición, desafían el sentido común. Si todas nuestras nociones de sentido común acerca del universo fueran correctas, hace años que la ciencia habría resuelto los secretos del universo. La ciencia se propone quitar la capa de la apariencia de los objetos para revelar su naturaleza subyacente. De hecho, si apariencia y esencia fuesen lo mismo, no habría necesidad de ciencia. Quizá la noción de sentido común más profundamente arraigada acerca de nuestro mundo es que éste es tridimensional. No hace falta decir que longitud, anchura y altura bastan para describir todos los objetos en nuestro universo visible. Experimentos con animales y niños pequeños han demostrado que nacemos con un sentido innato de que nuestro mundo es tridimensional. Si incluimos el tiempo como una dimensión más, entonces cuatro dimensiones son suficientes para registrar todos los sucesos del universo. En cualquier lugar que hayamos explorado con nuestros instrumentos, desde el profundo interior del átomo a los más lejanos confines del cúmulo galáctico, sólo hemos encontrado evidencia de estas cuatro dimensiones. Afirmar públicamente otra cosa, afirmar que pueden existir otras dimensiones o que nuestro universo puede coexistir con otros, es una invitación a un sarcasmo seguro. Pero aun así, este prejuicio profundamente arraigado acerca de nuestro mundo, sobre el que por primera vez especularon los antiguos filósofos griegos hace dos milenios, está a punto de sucumbir ante el progreso de la ciencia. Este libro trata de una revolución científica creada por la teoría del hiperespacio[1], que afirma que existen otras dimensiones además de las cuatro de espacio y tiempo comúnmente aceptadas. Existe un reconocimiento creciente entre físicos de todo el mundo, incluyendo varios premios Nobel, de que el universo puede existir realmente en un espacio de dimensiones superiores. Si se demostrara que esta teoría es correcta provocaría una profunda revolución conceptual y filosófica en nuestra comprensión del universo. Científicamente, la teoría del hiperespacio lleva los nombres de teoría de Kaluza-Klein y supergravedad. Pero en su formulación más avanzada se denomina teoría de supercuerdas, que incluso predice el número exacto de dimensiones: diez. Las tres dimensiones usuales del espacio (longitud, anchura y altura) y una de tiempo son ahora ampliadas con otras seis dimensiones espaciales. Advertimos que la teoría del hiperespacio no ha sido todavía confirmada experimentalmente y, de hecho, será extraordinariamente difícil probarla en el laboratorio. Sin embargo, la teoría ya ha barrido los principales laboratorios de investigación física del mundo y ha alterado irrevocablemente el paisaje científico de la física moderna, generando un espectacular número de artículos de investigación en la literatura científica (se estiman en más de 5.000). Sin embargo, casi nada se ha escrito dirigido a la audiencia profana para explicar las propiedades fascinantes del espacio multidimensional. Por ello, el público general apenas es consciente, si lo es, de esta revolución. De hecho, las ocasionales referencias a otras dimensiones y universos paralelos en la cultura popular son a menudo equívocas. Esto resulta lamentable, porque la importancia de la teoría reside en su poder para unificar todos los fenómenos físicos conocidos en un marco sorprendentemente simple. Este libro hace disponible, por primera vez, un informe científicamente respetable pero accesible de la actual, y fascinante, investigación sobre el hiperespacio.

Para explicar por qué la teoría del hiperespacio ha suscitado tanta excitación dentro del mundo de la física teórica, he desarrollado cuatro temas fundamentales que atraviesan este libro como un hilo conductor. Estos cuatro temas dividen el libro en cuatro partes. En la Primera parte, desarrollo la primitiva historia del hiperespacio, resaltando el tema de que las leyes de la naturaleza se hacen más simples y más elegantes cuando se expresan en dimensiones superiores. Para comprender cómo la adición de dimensiones superiores puede simplificar los problemas físicos, consideremos el siguiente ejemplo: para los antiguos egipcios, el clima era un completo misterio. ¿Cuál era el origen de las estaciones? ¿Por qué hacía más calor a medida que se viajaba hacia el sur? ¿Por qué los vientos soplaban generalmente en una dirección? El clima era imposible de explicar desde el limitado punto de vista de los antiguos egipcios, para quienes la Tierra parecía plana, como un plano bidimensional. Pero imaginemos ahora que enviáramos a los egipcios en un misil al espacio exterior, donde pueden ver la Tierra entera y simple en su órbita alrededor del Sol. De golpe, las respuestas a aquellas preguntas se harían obvias. Desde el espacio exterior, resulta evidente que el eje de la Tierra está inclinado alrededor de 23 grados respecto a la vertical (siendo la «vertical» la perpendicular al plano de la órbita de la Tierra alrededor del Sol). Debido a esta inclinación, el hemisferio norte recibe mucha menos luz solar durante una parte de su órbita que durante la otra parte. Por ello, tenemos invierno y verano. Y puesto que el ecuador recibe más luz solar que las regiones polares norte y sur, hace más calor a medida que nos acercamos al ecuador. Análogamente, puesto que la Tierra gira en sentido contrario a las agujas del reloj para alguien que esté en el polo norte, el aire polar frío se desvía a medida que se mueve en dirección sur hacia el ecuador. El movimiento de las masas de aire frío y caliente, debido al giro de la Tierra, nos ayuda así a explicar por qué los vientos soplan generalmente en una dirección, dependiendo del punto de la Tierra en el que usted se encuentre. En resumen, las leyes más bien oscuras del clima son fáciles de interpretar una vez que miramos la Tierra desde el espacio. Así pues, la solución al problema consiste en moverse hacia arriba en el espacio, en la tercera dimensión. Hechos que eran imposibles de comprender en un mundo plano se hacen repentinamente obvios cuando se miran en una Tierra tridimensional. Análogamente, las leyes de la gravedad y de la luz parecen totalmente diferentes. Obedecen a distintas hipótesis físicas y matemáticas. Los intentos para empalmar estas dos fuerzas siempre han fracasado. Sin embargo, si añadimos una dimensión más, una quinta dimensión, a las anteriores cuatro dimensiones de espacio y tiempo, entonces las ecuaciones que gobiernan la luz y la gravedad parecen unirse como dos piezas de un rompecabezas. La luz de hecho, puede ser explicada como vibraciones en la quinta dimensión. De este modo, vemos que las leyes de la luz y de la gravedad se hacen más simples en cinco dimensiones. En consecuencia, muchos físicos están ahora convencidos de que una teoría tetradimensional convencional es «demasiado pequeña» para describir adecuadamente las fuerzas que describen nuestro universo. En una teoría tetradimensional, los físicos tienen que comprimir las fuerzas de la naturaleza de una forma fea y poco natural. Además, esta teoría híbrida es incorrecta. Sin embargo, cuando se expresan en dimensiones por encima de cuatro, tenemos «sitio suficiente» para explicar las fuerzas fundamentales de una manera elegante y escueta.

En la Segunda parte, desarrollamos más esta idea sencilla, destacando que la teoría del hiperespacio puede ser capaz de unificar todas las leyes conocidas de la naturaleza en una teoría. Así pues, la teoría del hiperespacio puede ser la culminación que corone dos milenios de investigación científica: la unificación de todas las fuerzas físicas conocidas. Puede darnos el Santo Grial de la física, la «teoría de todo» que esquivó a Einstein durante muchas décadas. Durante el último medio siglo, los científicos se han sentido intrigados por la aparente diferencia entre las fuerzas básicas que mantienen unido al cosmos: la gravedad, el electromagnetismo y las fuerzas nucleares fuerte y débil Los intentos por parte de las mayores mentes del siglo XX para proporcionar una imagen unificadora de todas las fuerzas conocidas han fracasado. Sin embargo, la teoría del hiperespacio permite la posibilidad de explicar las cuatro fuerzas de la naturaleza, así como la aparentemente aleatoria colección de partículas subatómicas, de una forma verdaderamente elegante. En la teoría del hiperespacio, la «materia» puede verse también como las vibraciones que rizan el tejido del espacio y del tiempo. De ello se sigue la fascinante posibilidad de que todo lo que vemos a nuestro alrededor, desde los árboles y las montañas a las propias estrellas, no son sino vibraciones en el hiperespacio. Si esto es cierto, nos proporciona un medio elegante, sencillo y geométrico de dar una descripción coherente y convincente del universo entero. En la Tercera parte, exploramos la posibilidad de que, en circunstancias extremas, el espacio puede ser tensado hasta que se rompe o desgarra. En otras palabras, el hiperespacio puede proporcionar un medio de hacer un túnel a través del espacio y del tiempo. Aunque señalamos que esto es altamente especulativo, los físicos están analizando seriamente las propiedades de «agujeros de gusano», de túneles que unen partes distantes del espacio y del tiempo. Por ejemplo, físicos del Instituto de Tecnología de California han propuesto seriamente la posibilidad de construir una máquina del tiempo, que consiste en un agujero de gusano que conecta el pasado con el futuro. Las máquinas del tiempo han dejado ahora el reino de la especulación y la fantasía y se han convertido en campos legítimos de investigación científica. Los cosmólogos han propuesto incluso la extraordinaria posibilidad de que nuestro universo sea sólo uno entre un número infinito de universos paralelos. Estos universos podrían compararse a una enorme colección de pompas de jabón suspendidas en el aire. Normalmente, el contacto entre estos universos burbuja es imposible, pero, analizando las ecuaciones de Einstein, los cosmólogos han demostrado que podría existir una madeja de agujeros de gusano, o tubos, que conectan estos universos paralelos. En cada burbuja podemos definir nuestros propios espacio y tiempo característicos, que tienen significado sólo en su superficie; fuera de estas burbujas, el espacio y el tiempo no tienen significado. Aunque muchas consecuencias de esta discusión son puramente teóricas, el viaje en el hiperespacio puede proporcionar eventualmente la aplicación más práctica de todas: salvar la vida inteligente, incluso a nosotros, de la muerte del universo. Los científicos creen, en general, que el universo debe morir, y con él toda la vida que ha evolucionado a lo largo de miles de millones de años. Por ejemplo, según la teoría más aceptada, denominada el big bang, una explosión cósmica que tuvo lugar hace entre 15 y 20.000 millones de años puso al universo en expansión, alejando de nosotros a las estrellas y galaxias a grandes velocidades. Sin embargo, si un día el universo dejara de expandirse y empezara a contraerse, colapsaría finalmente en un tremendo cataclismo llamado el big crunch, en

el que toda la vida inteligente sería vaporizada por el fantástico calor. De todas formas, algunos físicos han conjeturado que la teoría del hiperespacio puede proporcionar la única esperanza de un refugio para la vida inteligente. En los segundos finales de la muerte de nuestro universo, la vida podría escapar al colapso volando al hiperespacio. En la Cuarta parte, concluimos con una pregunta práctica final: si la teoría se demostrara correcta, entonces ¿cuándo seríamos capaces de dominar el poder de la teoría del hiperespacio? Ésta no es sólo una pregunta académica porque, en el pasado, el dominio de tan sólo una de las cuatro fuerzas fundamentales cambió irrevocablemente el curso de la historia humana, elevándonos desde la ignorancia y pobreza de las antiguas sociedades preindustriales a la civilización moderna. En cierto sentido, incluso el vasto recorrido de la historia humana puede determinarse con una nueva luz, en términos del dominio gradual de cada una de las cuatro fuerzas. La historia de la civilización sufrió un cambio profundo cuando cada una de estas fuerzas fue descubierta y dominada. Por ejemplo, cuando Isaac Newton enunció las leyes clásicas de la gravedad, desarrolló la teoría de la mecánica que nos dio las leyes que gobiernan las máquinas. Esto, a su vez, aceleró enormemente la Revolución industrial, que liberó fuerzas políticas que finalmente acabaron con las dinastías feudales de Europa. A mediados de la década de los sesenta del siglo pasado, cuando James Clerk Maxwell formuló las leyes fundamentales de la fuerza electromagnética, nos introdujo en la Era Eléctrica, que nos dio la dinamo, la radio, la televisión, el radar, los electrodomésticos, el teléfono, las microondas, el ordenador electrónico, los láseres y muchas otras maravillas electrónicas. Sin la comprensión y utilización de la fuerza electromagnética, la civilización se habría estancado, quedando congelada en un tiempo anterior al descubrimiento de la lámpara eléctrica y el motor eléctrico. A mediados de la década de los cuarenta, cuando fue dominada la fuerza nuclear, el mundo fue de nuevo trastornado con el desarrollo de las bombas atómica y de hidrógeno, las armas más destructivas del planeta. Puesto que todavía no estamos en vísperas de una comprensión unificada de todas las fuerzas cósmicas que gobiernan el universo, cabría esperar que cualquier civilización que domine la teoría del hiperespacio se convertirá en señor del universo. Puesto que la teoría del hiperespacio es un cuerpo bien definido de ecuaciones matemáticas, podemos calcular la energía exacta necesaria para doblar el espacio y el tiempo o para crear agujeros de gusano que unan partes distantes de nuestro universo. Por desgracia, los resultados son desalentadores. La energía requerida excede con mucho cualquier cosa que pueda existir en nuestro planeta. De hecho, la energía es mil billones de veces mayor que la energía de nuestros mayores colisionadores de átomos. Debemos esperar siglos, o incluso milenios, hasta que nuestra civilización desarrolle la capacidad técnica de manipular el espacio-tiempo, o confiar en un contacto con una civilización avanzada que ya haya dominado el hiperespacio. El libro termina así explorando la intrigante pero especulativa cuestión científica del nivel tecnológico necesario para llegar a ser señores del hiperespacio. Dado que la teoría del hiperespacio nos lleva mucho más allá de los conceptos normales y de sentido común del espacio y del tiempo, a lo largo del texto he desperdigado algunas historias puramente hipotéticas. Utilizo esta técnica pedagógica inspirado en lo que decía el ganador del premio Nobel Isidore I. Rabi al dirigirse a una audiencia de físicos. Él lamentaba el estado deplorable de la educación científica en Estados Unidos y reprendía a los físicos por olvidar su deber de

popularizar la aventura de la ciencia para el público general y especialmente para los jóvenes. De hecho, advertía él, los escritores de ciencia ficción habían hecho más por comunicar la pasión por la ciencia que todos los físicos juntos. En un libro anterior, Beyond Einstein: The Cosmic Quest for the Theory of the Universe (escrito en colaboración con Jennifer Trainer), investigué la teoría de supercuerdas, describí la naturaleza de las partículas subatómicas y discutí en detalle el universo visible y cómo todas las complejidades de la materia podrían explicarse mediante minúsculas cuerdas vibrantes. En este libro, me he extendido en un tema diferente y he explorado el universo invisible, es decir, el mundo de la geometría y el espacio-tiempo. El tema central de este libro no es la naturaleza de las partículas subatómicas, sino el mundo multidimensional en el que probablemente habitan. Con ello, los lectores verán que el espacio multidimensional, en lugar de ser un telón vacío y pasivo frente al cual los quarks representan sus papeles eternos, realmente se convierte en el actor central en el drama de la naturaleza. Al discutir la fascinante historia de la teoría del hiperespacio, veremos que la búsqueda de la naturaleza definitiva de la materia, comenzada por los griegos hace dos milenios, ha sido una búsqueda larga y tortuosa. Cuando el capítulo final de esta larga saga sea escrito por los futuros historiadores de la ciencia, ellos podrán registrar que el paso decisivo fue la derrota de las teorías de sentido común de tres o cuatro dimensiones y la victoria de la teoría del hiperespacio. M. K. Nueva York Mayo de 1993

AGRADECIMIENTOS Al escribir este libro, he tenido la fortuna de contar con Jeffrey Robbins como editor. Él guió con gran habilidad el avance de tres de mis anteriores libros de texto en física teórica escritos para la comunidad científica, relativos a la teoría del campo unificado, la teoría de supercuerdas y la teoría cuántica de campos. Este libro, no obstante, supone la primera obra de ciencia popular dirigida a una audiencia general que escribo para Robbins. Siempre ha sido un raro privilegio trabajar estrechamente con él. También quisiera dar las gracias a Jennifer Trainer, con quien he compartido la autoría en dos libros populares anteriores. Una vez más, ella ha aplicado sus considerables habilidades para hacer la presentación de la manera más sencilla y coherente posible. También estoy agradecido a muchas otras personas que han ayudado a reforzar y criticar primitivos borradores de este libro: Burt Solomon, Leslie Meredith, Eugene Mallove, y mi agente Stuart Krichevsky. Finalmente, quisiera dar las gracias al Institute for Advanced Study en Princeton, donde fue escrita gran parte de este libro, por su hospitalidad. El Instituto, donde Einstein pasó las últimas décadas de su vida, fue el lugar adecuado para escribir sobre los desarrollos revolucionarios que han ampliado y embellecido mucho su trabajo pionero.

I ENTRAR EN LA QUINTA DIMENSIÓN

Pero el principio creador reside en las matemáticas. Por ello mantengo que, en cierto sentido, es cierto que el pensamiento puro puede atrapar la realidad, como soñaron los antiguos. ALBERT EINSTEIN

1 MUNDOS MÁS ALLÁ DEL ESPACIO Y DEL TIEMPO

Quiero saber cómo creó Dios este mundo. No estoy interesado en tal o cual fenómeno. Quiero conocer Sus pensamientos; lo demás son detalles. ALBERT EINSTEIN La educación de un físico Dos incidentes de mi infancia enriquecieron considerablemente mi comprensión del mundo y me pusieron en el camino de convertirme en físico teórico. Recuerdo que mis padres me llevaban a veces a visitar el famoso Tea Garden japonés en San Francisco. Uno de los recuerdos más felices de mi infancia es el de agacharme cerca del estanque, atraído por las carpas de brillantes colores que nadaban lentamente bajo los nenúfares. En esos momentos relajados, me sentía libre para dejar volar mi imaginación; me hacía preguntas estúpidas que sólo un niño puede plantear, por ejemplo, cómo verían las carpas del estanque el mundo que les rodeaba. Yo pensaba: ¡qué mundo tan extraño debe ser el suyo! Viviendo toda su vida en el estanque poco profundo, las carpas creerían que su «universo» consistía en las aguas oscuras y los nenúfares. Al pasar la mayor parte de su tiempo hurgando en el fondo del estanque, apenas serían conscientes de que podía existir un mundo extraño por encima de la superficie. La naturaleza de mi mundo estaba más allá de su comprensión. Yo me sentía intrigado por el hecho de que pudiera estar sólo a unos pocos centímetros de las carpas, pero separado de ellas pese a todo por un inmenso abismo. Las carpas y yo pasábamos nuestras vidas en dos universos distintos, sin entrar jamás en el mundo del otro, pero estábamos separados sólo por la barrera más estrecha, la superficie del agua. En cierta ocasión imaginé que podría haber carpas «científicas» viviendo entre los peces. Ellas se burlarían, supongo, de cualquier pez que les propusiera que podía existir un mundo paralelo apenas por encima de las aguas. Para una carpa «científica», las únicas cosas que eran reales eran las que un pez podía ver o tocar. El estanque era todo. Un universo invisible más allá del estanque no tenía sentido científico. Una vez me sorprendió una tormenta lluviosa. Noté que la superficie del estanque era bombardeada por miles de minúsculas gotas de lluvia. La superficie del estanque se hizo turbulenta, y los nenúfares eran llevados de un lado a otro por las ondas del agua. Mientras buscaba abrigo del viento y la lluvia, me preguntaba cómo verían las carpas todo esto. Para ellas, los nenúfares parecerían moverse por sí mismos, sin nada que los empujase. Puesto que el agua en la que vivían parecía invisible, como a nosotros nos lo parece el aire y el espacio que nos rodea, ellas estarían desconcertadas por el hecho de que los nenúfares se moviesen por sí mismos.

Sus «científicos», pensaba yo, propondrían un ingenioso concepto al que llamarían «fuerza» para ocultar su ignorancia. Incapaces de comprender que pudiese haber olas en la superficie invisible, concluirían que los nenúfares se movían sin ser tocados debido a que entre ellos actuaba una entidad misteriosa e invisible llamada fuerza. Quizá dieran a esta ilusión nombres sofisticados (tales como acción-a-distancia, o la capacidad de los nenúfares para moverse sin que nada los toque). Una vez imaginé qué sucedería si fuese al fondo y sacase a una de las carpas «científicas» fuera del estanque. Antes de que la volviese a arrojar al agua, se agitaría furiosamente mientras yo la examinaba. Me preguntaba cómo reaccionaría ante esto el resto de las carpas. Para ellas, sería un suceso realmente insólito. Notarían primero que una de sus «científicas» había desaparecido de su universo. Simplemente desaparecido, sin dejar huella. Dondequiera que mirasen, no verían rastro de la carpa perdida en su universo. Luego, segundos más tarde, cuando yo la arrojase de nuevo al estanque, la «científica» reaparecería súbitamente a partir de la nada. Para las otras carpas, parecería que había sucedido un milagro. Después de serenarse, la «científica» contaría una historia realmente sorprendente. «De repente — diría—, fui sacada de algún modo del universo (el estanque) y arrojada a otro mundo misterioso, con luces cegadoras y objetos de formas extrañas que nunca había visto antes. Lo más extraño de todo era que la criatura que me tenía prisionera no se parecía en absoluto a un pez. Quedé impresionada al ver que no tenía ningún tipo de aletas, pero de todos modos podía moverse sin ellas. Me chocó que las leyes familiares de la naturaleza no se aplicaban en ese mundo extraño. Luego, tan repentinamente como antes, me encontré de nuevo arrojada a nuestro universo.» (Por supuesto, esta historia de un viaje más allá del universo sería tan fantástica que la mayoría de las carpas la despacharían como una completa necedad.) A menudo pienso que nosotros somos como las carpas nadando tranquilamente en el estanque. Pasamos nuestras vidas en nuestro propio «estanque», confiados en que nuestro universo consiste sólo en aquellas cosas que podemos ver o tocar. Como para las carpas, nuestro universo consiste sólo en lo familiar y lo visible. Nos negamos con suficiencia a admitir que puedan existir universos o dimensiones paralelas cerca de nosotros, apenas más allá de nuestro alcance. Si nuestros científicos inventan conceptos como fuerzas, es sólo porque no pueden visualizar las vibraciones invisibles que llenan el espacio vacío que nos rodea. Algunos científicos sonríen burlonamente ante la mención de dimensiones más altas porque no pueden medirlas convenientemente en el laboratorio. Desde entonces siempre me he sentido fascinado por la posibilidad de otras dimensiones. Como la mayoría de los niños, yo devoraba las historias de aventuras en las que viajeros del tiempo entraban en otras dimensiones y exploraban universos paralelos invisibles, donde las leyes usuales de la física podían estar convenientemente en suspenso. Crecí preguntándome si los barcos que viajaban por el Triángulo de las Bermudas desaparecían misteriosamente en un agujero del espacio; me maravillaba con la Serie de la Fundación de Isaac Asimov, en la que el descubrimiento del viaje por el hiperespacio llevaba al nacimiento de un Imperio Galáctico. Un segundo incidente de mi infancia también dejó en mí una impresión profunda y duradera. Cuando tenía ocho años, oí una historia que me ha acompañado toda mi vida. Recuerdo a mis maestros de la escuela diciendo a la clase que acababa de morir un gran científico. Hablaban de él con gran respeto, calificándole como uno de los mayores científicos de la historia. Decían que muy

pocas personas podían entender sus ideas, pero que sus descubrimientos cambiaron el mundo entero y todo lo que nos rodea. Yo no comprendía mucho de lo que ellos trataban de decirnos, pero lo que más me intrigó de este hombre era que había muerto antes de que pudiera completar su mayor descubrimiento. Decían que dedicó años a esta teoría, pero murió con sus papeles inacabados aún sobre su mesa. Quedé fascinado por la historia. Para un niño, esto era un gran misterio. ¿Cuál era su trabajo inacabado? ¿Qué había en aquellos papeles sobre su mesa? ¿Qué problema podía ser tan difícil y tan importante para que un científico tan grande le dedicase muchos años de su vida? Intrigado, decidí aprender todo lo que pude sobre Albert Einstein y su teoría inacabada. Aún guardo cálidos recuerdos de las muchas horas tranquilas que pasaba leyendo cualquier libro que podía encontrar sobre este gran hombre y sus teorías. Cuando agoté los libros de nuestra biblioteca local, empecé a recorrer bibliotecas y librerías por toda la ciudad, buscando ávidamente más claves. Pronto aprendí que esta historia resultaba mucho más excitante que cualquier misterioso asesinato y más importante que cualquier cosa que hubiera podido imaginar. Decidí que trataría de llegar a las raíces de este misterio, incluso si, para conseguirlo, tenía que hacerme un físico teórico. Pronto aprendí que los papeles que quedaron inacabados sobre la mesa de Einstein eran un intento por construir lo que él llamó la teoría del campo unificado, una teoría que explicara todas las leyes de la naturaleza, desde el átomo más minúsculo a la galaxia más grande. Sin embargo, siendo un niño, no comprendía que quizá había un lazo entre las carpas que nadaban en el Tea Garden y los papeles inacabados que reposaban sobre la mesa de Einstein. No comprendía que las dimensiones más altas podían ser la clave para resolver la teoría del campo unificado. Posteriormente, ya en la escuela secundaria, agoté la mayoría de las bibliotecas locales y a menudo visitaba la biblioteca de física de la Universidad de Stanford. Allí, llegué a saber que el trabajo de Einstein hacía posible una sustancia nueva llamada antimateria, que actuaría como la materia ordinaria pero se aniquilaría en un destello de energía al entrar en contacto con la materia. También leí que los científicos habían construido grandes máquinas, o «colisionadores de átomos», que podían producir cantidades microscópicas de esta sustancia exótica en el laboratorio. Una ventaja de la juventud es que no se arredra ante las limitaciones materiales que normalmente parecerían insuperables para la mayoría de los adultos. Al no apreciar los obstáculos que ello implicaba, me propuse construir mi propio colisionador de átomos. Estudié la literatura científica hasta que me convencí de que podría construir lo que se llamaba un betatrón, que aceleraría electrones a millones de electronvoltios. (Un millón de electronvoltios es la energía que alcanzan los electrones acelerados por un campo de un millón de voltios.) Para empezar, compré una pequeña cantidad de sodio-22, que es radiactivo y emite de forma natural positrones (la réplica en antimateria de los electrones). Luego construí lo que se denomina una cámara de niebla, que hace visibles las trazas dejadas por partículas subatómicas. Fui capaz de tomar cientos de bellas fotografías de las trazas dejadas tras de sí por la antimateria. A continuación revolví las basuras de los grandes almacenes de electrónica de la zona, reuní el hardware necesario, incluyendo cientos de kilos de acero de transformador sobrante, y construí en el garaje de mi casa un betatrón de 2,3 millones de electronvoltios que sería suficientemente potente para producir un haz de antielectrones. Con el propósito de construir las monstruosas bobinas necesarias para el betatrón,

convencí a mis padres para que me ayudaran a enrollar 35 kilómetros de alambre de cobre en el campo de fútbol del instituto. Pasamos las vacaciones de Navidad en la línea de 50 yardas, enrollando y montando las pesadas bobinas que curvarían las trayectorias de los electrones de alta energía. Cuando finalmente quedó construido, el betatrón de 150 kilogramos y 6 kilovatios consumía toda la potencia eléctrica de mi casa. Cuando lo conectaba, saltaban todos los fusibles y la casa se quedaba repentinamente a oscuras. Con la casa sumida periódicamente en la oscuridad, mi madre solía darse golpes en la cabeza. (Yo imaginaba que ella probablemente se preguntaba por qué no podía tener un hijo que jugase al béisbol o al baloncesto, en lugar de construir estas enormes máquinas eléctricas en el garaje.) Yo me sentí satisfecho porque la máquina produjo con éxito un campo magnético 20.000 veces más potente que el campo magnético de la Tierra, necesario para acelerar un haz de electrones. Afrontar la quinta dimensión Dado que mi familia era pobre, mis padres estaban preocupados porque yo no pudiera continuar mis experimentos y mi educación. Afortunadamente, los premios que gané por varios proyectos científicos llamaron la atención del científico atómico Edward Teller. Su mujer dispuso generosamente que yo recibiera una beca de cuatro años en Harvard, permitiéndome satisfacer mi sueño. Irónicamente, aunque en Harvard empecé mi instrucción formal en física teórica, fue también allí donde se fue desvaneciendo mi interés por las dimensiones más altas. Al igual que otros físicos, inicié un programa riguroso y completo de estudio de las matemáticas superiores de cada una de las fuerzas de la naturaleza por separado, totalmente aisladas unas de otras. Aún recuerdo haber resuelto un problema de electrodinámica para mi profesor, y luego preguntarle cuál podría ser la solución si el espacio estuviera curvado en una dimensión más alta. Me miró de una forma extraña, como si yo estuviese un poco chiflado. Como otros antes que yo, pronto aprendí a dejar de lado mis primeras e infantiles ideas sobre el espacio de más dimensiones. El hiperespacio, me dijeron, no era un tema apropiado para un estudio serio. Nunca estuve satisfecho con este enfoque deslavazado de la física, y mis pensamientos volvían a menudo a las carpas que vivían en el Tea Garden. Aunque las ecuaciones que utilizábamos para la electricidad y el magnetismo, descubiertas por Maxwell en el siglo XIX, funcionaban sorprendentemente bien, las ecuaciones parecían algo arbitrarias. Tenía la impresión de que los físicos (como las carpas) inventaron estas «fuerzas» para ocultar nuestra ignorancia de cómo pueden moverse los objetos unos a otros sin tocarse. En mis estudios aprendí que uno de los grandes debates del siglo XIX había versado sobre el modo en que viaja la luz a través del vacío. (La luz que procede de las estrellas, de hecho, puede viajar sin esfuerzo billones y billones de kilómetros a través del vacío del espacio exterior.) Los experimentos también mostraban más allá de toda duda que la luz es una onda. Pero si la luz era una onda, entonces se necesitaba que algo «ondulase». Las ondas sonoras requieren aire, las ondas de agua requieren agua, pero, puesto que no hay nada que ondule en el vacío, tenemos una paradoja. ¿Cómo puede ser la luz una onda si no hay nada que ondule? Por esta razón, los físicos conjuraron una sustancia llamada éter, que llenaba el vacío y actuaba como el medio para la luz. Sin embargo, los experimentos demostraron de forma concluyente que el «éter» no existe.[2]

Finalmente, cuando me licencié en física en la Universidad de California en Berkeley, aprendí casi por casualidad que había una explicación alternativa, aunque controvertida, sobre cómo puede viajar la luz a través del vacío. Esta teoría alternativa era tan extravagante que recibí una buena sacudida cuando tropecé con ella. Esta conmoción fue parecida a la que experimentaron muchos norteamericanos cuando supieron que el presidente John Kennedy había sido asesinado. Pueden recordar invariablemente el momento exacto en que recibieron la noticia, lo que estaban haciendo y con quién estaban hablando en ese instante. También nosotros los físicos recibimos un buen choque cuando tropezamos por primera vez con la teoría de Kaluza-Klein. Puesto que se consideraba que la teoría era una especulación extravagante, nunca se enseñaba en la facultad; por ello, los jóvenes físicos tienen que descubrirla más bien por casualidad en sus lecturas ocasionales. Esta teoría alternativa daba la explicación más sencilla de la luz: que era realmente una vibración de la quinta dimensión, o lo que los místicos solían denominar la cuarta dimensión. Si la luz podía viajar a través del vacío era porque el propio vacío estaba vibrando, debido a que el «vacío» realmente existía en cuatro dimensiones de espacio y una de tiempo. Añadiendo la quinta dimensión, la fuerza de la gravedad y la luz podían unificarse de una forma sorprendentemente simple. Recordando las experiencias de mi infancia en el Tea Garden, comprendí de repente que ésta era la teoría matemática que yo había estado buscando. La vieja teoría de Kaluza-Klein presentaba, no obstante, muchos problemas técnicos difíciles que la hicieron inútil durante medio siglo. Todo esto, sin embargo, ha cambiado en la última década. Versiones más avanzadas de la teoría, como la teoría de la supergravedad y especialmente la teoría de supercuerdas, han eliminado finalmente las inconsistencias. De forma bastante súbita, la teoría de dimensiones más altas está siendo ahora defendida en los laboratorios de investigación de todo el mundo. Muchos físicos destacados creen ahora que podrían existir dimensiones más allá de las cuatro habituales de espacio y tiempo. Esta idea, de hecho, se ha convertido en el foco de intensa investigación científica. En realidad, muchos físicos teóricos creen ahora que dimensiones más altas pueden ser el paso decisivo para crear una teoría global que unifique las leyes de la naturaleza: una teoría del hiperespacio. Si se demuestra como correcta, los futuros historiadores de la ciencia podrán registrar perfectamente que una de las grandes revoluciones conceptuales en la ciencia del siglo XIX fue la comprensión de que el hiperespacio puede ser la clave para desvelar los secretos más profundos de la naturaleza y la propia Creación. Este concepto seminal ha desencadenado una avalancha de investigación científica: varios miles de artículos escritos por físicos teóricos en los principales laboratorios de investigación en todo el mundo han sido dedicados a explorar las propiedades del hiperespacio. Las páginas de Nuclear Physics y Physics Letters, dos destacadas revistas científicas, se han visto inundadas con artículos que analizan la teoría. Se han organizado más de 200 conferencias internacionales de física para explorar las consecuencias de dimensiones más altas. Por desgracia, aún estamos lejos de verificar experimentalmente que nuestro universo existe en dimensiones más altas. (Lo que se necesitaría exactamente para probar la corrección de la teoría y, posiblemente, dominar la potencia del hiperespacio se discutirá más adelante en este libro.) Sin embargo, esta teoría ha llegado ahora a establecerse firmemente como una rama legítima de la física

teórica moderna. El Instituto para Estudio Avanzado en Princeton, por ejemplo, donde Einstein pasó las últimas décadas de su vida (y donde se ha escrito este libro), es ahora uno de los centros activos de investigación sobre espacio-tiempo multidimensional. Steven Weinberg, que ganó el premio Nobel de Física en 1979, resumió esta revolución conceptual cuando comentó recientemente que la física teórica se está haciendo cada vez más parecida a la ciencia ficción. ¿Por qué no podemos ver dimensiones más altas? Estas ideas revolucionarias resultan extrañas al principio porque damos por supuesto que nuestro mundo cotidiano tiene tres dimensiones. Como observó el finado físico Heinz Pagels, «Una característica de nuestro mundo físico resulta tan obvia que la mayoría de las personas ni siquiera se sienten intrigadas por ello: el hecho de que el espacio es tridimensional».[3] Casi por el solo instinto sabemos que cualquier objeto puede describirse dando su altura, anchura y profundidad. Podemos localizar cualquier posición en el espacio dando tres números. Si queremos citar a alguien para comer en Nueva York, decimos: «Nos encontraremos en el piso veinticuatro del edificio que está en la esquina de la calle Cuarenta y Dos y la Primera Avenida». Dos números nos proporcionan la esquina de la calle; y el tercero, la altura a partir del suelo. También los pilotos de avión saben exactamente dónde están con tres números: su altitud y dos coordenadas que sitúan su posición en una malla o mapa. De hecho, especificando estos tres números pueden indicar cualquier posición en nuestro mundo, desde la punta de la nariz a los confines del universo visible. Hasta los niños entienden esto: los tests con niños han demostrado que ellos pueden arrastrarse hasta el extremo de un acantilado, mirar por el borde y retroceder. Además de tener una comprensión instintiva de «izquierda» y «derecha» y «adelante» y «atrás», los bebés comprenden instintivamente «arriba» y «abajo». Así pues, el concepto intuitivo de tres dimensiones está firmemente incorporado en nuestros cerebros desde una edad temprana. Einstein extendió este concepto para incluir el tiempo como una cuarta dimensión. Por ejemplo, para citar a alguien para comer, debemos especificar que nos encontraremos a, digamos, las 12,30 en Manhattan; es decir, para especificar un suceso también necesitamos describir su cuarta dimensión, el tiempo en el que el suceso tiene lugar. Los científicos están hoy interesados en ir más allá de la concepción de Einstein de la cuarta dimensión. Actualmente, el interés científico se centra en la quinta dimensión (una dimensión espacial más además del tiempo y las tres dimensiones del espacio) y más allá. (Para evitar la confusión, a lo largo de este libro he seguido la costumbre establecida y denomino cuarta dimensión a la dimensión espacial más allá de longitud, anchura y grosor. Los físicos se refieren en realidad a ésta como la quinta dimensión, pero yo seguiré el precedente histórico. Llamaremos tiempo a la cuarta dimensión temporal.) ¿Cómo vemos nosotros la cuarta dimensión espacial? El problema está en que no podemos hacerlo. Los espacios multidimensionales son imposibles de visualizar; así que es inútil intentarlo siquiera. El eminente físico alemán Hermann von Helmholtz comparaba la incapacidad para «ver» la cuarta dimensión con la incapacidad de un ciego para concebir el concepto de color. No importa cuán elocuentemente describimos «rojo» a una persona

ciega, las palabras fracasan en dar el significado de algo tan rico en significado como el color. Incluso los matemáticos experimentados y los físicos teóricos que han trabajado durante años con espacios de más dimensiones admiten que no pueden visualizarlos. En lugar de ello, se retiran al mundo de las ecuaciones matemáticas. Pero mientras que los matemáticos, los físicos y los ordenadores no tienen problemas para resolver ecuaciones en un espacio multidimensional, los seres humanos corrientes encuentran imposible visualizar universos más allá del suyo propio. En el mejor de los casos, podemos utilizar una variedad de trucos matemáticos, concebidos por el matemático y místico Charles Hinton hacia el cambio de siglo, para visualizar sombras de objetos de más dimensiones. Otros matemáticos, como Thomas Banchoff, director del departamento de matemáticas en la Universidad de Brown, han escrito programas de ordenador que nos permiten manipular objetos de más dimensiones proyectando sus sombras en pantallas de ordenador bidimensionales y planas. El filósofo griego Platón decía que somos como moradores de una caverna condenados a ver tan sólo las sombras oscuras de la rica vida que existe fuera de nuestras cavernas; análogamente, los ordenadores de Banchoff permiten sólo una ojeada a las sombras de objetos de más dimensiones. (En realidad, no podemos visualizar dimensiones más altas debido a un accidente de la evolución. Nuestros cerebros han evolucionado para solventar miríadas de emergencias en tres dimensiones. De forma instantánea, sin pararnos a pensar, podemos reconocer y reaccionar frente a un león que salta o a un elefante que ataca. De hecho, aquellos seres humanos que mejor pudieran visualizar cómo se mueven, giran y se retuercen los objetos en tres dimensiones tendrían una ventaja de supervivencia sobre aquellos que no pudieran hacerlo. Por desgracia, no hubo presión de selección sobre los seres humanos para dominar el movimiento en cuatro dimensiones espaciales. Ser capaz de ver la cuarta dimensión espacial no ayudaba ciertamente a nadie para enfrentarse a un ataque de un tigre de dientes afilados. Los leones y los tigres no se abalanzan sobre nosotros desde la cuarta dimensión.) Las leyes de la naturaleza son más simples en dimensiones más altas Un físico que disfruta encandilando a sus oyentes con las propiedades de universos multidimensionales es Peter Freund, profesor de física teórica en el famoso Instituto Enrico Fermi de la Universidad de Chicago. Freund fue uno de los pioneros en trabajar en las teorías del hiperespacio cuando eran consideradas demasiado extravagantes para la corriente principal de la física. Durante años, Freund y un pequeño grupo de científicos especulaban aislados sobre la ciencia de dimensiones más altas; ahora, sin embargo, se ha puesto de moda y es una rama legítima de la investigación científica. Con gran satisfacción, él encuentra que su primer interés está por fin dando fruto. Freund no encaja en la imagen tradicional de un científico tímido, distraído y despeinado. En lugar de ello, él es educado, locuaz y culto, y tiene una expresión traviesa y maliciosa que cautiva a los profanos con fascinantes historias sobre descubrimientos científicos revolucionarios. Se siente tan a gusto escribiendo en una pizarra llena de densas ecuaciones como intercambiando bromas en una fiesta. Hablando con un acento pronunciado y típicamente rumano, Freund tiene una rara habilidad para explicar los conceptos más arcanos y retorcidos de la física en un estilo vivo y atractivo. Tradicionalmente, nos recuerda Freund, los científicos se han mostrado escépticos respecto a las

dimensiones más altas porque éstas no podían ser medidas y no tenían ningún uso concreto. Sin embargo, hay una aceptación creciente entre los científicos actuales de que cualquier teoría tridimensional es «demasiado pequeña» para describir las fuerzas que gobiernan nuestro universo. Como resalta Freund, un tema fundamental recurrente en la última década de la física ha sido el que las leyes de la naturaleza se hacen más simples y elegantes cuando se expresan en dimensiones más altas, que son su ámbito natural. Las leyes de la luz y de la gravedad encuentran una expresión natural cuando se manifiestan en un espacio-tiempo multidimensional. El paso clave para unificar las leyes de la naturaleza consiste en incrementar el número de dimensiones del espacio-tiempo hasta que puedan acomodarse más y más fuerzas. En dimensiones más altas, tenemos suficiente «sitio» para unificar todas las fuerzas físicas conocidas. Freund, al explicar por qué las dimensiones más altas están excitando la imaginación del mundo científico, utiliza la siguiente analogía: Pensemos, por un momento, en un leopardo, un animal bello y elegante, uno de los más rápidos de la Tierra, que se mueve libremente por las sabanas de África. En su hábitat natural, es un animal magnífico, casi una obra de arte, insuperable en velocidad o gracia por cualquier otro animal. Ahora bien, pensemos en un leopardo que ha sido capturado y encerrado en una miserable jaula en un zoológico. Ha perdido su gracia y belleza original, y está exhibido para nuestra diversión. Nosotros sólo vemos el espíritu quebrado del leopardo en la jaula, no su potencia y elegancia original. El leopardo puede ser comparado con las leyes de la física, que son bellas en su asentamiento natural. El hábitat natural de las leyes de la física es el espacio-tiempo multidimensional. Sin embargo, sólo podemos medir las leyes de la física cuando han sido rotas y exhibidas en una jaula, que es nuestro laboratorio tridimensional. Sólo vemos el leopardo cuando ha sido despojado de su gracia y belleza.[4]

Durante décadas, los físicos se han preguntado por qué las cuatro fuerzas de la naturaleza parecen estar tan fragmentadas —por qué el «leopardo» se ve tan lastimoso y roto en su jaula. La razón fundamental por la que estas cuatro fuerzas parecen tan diferentes, advierte Freund, es que hemos estado observando el «leopardo enjaulado». Nuestros laboratorios tridimensionales son jaulas de zoológico estériles para las leyes de la física. Pero cuando formulamos las leyes en un espaciotiempo multidimensional, su hábitat natural, vemos su verdadero brillo y potencia; las leyes se hacen simples y poderosas. La revolución que ahora barre la física es la comprensión de que el ámbito natural para el leopardo puede ser el hiperespacio. Para ilustrar cómo el añadir una dimensión más alta puede hacer las cosas más sencillas, pensemos en cómo se libraban las guerras importantes en la Roma antigua. Las grandes guerras romanas, que a menudo involucraban muchos campos de batalla menores, se libraban invariablemente con gran confusión, con rumores y falsas informaciones que corrían en ambos bandos de un lado para otro. Con batallas en curso en varios frentes, los generales romanos a menudo estaban actuando a ciegas. Roma ganó sus batallas más por la fuerza bruta que por la elegancia de sus estrategias. Ésta es la razón de que uno de los primeros principios del arte de la guerra es conquistar el terreno alto —es decir, moverse hacia arriba en la tercera dimensión, por encima del campo de batalla bidimensional. Desde la posición ventajosa de una gran colina con una vista panorámica del campo de batalla, el caos de la guerra se reduce enormemente en un momento. En otras palabras, visto desde la tercera dimensión (esto es, desde lo alto de la colina), la confusión de los campos de batalla menores queda integrada en una sola imagen coherente. Otra aplicación de este principio —el de que la naturaleza se hace más sencilla cuando se expresa en dimensiones más altas— es la idea central que subyace en la teoría de la relatividad especial de

Einstein. Einstein reveló que el tiempo es la cuarta dimensión, y demostró que espacio y tiempo pueden ser convenientemente unificados en una teoría tetradimensional. Esto, a su vez, condujo inevitablemente a la unificación de todas las cantidades físicas medidas en términos de espacio y tiempo, tales como materia y energía. Encontró entonces la expresión matemática exacta para esta unidad entre materia y energía: E = mc2, quizá la más célebre de todas las ecuaciones científicas.[5] Para apreciar el enorme poder de esta unificación, describiremos ahora las cuatro fuerzas fundamentales, acentuando cuán diferentes son y cómo las dimensiones más altas pueden proporcionarnos un formalismo unificador. Durante los últimos 2.000 años, los científicos han descubierto que todos los fenómenos en nuestro universo pueden reducirse a cuatro fuerzas, que a primera vista no mantienen ninguna semejanza entre sí. La fuerza electromagnética La fuerza electromagnética adopta varias formas, incluyendo la electricidad, el magnetismo y la propia luz. La fuerza electromagnética ilumina nuestras ciudades, llena el aire con la música que procede de las radios y los aparatos estereofónicos, nos entretiene con la televisión, reduce el trabajo del hogar con los electrodomésticos, calienta nuestros alimentos con las microondas, sigue nuestros aviones y sondas espaciales con el radar, y electrifica nuestras plantas industriales. Más recientemente, la potencia de la fuerza electromagnética se ha utilizado en ordenadores electrónicos (que han revolucionado la administración, el hogar, la escuela y la milicia) y en láseres (que han introducido nuevas visiones en comunicaciones, cirugía, discos compactos, armamento avanzado del Pentágono, e incluso las cajas registradoras de los supermercados). Más de la mitad del producto interior bruto de la Tierra, que representa la riqueza acumulada de nuestro planeta, depende de alguna forma de la fuerza electromagnética. La fuerza nuclear fuerte La fuerza nuclear fuerte proporciona la energía que alimenta las estrellas; hace que las estrellas brillen y crea los brillantes y vivificadores rayos del Sol. Si la fuerza fuerte desapareciera repentinamente, el Sol se oscurecería y acabaría toda la vida en la Tierra. De hecho, algunos científicos creen que los dinosaurios fueron llevados a la extinción hace 65 millones de años cuando los residuos del impacto de un cometa se acumularon en las capas altas de la atmósfera, oscureciendo la Tierra y haciendo que la temperatura del planeta descendiese. Irónicamente, es también la fuerza nuclear fuerte la que un día puede privarnos del regalo de la vida. Liberada en la bomba de hidrógeno, la fuerza nuclear fuerte podría un día acabar con toda la vida sobre la Tierra. La fuerza nuclear débil La fuerza nuclear débil gobierna ciertas formas de desintegración radiactiva. Debido a que los materiales radiactivos emiten calor cuando se desintegran o dividen, la fuerza nuclear débil contribuye a calentar las rocas radiactivas en el interior profundo de la Tierra. Este calor, a su vez, contribuye al calor que impulsa los volcanes, las raras pero potentes erupciones de roca fundida que

llegan a la superficie de la Tierra. Las fuerzas débil y electromagnética también se aprovechan para tratar enfermedades graves: el yodo radiactivo se utiliza para destruir tumores de la glándula tiroides y combatir ciertas formas de cáncer. La fuerza de desintegración radiactiva también puede ser mortal: hizo estragos en Three Mile Island y Chernóbil; produce también residuos radiactivos, el inevitable subproducto de la producción de armas nucleares y centrales nucleares comerciales, que pueden permanecer nocivos durante millones de años. La fuerza gravitatoria La fuerza gravitatoria mantiene a la Tierra y los planetas en sus órbitas y une la galaxia. Sin la fuerza gravitatoria de la Tierra, saldríamos despedidos al espacio como muñecos de trapo por el giro de la Tierra. El aire que respiramos se dispersaría rápidamente hacia el espacio, provocándonos asfixia y haciendo imposible la vida en la Tierra. Sin la fuerza gravitatoria del Sol, todos los planetas, incluida la Tierra, saldrían despedidos desde el sistema solar hacia los fríos confines del espacio profundo, donde la luz del Sol es demasiado tenue para mantener la vida. De hecho, sin la fuerza gravitatoria el propio Sol explotaría. El Sol es el resultado de un delicado equilibrio entre la fuerza de gravedad, que tiende a comprimir la estrella, y la fuerza nuclear, que tiende a hacerla explotar. Sin gravedad, el Sol detonaría como billones y billones de bombas de hidrógeno. El reto central de la física teórica actual es unificar estas cuatro fuerzas en una sola. Empezando con Einstein, los gigantes de la física del siglo XX han hecho intentos infructuosos para encontrar tal esquema unificador. Sin embargo, la respuesta que esquivó a Einstein durante los últimos treinta años de su vida puede estar en el hiperespacio. La búsqueda de la unificación Einstein dijo una vez: «La naturaleza sólo nos muestra la cola del león. Pero no tengo duda de que el león pertenece a ella incluso aunque no pueda mostrarse de una vez debido a su enorme tamaño».[6] Si Einstein tiene razón, entonces quizá estas cuatro fuerzas son la «cola del león», y el propio «león» es el espacio-tiempo multidimensional. Esta idea ha alimentado la esperanza de que las leyes físicas del universo, cuyas consecuencias llenan paredes enteras de bibliotecas de libros densamente apretados con tablas y gráficos, puedan ser un día explicadas por una sola ecuación. Para esta perspectiva revolucionaria del universo resulta capital la comprensión de que la geometría multidimensional puede ser la fuente última de unidad en el universo. Dicho de manera simple, la materia en el universo y las fuerzas que la mantienen unida, que se presentan en una variedad confusa e infinita de formas complejas, pueden ser simplemente vibraciones diferentes del hiperespacio. Este concepto, sin embargo, va en contra del pensamiento tradicional entre los científicos, que han visto el espacio y el tiempo como un escenario pasivo en el que las estrellas y los átomos juegan el papel principal. Para los científicos, el universo visible de materia parecía infinitamente más rico y más diverso que la arena vacía e inmóvil del universo invisible de espaciotiempo. Casi todo el intenso esfuerzo científico y la masiva financiación gubernamental en física de partículas se ha dirigido históricamente a catalogar las propiedades de partículas subatómicas, tales como «quarks» y «gluones», más que a penetrar en la naturaleza de la geometría. Ahora, los

científicos están comprendiendo que los conceptos «inútiles» de espacio y tiempo pueden ser la fuente última de la belleza y simplicidad en la naturaleza. La primera teoría de dimensiones más altas fue denominada teoría de Kaluza-Klein^ por los dos científicos que propusieron una nueva teoría de la gravedad en la que la luz podía explicarse como vibraciones en la quinta dimensión. Cuando se ampliaron al espacio N-dimensional (donde N puede representar cualquier número entero), las teorías de aspecto tosco de las partículas subatómicas tomaron espectacularmente una sorprendente simetría. La vieja teoría de Kaluza-Klein, sin embargo, no podía determinar el valor correcto de N, y había problemas técnicos para describir todas las partículas subatómicas. Una versión más avanzada de esta teoría, llamada teoría de la supergravedad, también tenía problemas. El reciente interés en la teoría fue desencadenado en 1984 por los físicos Michael Green y John Schwarz, que demostraron la consistencia de una versión más avanzada de la teoría de Kaluza-Klein, llamada teoría de supercuerdas, que postula que toda la materia consiste en minúsculas cuerdas vibrantes. Sorprendentemente, la teoría de supercuerdas predice un número preciso de dimensiones para el espacio y el tiempo: diez.[7] La ventaja de un espacio decadimensional es que tenemos «suficiente sitio» en el que acomodar las cuatro fuerzas fundamentales. Además, tenemos una imagen física sencilla con la que explicar la confusa mezcolanza de partículas subatómicas producidas por nuestros potentes colisionadores de átomos. Durante los últimos treinta años, centenares de partículas subatómicas han sido cuidadosamente catalogadas y estudiadas por los físicos entre los restos producidos al hacer colisionar protones y electrones con átomos. Como coleccionistas de insectos que dan nombre pacientemente a una vasta colección de bichos, los físicos han estado a veces abrumados por la diversidad y complejidad de dichas partículas subatómicas. Hoy, esta confusa colección de partículas subatómicas puede explicarse como meras vibraciones en la teoría del hiperespacio. Viajar por el espacio y el tiempo La teoría del hiperespacio también ha reabierto la cuestión de si el hiperespacio puede ser utilizado o no para viajar por el espacio y el tiempo. Para comprender este concepto, imaginemos una raza de minúsculos gusanos planos que viven en la superficie de una gran manzana. Para estos gusanos es obvio que su mundo, que ellos llaman Manzanalandia, es plano y bidimensional, como ellos mismos. Sin embargo, un gusano llamado Colón está obsesionado por la idea de que Manzanalandia es de alguna forma finita y está curvada en algo que él llama la tercera dimensión. Incluso inventa dos nuevas palabras, arriba y abajo, para describir el movimiento en esta invisible tercera dimensión. Sus amigos, sin embargo, le llaman loco por creer que Manzanalandia podría estar curvada en alguna dimensión invisible que nadie puede ver o sentir. Un día, Colón emprende un largo y difícil viaje y desaparece en el horizonte. Con el tiempo regresa a su punto de partida, probando que el mundo está realmente curvado en la invisible tercera dimensión. Su viaje demuestra que Manzanalandia está curvada en una dimensión superior invisible, la tercera dimensión. Aunque cansado de sus viajes, Colón descubre que todavía existe otra forma de viajar entre puntos distantes en la manzana: horadando la manzana, él puede hacer un túnel y crear un atajo conveniente hacia tierras lejanas. A estos túneles, que reducen considerablemente el tiempo y las molestias de un largo viaje, los llama agujeros de gusano. Éstos demuestran que el camino más corto entre dos puntos no es necesariamente

una línea recta, como a él le habían enseñado, sino un agujero de gusano. Un efecto extraño descubierto por Colón es que cuando él entra en uno de estos túneles y sale por el otro extremo, encuentra que ha retrocedido hacia el pasado. Aparentemente, estos agujeros de gusano conectan partes de la manzana en las que el tiempo transcurre a velocidades diferentes. Algunos de los gusanos afirman incluso que estos agujeros de gusano pueden ser convertidos en una máquina de tiempo practicable. Posteriormente, Colón hace un descubrimiento todavía más trascendental: su Manzanalandia no es realmente el único mundo en el universo, sólo es una manzana en un gran huerto de manzanas. Su manzana, descubre él, coexiste con cientos de otras manzanas, algunas con gusanos como ellos mismos, y otras sin gusanos. En ciertas extrañas circunstancias, conjetura él, puede incluso ser posible viajar entre las diferentes manzanas del huerto. Nosotros los seres humanos somos como los gusanos planos. El sentido común nos dice que nuestro mundo, como su manzana, es plano y tridimensional. No importa donde vayamos con nuestros cohetes espaciales, el universo parece plano. Sin embargo, el hecho de que nuestro universo, como Manzanalandia, está curvado en una dimensión invisible más allá de nuestra comprensión espacial ha sido verificado experimentalmente mediante varios experimentos rigurosos. Estos experimentos, realizados sobre la trayectoria de rayos luminosos, demuestran que la luz de las estrellas es desviada cuando viaja a través del universo. Universos múltiplemente conexos Cuando nos despertamos por la mañana y abrimos la ventana para dejar entrar aire fresco, esperamos ver el patio delantero. No esperamos vernos frente a las pirámides de Egipto. Análogamente, cuando abrimos la puerta delantera, esperamos ver los automóviles en la calle, no los cráteres y volcanes muertos de un gélido paisaje lunar. Sin pensar siquiera en ello, suponemos que podemos abrir ventanas y puertas seguros y sin sobresaltos. Nuestro mundo, afortunadamente, no es una película de Steven Spielberg. Actuamos con un prejuicio profundamente arraigado (que resulta invariablemente correcto) según el cual nuestro mundo es simplemente conexo: que nuestras ventanas y puertas no son entradas a agujeros de gusano que conectan nuestro hogar con un universo remoto. (En el espacio ordinario, un lazo de cuerda siempre puede contraerse hasta un punto. Si esto es posible, entonces el espacio se denomina simplemente conexo. Sin embargo, si el lazo está colocado alrededor de la entrada del agujero de gusano, entonces no puede contraerse hasta un punto. El lazo, de hecho, entra en el agujero de gusano. Tales espacios, donde los lazos no son contractibles, se denominan múltiplemente conexos. Aunque la curvatura de nuestro universo en una dimensión invisible ha sido medida experimentalmente, la existencia de agujeros de gusano y el que nuestro universo sea o no múltiplemente conexo es todavía tema de controversia científica.) Desde Georg Bernhard Riemann, los matemáticos han estudiado las propiedades de espacios múltiplemente conexos en los que diferentes regiones de espacio y tiempo están empalmadas. Y los físicos, que en otros tiempos pensaron que esto era meramente un ejercicio intelectual, están ahora estudiando seriamente mundos múltiplemente conexos como un modelo práctico de nuestro universo. Estos modelos son la réplica científica del espejo de Alicia. Cuando el Conejo Blanco de Lewis Carroll cae en la madriguera para entrar en el País de las Maravillas, cae de hecho en un agujero de

gusano. Los agujeros de gusano pueden visualizarse con una hoja de papel y unas tijeras: tome una pieza de papel, corte dos agujeros en ella, y luego vuelva a conectar los dos agujeros mediante un tubo largo (figura 1.1). Mientras usted evite caminar por el interior del agujero, nuestro mundo parece perfectamente normal. Las leyes usuales de la geometría que se enseña en la escuela son obedecidas. Sin embargo, si usted cae en el agujero de gusano, es transportado instantáneamente a una región diferente del espacio y el tiempo. Sólo volviendo sobre sus pasos y cayendo de nuevo en el agujero de gusano puede usted regresar a su mundo familiar. Viaje en el tiempo y universos bebé Aunque los agujeros de gusano proporcionan un área de investigación fascinante, quizá el concepto más intrigante que emerge de esta discusión del hiperespacio es la cuestión del viaje en el tiempo. En el film Regreso al futuro, Michael J. Fox viaja hacia atrás en el tiempo y encuentra a sus padres cuando eran adolescentes antes de que se casaran. Por desgracia, su madre se enamora de él y desdeña a su padre, planteando la espinosa cuestión de cómo nacerá él si sus padres no llegan a casarse y tener hijos. Tradicionalmente, los científicos han tenido una mala opinión de cualquiera que planteara la cuestión del viaje en el tiempo. La causalidad (la noción de que todo efecto es precedido, y no seguido, por una causa) está firmemente incorporada en los fundamentos de la ciencia Fig ura 1.1. Los universos paralelos pueden representarse moderna. Sin embargo, en la física de los agujeros gráficamente mediante dos planos paralelos. Normalmente, no interaccionan entre sí. Sin embargo, en ocasiones pueden abrirse de gusano, se manifestarían repetidamente efectos agujeros de gusano o tubos entre ellos, haciendo quizá posible «acausales». De hecho, tenemos que hacer la comunicación y el viaje entre ellos. Esto es ahora objeto de hipótesis fuertes para impedir que el viaje en el gran interés entre los físicos teóricos. tiempo tenga lugar. El principal problema es que los agujeros de gusano pueden conectar no sólo dos puntos distantes en el espacio, sino también el futuro con el pasado. En 1988, el físico Kip Thorne, del Instituto Tecnológico de California, y sus colaboradores hicieron la sorprendente (y arriesgada) afirmación de que el viaje en el tiempo no sólo es posible, sino probable bajo ciertas condiciones. Publicaron su afirmación no en una oscura revista «marginal», sino en la prestigiosa Physical Review Letters. Esto señaló la primera vez que físicos reputados, y no chiflados, hacían una propuesta científica acerca de la posibilidad de cambiar el curso del propio tiempo. Su anuncio estaba basado en la simple observación de que un agujero de gusano conecta dos regiones que existen en diferentes periodos de tiempo. Así pues, el agujero de gusano

puede conectar el presente con el pasado. Puesto que el viaje a través del agujero de gusano es casi instantáneo, uno podría utilizar el agujero de gusano para ir hacia atrás en el tiempo. Sin embargo, a diferencia de la máquina presentada en La máquina del tiempo de H. G. Wells, que podía llevar al protagonista a cientos de miles de años en el futuro lejano de Inglaterra con el simple giro de un mando, un agujero de gusano puede requerir grandes cantidades de energía para su creación, más allá de lo que será técnicamente posible en los siglos venideros. Otra extraña consecuencia de la física de los agujeros de gusano es la creación de «universos bebé» en el laboratorio. Por supuesto, somos incapaces de recrear el big bang y ser testigos del nacimiento de nuestro universo. Sin embargo, Alan Guth del Instituto Tecnológico de Massachusetts, que ha hecho muchas contribuciones importantes a la cosmología, conmocionó hace algunos años a muchos físicos cuando afirmó que la física de los agujeros de gusano puede hacer posible el crear nuestro propio universo bebé en el laboratorio. Concentrando intenso calor y energía en una cámara, un agujero negro puede abrirse eventualmente, sirviendo como un cordón umbilical que conecta nuestro universo con otro universo mucho más pequeño. Si esto es posible, daría a un científico una visión sin precedentes de un universo a medida que se crea en el laboratorio. Visiones e hiperespacio Algunos de estos conceptos no son nuevos. Durante los últimos siglos, visionarios y filósofos han especulado sobre la existencia de otros universos y de túneles entre ellos. Han estado mucho tiempo fascinados por la posible existencia de otros mundos, indetectables mediante la vista o el sonido, pero que coexisten con nuestro universo. Se han sentido intrigados por la posibilidad de que estos mundos inexplorados y ajenos puedan incluso estar sorprendentemente próximos, de hecho rodeándonos e impregnándonos dondequiera que nos movemos, pero justo fuera del alcance de nuestra captación física y eludiendo nuestros sentidos. Semejante charla ociosa, sin embargo, era en última instancia inútil porque no había modo práctico de expresar matemáticamente estas ideas, y eventualmente verificarlas. Las puertas entre nuestro universo y otras dimensiones son también un artificio literario favorito. Los escritores de ciencia ficción encuentran en las dimensiones más altas una herramienta indispensable, y las utilizan como un medio para viajes interestelares. Debido a las distancias astronómicas que separan a las estrellas en el cielo, los escritores de ciencia ficción utilizan las dimensiones más altas como un astuto atajo entre las estrellas. En lugar de tomar la ruta larga y directa hacia otras galaxias, los cohetes simplemente atraviesan el hiperespacio distorsionando el espacio que les rodea. Por ejemplo, en la película La guerra de las galaxias, el hiperespacio es un refugio donde Luke Skywalker puede ponerse a salvo de las naves espaciales del Imperio. En la serie de televisión «Star Trek: Deep Space Nine», un agujero de gusano se abre cerca de una remota estación espacial, haciendo posible cubrir en segundos distancias enormes a lo largo de la galaxia. La estación espacial se convierte repentinamente en el centro de una intensa rivalidad intergaláctica acerca de quién debería controlar semejante vínculo vital con otras regiones de la galaxia. Ya desde que el Vuelo 19, un grupo de bombarderos militares de los Estados Unidos, desapareció hace treinta años en el Caribe, los escritores de misterio han utilizado también las dimensiones más altas como una conveniente solución al enigma del Triángulo de las Bermudas, o Triángulo Infernal.

Algunos han conjeturado que los aviones y barcos que desaparecieron en el Triángulo de las Bermudas entraron en realidad en algún tipo de corredor hacia otro mundo. La existencia de estos evasivos mundos paralelos también ha producido interminables especulaciones religiosas a lo largo de los siglos. Los espiritualistas se han preguntado si las almas de los seres queridos que partieron fueron a otras dimensiones. El filósofo británico del siglo xvii Henry More argumentaba que los fantasmas y los espíritus existían realmente y afirmó que habitaban en la cuarta dimensión. En el Enchiridion Metaphysicum (1671), argumentó a favor de la existencia de otro reino más allá de nuestros sentidos tangibles que servía de hogar a fantasmas y espíritus. Los teólogos del siglo XIX, confusos en localizar el cielo y el infierno, discutieron si podrían encontrarse en una dimensión más alta. Algunos escribieron sobre un universo que constaba de tres planos paralelos: la tierra, el cielo y el infierno. El propio Dios, según el teólogo Arthur Willink, encontró su hogar en un mundo muy alejado de estos tres planos; vivía en un espacio de dimensión infinita. El interés en las dimensiones más altas alcanzó su culminación entre 1870 y 1920, cuando la «cuarta dimensión» (una dimensión espacial, diferente de la que conocemos como la cuarta dimensión del tiempo) atrapó la imaginación del público y poco a poco fecundó todas las ramas de las artes y las ciencias, convirtiéndose en una metáfora de lo extraño y misterioso. La cuarta dimensión apareció en las obras literarias de Oscar Wilde, Fedor Dostoievski, Marcel Proust, H. G. Wells y Joseph Conrad; inspiró algunas de las obras musicales de Alexander Scriabin, Edgard Várese y George Antheil. Fascinó a personalidades tan diversas como el psicólogo William James, la figura literaria Gertrude Stein, y al socialista revolucionario Vladimir Lenin. La cuarta dimensión inspiró también las obras de Pablo Picasso y Marcel Duchamp e influyó fuertemente en el desarrollo del cubismo y del expresionismo, dos de los movimientos artísticos más influyentes de este siglo. La historiadora del arte Linda Dalrymple Herderson escribe: «Como un agujero negro, “la cuarta dimensión” posee cualidades misteriosas que podrían no ser completamente comprendidas, ni siquiera por los propios científicos. Pese a ello, el impacto de “la cuarta dimensión” fue mucho más global que el de los agujeros negros o cualquier otra hipótesis científica más reciente, excepto la teoría de la relatividad, a partir de 1919».[8] Análogamente, los matemáticos han estado mucho tiempo intrigados por las formas alternativas de lógica y de extrañas geometrías que desafían todas las convenciones del sentido común. Por ejemplo, el matemático Charles L. Dodgson, que enseñó en la Universidad de Oxford, deleitó a generaciones de escolares escribiendo libros —con el pseudónimo de Lewis Carroll— que incorporaban estas extrañas ideas matemáticas. Cuando Alicia cae en una madriguera o atraviesa el espejo, ella entra en el País de las Maravillas, un extraño lugar donde el gato de Cheshire desaparece (dejando sólo su sonrisa), setas mágicas convierten niños en gigantes, y el Sombrerero Loco celebra «no cumpleaños». El espejo conecta de algún modo el mundo de Alicia con una tierra extraña donde todos hablan en retruécanos y el sentido común no es tan común. Parte de la inspiración para las ideas de Lewis Carroll procede con gran probabilidad del gran matemático alemán del siglo xix Georg Bernhard Riemann, quien fue el primero en establecer el fundamento matemático de las geometrías en un espacio multidimensional. Riemann cambió el curso de las matemáticas del siglo siguiente demostrando que estos universos, por extraños que puedan

parecer al profano, son completamente autoconsistentes y obedecen a su propia lógica interna. Para ilustrar algunas de estas ideas, imagine que se apilan muchas hojas de papel, una encima de otra. Imagine ahora que cada hoja representa todo un mundo y que cada mundo obedece a sus propias leyes físicas, diferentes de las de todos los demás mundos. Nuestro universo, entonces, no estaría solo, sino que sería uno entre muchos posibles mundos paralelos. Seres inteligentes podrían habitar algunos de estos planos, completamente ignorantes de la existencia de los otros. En una hoja de papel, podríamos tener el bucólico campo inglés de Alicia. En otra hoja podría haber un extraño mundo poblado por las criaturas míticas del mundo del País de las Maravillas. Normalmente, la vida transcurre en cada uno de estos planos paralelos independientemente de los otros. En raras ocasiones, sin embargo, los planos pueden intersectarse y, durante un breve instante, rasgar el tejido del propio espacio, abriendo un agujero —o puerta— entre estos dos universos. Como el agujero de gusano que aparece en «Star Trek: Deep Space Nine», estas puertas hacen posible el viaje entre estos mundos, como un puente cósmico que une dos universos diferentes o dos puntos en el mismo universo (figura 1.2). No es sorprendente que Carroll encontrara a los niños mucho más abiertos a estas posibilidades que los adultos, cuyos prejuicios sobre el espacio y la lógica se hacen más rígidos con el paso del tiempo. De hecho, la teoría de Riemann de dimensiones más altas, tal como la interpretó Lewis Carroll, se ha convertido en parte permanente de la literatura y el folklore infantil, dando nacimiento a otros clásicos infantiles a lo largo de décadas, tales como la Tierra de Oz de Dorothy y la Tierra de Nunca Jamás de Peter Pan. No obstante, sin ninguna confirmación experimental o motivación física concluyente, estas teorías de mundos paralelos languidecían como rama de la ciencia. Durante dos milenios, los científicos han retomado ocasionalmente la noción de dimensiones más altas, sólo para descartarla como una idea inverificable y por consiguiente estúpida. Aunque la teoría de Riemann de geometrías superiores era matemáticamente intrigante, fue despachada como inteligente pero inútil. Los científicos dispuestos a arriesgar su reputación hablando de dimensiones más altas pronto se vieron ridiculizados por la comunidad científica. El espacio multidimensional se convirtió en el último refugio para visionarios, chiflados y charlatanes. En este libro estudiaremos la obra de estos visionarios pioneros, principalmente porque ellos imaginaron formas ingeniosas mediante las que el no especialista podría «visualizar» qué aspecto podrían tener los objetos multidimensionales. Estos trucos se mostrarán útiles para comprender cómo pueden ser captadas estas teorías de dimensiones más altas por el público general. Estudiando la obra de estos primeros visionarios, vemos también más claramente lo que faltaba en su investigación. Vemos que sus especulaciones carecían de dos conceptos importantes: un principio físico y un principio matemático. Desde la perspectiva de la física moderna, ahora comprendemos que el principio físico que faltaba es que el hiperespacio simplifica las leyes de la naturaleza, proporcionando la posibilidad de unificar todas sus fuerzas mediante argumentos puramente geométricos. El principio matemático que faltaba se denomina teoría de campos, que es el lenguaje matemático universal de la física teórica. Teoría de campos: el lenguaje de la física Los campos fueron introducidos por primera vez por el gran científico británico del siglo xix

Michael Faraday. Hijo de un pobre herrero, Faraday fue un genio autodidacta que llevó a cabo elaborados experimentos sobre electricidad y magnetismo. Visualizó «líneas de fuerza» que, como largos sarmientos que brotan de una planta, emanaban de imanes y cargas eléctricas en todas direcciones y llenaban todo el espacio. Con sus instrumentos, Faraday pudo medir la intensidad de estas líneas de fuerza de una carga magnética o una carga eléctrica en cualquier punto de su laboratorio. De este modo, pudo asignar una serie de números (la intensidad y la dirección de la fuerza) a dicho punto (y a cualquier punto del espacio). Bautizó a la totalidad de estos números en cualquier punto del espacio, tratada como una sola entidad, con el nombre de campo. (Hay una famosa historia relativa a Michael Faraday. Puesto que su fama se había difundido ampliamente, a menudo era visitado por curiosos. Cuando uno le preguntó para qué servía su trabajo, él respondió: «¿Para qué sirve un niño? Crece para ser un hombre». Un día, William Gladstone, entonces ministro de Hacienda, visitó a Faraday en su laboratorio. Sin saber nada de ciencia, Gladstone preguntó sarcásticamente a Faraday qué utilidad podían tener para Inglaterra los enormes aparatos eléctricos de Fig ura 1.2. Los agujeros de gusano pueden conectar un su laboratorio. Faraday respondió: «Señor, no sé universo consigo mismo, proporcionando quizá un medio de interestelar. Puesto que los agujeros de gusano pueden para qué servirán estas máquinas, pero estoy viaje conectar dos épocas diferentes, pueden también proporcionar un seguro que un día usted les pondrá impuestos». medio para viajar en el tiempo. Los agujeros de gusano también Hoy, una gran parte de la riqueza total de pueden conectar una serie infinita de universos paralelos. Cabe la esperanza de que la teoría del hiperespacio sea capaz de Inglaterra está invertida en el fruto de los trabajos determinar si los agujeros de gusano son físicamente posibles o de Faraday.) simplemente una curiosidad matemática. Dicho de forma simple, un campo es una colección de números definida en cada punto del espacio que describen completamente una fuerza en dicho punto. Por ejemplo, tres números en cada punto del espacio pueden describir la intensidad y la dirección de las líneas de fuerza magnética. Otros tres números en cada punto del espacio pueden describir el campo eléctrico. A Faraday se le ocurrió esta idea cuando pensó en un «campo» arado por un granjero. El campo de un granjero ocupa una región bidimensional del espacio. A cada punto del campo del granjero se le puede asignar una serie de números (que describen, por ejemplo, cuántas semillas hay en dicho punto). El campo de Faraday, sin embargo, ocupa una región tridimensional del espacio. En cada punto, hay una serie de seis números que describen tanto las

líneas de fuerza magnéticas como las eléctricas. Lo que hace tan poderoso al concepto de campo de Faraday es que todas las fuerzas de la naturaleza pueden ser expresadas como un campo. Sin embargo, necesitamos un ingrediente más antes de que podamos comprender la naturaleza de cualquier fuerza: debemos ser capaces de escribir las ecuaciones a las que obedecen estos campos. El progreso de los cien últimos años en física teórica puede resumirse sucintamente como la búsqueda de las ecuaciones de campo de las fuerzas de la naturaleza. Por ejemplo, hacia los años sesenta del siglo pasado, el físico escocés James Clerk Maxwell escribió las ecuaciones de campo para la electricidad y el magnetismo. En 1915, Einstein descubrió las ecuaciones de campo para la gravedad. Después de innumerables salidas falsas, las ecuaciones de campo para las fuerzas subatómicas fueron desarrolladas finalmente en los años setenta, utilizando el trabajo anterior de C. N. Yang y su discípulo R. L. Mills. Estos campos, que gobiernan la interacción de todas las partículas subatómicas, se denominan ahora campos de Yang-Mills. Sin embargo, el enigma que ha confundido a los físicos en este siglo es por qué las ecuaciones de los campos subatómicos tienen un aspecto tan diferente de las ecuaciones de campo de Einstein; es decir, por qué la fuerza nuclear parece tan diferente de la gravedad. Algunas de las mayores mentes de la física han tratado este problema, sólo para fracasar. Quizá la razón de su fracaso es que eran prisioneros del sentido común. Confinadas a tres o cuatro dimensiones, las ecuaciones de campo del mundo subatómico y de la gravitación son difíciles de unificar. La ventaja de la teoría del hiperespacio es que el campo de Yang-Mills, el campo de Maxwell y el campo de Einstein pueden estar todos situados confortablemente dentro del campo del hiperespacio. Vemos que estos campos encajan exactamente dentro del campo del hiperespacio como piezas en un rompecabezas. La otra ventaja de la teoría de campos es que nos permite calcular las energías exactas a las que podemos esperar que el espacio y el tiempo formen agujeros de gusano. Por consiguiente, a diferencia de los antiguos, tenemos las herramientas matemáticas que nos guían para construir las máquinas que pueden un día curvar el espacio y el tiempo a nuestro antojo. El secreto de la Creación ¿Significa esto que los practicantes de la caza mayor pueden ahora empezar a organizar safaris a la era Mesozoica para capturar grandes dinosaurios? No. Thorne, Guth y Freund le dirán que la escala de energía necesaria para investigar estas anomalías en el espacio está mucho más allá de cualquier cosa disponible en la Tierra. Freund nos recuerda que la energía necesaria para explorar la décima dimensión es mil billones de veces mayor que la energía que puede producirse en nuestros mayores colisionadores de átomos. Retorcer el espacio-tiempo en nudos requiere energía a una escala que no estará disponible en los próximos siglos o incluso milenios —si lo está alguna vez. Incluso si todas las naciones del mundo se unieran para construir una máquina que pudiera sondear el hiperespacio, fracasarían en última instancia. Y, como apunta Guth, las temperaturas necesarias para crear un universo bebé en el laboratorio son de mil billones de billones de grados, excesivamente lejos de cualquier cosa a nuestra disposición. De hecho, dicha temperatura es mucho mayor que cualquiera encontrada en el interior de una estrella. Así, aunque es posible que las leyes de Einstein y las leyes de la teoría

cuántica pudieran permitir el viaje en el tiempo, esto no está dentro de las capacidades de seres terrestres como nosotros, que apenas podemos escapar del débil campo gravitatorio de nuestro planeta. Aunque podemos maravillarnos de las implicaciones de la investigación en agujeros de gusano, el actualizar su potencial está estrictamente reservado para civilizaciones extraterrestres avanzadas. Hubo sólo un periodo de tiempo en el que la energía a esta enorme escala era fácilmente disponible, y ese periodo fue el instante de la Creación. De hecho, la teoría del hiperespacio no puede ser verificada por nuestros mayores colisionadores de átomos debido a que la teoría es realmente una teoría de la creación. Sólo en el instante del big bang vemos entrar en juego la potencia completa de la teoría del hiperespacio. Esto plantea la excitante posibilidad de que la teoría del hiperespacio pueda desvelar el secreto del origen del universo. Introducir dimensiones más altas puede ser esencial para fisgar libremente en los secretos de la creación. Según esta teoría, antes del big bang nuestro cosmos era realmente un universo perfecto decadimensional, un mundo en el que el viaje interdimensional era posible. Sin embargo, este mundo decadimensional era inestable y eventualmente se «rompió» en dos, dando lugar a dos universos separados: un universo de cuatro dimensiones y otro de seis. El universo en el que vivimos nació en ese cataclismo cósmico. Nuestro universo tetradimensional se expandió de forma explosiva, mientras que nuestro universo gemelo hexadimensional se contrajo violentamente hasta que se redujo a un tamaño casi infinitesimal. Esto explicaría el origen del big bang. Si es correcta, esta teoría demuestra que la rápida expansión del universo fue simplemente una consecuencia secundaria de un suceso cataclísmico mucho mayor, la ruptura de los propios espacio y tiempo. La energía que impulsa la expansión observada del universo se halla entonces en el colapso del espacio y el tiempo de diez dimensiones. Según la teoría, las estrellas y galaxias distantes están alejándose de nosotros a velocidades astronómicas debido al colapso original del espacio y el tiempo de diez dimensiones. Esta teoría predice que nuestro universo sigue teniendo un gemelo enano, un universo compañero que se ha enrollado en una pequeña bola de seis dimensiones que es demasiado pequeña para ser observada. Este universo hexadimensional, lejos de ser un apéndice inútil de nuestro mundo, puede en última instancia ser nuestra salvación. Evitar la muerte del universo A menudo se ha dicho que las únicas constantes de la sociedad humana son la muerte y los impuestos. Para el cosmólogo, la única certeza es que el universo morirá un día. Algunos creen que la muerte final del universo llegará en la forma del big crunch. La gravitación invertirá la expansión cósmica generada por el big bang y comprimirá las estrellas y las galaxias, de nuevo, en una masa primordial. A medida que las estrellas se contraen, las temperaturas aumentan espectacularmente hasta que toda la materia y la energía del universo están concentradas en una colosal bola de fuego que destruirá el universo tal como lo conocemos. Todas las formas de vida serán aplastadas hasta quedar irreconocibles. No habrá escape. Científicos y filósofos, como Charles Darwin y Bertrand Russell, han escrito lamentándose de la futilidad de nuestra mísera existencia, sabiendo que nuestra civilización morirá inexorablemente cuando llegue el fin de nuestro mundo. Las leyes de la física, aparentemente, llevan la garantía de una muerte final e irrevocable para toda la vida inteligente en el

universo. Según Gerald Feinberg, físico de la Universidad de Columbia ya desaparecido, hay una, y quizá sólo una, esperanza de evitar la calamidad final. Especuló que la vida inteligente, llegando a dominar los misterios del espacio de más dimensiones durante miles de millones de años, utilizaría las otras dimensiones como una puerta de escape del big crunch. En los momentos finales del colapso de nuestro universo, nuestro universo hermano se abriría de nuevo y el viaje interdimensional se haría posible. A medida que toda la materia es aplastada en los momentos finales previos al Juicio Final, las formas de vida inteligente pueden ser capaces de hacer un túnel en el espacio interdimensional o en un universo alternativo, evitando la aparentemente inevitable muerte de nuestro universo. Entonces, desde su santuario en el espacio de más dimensiones, estas formas de vida inteligente pueden llegar a ser testigos de la muerte del universo colapsante en un terrible cataclismo. Cuando nuestro universo-hogar es aplastado hasta quedar irreconocible, las temperaturas aumentan violentamente, creando otro big bang. Desde su posición ventajosa en el hiperespacio, estas formas de vida inteligente tendrían butacas de primera fila para el más extraño de todos los fenómenos científicos: la creación de otro universo y de su nuevo hogar. Señores del hiperespacio Aunque la teoría de campos demuestra que la energía necesaria para crear estas maravillosas distorsiones del espacio y el tiempo está mucho más allá de cualquier cosa que pueda imaginar la civilización moderna, esto plantea dos cuestiones importantes: ¿cuánto tardaría nuestra civilización, que está creciendo exponencialmente en conocimiento y poder, en alcanzar el punto de dominar la teoría del hiperespacio? Y ¿qué sucede con otras formas de vida inteligente en el universo, que pueden haber alcanzado ya este punto? Lo que hace interesante esta discusión es que científicos serios han tratado de cuantificar el progreso de la civilización en un futuro lejano, cuando el viaje en el espacio se haya convertido en un tópico y los sistemas estelares o incluso las galaxias vecinas hayan sido colonizados. Aunque la escala de energía necesaria para manipular el hiperespacio es astronómicamente grande, estos científicos señalan que el crecimiento científico continuará aumentando probablemente de forma exponencial durante los próximos siglos, superando las capacidades de las mentes humanas para captarlo. Desde la segunda guerra mundial, la suma total de conocimiento científico se ha doblado cada diez a veinte años aproximadamente, de modo que el progreso de la ciencia y la tecnología en el siglo XXI puede superar nuestras más amplias expectativas. Tecnologías que hoy sólo pueden ser soñadas cabe que lleguen a ser un lugar común en el próximo siglo. Quizá entonces podamos discutir la cuestión de cuándo podríamos llegar a ser señores del hiperespacio. Viaje en el tiempo. Universos paralelos. Ventanas dimensionales. Por sí mismos, estos conceptos están en el límite de nuestra comprensión del universo físico. Sin embargo, puesto que la teoría del hiperespacio es una genuina teoría de campos, esperamos que con el tiempo produzca respuestas numéricas que determinen si estos conceptos intrigantes son posibles. Si la teoría produce respuestas absurdas que estén en desacuerdo con los datos físicos, entonces debe

ser descartada, por muy elegantes que sean sus matemáticas. En el análisis final, nosotros somos físicos, no filósofos. Pero si se muestra correcta y explica las simetrías de la física moderna, entonces nos colocaría en una revolución quizá igual a las revoluciones copernicana o newtoniana. No obstante, para tener una comprensión intuitiva de estos conceptos es importante empezar por el principio. Antes de que podamos sentirnos cómodos con diez dimensiones, debemos aprender a manipular cuatro dimensiones espaciales. Utilizando ejemplos históricos, exploraremos los ingeniosos intentos hechos durante décadas por los científicos para dar una representación tangible y visual de un espacio multidimensional. La primera parte del libro, por consiguiente, hará hincapié en la historia que hay detrás del descubrimiento del espacio multidimensional, empezando con el matemático que lo inició todo, Georg Bernhard Riemann. Anticipando el siglo siguiente de progreso científico, Riemann fue el primero en afirmar que la naturaleza encuentra su ámbito natural en la geometría del espacio multidimensional.

2 MATEMÁTICOS Y VISIONARIOS

Magia es cualquier tecnología suficientemente avanzada. ARTHUR C. CLARKE El 10 de junio de 1854 nació una nueva geometría. La teoría de dimensiones más altas fue introducida cuando Georg Bernhard Riemann dio su célebre conferencia en la facultad de la Universidad de Gotinga en Alemania. En un golpe maestro, como la apertura de una habitación lóbrega y oscura al sol brillante del cálido verano, la conferencia de Riemann abrió el mundo a las sorprendentes propiedades del espacio multidimensional. Su ensayo de profunda importancia y elegancia excepcional, «Sobre las hipótesis que subyacen en los fundamentos de la geometría», derribó los pilares de la geometría clásica griega, que había resistido con éxito todos los asaltos de los escépticos durante dos milenios. La vieja geometría de Euclides, en la cual todas las figuras geométricas son de dos o tres dimensiones, se venía abajo, mientras una nueva geometría riemanniana surgía de sus ruinas. La revolución riemanniana iba a tener grandes consecuencias para el futuro de las artes y las ciencias. En menos de tres decenios, la «misteriosa cuarta dimensión» influiría en la evolución del arte, la filosofía y la literatura en Europa. Antes de que hubieran pasado seis decenios a partir de la conferencia de Riemann, Einstein utilizaría la geometría riemanniana tetradimensional para explicar la creación del universo y su evolución. Y ciento treinta años después de su conferencia, los físicos utilizarían la geometría decadimensional para intentar unir todas las leyes del universo físico. El núcleo de la obra de Riemann era la comprensión de que las leyes físicas se simplifican en el espacio multidimensional, precisamente el tema de este libro. Brillo en medio de la miseria Irónicamente, Riemann era la persona menos apropiada para anunciar tan profunda y completa revolución en el pensamiento matemático y físico. Él era atrozmente, casi patológicamente huraño y sufría repetidas crisis nerviosas. También sufría los males concomitantes que han arruinado las vidas de tantos grandes científicos universales a lo largo de la historia: miseria abyecta y consunción (tuberculosis). Su personalidad y temperamento no manifestaban nada de la atrevida, extensa y suprema confianza típica de su obra. Riemann nació en 1826 en Hannover, Alemania, segundo de los seis hijos de un pobre pastor luterano. Su padre, que combatió en las guerras napoleónicas, trabajó esforzadamente como pastor rural para alimentar y vestir a su numerosa familia. Como señala el biógrafo E. T. Bell, «la frágil salud y la temprana muerte de la mayoría de los hijos de Riemann fueron resultado de la subalimentación en su juventud y no debidas a su escaso vigor. La madre también murió antes de que sus hijos hubieran crecido».[9]

A edad muy temprana, Riemann mostraba ya los rasgos que le hicieron famoso: una fantástica capacidad de cálculo, unida a una timidez y un sempiterno horror a hablar en público. Terriblemente apocado, era objeto de bromas crueles por parte de otros muchachos, lo que le hizo recogerse aún más en un mundo matemático intensamente privado. También era tremendamente leal a su familia, superando su frágil salud y constitución para comprar regalos para sus padres y, especialmente, para sus queridas hermanas. Para complacer a su padre, Riemann se propuso hacerse estudiante de teología. Su objetivo era obtener un puesto remunerado como pastor tan rápidamente como fuera posible para ayudar a las pésimas finanzas de su familia. (Es difícil concebir una escena más inverosímil que la de un muchacho callado y tímido imaginando que podría pronunciar sermones furibundos y apasionados para combatir el pecado y expulsar al demonio.) En la escuela secundaria estudió la Biblia con fruición, pero sus pensamientos volvían siempre a las matemáticas; incluso trató de dar una prueba matemática de la corrección del Génesis. Aprendía tan rápidamente que siempre estaba por delante de los conocimientos de sus instructores, que encontraron imposible mantenerse a la altura del muchacho. Finalmente, el director de la escuela dio a Riemann un pesado libro para mantenerle ocupado. El libro era la Teoría de números de AdrienMarie Legendre, una voluminosa obra maestra de 859 páginas, el tratado más avanzado del mundo sobre el difícil tema de la teoría de números. Riemann devoró el libro en seis días. Cuando su director le preguntó: «¿Hasta dónde has leído?», el joven Riemann respondió: «Éste es ciertamente un libro maravilloso. Ya me lo sé todo». Sin creerse realmente la afirmación de su pupilo, el director le planteó varios meses después cuestiones oscuras sobre el libro, que Riemann respondió correctamente.[10] Asediado por la lucha diaria para llevar comida a la mesa, el padre de Riemann pudo haber enviado al muchacho a hacer un trabajo servil. En lugar de ello, consiguió reunir fondos suficientes para enviar a su hijo de 19 años a la reputada Universidad de Gotinga, donde encontró por primera vez a Cari Friedrich Gauss, el aclamado «Príncipe de los Matemáticos», uno de los mayores matemáticos de todos los tiempos. Incluso hoy, si se pregunta a cualquier matemático sobre los tres matemáticos más famosos de la historia, los nombres de Arquímedes, Isaac Newton y Cari Gauss aparecerán invariablemente. La vida para Riemann fue, sin embargo, una serie inacabable de reveses y penalidades, superados sólo con la mayor dificultad y a costa de forzar su frágil salud. Cada triunfo era seguido de una tragedia y derrota. Por ejemplo, precisamente cuando su fortuna empezaba a mejorar y emprendía sus estudios formales con Gauss, una revolución a gran escala barrió Alemania. La clase obrera, que durante mucho tiempo había soportado condiciones de vida inhumanas, se levantó contra el gobierno, y montones de trabajadores de todas las ciudades de Alemania tomaron las armas. Las manifestaciones y levantamientos de comienzos de 1848 inspiraron los escritos de otro alemán, Karl Marx, y afectaron profundamente el curso de los movimientos revolucionarios en toda Europa durante los cincuenta años siguientes. Con Alemania entera sacudida por los disturbios, los estudios de Riemann se interrumpieron. Fue reclutado en el cuerpo de estudiantes, donde tuvo el dudoso honor de pasar dieciséis fatigosas horas protegiendo a alguien aún más aterrorizado que él: el rey, que estaba temblando de miedo en su

palacio real en Berlín, tratando de ocultarse de la ira de la clase obrera. Más allá de la geometría euclidiana Los vientos revolucionarios soplaban no sólo en Alemania, sino también en las matemáticas. El problema que captó el interés de Riemann era el inminente colapso de otro bastión de autoridad, la geometría euclidiana, que mantiene que el espacio es tridimensional. Además, este espacio tridimensional es «plano» (en el espacio plano, la distancia más corta entre dos puntos es una línea recta; esto descarta la posibilidad de que el espacio pueda estar curvado, como en una esfera). De hecho, después de la Biblia, los Elementos de Euclides era probablemente el libro más influyente de todos los tiempos. Durante dos milenios, las mentes más agudas de la civilización occidental se habían maravillado de su elegancia y la belleza de su geometría. Miles de las más bellas catedrales de Europa fueron erigidas según sus principios. Visto en retrospectiva, quizá tuvo demasiado éxito. A lo largo de los siglos, se convirtió en una especie de religión; cualquiera que se atrevía a proponer un espacio curvo o de dimensiones más altas era relegado a las filas de los chiflados o los herejes. Durante incontables generaciones, los escolares han bregado con los teoremas de la geometría de Euclides: que la circunferencia de un círculo mide n veces su diámetro y que los ángulos internos de un triángulo suman 180 grados. Sin embargo, durante varios siglos las mejores cabezas matemáticas no pudieron demostrar, por mucho que lo intentaran, estas proposiciones engañosamente simples. De hecho, los matemáticos de Europa empezaron a darse cuenta de que incluso los Elementos de Euclides, que habían sido reverenciados durante 2.300 años, eran incompletos. La geometría de Euclides seguía siendo viable si uno permanecía dentro de los límites de superficies planas, pero si uno se lanzaba al mundo de superficies curvas, era realmente incorrecta. Para Riemann, la geometría de Euclides era particularmente estéril cuando se la comparaba con la rica diversidad del mundo. En ninguna parte del mundo natural vemos las figuras geométricas planas e idealizadas de Euclides. Las cordilleras montañosas, las olas del mar, las nubes y los torbellinos no son círculos, triángulos y cuadrados perfectos, sino que son objetos curvos que se doblan y tuercen en una diversidad infinita. Los tiempos estaban maduros para una revolución, pero ¿quién la conduciría y qué reemplazaría a la antigua geometría? La aparición de la geometría riemanniana Riemann se rebeló contra la aparente precisión matemática de la geometría griega, cuyos fundamentos, descubrió él, estaban basados en definitiva sobre las arenas movedizas del sentido común y la intuición, no sobre el terreno firme de la lógica. Es obvio, decía Euclides, que un punto no tiene dimensión. Una línea tiene una dimensión: longitud. Un plano tiene dos dimensiones: longitud y anchura. Un sólido tiene tres dimensiones: longitud, anchura y altura. Y allí se detiene. Nada tiene cuatro dimensiones. Estas impresiones habían sido recogidas por el filósofo Aristóteles, que aparentemente fue la primera persona en afirmar categóricamente que la cuarta dimensión espacial es imposible. En Sobre el cielo, escribió: «La línea tiene magnitud en una dirección, el plano en dos direcciones, y el sólido en tres direcciones, y más allá de éstas no hay otra magnitud porque las tres son todas». Además, en el año 150 d. C., el

astrónomo Ptolomeo de Alejandría fue más allá de Aristóteles y ofreció, en su libro Sobre la distancia, la primera «demostración» ingeniosa de que la cuarta dimensión es imposible. En primer lugar, decía él, dibujemos tres líneas mutuamente perpendiculares. Por ejemplo, la esquina de un cubo consiste en tres líneas mutuamente perpendiculares. Luego, argumentaba, tratemos de dibujar una cuarta línea que sea perpendicular a las otras tres. No importa cómo tratemos de hacerlo, razonaba él, es imposible dibujar cuatro líneas mutuamente perpendiculares. Ptolomeo afirmaba que una cuarta línea perpendicular es «completamente sin medida y sin definición». Así pues, la cuarta dimensión es imposible. Lo que Ptolomeo había demostrado en realidad es que es imposible visualizar la cuarta dimensión con nuestros cerebros tridimensionales. (De hecho, hoy sabemos que muchos objetos matemáticos no pueden ser visualizados, aunque puede demostrarse que existen.) Ptolomeo puede pasar a la historia como el hombre que se opuso a dos grandes ideas en la ciencia: el sistema solar heliocéntrico y la cuarta dimensión. A lo largo de los siglos, de hecho, algunos matemáticos se tomaron la molestia de denunciar la cuarta dimensión. En 1685, el matemático John Wallis polemizó contra el concepto, llamándolo un «Monstruo de la Naturaleza, menos posible que una Quimera o un Centauro… Longitud, Anchura y Grosor, llenan el Espacio entero. Y la Fantasía no puede imaginar cómo pudiera existir una Cuarta Dimensión Local más allá de estas Tres».[11] Durante varios cientos de años, los matemáticos repetirían este error simple pero fatal, el de que la cuarta dimensión no puede existir porque no podemos representarla en nuestras mentes. La unidad de toda ley física La ruptura decisiva con la geometría euclidiana llegó cuando Gauss pidió a su discípulo Riemann que preparara una presentación oral sobre los «fundamentos de la geometría».[12] Gauss estaba vivamente interesado en ver si su discípulo podía desarrollar una alternativa a la geometría euclidiana. (Décadas antes, Gauss había expresado en privado profundas y extensas reservas sobre la geometría euclidiana. Incluso habló a sus colegas de hipotéticas «polillas» que podrían vivir enteramente en una superficie bidimensional. Habló de generalizar esto a la geometría de espacios multidimensionales. Sin embargo, siendo un hombre profundamente conservador, nunca publicó nada de su trabajo sobre dimensiones más altas debido al escándalo que crearía entre la vieja guardia conservadora y de mente estrecha. Los llamaba sarcásticamente «beocios», con el nombre de una tribu griega de pocas luces.) [13]

Riemann, no obstante, estaba aterrorizado. A este hombre tímido, al que horrorizaba hablar en público, le solicitaba su mentor que preparase una conferencia ante toda la facultad sobre el problema matemático más difícil del siglo. Durante los meses siguientes, Riemann empezó penosamente a desarrollar la teoría de dimensiones más altas, forzando su salud hasta el punto de sufrir una depresión nerviosa. Su vigor se deterioró aún más debido a su pésima situación financiera. Se vio obligado a aceptar trabajos de tutoría mal pagados para mantener a su familia. Además, se estaba introduciendo en otra vía tratando de explicar problemas de física. En concreto, estaba ayudando a otro profesor, Wilhelm Weber, a realizar experimentos en un nuevo y fascinante campo de investigación, la electricidad.

La electricidad, por supuesto, había sido conocida para los antiguos en forma de relámpagos y chispas. Pero a comienzos del siglo XIX, este fenómeno se convirtió en el foco de la investigación física. En concreto, el descubrimiento de que el paso de una corriente cerca de una brújula podía hacer que la aguja girase captó la atención de la comunidad física. Recíprocamente, mover una barra imanada cerca de un cable metálico podía inducir una corriente eléctrica en el cable. (Esto se denomina ley de Faraday, y hoy todos los generadores y transformadores eléctricos —y por consiguiente muchos de los fundamentos de la tecnología moderna— están basados en este principio.) Para Riemann, este fenómeno indicaba que electricidad y magnetismo son de alguna forma manifestaciones de la misma fuerza. Riemann estaba excitado por los nuevos descubrimientos y estaba convencido de que él podría dar una explicación matemática que unificaría electricidad y magnetismo. Se aisló en el laboratorio de Weber, convencido de que las nuevas matemáticas darían una comprensión global de estas fuerzas. Ahora, con la carga de tener que preparar una conferencia pública importante sobre los «fundamentos de la geometría», mantener a su familia y llevar a cabo experimentos científicos, su salud se vino abajo finalmente y sufrió una depresión nerviosa en 1854. Luego, escribió a su padre: «He llegado a estar tan absorbido en mi investigación de la unidad de todas las leyes físicas que cuando me dieron el tema de la conferencia no podía apartarme de mi investigación. Luego, en parte como resultado del estudio incesante, y en parte por permanecer encerrado demasiado tiempo en este clima infame, caí enfermo».[14] Esta carta es importante, pues muestra claramente que, incluso durante los meses de enfermedad, Riemann creía firmemente que descubriría la «unidad de todas las leyes físicas» y que las matemáticas allanarían el camino para esta unificación. Fuerza = geometría Finalmente, a pesar de sus frecuentes enfermedades, Riemann desarrolló una imagen nueva y sorprendente del significado de «fuerza». Desde Newton, los científicos habían considerado que una fuerza era una interacción instantánea entre dos cuerpos lejanos. Los físicos lo llamaban acción-adistancia, que significa que un cuerpo puede influir instantáneamente en los movimientos de cuerpos lejanos. La mecánica newtoniana podía describir indudablemente los movimientos de los planetas. Sin embargo, durante siglos los críticos argumentaron que la acción-a-distancia era antinatural, porque significaba que un cuerpo podía cambiar la dirección de otro sin siquiera tocarlo. Riemann desarrolló una imagen física radicalmente nueva. Como las «polillas» de Gauss, Riemann imaginó una raza de criaturas bidimensionales que vivían en una hoja de papel. Pero la ruptura decisiva que él hizo consistía en poner estas polillas en una hoja de papel arrugada.[15] ¿Qué pensarían estas polillas acerca de su mundo? Riemann comprendió que ellas llegarían a la conclusión de que su mundo seguía siendo perfectamente plano. Puesto que sus cuerpos también se arrugarían, estas polillas nunca notarían que su mundo estaba distorsionado. Sin embargo, Riemann argumentaba que si estas polillas tratasen de moverse por la hoja de papel arrugada, sentirían una misteriosa «fuerza» invisible que les impedía moverse en línea recta. Serían empujadas a izquierda y derecha cada vez que sus cuerpos atravesasen un surco de la hoja. De este modo, Riemann hizo la primera ruptura trascendental con Newton en 200 años,

desterrando el principio de acción-a-distancia. Para Riemann, la fuerza era una consecuencia de la geometría. Riemann reemplazó entonces la hoja bidimensional por nuestro mundo tridimensional arrugado en la cuarta dimensión. No sería obvio para nosotros que nuestro universo estaba distorsionado. Sin embargo, advertiríamos inmediatamente que algo iba mal cuando tratáramos de caminar en línea recta. Caminaríamos como un borracho, como si nos empujara una fuerza invisible, llevándonos a izquierda y derecha. Riemann concluyó que la electricidad, el magnetismo y la gravedad son causados por el arrugamiento de nuestro universo tridimensional en la invisible cuarta dimensión. Así pues, una «fuerza» no tiene vida independiente por sí misma; es sólo el efecto aparente causado por la distorsión de la geometría. Al introducir la cuarta dimensión espacial, Riemann se encontró accidentalmente con el que iba a ser uno de los temas dominantes de 1$ física teórica moderna: el que las leyes de la naturaleza parecen simples cuando se las expresa en un espacio multidimensional. A continuación se propuso desarrollar un lenguaje matemático en el que pudiera expresarse esta idea. El tensor métrico de Riemann: un nuevo teorema de Pitágoras Riemann pasó varios meses recuperándose de su depresión nerviosa. Finalmente, cuando hizo su presentación oral en 1854, la recepción fue entusiasta. Visto en retrospectiva, ésta fue, sin discusión, una de las conferencias públicas más importantes en la historia de las matemáticas. Rápidamente se extendió por toda Europa la noticia de que Riemann había roto definitivamente los límites de la geometría euclidiana que había regido las matemáticas durante dos milenios. La noticia de la conferencia se difundió pronto a todos los centros de enseñanza en Europa, y sus contribuciones a las matemáticas estaban siendo saludadas en todo el mundo académico. Su conferencia fue traducida a varios idiomas y causó sensación en las matemáticas. No había vuelta a la obra de Euclides. Al igual que muchos de los más grandes trabajos en física y matemáticas, el núcleo esencial que subyace en el gran artículo de Riemann es sencillo de comprender. Riemann comenzaba con el famoso teorema de Pitágoras, uno de los grandes descubrimientos de los griegos en matemáticas. El teorema establece la relación entre las longitudes de los tres lados de un triángulo rectángulo: afirma que la suma de los cuadrados de los lados menores es igual al cuadrado del lado mayor, la hipotenusa; es decir, si a y b son las longitudes de los dos catetos, y c es la longitud de la hipotenusa, entonces a2 + b2 = c2. (El teorema de Pitágoras, por supuesto, es la base de toda la arquitectura; toda estructura construida en este planeta está basada en él.) Para el espacio tridimensional, el teorema puede generalizarse fácilmente. Afirma que la suma de los cuadrados de tres lados adyacentes de un cubo es igual al cuadrado de la diagonal; así, si a, b y c representan los lados de un cubo, y d es la longitud de su diagonal, entonces a2 + b2 + c2 = d2 (figura 2.1). Resulta ahora simple generalizar esto al caso de N dimensiones. Imaginemos un cubo N dimensional. Si a, b, c,… son las longitudes de los lados de un «hipercubo», y z es la longitud de la diagonal, entonces a 2 + b 2 + c 2 + + d 2 + … = z2. De forma notable, incluso si nuestros cerebros no pueden visualizar un cubo N-dimensional, es fácil escribir la fórmula para sus lados. (Esto es una característica común de trabajar en el hiperespacio. Matemáticamente, manipular un espacio N-

dimensional no es más difícil que manipular un espacio tridimensional. No deja de sorprender que, en una sencilla hoja de papel, uno pueda describir matemáticamente las propiedades de objetos de más dimensiones que no pueden ser visualizadas por nuestros cerebros.) Riemann generalizó entonces estas ecuaciones para espacios de dimensión arbitraria. Estos espacios pueden ser planos o curvos. Si son planos, entonces se aplican los axiomas usuales de Euclides: la distancia más corta entre dos puntos es una línea recta, las líneas paralelas nunca se cortan, y la suma de los ángulos internos de un triángulo es de 180 grados. Pero Riemann encontró también que las superficies pueden tener «curvatura positiva», como la superficie de una esfera, donde las líneas paralelas siempre se cortan y donde la Figura 2.1. La longitud de una diagonal de un cubo viene dada por una versión tridimensional del teorema de Pitágoras: a2 + b 2 suma de los ángulos de un triángulo puede exceder + c2 = d 2. Añadiendo simplemente más términos al teorema de de 180 grados. Las superficies pueden tener Pitágoras, esta ecuación se generaliza fácilmente a la diagonal también «curvatura negativa», como en una de un hipercubo en N dimensiones. De este modo, aunque las dimensiones más altas no pueden visualizarse, es fácil superficie en forma de silla de montar o de representar matemáticamente N dimensiones. pabellón de trompeta. En estas superficies, la suma de los ángulos internos de un triángulo es menor de 180 grados. Dada una línea y un punto exterior a la misma, a través de dicho punto puede trazarse un número infinito de líneas paralelas a la dada (figura 2.2). El propósito de Riemann era introducir un nuevo objeto en las matemáticas que le capacitase para describir todas las superficies, por complicadas que fueran. Esto le condujo inevitablemente a reintroducir el concepto de campo de Faraday. El campo de Faraday, recordémoslo, era como un campo de granjero que ocupa una región de un espacio bidimensional. El campo de Faraday ocupa una región de un espacio tridimensional; a cualquier punto del espacio le asignamos una colección de números que describe la fuerza eléctrica o magnética en dicho punto. La idea de Riemann consistía en introducir una colección de números en cada punto del espacio que describieran cuánto estaba torcido o curvado.

Por ejemplo, para una superficie bidimensional ordinaria, Riemann introdujo una colección de tres números en cada punto que describen completamente la curvatura de dicha superficie. Riemann descubrió que en cuatro dimensiones espaciales se necesita una colección de diez números en cada punto para describir sus propiedades. Por muy retorcido o distorsionado Fig ura 2.2. Un plano tiene curvatura cero. En la geometría que esté el espacio, esta colección de diez números euclidiana, los ángulos internos de un triángulo suman 180 en cada punto es suficiente para codificar toda la grados, y las líneas paralelas nunca se cortan. En la geometría información sobre dicho espacio. Etiquetemos no euclidiana, una esfera tiene curvatura positiva. Los ángulos internos de un triángulo suman más de 180 grados y las líneas estos diez números con símbolos g 11, g12 g 13,… paralelas siempre se cortan. (Las líneas paralelas incluyen arcos (Cuando se analiza un espacio tetradimensional, cuyos centros coinciden con el centro de la esfera. Esto descarta las líneas de latitud constante.) Una silla de montar los subíndices pueden ir de 1 a 4.) Entonces la tiene curvatura negativa. Los ángulos internos suman menos de colección de diez números de Riemann puede 180 grados. Existe un número infinito de líneas paralelas a una disponerse simétricamente como en la figura 2.3. línea dada que pasan por un punto fijo. [16] (Parece que debería haber dieciséis componentes. Sin embargo, g = g , g = g y así 12 21 13 31 sucesivamente, de modo que en realidad sólo hay diez componentes independientes.) Hoy, esta colección de números se denomina el tensor métrico de Riemann. Hablando crudamente, cuanto mayor es el valor del tensor métrico, mayor es el arrugamiento de la hoja. Por muy arrugada que esté la hoja de papel, el tensor métrico nos da un medio sencillo de medir su curvatura en cada punto. Si alisamos completamente la hoja arrugada, entonces recuperamos la fórmula de Pitágoras. El tensor métrico de Riemann le permitió erigir un potente aparato para describir espacios de cualquier dimensión con curvatura arbitraria. Para su sorpresa, encontró que todos estos espacios están bien definidos y son autoconsistentes. Previamente, se pensaba que aparecerían terribles contradicciones al investigar el mundo prohibido de dimensiones más altas. Para su sorpresa, Riemann no encontró ninguna. De hecho, resultaba casi trivial extender su trabajo a un espacio Ndimensional. El tensor métrico se parecía ahora a un tablero de ajedrez de N x N casillas. Esto tendrá profundas implicaciones físicas cuando discutamos la unificación de todas las fuerzas en los capítulos siguientes. (El secreto de la unificación, como veremos, reside en expandir la métrica de Riemann a un espacio N-dimensional y luego dividirlo en piezas rectangulares. Cada pieza rectangular corresponde a una fuerza diferente. De este modo, podemos describir las diversas fuerzas de la naturaleza encajándolas en el tensor métrico como piezas de un rompecabezas. Ésta es la expresión matemática del principio de que el espacio multidimensional unifica las leyes de la naturaleza, que existe «suficiente sitio» para unirlas en un espacio N-

Fig ura 2.3. El tensor métrico de Riemann contiene toda la información necesaria para describir matemáticamente un espacio curvo en N dimensiones. Se necesitan dieciséis números para describir el tensor métrico en cada punto en un espacio tetradimensional. Estos números pueden disponerse en una matriz cuadrada (seis de dichos números son realmente redundantes; de modo que el tensor métrico tiene diez números independientes).

dimensional. Más exactamente, existe «suficiente sitio» en la métrica de Riemann para unir las fuerzas de la naturaleza.) Riemann anticipó otro desarrollo en física; fue uno de los primeros en discutir espacios múltiplemente conexos, o agujeros de gusano. Para visualizar este concepto, tome dos hojas de papel y coloque una encima de la otra. Haga un corte con tijeras en cada hoja. Pegue luego las dos hojas a lo largo de los dos cortes (figura 2.4). (Esto es topológicamente equivalente a la figura 1.1, excepto que el cuello del agujero de gusano tiene longitud cero.) Si un insecto viviera en la hoja superior, podría un día atravesar accidentalmente el corte y encontrarse en la hoja inferior. Se sentirá intrigado porque todo está en el lugar equivocado. Después de mucha experimentación, el insecto descubrirá que puede reemerger en su mundo usual entrando otra vez en el corte. Si camina alrededor del corte, entonces su mundo parece normal; pero cuando trata de tomar un atajo a través del corte, tiene problemas. Los cortes de Riemann son un ejemplo de un agujero de gusano (salvo que tienen longitud cero) que conecta dos espacios. Los cortes de Riemann fueron utilizados con gran efecto por el matemático Lewis Carroll en su libro A través del espejo. El corte de Riemann, que conecta Inglaterra con El País de las Maravillas, es el espejo. Hoy, los cortes de Riemann sobreviven en dos formas. En primer lugar, se citan en los cursos de licenciatura en matemáticas en todo el mundo cuando se aplican a la teoría de la electrostática o de la representación conforme. En segundo lugar, los cortes de Riemann pueden encontrarse en los episodios de «En la zona tenebrosa». (Habría que destacar que el propio Riemann no consideró sus cortes como un modo de viajar entre universos.) El legado de Riemann Riemann continuó con su trabajo en física. En 1858, anunció incluso que finalmente había logrado una descripción unificada de la luz y la electricidad. Escribió: «Estoy completamente convencido de que mi teoría es la correcta, y que en pocos años será reconocida como tal».[17] Aunque su tensor métrico le proporcionó un medio poderoso de describir cualquier espacio Fig ura 2.4. Un corte de Riemann, con dos hojas conectadas a largo de una línea. Si caminamos alrededor del corte, curvo en cualquier dimensión, él no conocía las lo permanecemos dentro del mismo espacio. Pero si atravesamos ecuaciones exactas a que obedecía el tensor el corte, pasamos de una hoja a la contigua. Ésta es una métrico; es decir, no sabía qué es lo que hacía que superficie múltiplemente conexa. la hoja se arrugase. Por desgracia, los esfuerzos de Riemann por resolver este problema se vieron frustrados continuamente por una miseria agobiante. Sus éxitos no se tradujeron en dinero. Sufrió otra depresión nerviosa en 1857. Al cabo de muchos años, finalmente fue designado para ocupar la codiciada posición de Gauss en Gotinga, pero era demasiado tarde. Una vida de miseria había

quebrantado su salud, y como muchos de los más grandes matemáticos a lo largo de la historia murió prematuramente de tisis a la edad de 39 años, antes de que pudiera completar su teoría geométrica de la gravedad y la electricidad y el magnetismo. En resumen, Riemann hizo mucho más que sentar las bases de las matemáticas del hiperespacio. En retrospectiva, vemos que Riemann anticipó algunos de los temas principales de la física moderna. En concreto: 1. Utilizó el espacio multidimensional para simplificar las leyes de la naturaleza; es decir, para él, la electricidad y el magnetismo tanto como la gravedad eran simplemente efectos causados por el arrugamiento o distorsión del hiperespacio. 2. Anticipó el concepto de agujeros de gusano. Los cortes de Riemann son los ejemplos más sencillos de espacios múltiplemente conexos. 3. Expresó la gravedad como un campo. El tensor métrico, debido a que describe la fuerza de gravedad (vía curvatura) en cada punto del espacio, equivale precisamente al concepto de campo de Faraday cuando se aplica a la gravedad. Riemann fue incapaz de completar su obra sobre campos de fuerza porque carecía de las ecuaciones de campo a que obedecen la electricidad y el magnetismo y la gravedad. En otras palabras, no sabía exactamente cómo debería arrugarse el universo para dar la fuerza de gravedad. Trató de descubrir las ecuaciones de campo para la electricidad y el magnetismo, pero murió antes de poder acabar ese proyecto. A su muerte, aún no tenía forma de calcular cuánto arrugamiento sería necesario para describir las fuerzas. Estos desarrollos cruciales quedarían para Maxwell y Einstein. Vivir en una distorsión espacial El hechizo fue roto finalmente. Riemann, en su corta vida, deshizo el hechizo lanzado por Euclides más de dos mil años antes. El tensor métrico de Riemann fue el arma con el que los jóvenes matemáticos desafiaron a los beocios, que rugían ante cualquier mención de dimensiones más altas. Los que siguieron las huellas de Riemann encontraron más fácil hablar de mundos invisibles. Pronto, la investigación floreció en toda Europa. Científicos eminentes empezaron a popularizar la idea para el público general. Hermann von Helmholtz, quizá el más famoso físico alemán de su generación, quedó profundamente afectado por el trabajo de Riemann y escribió y habló extensamente al público general sobre las matemáticas de seres inteligentes que vivieran en una bola o esfera. Según Helmholtz, estas criaturas, con capacidades de razonamiento similares a las nuestras, descubrirían independientemente que todos los postulados y teoremas de Euclides eran inútiles. Sobre una esfera, por ejemplo, la suma de los ángulos internos de un triángulo no es de 180 grados. Las «polillas» de las que primero habló Gauss se encontraban ahora habitando las esferas bidimensionales de Helmholtz, quien escribió que «los axiomas geométricos deben variar según el tipo de espacio habitado por seres cuyas capacidades de razonamiento están en plena conformidad con la nuestra».[18] Sin embargo, en sus Lecciones populares de temas científicos (1881), Helmholtz advertía a sus lectores de que es imposible para nosotros visualizar la cuarta dimensión. De hecho, dijo que «tal “representación” es tan imposible como lo sería la “representación” de los colores para

un ciego de nacimiento».[19] Algunos científicos, maravillados por la elegancia de la obra de Riemann, trataron de encontrar aplicaciones físicas para un aparato tan poderoso.[20] Mientras algunos científicos estaban explorando las aplicaciones de dimensiones más altas, otros planteaban cuestiones más prácticas y mundanas; así: ¿cómo come un ser bidimensional? Para que pudiesen comer los seres bidimensionales de Gauss, sus bocas tendrían que abrirse en un lado. Pero si dibujamos ahora su tracto digestivo, notamos que este corredor bisecciona por completo sus cuerpos (figura 2.5). Así pues, si ellos comen, sus cuerpos se dividirán en dos piezas. De hecho, cualquier tubo que conecta dos aberturas en sus cuerpos los separará en dos piezas disjuntas. Esto nos presenta una difícil elección. O bien estas personas comen como lo hacemos nosotros y sus cuerpos se separan, o bien obedecen diferentes leyes biológicas. Por desgracia, las matemáticas avanzadas de Riemann sobrepasaban la relativamente atrasada comprensión de la física del siglo XIX. No había principio físico que guiase una investigación adicional. Tendríamos que esperar otro siglo para que los físicos se uniesen a los matemáticos. Pero esto no impidió que los científicos del siglo XIX especulasen incesantemente sobre el aspecto que tendrían los seres de la cuarta dimensión. Pronto, comprendieron que tales seres tetradimensionales tendrían poderes casi divinos. Ser un dios Imagínese capaz de atravesar las paredes. Usted no tendría que molestarse en abrir puertas; podría atravesarlas directamente. Usted no tendría que rodear edificios; podría entrar en ellos a través de sus paredes y columnas y salir a través de la pared trasera. Usted no tendría que rodear las montañas; podría continuar andando en su interior. Cuando estuviese hambriento, podría simplemente atravesar la puerta del refrigerador sin abrirla. Nunca podría quedar por accidente sin poder entrar en su coche; simplemente atravesaría la puerta del coche. Imagínese capaz de desaparecer o reaparecer a voluntad. En lugar de conducir su vehículo hasta la escuela o el trabajo, usted simplemente desaparecería y se rematerializaría en su aula o en su despacho. No necesitaría un avión para visitar lugares lejanos; podría simplemente desaparecer y rematerializarse donde usted quisiera. Nunca quedaría atascado en el tráfico de la ciudad durante las horas punta; usted y su coche simplemente desaparecerían y se rematerializarían en su destino. Imagine que tiene vista de rayos X. Usted sería capaz de ver accidentes que suceden a distancia. Después de desaparecer y rematerializarse en el lugar de cualquier accidente, usted podría ver exactamente dónde estaban las víctimas, incluso si estuvieran enterradas bajo los restos. Imagine que es capaz de alcanzar el interior de un objeto sin abrirlo. Usted podría extraer los gajos de una naranja sin mondarla o cortarla. Usted sería saludado como un cirujano maestro, con la capacidad de reparar los órganos internos de los pacientes sin siquiera cortar la piel, reduciendo de este modo el dolor y el riesgo de infecciones. Simplemente entraría en el cuerpo de la persona, pasando directamente a través de la piel, y realizaría la delicada operación. Imagine que un criminal pudiera hacerse con estos poderes. Podría entrar en el banco más fuertemente protegido. Podría ver las joyas y el dinero a través de las gruesas puertas de la bóveda, y llegar a su interior y cogerlos. Luego podría escaparse mientras las balas de los guardias le

atravesaban. Con estos poderes, ninguna prisión podría mantener a un criminal. Ningún secreto estaría a salvo de nosotros. Ni los tesoros estarían ocultos a nosotros. Ni los obstáculos podrían detenernos. Verdaderamente seríamos hacedores de milagros, ejecutando hazañas más allá de la comprensión de los mortales. Seríamos también omnipotentes. ¿Qué ser puede poseer tales poderes divinos? La respuesta es: un ser de un mundo de más dimensiones. Por supuesto, estas hazañas están más allá de la capacidad de cualquier persona tridimensional. Para nosotros, las paredes son sólidas y los barrotes de la prisión son irrompibles. Intentar atravesar las paredes sólo nos produciría una nariz dolorida y ensangrentada. Pero para un ser tetradimensional, estas hazañas serían un juego de niños. Para comprender cómo pueden realizarse estas hazañas milagrosas, consideremos de nuevo los míticos seres bidimensionales de Gauss, viviendo Fig ura 2.5. Un ser bidimensional no puede comer. Su tracto sobre una mesa bidimensional. Para encarcelar a digestivo lo divide necesariamente en dos piezas distintas, y el un criminal, los planilandeses simplemente dibujan ser se deshace. un círculo a su alrededor. No importa en qué dirección se mueva el criminal, él tropieza con el círculo impenetrable. Sin embargo, es una tarea trivial para nosotros sacar al prisionero de la cárcel. Simplemente nos agachamos, cogemos al planilandés, le sacamos del mundo bidimensional y lo volvemos a depositar en otra parte de su mundo (figura 2.6). Esta hazaña, que es bastante normal en tres dimensiones, parece fantástica en dos dimensiones. Para su carcelero, el prisionero ha desaparecido repentinamente de una prisión a prueba de fugas, desvaneciéndose en el aire. Luego, tan repentinamente como antes, reaparece en alguna otra parte. Si usted explica al carcelero que el prisionero se movió hacia «arriba» y salió de Planilandia, él no comprendería lo que usted está diciendo. La palabra arriba no existe en el vocabulario del planilandés, ni puede él visualizar el concepto. Las otras hazañas pueden explicarse de modo análogo. Por ejemplo, nótese que los órganos internos (como el estómago o el corazón) de un planilandés son completamente visibles para nosotros, de la misma forma que podemos ver la estructura interna de las células en un preparado de microscopio. Es ahora trivial alcanzar el interior de un planilandés y hacer cirugía sin cortar la piel. También podemos sacar al planilandés de su mundo, darle la vuelta y depositarle de nuevo. Nótese que sus órganos a izquierda y derecha están ahora invertidos, de modo que su corazón está en el lado derecho (figura 2.7).

Viendo Planilandia, notamos también que somos omnipotentes. Incluso si el planilandés se oculta dentro de una casa o bajo tierra, podemos verle perfectamente. Él consideraría mágicos nuestros poderes; nosotros, sin embargo, sabríamos que no se trata de magia, sino de una perspectiva más ventajosa. (Aunque tales hazañas de «magia» son, en principio, posibles en el reino de la física del hiperespacio, deberíamos advertir, una vez más, que la tecnología necesaria para manipular el espacio-tiempo excede con mucho cualquier cosa posible en la Tierra, al menos durante cientos de años. La capacidad de manipular el espacio-tiempo puede estar solamente al alcance de alguna forma de vida extraterrestre en el universo que esté muy por delante de cualquier Fig ura 2.6. En Planilandia, una «cárcel» es un círculo dibujado cosa que encontramos en la Tierra, con una alrededor de una persona. Escapar de este círculo es imposible tecnología para dominar la energía a una escala en dos dimensiones. Sin embargo, una persona tridimensional puede sacar a un planilandés fuera de la celda en la tercera mil billones de veces mayor que la de nuestras dimensión. Para un carcelero, parece como si el prisionero se máquinas más potentes.) haya desvanecido misteriosamente en el aire. Aunque la famosa conferencia de Riemann fue popularizada por la obra de Helmholtz y muchos otros, el público profano podía hacerse poca idea de esto o de los hábitos de comida de las criaturas bidimensionales. Para la persona media, la pregunta era más directa: ¿qué tipo de seres pueden atravesar paredes, ver a través del acero, y realizar milagros? ¿Qué tipo de seres son omnipotentes y obedecen un tipo de leyes diferentes de las nuestras? ¡Los fantasmas, por supuesto! En ausencia de cualquier principio físico que motivara la introducción de dimensiones más altas, la teoría de la cuarta dimensión dio súbitamente un giro inesperado. Comenzaremos ahora un extraño pero importante viaje por la historia del hiperespacio, examinando su impacto inesperado pero profundo sobre las artes y la filosofía. Este viaje a través de la cultura popular mostrará cómo los místicos nos dieron formas perspicaces mediante las que «visualizar» espacios multidimensionales. Figura 2.7. Si sacamos a un planilandés de su mundo y le damos la vuelta en tres dimensiones, su corazón aparece ahora en el lado derecho. Todos sus órganos internos se han invertido. Esta transformación es una imposibilidad médica para alguien que viva estrictamente en Planilandia.

Fantasmas de la cuarta dimensión La cuarta dimensión penetró en la conciencia del

público en 1877, cuando un escandaloso proceso en Londres le dio notoriedad internacional. Los periódicos de Londres publicaron ampliamente los sensacionales alegatos y el extraño juicio del médium Henry Slade. Las estridentes actas comprometían a algunos de los más eminentes físicos del momento. Como resultado de toda esta publicidad, la conversación sobre la cuarta dimensión dejó las pizarras de los matemáticos abstractos y entró de lleno en la sociedad ilustrada, dando lugar a conversaciones de sobremesa en todo Londres. La «notoria cuarta dimensión» era ahora el tema de conversación en la ciudad. Todo empezó, de forma bastante inocente, cuando Slade, un médium de Estados Unidos, visitó Londres y mantuvo sesiones de espiritismo con personas relevantes de la ciudad. Posteriormente fue arrestado por fraude y acusado de «utilizar sutiles tretas y dispositivos, para simular quiromancia y otras formas», con objeto de engañar a sus clientes.[21] Normalmente, este juicio podría haber pasado inadvertido. Pero la sociedad londinense quedó escandalizada y divertida cuando físicos eminentes salieron en su defensa, afirmando que sus hazañas psíquicas demostraban realmente que podía conjurar espíritus que vivían en la cuarta dimensión. Este escándalo fue alimentado por el hecho de que los defensores de Slade no eran científicos británicos ordinarios, sino más bien algunos de los mayores físicos del mundo. Muchos llegaron a ganar el premio Nobel de física. Un papel protagonista en agitar este escándalo lo jugó Johann Zöllner, un profesor de física y astronomía en la Universidad de Leipzig. Fue Zöllner quien dirigió a una galaxia de físicos destacados para acudir en defensa de Slade. Que los médiums podían realizar trucos de salón para la corte real y la buena sociedad no era, por supuesto, nada nuevo. Durante siglos, habían afirmado que podían convocar a los espíritus para leer lo que estaba escrito dentro de sobres lacrados, sacar objetos de botellas cerradas, volver a pegar varas rotas y ensartar anillos. El extraño giro de este proceso consistió en que científicos destacados afirmaban que estas hazañas eran posibles manipulando objetos en la cuarta dimensión. En el proceso, dieron al público su primera comprensión de cómo realizar estas hazañas milagrosas vía la cuarta dimensión. Zöllner reclutó la ayuda de físicos internacionalmente prominentes que participaban en la Sociedad para Investigación Psíquica y que incluso llegaron a dirigir la organización, incluyendo algunos de los nombres más distinguidos de la física del siglo XIX: William Crookes, inventor del tubo de rayos catódicos, que se utiliza hoy en cualquier televisión y monitor de ordenador en el mundo;[22] Wilhelm Weber, colaborador de Gauss y mentor de Riemann (hoy, la unidad internacional de magnetismo se denomina oficialmente el «weber» en su memoria); J. J. Thompson, que ganó el premio Nobel en 1906 por el descubrimiento del electrón; y lord Rayleigh, reconocido por los historiadores como uno de los mayores físicos clásicos de finales del siglo XIX y ganador del premio Nobel de física en 1904. Crookes, Weber y Zöllner, en particular, se tomaron un interés especial en el trabajo de Slade, que fue finalmente convicto de fraude por el tribunal. Sin embargo, él insistía en que podía probar su inocencia repitiendo sus hazañas ante un cuerpo científico. Intrigado, Zöllner aceptó el desafío. Algunos experimentos controlados fueron llevados a cabo en 1877 para verificar la capacidad de Slade para enviar objetos a través de la cuarta dimensión. Varios científicos distinguidos fueron invitados por Zöllner para evaluar las capacidades de Slade.

En primer lugar, a Slade se le dieron dos anillos de madera separados e intactos. ¿Podía él hacer que un anillo de madera atravesase el otro de modo que quedasen ensartados sin romperlos? Si Slade tuviera éxito, escribió Zöllner, «representaría un milagro, es decir, un fenómeno que nuestras ideas actuales sobre la física y los procesos orgánicos serían absolutamente incapaces de explicar».[23] En segundo lugar, se le dio la concha de una caracola, que se enrollaba o bien a la derecha o bien a la izquierda. ¿Podría Slade transformar una concha a derechas en una concha a izquierdas y viceversa? En tercer lugar, se le dio un lazo cerrado de cuerda hecha de tripa de animal. ¿Podría él hacer un nudo en la cuerda cerrada sin cortarla? A Slade se le propusieron también variantes de estos tests. Por ejemplo, se hizo un nudo a derechas en una cuerda y sus extremos fueron sellados y lacrados y se imprimió en ellos el sello personal de Zöllner. Se le pidió a Slade que deshiciese el nudo, sin romper el sello, y volviese a hacer un nudo a izquierdas en la cuerda. Puesto que los nudos pueden deshacerse siempre en la cuarta dimensión, esta hazaña sería fácil para una persona tetradimensional. También se le pidió a Slade que eliminase el contenido de una botella sellada sin romper la botella. ¿Podría Slade demostrar esta sorprendente capacidad? Magia en la cuarta dimensión Hoy comprendemos que la manipulación del espacio multidimensional, tal como afirmaba Slade, requeriría una tecnología muy por delante de cualquier cosa posible en este planeta en un futuro concebible. Sin embargo, lo que resulta interesante sobre este famoso caso es que Zöllner concluyó correctamente que las hazañas de magia de Slade podían ser explicadas si uno pudiera de alguna manera mover objetos a través de la cuarta dimensión. Así pues, por razones pedagógicas los experimentos de Zöllner son concluyentes y dignos de discusión. Por ejemplo, en tres dimensiones, anillos separados no pueden cruzarse hasta quedar ensartados sin romperse. Análogamente, piezas circulares cerradas de cuerda no pueden ser retorcidas en nudos sin cortarlas. Cualquier boy o girl scout que haya bregado con nudos para conseguir sus insignias de guía sabe que los nudos de un lazo cerrado de cuerda no pueden eliminarse. Sin embargo, en dimensiones más altas, los nudos se deshacen fácilmente y los anillos pueden ser ensartados. Esto se debe a que hay «más sitio» en donde cruzar las cuerdas y ensartar los anillos. Si la cuarta dimensión existiera, las cuerdas y los anillos podrían ser sacados de nuestro universo, ensartados y luego devueltos a nuestro mundo. De hecho, en la cuarta dimensión los nudos nunca pueden permanecer atados. Siempre pueden ser deshechos sin cortar la cuerda. Esta hazaña es imposible en tres dimensiones, pero es trivial en la cuarta. La tercera dimensión resulta ser la única dimensión en la que los nudos permanecen anudados. (La demostración de este resultado bastante inesperado se da en las notas.)[24] Análogamente, en tres dimensiones es imposible convertir un objeto rígido zurdo en un objeto diestro. Los seres humanos nacen con el corazón en su lado izquierdo, y ningún cirujano, por muy hábil que sea, puede invertir los órganos humanos internos. Esto es posible (como señaló por primera vez el matemático August Möbius en 1827) sólo si sacamos el cuerpo de nuestro universo, lo giramos en la cuarta dimensión, y luego lo reinsertamos en nuestro universo. Dos de estos trucos se

muestran en la figura 2.8; pueden ser realizados sólo si los objetos pueden moverse en la cuarta dimensión. Polarización de la comunidad científica Zöllner desencadenó una tormenta de controversia cuando, al publicar en el Quarterly Journal of Science y Transcendental Physics, afirmó que Slade sorprendió a sus audiencias con estas hazañas «milagrosas» durante las sesiones en presencia de científicos distinguidos. (Sin embargo, Slade también falló algunos de los tests que se realizaron en condiciones controladas.)[25] La vigorosa defensa que Zöllner hizo de las hazañas de Slade causó sensación en la sociedad londinense. (De hecho, éste fue realmente uno de los varios incidentes con gran publicidad que implicaron a espiritistas y médiums a finales del siglo XIX. La Inglaterra victoriana estaba aparentemente fascinada con lo oculto.)[26] Los científicos, tanto como el público general, rápidamente tomaron postura en la cuestión. Apoyando las afirmaciones de Zöllner estaba su círculo de científicos respetables, que incluía a Weber y Crookes. Éstos no eran científicos medios, sino maestros del arte de la ciencia y Fig ura 2.8. El mago Henry Slade afirmaba ser capaz de maduros observadores del experimento. Habían transformar conchas de caracol enrolladas hacia la derecha en conchas enrolladas hacia la izquierda, y sacar objetos de pasado toda una vida trabajando con fenómenos botellas cerradas. Estas hazañas son imposibles en tres naturales, y ahora Slade estaba realizando ante sus dimensiones, pero son triviales si uno puede mover objetos en la ojos hazañas que sólo eran posibles si había cuarta dimensión. espíritus que vivían en la cuarta dimensión. Pero los detractores de Zöllner señalaron que los científicos, puesto que están dispuestos a confiar en sus sentidos, son las personas menos idóneas para evaluar a un mago. Un mago está especialmente preparado para distraer, engañar y confundir a los propios sentidos. Un científico puede observar cuidadosamente la mano derecha de un mago, pero es la mano izquierda la que en secreto ejecuta el truco. Los críticos señalaron también que sólo otro mago es bastante perspicaz para detectar los trucos malabares de un compañero. Sólo un ladrón puede atrapar a un ladrón. Una crítica especialmente virulenta, publicada en la revista de ciencia Bedrock, fue dirigida contra otros dos físicos eminentes, sir W. F. Barrett y sir Oliver Lodge, y su trabajo sobre telepatía. El artículo era despiadado: No es necesario considerar los fenómenos de la denominada telepatía como inexplicables ni considerar la condición mental de sir W. F. Barrett y sir Oliver Lodge como indistinguible de la idiotez. Hay una tercera posibilidad. La voluntad de

creer les ha predispuesto a aceptar una evidencia obtenida bajo condiciones que ellos reconocerían incorrectas si hubiesen tenido formación en psicología experimental.

Más de un siglo después, se iban a utilizar precisamente los mismos argumentos a favor y en contra en el debate sobre las hazañas del médium israelí Uri Geller, que convenció a dos respetados científicos del Stanford Research Institute en California de que podía doblar llaves únicamente por poder mental y realizar otros milagros. (Al comentar esto, algunos científicos han repetido un dicho que se remonta a los romanos: «Populus vult decipi, ergo decipiatur» [La gente quiere ser engañada, así que engañémosla].) Las violentas pasiones dentro de la comunidad científica británica desencadenaron un vivo debate que rápidamente atravesó el canal de la Mancha. Por desgracia, en las décadas que siguieron a la muerte de Riemann, los científicos perdieron de vista su objetivo original: simplificar las leyes de la naturaleza a través de dimensiones más altas. Como consecuencia, la teoría de dimensiones más altas caminó en muchas direcciones interesantes pero discutibles. Ésta es una lección importante. Sin una clara motivación física o una imagen física que sirva de guía, los puros conceptos matemáticos se pierden a veces en mera especulación. Estas décadas no fueron completamente perdidas, sin embargo, porque matemáticos y visionarios como Charles Hinton inventaron formas ingeniosas en las que «ver» la cuarta dimensión. Finalmente, la penetrante influencia de la cuarta dimensión cerraría el círculo y daría fruto una vez más en el mundo de la física.

3 EL HOMBRE QUE «VIO» LA CUARTA DIMENSIÓN

La cuarta dimensión había llegado a ser casi una palabra familiar hacia 1910 … Desde un ideal —o incluso un Cielo — platónico o kantiano hasta la respuesta a todos los problemas que intrigaban a la ciencia contemporánea, la cuarta dimensión podía ser cualquier cosa para cualquier persona. LINDA DALRYMPLE HENDERSON Con las pasiones despertadas por el juicio del «notorio Mr. Slade», resultaba quizá inevitable que la controversia diera lugar con el tiempo a una novela éxito de ventas. En 1884, tras una década de agrio debate, el clérigo Edwin Abbot, director de la City of London School, escribió una novela de éxito sorprendente y perdurable: Planilandia: una novela de muchas dimensiones por un cuadrado.[27] Debido a la intensa fascinación que sentía el público por las dimensiones más altas, el libro tuvo un éxito instantáneo en Inglaterra, con nueve reimpresiones sucesivas hasta el año 1915, y ediciones demasiado numerosas para poderlas contar hasta hoy día. Lo sorprendente de la novela Planilandia era que Abbot utilizaba por primera vez la controversia que rodeaba a la cuarta dimensión como vehículo para una mordaz crítica y sátira social. Abbot daba un capón a los rígidos y píos individuos que se negaban a admitir la posibilidad de otros mundos. Las «polillas» de Gauss se convirtieron en los planilandeses. Los boecios, a los que tanto temía Gauss, se convirtieron en los Sumos Sacerdotes que perseguirían —con el vigor y la imparcialidad de la Inquisición española— a cualquiera que se atreviera a mencionar la invisible tercera dimensión. Planilandia de Abbot es una crítica apenas velada de la sutil intolerancia y los sofocantes prejuicios imperantes en la Inglaterra victoriana. El héroe de la novela es Mr. Cuadrado, un caballero conservador que vive en un país bidimensional, socialmente estratificado, donde todo el mundo es un objeto geométrico. Las mujeres, que ocupan el nivel más bajo de la escala social, son meras líneas, los nobles son polígonos, mientras que los Sumos Sacerdotes son círculos. Cuantos más lados tiene una persona, mayor es su nivel social. La discusión de la tercera dimensión está estrictamente prohibida. Cualquiera que la mencione es sentenciado a un castigo severo. Mr. Cuadrado es una persona altiva y farisaica que nunca pensaría en desafiar al Sistema por sus injusticias. Un día, sin embargo, su vida sufrirá un vuelco para siempre cuando es visitado por un misterioso Lord Esfera, una esfera tridimensional. Lord Esfera se le aparece a Mr. Cuadrado como un círculo que puede mágicamente cambiar de tamaño (figura 3.1). Lord Esfera trata de explicar pacientemente que él viene de otro mundo llamado Espacilandia, donde todos los objetos tienen tres dimensiones. Sin embargo, Mr. Cuadrado no queda convencido;

tercamente se opone a la idea de que pueda existir una tercera dimensión. Frustrado, Lord Esfera decide ir más allá de las simples palabras y pasar a los hechos. Entonces saca a Mr. Cuadrado de la Planilandia bidimensional y lo arroja en Espacilandia. Es una experiencia fantástica y casi mística que cambia la vida de Mr. Cuadrado. Mientras el plano Mr. Cuadrado flota en la tercera dimensión, como una hoja de papel a merced del viento, él sólo puede visualizar cortes bidimensionales de Espacilandia. Al ver sólo las secciones de objetos tridimensionales, Mr. Cuadrado percibe un mundo fantástico donde los objetos cambian de forma e incluso aparecen y desaparecen en el aire. Sin embargo, cuando trata de contar a sus amigos planilandeses las maravillas que vio en su visita a la tercera dimensión, los Sumos Sacerdotes le consideran un maníaco charlatán y sedicioso. Mr. Cuadrado se convierte en una amenaza para los Sumos Sacerdotes porque se atreve a desafiar su autoridad y la creencia sagrada de que sólo pueden existir dos dimensiones. El libro termina con una nota pesimista. Aunque él está convencido de que realmente visitó el mundo tridimensional de Espacilandia, Mr. Cuadrado es enviado a la cárcel y condenado a pasar el resto de sus días en aislamiento. Una cena en la cuarta dimensión La novela de Abbot es importante porque fue la primera popularización ampliamente leída de una Fig ura 3.1. En Planilandia, Mr. Cuadrado encuentra a Lord Esfera. Mientras Lord Esfera cruza Planilandia, parece un visita a un mundo de más dimensiones. Su círculo que se hace cada vez mayor y luego cada vez menor. descripción del viaje psicodélico de Mr. Cuadrado Así pues, los planilandeses no pueden visualizar seres a Espacilandia es matemáticamente correcta. En los tridimensionales, pero pueden comprender sus secciones. relatos populares y las películas, el viaje interdimensional por el hiperespacio se representa a menudo mediante luces parpadeantes y oscuridad, o nubes que se arremolinan. Sin embargo, las matemáticas del viaje en dimensiones más altas son mucho más interesantes que la imaginación de los escritores de ficción. Para visualizar cómo sería un viaje interdimensional, imagine que se saca a Mr. Cuadrado de Planilandia y se le arroja al aire. Supongamos que, mientras flota en nuestro mundo tridimensional, él se cruza con un ser humano. ¿Qué aspecto tendría éste para Mr. Cuadrado? Puesto que sus ojos bidimensionales sólo pueden ver secciones planas de nuestro mundo, un ser humano le parecería un objeto singularmente feo y aterrador. Al principio, podría ver dos círculos de

cuero (nuestros zapatos) flotando frente a él. A medida que se desplaza hacia arriba, estos dos círculos cambian de color y se convierten en tela (nuestros pantalones). Sucesivamente, estos dos círculos se funden en un círculo (nuestra cintura), se desdoblan en tres círculos de tela y cambian nuevamente de color (nuestra camisa y nuestros brazos). Mientras continúa flotando hacia arriba, estos tres círculos de tela se funden en un círculo más pequeño de carne (nuestros cuello y cabeza). Finalmente, este círculo de carne se convierte en una masa de pelo, y luego desaparece bruscamente cuando Mr. Cuadrado flota por encima de nuestras cabezas. Para Mr. Cuadrado, estos misteriosos «humanos» son una confusa colección enloquecida y alucinante de círculos que cambian constantemente, hechos de cuero, tela, carne y pelo. Análogamente, si se nos sacara de nuestro universo tridimensional y se nos arrojara a 1# cuarta dimensión, descubriríamos que el sentido común resulta inútil. Mientras nos movemos por la cuarta dimensión aparecen manchas de la nada frente a nuestros ojos. Éstas cambian constantemente de color, tamaño y composición, desafiando todas las reglas de la lógica de nuestro mundo tridimensional. Y desaparecen en el aire, para ser reemplazadas por otras manchas flotantes. Si fuéramos invitados a una cena en la cuarta dimensión, ¿cómo distinguiríamos a las criaturas? Tendríamos que reconocerlas por las diferencias en el modo en que cambian estas manchas. Cada persona en dimensiones más altas tendría su propia secuencia característica de manchas cambiantes. A lo largo de un periodo de tiempo, aprenderíamos a distinguir a estas criaturas reconociendo sus pautas distintivas de manchas y colores cambiantes. Asistir a cenas en el hiperespacio podría ser una experiencia fatigosa. Lucha de clases en la cuarta dimensión El concepto de la cuarta dimensión había impregnado tan penetrantemente el clima intelectual de finales del siglo XIX que incluso los autores dramáticos se divirtieron con ello. En 1891, Oscar Wilde escribió una farsa sobre estas historias de fantasmas, «El fantasma de Canterville», que satirizaba las hazañas de cierta crédula «Sociedad Psíquica» (una referencia apenas velada a la Sociedad para Investigación Psíquica de Crookes). Wilde contaba la historia de un fantasma que pena desde hace mucho tiempo y que se enfrenta a los recién llegados propietarios norteamericanos de Canterville. Wilde escribió: «Evidentemente no había tiempo que perder, así que tomando rápidamente la Cuarta Dimensión del Espacio como medio de escape, él (el fantasma) desapareció a través del entarimado y la casa se quedó tranquila». Una contribución más seria a la literatura de la cuarta dimensión fue la obra de H. G. Wells. Aunque se le recuerda principalmente por sus obras de ciencia ficción, Wells fue una figura dominante en la vida intelectual de la sociedad londinense, famoso por sus recensiones y críticas literarias y su agudo ingenio. En su novela de 1894, La máquina del tiempo, combinó varios temas matemáticos, filosóficos y políticos. Popularizó una idea nueva en la ciencia —que la cuarta dimensión también podría verse como tiempo, y no necesariamente sólo como espacio:[28] Evidentemente … cualquier cuerpo real debe tener extensión en cuatro direcciones: debe tener Longitud, Anchura, Grosor y Duración. Pero por una debilidad natural de la carne … nos inclinamos a pasar por alto este hecho. Hay realmente cuatro dimensiones, tres que llamamos las tres sendas del Espacio, y una Cuarta, el Tiempo. Hay, sin embargo, una tendencia a trazar una distinción irreal entre las tres primeras dimensiones y la última, porque sucede que nuestra conciencia se mueve intermitentemente en una misma dirección a lo largo de la última desde el principio al fin de nuestras

vidas.[29]

Como Planilandia antes, lo que hace tan perdurable a La máquina del tiempo, incluso un siglo después de su publicación, es su aguda crítica política y social. La Inglaterra del año 802.701, descubre el protagonista de Wells, no es la brillante ciudadela de modernas maravillas científicas que los positivistas predijeron. En lugar de ello, la futura Inglaterra es un país donde la lucha de clases tuvo un mal final. La clase obrera fue obligada cruelmente a vivir en el subsuelo, hasta que los trabajadores se mutaron en una nueva especie embrutecida de seres humanos, los Morlocks, mientras que la clase dirigente, con una lujuria desenfrenada, se deterioró y evolucionó hasta la raza inútil de criaturas enanoides, los Eloi. Wells, un prominente socialista fabiano, estaba utilizando la cuarta dimensión para mostrar la ironía final de la lucha de clases. El contrato social entre los pobres y los ricos había fracasado por completo. Los inútiles Eloi son alimentados y vestidos por los afanados Morlocks, pero los trabajadores obtienen la venganza final. Los Morlocks se comen a los Eloi. La cuarta dimensión, en otras palabras, se convirtió en un florete para una crítica marxista de la sociedad moderna, pero con un giro nuevo: la clase obrera no romperá las cadenas de los ricos, como Marx predijo. Se comerá a los ricos. En un relato corto, «La historia de Plattner», Wells incluso jugó con la paradoja de la quiralidad. Gottfried Plattner, un profesor de ciencias, está realizando un experimento químico complicado pero su experimento explota y le envía a otro universo. Cuando vuelve del otro mundo al mundo real, descubre que su cuerpo ha sido alterado de un modo curioso: su corazón está ahora en su lado derecho, y él es ahora zurdo. Cuando los doctores le examinan, se quedan atónitos al descubrir que todo el cuerpo de Plattner ha sido invertido, una imposibilidad biológica en nuestro mundo tridimensional: «La curiosa inversión de los lados izquierdo y derecho de Plattner es prueba de que ha salido de nuestro espacio a lo que se denomina la Cuarta Dimensión, y que ha vuelto otra vez a nuestro mundo». Sin embargo, Plattner se resiste a la idea de ser diseccionado tras su muerte, posponiendo de este modo, «quizá para siempre, la demostración definitiva de que todo su cuerpo tenía intercambiados sus lados izquierdo y derecho». Wells era perfectamente consciente de que hay dos formas de visualizar cómo pueden transformarse objetos zurdos en objetos diestros. Un planilandés, por ejemplo, puede ser levantado de su mundo, girado, y luego devuelto a Planilandia, invirtiendo así sus órganos. O el planilandés puede vivir en una cinta de Möbius, creada retorciendo una cinta de papel 180 grados y pegando luego sus bordes. Si un planilandés da una vuelta completa a la cinta de Möbius, descubre que sus órganos se han invertido (figura 3.2). Las cintas de Möbius tienen otras curiosas propiedades que fascinaron a los científicos durante el siglo pasado. Por ejemplo, si usted recorre por completo la superficie descubrirá que tiene un solo lado. Además, si usted corta la cinta por la mitad a lo largo de su centro, al final queda una pieza. Esto ha dado lugar al chascarrillo de los matemáticos: Un matemático declara que una banda de Möbius tiene una sola cara usted mucho se reirá si la corta por la mitad, pues sólo una pieza quedará.[30]

En su clásico El hombre invisible, Wells especulaba que un hombre podía incluso hacerse invisible mediante algún truco que implicara «una fórmula, una expresión geométrica que implica cuatro dimensiones». Wells sabía que un planilandés desaparece si se le saca de su universo bidimensional; análogamente, un hombre podría hacerse invisible si pudiera saltar a la cuarta dimensión. En el relato corto «El curioso caso de los ojos de Davidson», Wells exploraba la idea de que un «rizo en el espacio» podía hacer capaz a un individuo de ver a través de grandes distancias. Davidson, el héroe de la historia, descubre un día que tiene el inquietante poder de ver sucesos que ocurren en una lejana isla de los Mares del Sur. Este «rizo en el espacio» es una distorsión del espacio por la que la luz de los Mares del Sur entra en el hiperespacio y llega a sus ojos en Inglaterra. Así, Wells utilizó los agujeros de gusano de Riemann como un artificio literario en su ficción. En La visita maravillosa, Wells exploraba la posibilidad de que el Cielo exista en un mundo o Fig ura 3.2. Una cinta de Möbius es una cinta con un solo lado. dimensión paralela. El argumento trata de las Su exterior y su interior son idénticos. Si un planilandés da la vuelta a una cinta de Möbius, sus órganos internos quedarán dificultades de un ángel que accidentalmente cae invertidos. del Cielo y aterriza en un pueblo rural inglés. La popularidad de la obra de Wells abrió un nuevo género de ficción. George McDonald, un amigo del matemático Lewis Carroll, especuló también sobre la posibilidad de que el Cielo esté localizado en la cuarta dimensión. En la fantasía de McDonald Lilith, escrita en 1895, el héroe crea una ventana dimensional entre nuestro universo y otros mundos manipulando las reflexiones en un espejo. Y en la historia de 1901 Los herederos, de Joseph Conrad y Ford Madox Ford, una raza de superhombres de la cuarta dimensión entra en nuestro mundo. Crueles y despiadados, estos superhombres empiezan a dominar el mundo. La cuarta dimensión como arte Los años comprendidos entre 1890yl910 pueden considerarse los años dorados de la cuarta dimensión. Fue un tiempo durante el que las ideas originadas por Gauss y Riemann impregnaron los círculos literarios, la vanguardia y las ideas del público en general, influyendo en las tendencias artísticas, literarias y filosóficas. La nueva rama de la filosofía, denominada teosofía, fue influida profundamente por las dimensiones más altas. Por un lado, los científicos serios lamentaban este desarrollo porque los resultados rigurosos de Riemann estaban siendo ahora arrastrados por los titulares de los periódicos sensacionalistas. Por otro lado, las popularizaciones de la cuarta dimensión tuvieron un aspecto positivo. No sólo ponían los avances en matemáticas a disposición del público general, sino que también servían como una metáfora que podía enriquecer y fertilizar las corrientes culturales.

La historiadora del arte Linda Dalrymple Henderson, en su obra The Fourth Dimension and NonEuclidean Geometry in Modern Art, elabora esta idea y argumenta que la cuarta dimensión tuvo una influencia crucial en el desarrollo del cubismo y del expresionismo en el mundo del arte. Escribe que «fue entre los cubistas donde se desarrolló la primera y más coherente teoría artística basada en las nuevas geometrías».[31] Para la vanguardia, la cuarta dimensión simbolizaba la revolución contra los excesos del capitalismo. Veían su opresivo positivismo y su materialismo vulgar como algo que ahogaba la expresión creativa. Los cubistas, por ejemplo, se rebelaron contra la insufrible arrogancia de los celotas de la ciencia a quienes percibían como deshumanizadores del proceso creativo. La vanguardia tomó la cuarta dimensión como su vehículo. Por un lado, la cuarta dimensión llevaba las fronteras de la ciencia moderna a su límite. Era más científica que los científicos. Por otro lado, era misteriosa. Y hacer alarde de la cuarta dimensión suponía dar un pellizco en las narices de los rígidos y sabelotodos positivistas. En particular, esto tomó la forma de una revuelta artística contra las leyes de la perspectiva. En la Edad Media, el arte religioso se caracterizó por su deliberada falta de perspectiva. Siervos, campesinos y reyes se representaban como si fuesen planos, de un modo muy parecido a como los niños dibujan a las personas. Estas pin turas reflejaban básicamente la visión de la Iglesia de que Dios era omnipotente y podía así ver por igual todas las partes de nuestro mundo. El arte tenía que reflejar su punto de vista, de modo que el mundo era pintado bidimensionalmente. Por ejemplo, el famoso Tapiz de Bayeux (figura 3.3) representa a los supersticiosos soldados del rey Harold II de Inglaterra señalando aterrorizados a un ominoso corneta que se cierne sobre sus cabezas en abril de 1066, convencidos de que esto es una profecía de una derrota inminente. (Seis siglos después, el mismo corneta sería bautizado como corneta Halley.) Harold perdió posteriormente la crucial batalla de Hastings frente a Guillermo el Conquistador, quien fue coronado rey de Inglaterra, y con ello empezó un nuevo capítulo de la historia inglesa. Sin embargo, el Tapiz de Bayeux, como otras obras de arte medievales, representa los brazos y rostros de los soldados de Harold como planos, como si una lámina de cristal se hubiese colocado sobre sus cuerpos comprimiéndolos contra el tapiz.

Fig ura 3.3. Una escena del Tapiz de Bayeux muestra a las aterrorizadas tropas inglesas señalando una aparición en el cielo (el cometa Halley). Las figuras son planas, como en la mayor parte del arte de la Edad Media. Esto significaba que Dios era omnipotente. Los cuadros eran así dibujados bidimensionalmente. (Giraudon/Art Resource.)

El arte del Renacimiento fue una revuelta contra esta perspectiva plana centrada en Dios, y empezó a florecer el arte centrado en el hombre, con amplios paisajes y gentes reales y tridimensionales pintadas desde el punto de vista del ojo de una persona. En los magníficos estudios de Leonardo da Vinci sobre perspectiva, vemos las líneas en sus bocetos que desaparecen en un solo punto del horizonte. El arte del Renacimiento reflejaba el modo en que el ojo veía el mundo, desde el punto de vista singular del observador. En los frescos de Miguel Ángel o en el libro de apuntes de Da Vinci vemos figuras principales e imponentes que parecen salir de la segunda dimensión. En otras palabras, el arte del Renacimiento descubrió la tercera dimensión (figura 3.4).

Fig ura 3.4. Durante el Renacimiento, los pintores descubrieron la tercera dimensión. Los cuadros se pintaban con perspectiva y se veían desde la posición de un simple ojo, y no el ojo de Dios. Nótese que todas las líneas en el fresco La última cena de Leonardo da Vinci convergen hacia un punto del horizonte. (Bettmann Archive.)

Con el comienzo de la edad de las máquinas y el capitalismo, el mundo artístico se rebeló contra el frío materialismo que parecía dominar la sociedad industrial. Para los cubistas, el positivismo era una camisa de fuerza que nos confinaba a lo que podía medirse en el laboratorio, reprimiendo los frutos de nuestra imaginación. Ellos se preguntaban: ¿Por qué el arte debe ser clínicamente «realista»? Esta «revuelta cubista contra la perspectiva» se apoderó de la cuarta dimensión porque afectaba a la tercera dimensión desde todas las perspectivas posibles. Dicho de forma simple, el arte cubista abrazó la cuarta dimensión. Los cuadros de Picasso son un ejemplo espléndido, que muestra un claro rechazo de la perspectiva, con rostros de mujeres vistos simultáneamente desde varios ángulos. En lugar de un solo punto de vista, los cuadros de Picasso muestran perspectivas múltiples, como si hubieran sido pintados por alguien de la cuarta dimensión, capaz de ver todas las perspectivas simultáneamente (figura 3.5). Picasso fue una vez abordado en un tren por un extraño que le reconoció. El extraño se quejó: ¿Por qué él no podía pintar cuadros de personas tal como realmente eran? ¿Por qué tenía que distorsionar el aspecto de las personas? Picasso pidió entonces al hombre que le mostrase retratos de su familia. Después de mirar las fotografías, Picasso respondió: «Oh, ¿su esposa es realmente esa cosa pequeña y plana?». Para Picasso, cualquier imagen, por muy «realista» que fuera, dependía de la perspectiva del observador. Los pintores abstractos no sólo trataban de visualizar los rostros de la gente como si estuviesen pintados por una persona tetradimensional, sino que también trataban el tiempo como la cuarta dimensión. En el cuadro de Marcel Duchamp Desnudo descendiendo por una escalera, vemos una representación borrosa de una mujer, con un número infinito de imágenes suyas superpuestas en el

tiempo a medida que baja las escaleras. Así es como una persona tetradimensional vería a la gente, percibiendo toda la secuencia temporal de una vez, si el tiempo fuera la cuarta dimensión. En 1937, el crítico de arte Meyer Schapiro resumía la influencia de estas nuevas geometrías en el mundo del arte cuando escribió: «Del mismo modo que el descubrimiento de la geometría no euclidiana dio un potente impulso a la idea de que las matemáticas eran independientes de la existencia, así también la pintura abstracta cortó de raíz las ideas clásicas de la imitación artística». O, como ha dicho la historiadora del arte Linda Henderson, «la cuarta dimensión y la geometría no euclidiana emergen entre los temas más importantes que unifican buena parte de la teoría y el arte moderno».[32] Los bolcheviques y la cuarta dimensión La cuarta dimensión también llegó a la Rusia zarista a través de los escritos del místico P. D. Ouspensky, quien introdujo a los intelectuales rusos en sus misterios. Su influencia fue tan pronunciada que incluso Fedor Dostoievski, en Los hermanos Karamazov, hizo que su protagonista Ivan Karamazov especulara sobre la existencia de dimensiones más altas y geometrías no euclidianas durante una discusión sobre la existencia de Dios.

Fig ura 3.5. El cubismo tuvo una fuerte influencia de la cuarta dimensión. Por ejemplo, trataba de ver la realidad a través de [33] los ojos de una persona tetradimensional. Un ser tal, al mirar un Debido a los históricos sucesos que se rostro humano, vería todos los ángulos simultáneamente. De este modo, ambos ojos serían vistos al mismo tiempo por un ser desarrollaron en Rusia, la cuarta dimensión iba a tetradimensional, como en el cuadro de Picasso Retrato de jugar un curioso papel en la Revolución Dora Maar. (Giraudon/Art Resource. © 1993. Ars, Nueva bolchevique. Hoy, este extraño interludio en la York/Spadem, París.)

historia de la ciencia es importante porque Vladimir Lenin se uniría al debate sobre la cuarta dimensión, que llegaría a ejercer una poderosa influencia sobre la ciencia de la antigua Unión Soviética durante los setenta años siguientes.[34] (Los físicos rusos, por supuesto, han jugado papeles clave en el desarrollo de la teoría decadimensional actual.) Tras el brutal aplastamiento zarista de la revolución de 1905, se desarrolló dentro del partido bolchevique una facción denominada los otzovistas, o «constructores de Dios». Ellos argumentaban que los campesinos estaban listos para el socialismo; para prepararlos, los bolcheviques deberían apelar a ellos a través de la religión y el espiritualismo. Para apoyar sus ideas heréticas, los constructores de Dios citaban la obra del físico y filósofo alemán Ernst Mach, quien había escrito

elocuentemente sobre la cuarta dimensión y el descubrimiento reciente de una nueva y misteriosa propiedad de la materia denominada radiactividad. Los constructores de Dios señalaban que el descubrimiento de la radiactividad por el científico francés Henri Becquerel en 1896 y el descubrimiento del radio por Marie Curie en el mismo año había encendido un furioso debate filosófico en los círculos literarios franceses y alemanes. Parecía que la materia podía desintegrarse lentamente y que podía reaparecer energía (en forma de radiación). Sin duda, los nuevos experimentos sobre radiación demostraban que la base de la física newtoniana se estaba hundiendo. La materia, concebida por los griegos eterna e inmutable, se estaba ahora desintegrando ante nuestros propios ojos. El uranio y el radio, en contra de la creencia aceptada, se estaban mutando en el laboratorio. Para algunos, Mach era el profeta que les guiaría en el desierto. Sin embargo, él apuntaba en la dirección incorrecta, rechazando el materialismo y declarando que el espacio y el tiempo eran productos de nuestras sensaciones. En vano, escribió él: «Espero que nadie defienda historias de fantasmas con la ayuda de lo que yo he dicho y he escrito sobre este tema».[35] Tuvo lugar una escisión entre los bolcheviques. Su líder, Vladimir Lenin, estaba horrorizado. ¿Son los fantasmas y los demonios compatibles con el socialismo? En el exilio de Ginebra en 1908, escribió un enorme tomo filosófico, Materialismo y Empirocriticismo, defendiendo al materialismo dialéctico de los ataques del misticismo y la metafísica. Para Lenin, la misteriosa desaparición de materia y energía no probaba la existencia de espíritus. Argumentaba que esto significaba más bien que estaba emergiendo una nueva dialéctica, que abarcaría tanto la materia como la energía. Ya no podrían considerarse como entidades separadas, como Newton había hecho. Ahora debían verse como dos polos de una unidad dialéctica. Se necesitaba un nuevo principio de conservación. (Desconocido para Lenin, Einstein había propuesto el principio correcto tres años antes, en 1905.) Además, Lenin cuestionó el fácil abrazo de Mach de la cuarta dimensión. En primer lugar, Lenin elogiaba a Mach, quien «había planteado la cuestión muy útil e importante de un espacio de n dimensiones como un espacio concebible». Luego censuraba a Mach por no haber hecho hincapié en que sólo las tres dimensiones del espacio podían verificarse experimentalmente. Las matemáticas pueden explorar la cuarta dimensión y el mundo de lo que es posible, y esto es bueno, escribió Lenin, ¡pero el zar sólo puede ser derrocado en la tercera dimensión![36] Combatiendo en el terreno de batalla de la cuarta dimensión y la nueva teoría de la radiación, Lenin necesitó años para echar al otzovismo del partido bolchevique. En cualquier caso, ganó la batalla poco antes del estallido de la Revolución de Octubre de 1917.[37] Los bígamos y la cuarta dimensión Finalmente, las ideas de la cuarta dimensión atravesaron el Atlántico y llegaron a Norteamérica. Su mensajero fue un pintoresco matemático inglés llamado Charles Howard Hinton. Mientras Albert Einstein estaba afanado en su mesa de trabajo en la oficina de patentes suiza en 1905, descubriendo las leyes de la relatividad, Hinton estaba trabajando en la Oficina de Patentes de los Estados Unidos en Washington, D. C. Aunque probablemente nunca se encontraron, sus caminos iban a tener varios puntos de cruce interesantes. Hinton pasó toda su vida adulta obsesionado con la idea de popularizar y visualizar la cuarta

dimensión. Pasaría a la historia de la ciencia como el hombre que «vio» la cuarta dimensión. Hinton era hijo de James Hinton, un reputado cirujano del oído con ideas liberales. A lo largo de los años, el carismático Hinton padre evolucionó hasta hacerse un filósofo de la religión, un abierto defensor del amor libre y la poligamia, y finalmente el líder de un culto influyente en Inglaterra. Se rodeaba de un círculo devoto y fieramente leal de seguidores librepensadores. Una de sus frases más conocidas era «Cristo fue el Salvador de los hombres, pero yo soy el salvador de la mujeres, y ¡no Le envidio un ápice!».[38] Su hijo Charles, sin embargo, parecía destinado a llevar una vida respetable y aburrida como matemático. No estaba fascinado por la poligamia, sino ¡por los polígonos! Graduado en Oxford en 1877, se convirtió en un respetable maestro en la Uppingham School mientras trabajaba en su doctorado en matemáticas. En Oxford, Hinton quedó intrigado tratando de visualizar la cuarta dimensión. Como matemático, él sabía que no se puede visualizar un objeto tetradimensional en su totalidad. Sin embargo, es posible, razonaba él, visualizar la sección o el despliegue de un objeto tetradimensional. Hinton publicó sus ideas en la prensa popular. Escribió el influyente artículo «¿Qué es la cuarta dimensión?» para el Dublin University Magazine y el Cheltenham Ladies’ College Magazine, reimpreso en 1884 con el atractivo subtítulo «Los fantasmas explicados». La vida de Hinton como académico instalado, sin embargo, dio un brusco giro para peor en 1885 cuando fue arrestado por bigamia y sometido a juicio. Previamente, Hinton se había casado con Mary Everest Boole, hija de un miembro del círculo de su padre y viuda del gran matemático George Boole (fundador del álgebra booliana). Sin embargo, él era también el padre de dos gemelos nacidos de una cierta Maude Weldon. El director de Uppingham, al ver a Hinton en compañía de su esposa, Mary, y su amante, Maude, había supuesto que Maude era la hermana de Hinton. Todo iba bien para Hinton hasta que cometió el error de casarse también con Maude. Cuando el director supo que Hinton era bígamo, estalló un escándalo. Fue inmediatamente despedido de su puesto en Uppingham y sometido a juicio por bigamia. Permaneció encarcelado durante tres días, pero Mary Hinton renunció a presentar cargos y juntos dejaron Inglaterra rumbo a los Estados Unidos. Hinton fue contratado como profesor en el departamento de matemáticas en la Universidad de Princeton, donde su obsesión por la cuarta dimensión fue temporalmente marginada cuando inventó la máquina de béisbol. El equipo de béisbol de Princeton se benefició con la máquina de Hinton, que podía lanzar bolas a 120 kilómetros por hora. Los descendientes del invento de Hinton pueden encontrarse ahora en todos los campos de béisbol importantes del mundo. Hinton fue finalmente despedido de Princeton, pero se las arregló para obtener un puesto en el Observatorio Naval de los Estados Unidos a través de la influencia de su director, un abogado devoto de la cuarta dimensión. Luego, en 1902, aceptó un trabajo en la Oficina de Patentes en Washington. Los cubos de Hinton Hinton pasó varios años desarrollando ingeniosos métodos mediante los cuales cualquier persona media y una creciente legión de seguidores, no sólo matemáticos profesionales, podían «ver» objetos tetradimensionales. Con el tiempo perfeccionó cubos especiales que, si uno lo intentaba con

suficiente esfuerzo, le podrían permitir visualizar hipercubos, o cubos en cuatro dimensiones. Éstos llegarían a conocerse como cubos de Hinton. Hinton incluso acuñó el nombre oficial para un hipercubo desplegado, un tesseract, que entró así en la lengua inglesa. Los cubos de Hinton fueron ampliamente anunciados en las revistas femeninas e incluso fueron utilizados en sesiones de espiritismo, donde pronto se convirtieron en objetos de importancia mística. Por medio de los cubos de Hinton, afirmaban los miembros de la alta sociedad, usted podría echar ojeadas a la cuarta dimensión y, por lo tanto, al otro mundo de fantasmas y de los seres queridos desaparecidos. Sus discípulos pasaban horas contemplando y meditando sobre estos cubos, hasta que alcanzaban la capacidad de reordenar y recomponer mentalmente estos cubos en un hipercubo a través de la cuarta dimensión. Los que podían ejecutar esta hazaña mental, se decía, alcanzarían el estado más alto del nirvana. Como analogía, tómese un cubo tridimensional. Aunque un planilandés no puede visualizar un cubo en su totalidad, es posible para nosotros desplegar el cubo en tres dimensiones, de modo que tengamos una serie de seis cuadrados formando una cruz. Por supuesto, un planilandés no puede rearmar los cuadrados para hacer un cubo. En la segunda dimensión, las juntas entre Fig ura 3.6. Los planilandeses no pueden visualizar un cubo, cada cuadrado son rígidas y no pueden doblarse. pero pueden hacerse una idea de un cubo tridimensional Sin embargo, estas juntas se pueden doblar desplegándolo. Para un planilandés, un cubo desplegado se fácilmente en la tercera dimensión. Un planilandés parece a una cruz que consiste en seis cuadrados. Análogamente, nosotros no podemos visualizar un hipercubo testigo de este suceso vería que los cuadrados tetradimensional, pero si lo desplegamos, tenemos una serie de desaparecen dejando sólo un cuadrado en su cubos dispuestos en un tesseract similar a una cruz. Aunque los cubos de un tesseract parecen inmóviles, una persona universo (figura 3.6). tetradimensional puede «doblar» los cubos en un hipercubo. Del mismo modo, un hipercubo en cuatro dimensiones no puede ser visualizado. Pero uno puede desplegar un hipercubo en sus componentes inferiores, que son cubos tridimensionales ordinarios. Estos cubos, a su vez, pueden ser dispuestos en una cruz tridimensional: un tesseract. Resulta imposible para nosotros visualizar la forma de plegar estos cubos para formar un hipercubo. Sin embargo, una persona de dimensiones más altas puede «levantar» cada cubo de nuestro universo y luego plegar el cubo para formar un hipercubo. (Nuestros ojos tridimensionales, al ser testigos de este suceso espectacular, verían simplemente que los otros cubos desaparecen, dejando sólo un cubo en nuestro universo.) Tan penetrante fue la influencia de Hinton que Salvador Dalí utilizó el tesseract de Hinton en su famoso cuadro Christus

Hypercubus, exhibido en el Museo de Arte Metropolitano de Nueva York, que muestra a Cristo crucificado en una cruz tetradimensional (figura 3.7). Hinton también conocía una segunda forma de visualizar objetos de más altas dimensiones: mirando las sombras que arrojan en dimensiones menores. Por ejemplo, un planilandés puede visualizar un cubo mirando su sombra bidimensional. Un cubo aparece como dos cuadrados unidos. Análogamente, una sombra de hipercubo proyectada en la tercera dimensión se convierte en un cubo dentro de un cubo (figura 3.8). Además de visualizar el despliegue de hipercubos y examinar sus sombras, Hinton era consciente de una tercera forma de conceptuar la cuarta dimensión: por secciones transversas. Por ejemplo, cuando Mr. Cuadrado es enviado a la tercera dimensión, sus ojos pueden ver solamente secciones bidimensionales de la tercera dimensión. De este modo, él sólo puede ver círculos que aparecen, se hacen más grandes, cambian de color, y luego desaparecen repentinamente. Si Mr. Cuadrado se cruzase con una manzana, vería que un círculo rojo se materializa a partir de la nada, se expande gradualmente, luego se contrae, a continuación se convierte en un pequeño círculo oscuro (el tallo), y finalmente desaparece. Del mismo modo, Hinton sabía que si se nos arrojara a Fig ura 3.7. En Christus Hypercubus, Salvador Dalí mostró a Cristo crucificado en un tesseract, un hipercubo desplegado. la cuarta dimensión, veríamos objetos extraños que (The Metropolitan Museum of Art. Donación de Chester Dale, aparecen repentinamente de la nada, se hacen más Collection, 1955. © 1993. Ars, New York/Demart Pro Arte, grandes, cambian de color, cambian de forma, se Ginebra.) hacen más pequeños y finalmente desaparecen. En resumen, la contribución de Hinton puede ser su popularización de las figuras en dimensiones más altas utilizando tres métodos: examinando sus sombras, sus secciones y sus despliegues. Todavía hoy, estos tres métodos son las principales formas en las que los matemáticos y físicos profesionales conceptúan objetos de dimensiones más altas en su trabajo. Los científicos cuyos diagramas aparecen en las revistas de física actuales tienen una pequeña deuda de gratitud con el trabajo de Hinton. El concurso de la cuarta dimensión En sus artículos, Hinton tenía respuestas para todas las preguntas posibles. Cuando la gente le pedía que diese un nombre a la cuarta dimensión, él respondía que las palabras ana y kata describían el

movimiento en la cuarta dimensión y eran las contrapartidas de los términos arriba y abajo, o izquierda y derecha. Cuando le preguntaban dónde estaba la cuarta dimensión, él también tenía una respuesta a punto. Por el momento, consideremos el movimiento del humo de un cigarrillo en una habitación cerrada. Puesto que los átomos del humo, por las leyes de la termodinámica, se extienden y difunden por todos los lugares posibles de la habitación, podemos determinar si existe alguna región del espacio ordinario tridimensional en la que no haya moléculas de humo. Sin embargo, las observaciones experimentales muestran que no existen tales regiones ocultas. De este modo, la cuarta dimensión espacial es posible sólo si es mucho más pequeña que las partículas de humo. Así pues, si la cuarta dimensión existe realmente, debe ser increíblemente pequeña, incluso más pequeña que un átomo. Ésta es la filosofía que adoptó Hinton, la de que todos los objetos en nuestro universo tridimensional existen en la cuarta dimensión, pero que la cuarta dimensión es tan pequeña que elude cualquier observación experimental. (Descubriremos que los físicos de hoy adoptan esencialmente la misma filosofía que Hinton y concluyen que las dimensiones más altas son demasiado pequeñas para ser vistas experimentalmente. Cuando se le preguntaba: «¿Qué es la luz?», él también tenía a punto una respuesta. Siguiendo a Riemann, Hinton creía que la luz es una vibración de la cuarta dimensión invisible, que es esencialmente el punto de vista que hoy adoptan muchos físicos teóricos.) Fig ura 3.8. Un planilandés puede visualizar un cubo En los Estados Unidos, Hinton desencadenó examinando su sombra, que aparece como un cuadrado dentro de un cuadrado. Si se gira el cubo, los cuadrados ejecutan por sí solo un enorme interés público por la cuarta movimientos que parecen imposibles a un planilandés. dimensión. Revistas populares como Harper’s Análogamente, la sombra de un hipercubo es un cubo dentro de Weekly, McClure’s, Current Literature. Popular un cubo. Si se gira el hipercubo en cuatro dimensiones, los cubos ejecutan movimientos que parecen imposibles para nuestros Science Monthly y Science dedicaron páginas al cerebros tridimensionales. floreciente interés por la cuarta dimensión. Pero lo que probablemente aseguró la fama de Hinton en Norteamérica fue el famoso concurso patrocinado

por Scientific American en 1909. Este concurso inusual ofrecía un premio de quinientos dólares (una cantidad de dinero considerable en 1909) para «la mejor explicación popular de la cuarta dimensión». Los editores de la revista quedaron agradablemente sorprendidos por el diluvio de cartas que inundó sus oficinas, incluyendo envíos desde lugares tan lejanos como Turquía, Austria, Holanda, India, Australia, Francia y Alemania. El objeto del concurso era «establecer en un ensayo no mayor de dos mil quinientas palabras el significado del término de modo que el lector profano ordinario pudiera comprenderlo». Dio lugar a un gran número de ensayos serios. Algunos lamentaban el hecho de que personas como Zöllner y Slade hubieran ensuciado la reputación de la cuarta dimensión mezclándola con el espiritualismo. Sin embargo, muchos de los ensayos reconocían el trabajo pionero de Hinton sobre la cuarta dimensión. (Sorprendentemente, ningún ensayo mencionaba el trabajo de Einstein. En 1909, todavía no estaba claro que Einstein hubiera desvelado el secreto del espacio y del tiempo. De hecho, la idea del tiempo como cuarta dimensión no aparecía en un solo ensayo.) Sin verificación experimental, el concurso de Scientific American no podía, por supuesto, resolver la cuestión de la existencia de dimensiones más altas. Sin embargo, el concurso planteaba la cuestión de qué aspecto tendrían los objetos de más dimensiones. Monstruos de la cuarta dimensión ¿Cómo sería encontrarse con una criatura de una dimensión más alta? Quizá la mejor manera de explicar el asombro y la excitación de una hipotética visita a otras dimensiones sea a través de la ciencia ficción, en donde los escritores han tratado de resolver esta cuestión. En «El monstruo de ninguna parte», el escritor Nelson Bond trató de imaginar qué sucedería si un explorador en las selvas de Latinoamérica encontrase una criatura procedente de dimensiones más altas. Nuestro héroe es Burch Patterson, aventurero, bon vivant, y soldado de fortuna, a quien se le ocurre la idea de capturar animales salvajes en las altas montañas del Perú. La expedición será sufragada por varios zoológicos, que aportarán el dinero para traer de regreso cualquier animal que Patterson pueda encontrar. Con mucho estruendo y fanfarria, la prensa cubre el avance de la expedición en su viaje a territorios inexplorados. Pero tras algunas semanas, la expedición pierde contacto con el mundo exterior y desaparece misteriosamente sin dejar huella. Tras una larga y vana búsqueda, las autoridades dan de mala gana por muertos a los exploradores. Dos años después, Burch Patterson reaparece repentinamente. Se encuentra en secreto con periodistas y les cuenta una historia sorprendente de tragedia y heroísmo. Justo antes de desaparecer, la expedición encontró un animal fantástico en la meseta Maratán del alto Perú, una criatura sobrenatural parecida a una mancha que constantemente cambiaba de forma del modo más extraño. Estas manchas negras se mantenían en el aire, desapareciendo y reapareciendo y cambiando de forma y tamaño. Luego las manchas atacaron inesperadamente a la expedición, matando a la mayoría de los hombres. Las manchas levantaron del suelo a algunos de los hombres que quedaban; ellos gritaron y luego se desvanecieron en el aire. Sólo Burch escapó al desastre. Aunque aturdido y aterrorizado, él estudió estas manchas a

distancia y poco a poco se formó una teoría sobre lo que eran y cómo capturarlas. Había leído Planilandia años antes, e imaginó que cualquiera que abriese y cerrase sus dedos en Planilandia sorprendería a los habitantes bidimensionales. Los planilandeses verían anillos de carne pulsantes flotando en el aire (nuestros dedos hurgando en Planilandia), y cambiando constantemente de tamaño. Del mismo modo, razonaba Patterson, cualquier criatura de más dimensiones metiendo sus pies o brazos a través de nuestro universo aparecería como manchas de carne pulsantes y tridimensionales que surgían de la nada y cambiaban constantemente de forma y tamaño. Esto explicaría también por qué los miembros de su equipo habían desaparecido en el aire: habían sido arrastrados al interior de un universo multidimensional. Pero todavía le atormentaba una pregunta: ¿Cómo capturar a un ser de dimensiones más altas? Si un planilandés, al ver nuestro dedo entrando en su universo bidimensional, tratara de atrapar nuestro dedo, lo haría en vano. Si tratara de echar un lazo a nuestro dedo, nosotros podríamos simplemente apartar nuestro dedo y desaparecer. Análogamente, razonaba Patterson, él podría colocar una red alrededor de una de estas manchas, pero entonces la criatura de dimensión más alta podría simplemente sacar su «dedo» o «pierna» de nuestro universo, y la red colapsaría. De repente, le llegó la respuesta: si un planilandés tuviera que capturar nuestro dedo cuando se introducía en Planilandia, el planilandés podría clavar una aguja a través del mismo, ensartándolo dolorosamente al universo bidimensional. Así pues, la estrategia de Patterson consistía en introducir una lanza a través de una de las manchas ¡y ensartar la criatura en nuestro universo! Después de meses de observar a la criatura, Patterson identificó qué aspecto tendría el «pie» de ésta y clavó una lanza a través del mismo. Le llevó dos años capturar a la criatura y enviar la mancha que luchaba y se retorcía a New Jersey. Finalmente, Patterson anuncia una gran conferencia de prensa donde mostrará una fantástica criatura atrapada en Perú. Periodistas y científicos quedan igualmente horrorizados cuando la criatura es mostrada, retorciéndose y luchando contra una gran barra de acero. Como en una escena de King Kong, un periodista, rompiendo las reglas, hace fotografías y el flash encoleriza a la criatura que forcejea tanto con la barra que su carne empieza a rasgarse. De repente, el monstruo queda libre, y estalla el pandemónium. Las personas son descuartizadas, y Patterson y otros son atrapados por la criatura y luego desaparecen en la cuarta dimensión. Al día siguiente de la tragedia, uno de los supervivientes de la masacre decide quemar cualquier evidencia de la criatura. Mejor dejar este misterio irresuelto para siempre. Construir una casa tetradimensional En la sección anterior, se exploró la cuestión de lo que sucede cuando encontramos un ser de dimensiones más altas. Pero, ¿qué sucede en la situación inversa, cuando nosotros visitamos un universo de dimensiones más altas? Como hemos visto, un planilandés no puede visualizar un universo tridimensional en su totalidad. Sin embargo, existen, como Hinton demostró, varias formas en las que el planilandés puede intuir fragmentos reveladores de universos de mayores dimensiones. En su clásico relato corto «… Y él construyó una casa tortuosa…», Robert Heinlein exploró las muchas posibilidades de vivir en un hipercubo desplegado. Quintus Teal es un arquitecto atrevido y barroco cuya ambición es construir una casa de una

forma realmente revolucionaria: un tesseract, un hipercubo que ha sido desplegado en la tercera dimensión. Él convence a sus amigos Mr. y Mrs. Bailey para que compren la casa. Construido en Los Ángeles, el tesseract es una serie de ocho cubos ultramodernos apilados uno encima de otro en forma de cruz. Por desgracia, precisamente cuando Teal está a punto de mostrar su nueva creación a los Bailey, un terremoto asuela el sur de California y la casa se colapsa sobre sí misma. Los cubos empiezan a caer, pero extrañamente sólo un simple cubo queda en pie. Los otros han desaparecido misteriosamente. Cuando Teal y los Bailey entran con cautela en la casa, ahora sólo un simple cubo, se sorprenden de que las otras habitaciones que faltan son claramente visibles a través de las ventanas de la primera planta. Pero eso es imposible. La casa es ahora sólo un simple cubo. ¿Cómo puede estar el interior de un simple cubo conectado a una serie de otros cubos que no pueden verse desde fuera? Suben las escaleras y encuentran el dormitorio principal sobre la entrada. Sin embargo, en lugar de encontrar la tercera planta se hallan de nuevo en la planta baja. Pensando que la casa está encantada, los aterrorizados Bailey corren a la puerta de entrada. En lugar de salir al exterior, la puerta de entrada sólo les lleva a otra habitación. Mrs. Bailey se desmaya. A medida que exploran la casa, encuentran que cada habitación está conectada a una serie imposible de otras habitaciones. En la casa original, cada cubo tenía ventanas que daban al exterior. Ahora, todas las ventanas dan a otras habitaciones. ¡No hay exterior! Presos del pánico, intentan lentamente probar todas las puertas de la casa, sólo para entrar en otras habitaciones. Finalmente, en el salón deciden abrir las persianas y mirar fuera. Cuando abren la primera persiana descubren que están mirando al Empire State Building. Aparentemente, esa ventana se abría a una «ventana» en el espacio precisamente sobre la aguja de la torre. Cuando abren la segunda persiana se encuentran mirando un vasto océano, excepto que está boca abajo. Al abrir la tercera persiana se encuentran mirando la Nada. No el espacio vacío. No la negrura. Sólo la Nada. Finalmente, al abrir la última persiana se encuentran mirando un paisaje desértico, probablemente un paisaje de Marte. Tras un recorrido angustioso por las habitaciones de la casa, con cada habitación conectada de forma imposible a las otras habitaciones, Teal finalmente se imagina lo que ocurrió. El terremoto, razona él, debe haber colapsado las uniones de los diversos cubos y plegado la casa en la cuarta dimensión.[39] Desde fuera, la casa de Teal se parecía originalmente a una secuencia ordinaria de cubos. La casa no colapsaba porque las uniones entre los cubos eran rígidas y estables en tres dimensiones. Sin embargo, vista desde la cuarta dimensión, la casa de Teal es un hipercubo desplegado que puede ser recompuesto o vuelto a plegar en un hipercubo. De este modo, cuando la casa fue agitada por el terremoto, se plegó de alguna manera en cuatro dimensiones, dejando sólo un simple cubo tambaleándose en nuestra tercera dimensión. Cualquiera que camine por el único cubo que queda vería una serie de habitaciones conectadas de una forma aparentemente imposible. Recorriendo las diversas habitaciones, Teal ha entrado en la cuarta dimensión sin advertirlo. Aunque nuestros protagonistas parecen condenados a pasar sus vidas vagando infructuosamente en círculos en el interior de un hipercubo, otro terremoto violento sacude el tesseract. Conteniendo la respiración, Teal y los aterrados Bailey saltan por la ventana más próxima. Cuando aterrizan, se

encuentran en el Monumento Nacional de Joshua Tree, a algunos kilómetros de Los Ángeles. Horas después, tomando un coche de vuelta a la ciudad, regresan a la casa, sólo para descubrir que el último cubo que quedaba ha desaparecido. ¿Dónde fue el tesseract? Probablemente está flotando en alguna parte de la cuarta dimensión. La inútil cuarta dimensión Visto en retrospectiva, la famosa conferencia de Riemann fue popularizada para una amplia audiencia por vía de místicos, filósofos y artistas, pero hizo poco por avanzar en nuestra comprensión de la naturaleza. Desde la perspectiva de la física moderna, también podemos ver por qué los años que van de 1860 a 1905 no produjeron ningún avance fundamental en nuestra comprensión del hiperespacio. En primer lugar, no hubo intento alguno por utilizar el hiperespacio para simplificar las leyes de la naturaleza. Sin el principio guía original de Riemann —que las leyes de la naturaleza se vuelven simples en dimensiones más altas— los científicos de este periodo estaban tanteando en la oscuridad. La idea seminal de Riemann de utilizar la geometría —es decir, el hiperespacio arrugado— para explicar la esencia de una «fuerza» quedó olvidada durante aquellos años. En segundo lugar, no hubo ningún intento de explotar el concepto de campo de Faraday o el tensor métrico de Riemann para encontrar las ecuaciones de campo a que obedece el hiperespacio. El aparato matemático desarrollado por Riemann se convirtió en una rama de las matemáticas puras, contrariamente a la intención original de Riemann. Sin teoría de campos, no se puede hacer ninguna predicción con el hiperespacio. Así pues, hacia el cambio de siglo, los cínicos afirmaban (justificadamente) que no había confirmación experimental de la cuarta dimensión. Peor todavía, afirmaban, no había ningún motivo físico para introducir la cuarta dimensión, aparte de excitar al público general con historias de fantasmas. Sin embargo, esta deplorable situación iba a cambiar pronto. En algunas décadas, la teoría de la cuarta dimensión (del tiempo) cambiaría para siempre el curso de la historia humana. Nos daría la bomba atómica y la teoría de la propia Creación. Y el hombre que lo haría sería un oscuro físico llamado Albert Einstein.

4 EL SECRETO DE LA LUZ: VIBRACIONES EN LA QUINTA DIMENSIÓN

Si [la relatividad] se mostrase correcta, como espero que lo hará, él será considerado el Copérnico del siglo XX. MAX PLANCK sobre ALBERT EINSTEIN La vida de Albert Einstein parece ser una larga serie de fracasos y disgustos. Incluso su madre estaba angustiada por lo lentamente que aprendió a hablar. Sus maestros de la escuela elemental le consideraban un soñador loco. Se quejaban de que continuamente estaba interrumpiendo la disciplina de las aulas con sus preguntas estúpidas. Un maestro llegó a decir bruscamente al muchacho que preferiría que abandonase su clase. Tuvo pocos amigos en la escuela. Al perder interés en sus cursos, abandonó la escuela secundaria. Sin un diploma de enseñanza media, tuvo que pasar un examen especial para entrar en el instituto, pero no lo superó y tuvo que presentarse una segunda vez. Incluso suspendió el examen para la milicia suiza porque tenía los pies planos. Después de su graduación, no encontró trabajo. Era un físico en paro que fue descartado para una plaza de profesor en la universidad y era rechazado en todos los trabajos que solicitaba. Apenas ganaba tres francos por hora —una miseria— por tutorizar estudiantes. Dijo a su amigo Maurice Solovine que «una manera más fácil de ganarse la vida sería tocar el violín en lugares públicos». Einstein era un hombre que rechazaba las cosas que persiguen la mayoría de los hombres, como el poder y el dinero. Sin embargo, una vez advirtió con pesimismo: «Por la mera existencia de su estómago, todo el mundo está condenado a participar en esta caza». Finalmente, gracias a la influencia de un amigo, consiguió un trabajo ínfimo como funcionario en la oficina de patentes suiza en Berna, ganando justo lo suficiente para que sus padres no tuvieran que mantenerlo. Con este exiguo salario, él mantuvo a su joven esposa y a su hija recién nacida. Careciendo de recursos financieros o conexiones con el mundo científico, Einstein comenzó a trabajar en soledad en la oficina de patentes. Entre una patente y otra, su mente volaba a los problemas que le habían intrigado cuando era joven. Entonces emprendió una tarea que iba a cambiar el curso de la historia humana. Su herramienta fue la cuarta dimensión. Preguntas de niños ¿Dónde reside la esencia del genio de Einstein? En The Ascent of Man, Jacob Bronowski escribió: «El genio de hombres como Newton y Einstein reside en que hacen preguntas inocentes y transparentes que resultan tener respuestas revolucionarias. Einstein era un hombre que podía plantear cuestiones tremendamente simples».[40] De niño, Einstein se planteaba a sí mismo la sencilla pregunta: ¿Qué

aspecto tendría un rayo de luz si uno pudiera alcanzarlo? ¿Vería uno una onda estacionaria congelada en el tiempo? Esta pregunta le llevó a un viaje de cincuenta años a través de los misterios del espacio y del tiempo. Imagínese tratando de adelantar a un tren con un automóvil a gran velocidad. Si pisamos el acelerador, nuestro automóvil corre en paralelo con el tren. Podemos mirar al interior del tren, que ahora parece estar en reposo. Podemos ver los asientos y las personas que actúan como si el tren no se moviera. Análogamente, Einstein se imaginaba de niño viajando junto a un rayo de luz. Pensaba que el rayo de luz se parecería a una serie de ondas estacionarias, congelada en el tiempo; es decir, el rayo de luz parecería inmóvil. Cuando Einstein tenía dieciséis años reconoció el fallo de este argumento. Posteriormente recordaba: Tras diez años de reflexión, ese principio resultó de una paradoja con la que topé ya a los dieciséis años: si corro detrás de un rayo de luz con la velocidad c (velocidad de la luz en el vacío), debería percibir el rayo luminoso como un campo electromagnético estacionario, aunque espacialmente oscilante. Pero semejante cosa no parece que exista, ni sobre la base de la experiencia ni según las ecuaciones de Maxwell.[41]

En el instituto, Einstein confirmó sus sospechas. Aprendió que la luz puede ser expresada en términos de los campos eléctrico y magnético de Faraday, y que estos campos obedecen a las ecuaciones de campo descubiertas por James Clerk Maxwell. Tal como sospechaba, descubrió que las ondas estacionarias congeladas no están permitidas por las ecuaciones de campo de Maxwell. De hecho, Einstein demostró que un rayo de luz viaja a la misma velocidad c, por mucho que uno trate de alcanzarlo. A primera vista, esto parecía absurdo. Ello significaba que nunca podremos adelantar al tren (rayo de luz). Lo que es peor, por muy rápido que conduzcamos nuestro automóvil, el tren siempre parecerá estar viajando por delante de nosotros a la misma velocidad. En otras palabras, un rayo de luz es como el «buque fantasma» sobre el que tantas historias les gusta contar a los viejos marineros. Es un barco fantasma que nunca puede ser abordado. Por muy rápido que nosotros naveguemos, el barco fantasma siempre nos evita, burlándose de nosotros. En 1905, disponiendo de mucho tiempo en la oficina de patentes, Einstein analizó cuidadosamente las ecuaciones de campo de Maxwell y fue llevado a postular el principio de la relatividad especial: la velocidad de la luz es la misma en todos los sistemas de referencia en movimiento uniforme. Este principio de apariencia inocente es uno de los mayores logros de la mente humana. Algunos han dicho que, junto con la ley de gravitación de Newton, se sitúa como una de las más grandes creaciones científicas de la mente humana durante los dos millones de años en los que nuestra especie ha estado evolucionando sobre este planeta. A partir de él, podemos abrir lógicamente el secreto de las grandes energías liberadas por las estrellas y las galaxias. Para ver cómo este enunciado simple puede conducir a conclusiones tan profundas, volvamos a la analogía del automóvil tratando de adelantar al tren. Supongamos que un peatón en el arcén cronometra que nuestro automóvil viaja a 99 kilómetros por hora, y que el tren viaja a 100 kilómetros por hora. Naturalmente, desde nuestro punto de vista en el automóvil, vemos que el tren se mueve por delante de nosotros a 1 kilómetro por hora. Esto se debe a que las velocidades pueden sumarse y restarse exactamente igual que los números ordinarios.

Reemplacemos ahora al tren por un rayo de luz, pero mantengamos la velocidad de la luz en 100 kilómetros por hora solamente. El peatón sigue cronometrando que nuestro automóvil viaja a 99 kilómetros por hora en persecución del rayo de luz que viaja a 100 kilómetros por hora. Según el peatón, nosotros estaríamos cerca del rayo de luz. Sin embargo, según la relatividad, nosotros en el automóvil vemos realmente que el rayo de luz no está viajando por delante de nosotros a 1 kilómetro por hora, como se esperaba, sino corriendo por delante de nosotros a 100 kilómetros por hora. Sorprendentemente, vemos que el rayo de luz se aleja de nosotros como si estuviéramos en reposo. Sin creer a nuestros propios ojos, pisamos el acelerador hasta que el peatón cronometra que nuestro automóvil corre a 99,99999 kilómetros por hora. Seguramente, pensamos nosotros, debemos estar a punto de alcanzar al rayo de luz. Sin embargo, cuando miramos por la ventanilla, vemos que el rayo de luz sigue corriendo por delante de nosotros a 100 kilómetros por hora. De mala gana, llegamos a varias conclusiones extrañas y perturbadoras. En primer lugar, por mucho que forcemos el motor de nuestro automóvil, el peatón nos dice que podemos acercarnos pero nunca superar los 100 kilómetros por hora. Esta parece ser la velocidad límite del automóvil. En segundo lugar, por mucho que nos acerquemos a los 100 kilómetros por hora, seguimos viendo que el rayo de luz viaja por delante de nosotros a 100 kilómetros por hora, como si no nos estuviésemos moviendo en absoluto. Pero esto es absurdo. ¿Cómo es posible que tanto las personas en el coche en movimiento como la persona en reposo midan la misma velocidad para el rayo de luz? Normalmente, esto es imposible. Parece ser una broma colosal de la naturaleza. Hay sólo un escape a esta paradoja. Inexorablemente, nos vemos llevados a la sorprendente conclusión que sacudió a Einstein en lo más profundo cuando la concibió por primera vez. La única solución a este rompecabezas es que el tiempo se frena para nosotros en el automóvil. Si el peatón toma un telescopio y mira en el interior de nuestro automóvil, ve que todo el mundo en el automóvil se mueve de forma excepcionalmente lenta-Sin embargo, nosotros en el automóvil nunca notamos que el tiempo se está frenando porque también nuestros cerebros se han frenado y todo nos parece normal. Además, el peatón ve que el automóvil se ha achatado en la dirección del movimiento. El automóvil se ha contraído como un acordeón. Sin embargo, nosotros no sentimos nunca este efecto porque también nuestros cuerpos se han contraído. El espacio y el tiempo nos juegan malas pasadas. En experimentos reales, los científicos han demostrado que la velocidad de la luz es siempre c, por muy rápido que nosotros viajemos. Esto se debe a que cuanto más rápido viajamos, más lentos marchan nuestros relojes y más cortas se hacen nuestras reglas. De hecho, nuestros relojes se frenan y nuestras reglas se contraen lo preciso para que, cuando quiera que midamos la velocidad de la luz, resulte ser la misma. Pero ¿por qué no podemos ver o sentir este efecto? Puesto que nuestros cerebros están pensando con más lentitud, y nuestros cuerpos también se están haciendo más estrechos a medida que nos aproximamos a la velocidad de la luz, nosotros somos felizmente inconscientes de que nos estamos convirtiendo en tortas planas con lentos reflejos. Estos efectos relativistas, por supuesto, son demasiado pequeños para notarse en la vida cotidiana debido a que la velocidad de la luz es muy grande. Sin embargo, viviendo en Nueva York, constantemente me vienen a la mente estas fantásticas distorsiones del espacio y del tiempo cada vez

que monto en el metro. Cuando estoy en el andén del metro sin nada que hacer excepto esperar al próximo tren, a veces dejo que mi imaginación vuele y me pregunto cómo sería todo si la velocidad de la luz fuera sólo de, digamos, 50 kilómetros por hora, la velocidad del tren del metro. Entonces, cuando el tren ruge finalmente en la estación, aparece comprimido, como un acordeón. El tren, imagino, sería una plancha achatada de metal de unos 30 cm de grosor, deslizándose por los raíles. Y todo el mundo en el interior de los vagones de metro sería tan fino como el papel. También estarían virtualmente congelados en el tiempo, como si fuesen estatuas sin movimiento. Sin embargo, cuando el tren llega a detenerse, se expande súbitamente, hasta que esta plancha de metal llena poco a poco toda la estación. Por absurdas que estas distorsiones pudieran parecer, los pasajeros en el interior del tren serían totalmente inconscientes de estos cambios. Sus cuerpos y el propio espacio estarían comprimidos a lo largo de la dirección del movimiento del tren; cualquier cosa parecería tener su forma normal. Además, sus cerebros se habrían ralentizado, de modo que todo el mundo en el interior del tren actuaría normalmente. Luego, cuando el tren llega finalmente a detenerse, ellos son totalmente inconscientes de que, para quien está en el andén, su tren parece expandirse milagrosamente hasta que llena todo el andén. Cuando los pasajeros salen del tren, son totalmente inconscientes de los cambios profundos exigidos por la relatividad especial.[42] La cuarta dimensión y las reuniones del instituto Ha habido, por supuesto, cientos de resúmenes populares de la teoría de Einstein que resaltan aspectos diferentes de su obra. Sin embargo, pocos informes captan la esencia de la teoría de la relatividad especial, que consiste en que el tiempo es la cuarta dimensión y que las leyes de la naturaleza se simplifican y unifican en dimensiones más altas. La introducción del tiempo como la cuarta dimensión superaba el concepto de tiempo que se remontaba hasta Aristóteles. El espacio y el tiempo estarían ahora dialécticamente unidos para siempre por la relatividad especial. (Zöllner y Hinton habían supuesto que la siguiente dimensión en ser descubierta sería la cuarta dimensión espacial. A este respecto, ellos estaban equivocados y H. G. Wells estaba en lo cierto. La siguiente dimensión en ser descubierta sería el tiempo, una cuarta dimensión temporal. Los avances en la comprensión de la cuarta dimensión espacial tendrían que esperar varias décadas más.) Para ver cómo las dimensiones más altas simplifican las leyes de la naturaleza, recordemos que un objeto tiene longitud, anchura y altura. Puesto que tenemos libertad para girar un objeto 90 grados, podemos transformar su longitud en anchura y su anchura en altura. Mediante una simple rotación, podemos intercambiar cualquiera de las tres dimensiones espaciales. Ahora bien, si el tiempo es la cuarta dimensión, entonces es posible hacer «rotaciones» que convierten el espacio en tiempo y viceversa. Estas «rotaciones» tetradimensionales son precisamente las distorsiones del espacio y del tiempo exigidas por la relatividad especial. En otras palabras, espacio y tiempo se mezclan de una forma esencial, gobernada por la relatividad. El significado del tiempo como la cuarta dimensión es que pueden hacerse rotaciones entre el tiempo y el espacio de una forma matemáticamente precisa. A partir de ahora, deben ser tratados como dos aspectos de una misma magnitud: el espacio-tiempo. De este modo, añadir una dimensión más alta ayudaba a unificar las leyes de la naturaleza.

Newton, escribiendo hace trescientos años, pensaba que el tiempo transcurría a la misma velocidad en cualquier parte del universo. Ya estuviéramos en la Tierra, en Marte, o en una estrella lejana, se esperaba que los relojes marcharan a la misma velocidad. Se pensaba que había un ritmo absoluto y uniforme del paso del tiempo en el universo entero. Rotaciones entre tiempo y espacio eran inconcebibles. El tiempo y el espacio eran dos magnitudes distintas sin relación entre sí. Unificarlas en una sola magnitud resultaba impensable. Sin embargo, según la relatividad especial, el tiempo puede transcurrir a diferentes velocidades, dependiendo de cuán rápido se esté uno moviendo. Que el tiempo sea la cuarta dimensión significa que el tiempo está intrínsecamente ligado al movimiento en el espacio. La rapidez con que marcha un reloj depende de la rapidez con que se esté moviendo en el espacio. Cuidadosos experimentos hechos con relojes atómicos puestos en órbita en torno a la Tierra han confirmado que un reloj en la Tierra y un reloj en un cohete en el espacio exterior marchan a velocidades diferentes. Me vino gráficamente a la memoria el principio de la relatividad cuando fui invitado a la reunión del vigésimo aniversario de mi promoción en el instituto. Aunque yo no había visto a la mayoría de mis compañeros de clase desde la graduación, suponía que todos ellos mostrarían los mismos signos de la edad. Como era de esperar, la mayoría de quienes estábamos en la reunión quedamos aliviados al descubrir que el proceso de envejecimiento era universal: parecía que todos nosotros lucíamos canas, anchas cinturas y algunas arrugas. Aunque estábamos separados en el espacio y en el tiempo por varios miles de kilómetros y veinte años, cada uno de nosotros había supuesto que el tiempo había transcurrido uniformemente para todos. Automáticamente supusimos que cada uno de nosotros envejecería a la misma velocidad. Entonces dejé vagar mi mente e imaginé qué sucedería si un compañero de clase entrase en la sala de la reunión con el mismo aspecto que tenía el día de la graduación. Al principio, sería probablemente el centro de las miradas de sus compañeros de clase. ¿Era ésta la misma persona que conocimos hace veinte años? Cuando la gente advirtiese que lo era, un sentimiento de pánico recorrería el salón. Quedaríamos sobresaltados por este encuentro porque suponemos tácitamente que los relojes marchan igual en todas partes, incluso si están separados por grandes distancias. Sin embargo, si el tiempo es la cuarta dimensión, el espacio y el tiempo pueden rotar de uno a otro y los relojes pueden marchar a velocidades diferentes, dependiendo de lo rápido que se muevan. Este compañero de clase, por ejemplo, pudo haber entrado en un cohete que viajara a velocidades próximas a la de la luz. Para nosotros, el viaje del cohete podría haber durado veinte años. Sin embargo, desde su punto de vista, debido a que el tiempo se frena en el veloz cohete, sólo habrían transcurrido unos pocos instantes desde el día de la graduación. Según él, simplemente entró en el cohete, viajó en el espacio exterior durante unos pocos minutos, y luego volvió a la Tierra a tiempo para su reunión del vigésimo aniversario del instituto después de un viaje corto y placentero, teniendo aún una apariencia joven entre un bosque de cabellos grisáceos. También me acuerdo de que la cuarta dimensión simplifica las leyes de la naturaleza cuando pienso en mi primer encuentro con las ecuaciones de campo de Maxwell. Cualquier estudiante de licenciatura que aprende la teoría de la electricidad y el magnetismo tarda varios años en dominar estas ocho ecuaciones abstractas, que son excepcionalmente feas y muy opacas. Las ocho ecuaciones

de Maxwell son incómodas y difíciles de memorizar porque el tiempo y el espacio se tratan por separado. (Incluso hoy, he tenido que buscarlas en un libro para estar seguro de que tenía todos los signos y símbolos correctos.) Aún recuerdo el alivio que sentí cuando aprendí que estas ecuaciones se reducen a una ecuación de aspecto trivial cuando el tiempo se trata como la cuarta dimensión. Con un golpe maestro, la cuarta dimensión simplifica estas ecuaciones de un modo bello y transparente. [43] Escritas de esta forma, las ecuaciones poseen una simetría más alta; es decir, el espacio y el tiempo pueden transformarse uno en otro. Del mismo modo que un bello copo de nieve queda igual cuando lo giramos alrededor de su eje, las ecuaciones de campo de Maxwell, escritas en forma relativista, permanecen iguales cuando rotamos el espacio y el tiempo. De forma notable, esta sola ecuación, escrita en una forma relativista, contiene el mismo contenido físico que las ocho ecuaciones originalmente escritas por Maxwell hace más de cien años. Esta ecuación, a su vez, gobierna las propiedades de las dinamos, el radar, la radio, la televisión, los láseres, los electrodomésticos y la cornucopia de aparatos electrónicos que aparecen en la sala de estar de cualquier casa. Ésta fue una de mis primeras exposiciones al concepto de belleza en la física; es decir, que la simetría del espacio tetradimensional puede explicar un vasto océano de conocimiento físico que llenaría una biblioteca de ingeniería. Una vez más, esto demuestra uno de los temas principales de este libro, a saber: que la adición de dimensiones más altas ayuda a simplificar y unificar las leyes de la naturaleza. La materia como energía condensada Hasta ahora, esta discusión de la unificación de las leyes de la naturaleza ha sido más bien abstracta, y lo habría seguido siendo si Einstein no hubiese dado el siguiente paso decisivo. Él comprendió que si el espacio y el tiempo pueden unificarse en una sola entidad, llamada espacio-tiempo, entonces quizá la materia y la energía pueden unirse también en una relación dialéctica. Si las reglas pueden contraerse y los relojes frenarse, razonó él, entonces cualquier cosa que midamos con reglas y relojes también debe cambiar. Sin embargo, casi todo en el laboratorio de un físico se mide con reglas y relojes. Esto significa que los físicos tendrían que recalibrar todas las magnitudes del laboratorio que una vez dieron por hecho que eran constantes. En concreto, la energía es una cantidad que depende de cómo midamos las distancias y los intervalos de tiempo. Un automóvil de prueba que choca a gran velocidad contra una pared de ladrillo tiene obviamente energía. No obstante, si el veloz automóvil se aproxima a la velocidad de la luz, sus propiedades se distorsionan. Se contrae como un acordeón y los relojes en su interior se frenan. Lo que es más importante, Einstein descubrió que la masa del automóvil también aumenta cuando se acelera. Pero ¿de dónde procede este exceso de masa? Einstein concluyó que procedía de la energía. Esto tuvo consecuencias perturbadoras. Dos de los grandes descubrimientos de la física del siglo XIX fueron la conservación de la masa y la conservación de la energía; es decir, la masa total y la energía total de un sistema cerrado, tomadas por separado, no cambian. Por ejemplo, si el coche veloz choca contra el muro de ladrillo, la energía del automóvil no desaparece, sino que se convierte en energía sonora del choque, energía cinética de los fragmentos de ladrillo que salen despedidos,

energía calorífica, y así sucesivamente. La energía total (y la masa total) antes y después del choque es la misma. Sin embargo, Einstein decía ahora que la energía del automóvil podía convertirse en masa —un nuevo principio de conservación que decía que la suma total de la masa y la energía debe siempre permanecer constante. La materia no desaparece repentinamente, ni la energía brota de la nada. En este sentido, los constructores de Dios estaban equivocados y Lenin tenía razón. La materia desparece sólo para liberar enormes cantidades de energía, o viceversa. Cuando Einstein tenía veintiséis años, calculó exactamente cómo debía cambiar la energía si el principio de la relatividad era correcto, y descubrió la relación E = mc2. Puesto que la velocidad de la luz al cuadrado (c2) es un número astronómicamente grande, una pequeña cantidad de materia puede liberar una enorme cantidad de energía. Dentro de las partículas más pequeñas de materia hay un almacén de energía, más de un millón de veces la energía liberada en una explosión química. La materia, en cierto sentido, puede verse como un almacén casi inagotable de energía; es decir, la materia es energía condensada. A este respecto, vemos la profunda diferencia entre la obra del matemático (Charles Hinton) y la del físico (Albert Einstein). Hinton pasó la mayor parte de sus años adultos tratando de visualizar dimensiones espaciales más altas. No tenía interés en descubrir una interpretación física para la cuarta dimensión. Einstein, sin embargo, vio que la cuarta dimensión puede considerarse como una dimensión temporal. Estaba guiado por una convicción y una intuición física de que las dimensiones más altas tienen un propósito: unificar los principios de la naturaleza. Añadiendo dimensiones más altas podía unir conceptos físicos que, en un mundo tridimensional, no tienen relación, tales como la materia y la energía. Desde entonces en adelante, los conceptos de materia y energía serían considerados como una sola unidad: materia-energía. El impacto directo del trabajo de Einstein sobre la cuarta dimensión fue, por supuesto, la bomba de hidrógeno, que se ha considerado como la más poderosa creación de la ciencia del siglo XX. «La idea más feliz de mi vida» Einstein, sin embargo, no estaba satisfecho. Su teoría de la relatividad especial por sí sola le hubiera garantizado un lugar entre los gigantes de la física. Pero algo faltaba. La intuición clave de Einstein consistió en utilizar la cuarta dimensión para unir las leyes de la naturaleza introduciendo dos conceptos nuevos: espacio-tiempo y materia-energía. Aunque había desvelado algunos de los secretos más profundos de la naturaleza, era consciente de que había varias lagunas en su teoría. ¿Cuál era la relación entre estos dos nuevos conceptos? Más concretamente, ¿qué pasa con las aceleraciones, que son ignoradas en la relatividad especial? ¿Y qué pasa con la gravitación? Su amigo Max Planck, el fundador de la teoría cuántica, advirtió al joven Einstein que el problema de la gravitación era demasiado difícil. Planck le dijo que era demasiado ambicioso: «Como un viejo amigo debo prevenirle que, en primer lugar, usted no tendrá éxito; e incluso si lo tuviese, nadie le creería».[44] Einstein, sin embargo, se lanzó hacia adelante para desvelar el misterio de la gravitación. Una vez más, la clave para su descubrimiento trascendental consistió en plantear

cuestiones que sólo los niños plantean. Cuando los niños montan en un ascensor, a veces preguntan nerviosos: «¿Qué pasa si se rompe la cuerda?». La respuesta es que usted quedará sin peso y flotando dentro del ascensor, como en el espacio exterior, porque tanto usted como el ascensor están cayendo a la misma velocidad. Aunque tanto usted como el ascensor se están acelerando en el campo gravitatorio de la Tierra, la aceleración es la misma para ambos y, por consiguiente, parece que usted está sin peso en el ascensor (al menos hasta que llegue al fondo de la caja). En 1907, Einstein se dio cuenta de que una persona flotando en el ascensor pensaría que alguien había desconectado misteriosamente la gravedad. Einstein recordaba en cierta ocasión: «Estaba sentado en una silla en la oficina de patentes de Berna cuando de repente me vino una idea: “Si una persona cae en caída libre no sentirá su propio peso”. Quedé sorprendido. Esta sencilla idea me causó una profunda impresión. Me impulsó hacia una teoría de la gravitación».[45] Einstein lo calificaría como «la idea más feliz de mi vida». Invirtiendo la situación, él sabía que alguien en un cohete acelerado sentiría una fuerza que le empujaba contra su asiento, como si se ejerciese una atracción gravitatoria sobre él. (De hecho, la fuerza de aceleración sentida por nuestros astronautas se mide rutinariamente en g —es decir, múltiplos de la fuerza de la gravedad de la Tierra.) La conclusión a la que llegó era que alguien acelerando en un rápido cohete pensaría que estas fuerzas eran causadas por la gravedad. A partir de esta pregunta de niños, Einstein captó la naturaleza fundamental de la gravitación: las leyes de la naturaleza en un sistema de referencia acelerado son equivalentes a las leyes en un campo gravitatorio. Este simple enunciado, denominado principio de equivalencia, puede que no signifique mucho para la persona media pero, una vez más, en las manos de Einstein se convirtió en la base de una teoría del cosmos. (El principio de equivalencia da también respuestas simples a preguntas físicas complejas. Por ejemplo, si mantenemos un globo de helio mientras vamos en un automóvil, y el automóvil gira repentinamente a la izquierda, nuestros cuerpos serán lanzados hacia la derecha, pero ¿hacia dónde se moverá el globo? El sentido común nos dice que el globo, como nuestros cuerpos, se moverá hacia la derecha. Sin embargo, la resolución correcta de esta sutil cuestión ha bloqueado a físicos experimentados. La respuesta está en utilizar el principio de equivalencia. Imagínese un campo gravitatorio que tira del automóvil desde la derecha. La gravedad nos hará inclinarnos hacia la derecha, de modo que el globo de helio, que es más ligero que el aire y siempre flota hacia «arriba», en dirección opuesta a la atracción de la gravedad, debe flotar hacia la izquierda, en la dirección del giro, desafiando el sentido común.) Einstein explotó el principio de equivalencia para resolver el viejo problema de si un rayo de luz es afectado por la gravedad. Normalmente, ésta es una cuestión nada trivial. A través del principio de equivalencia, sin embargo, la respuesta se hace obvia. Si encendemos una linterna en el interior de un cohete acelerado, el haz de luz se curvará hacia abajo (debido a que el cohete se ha acelerado por debajo del rayo de luz durante el tiempo que éste necesita para cruzar la habitación). Por consiguiente, argumentaba Einstein, un campo gravitatorio también curvaría la trayectoria de la luz. Einstein sabía que un principio fundamental de la física es que un rayo de luz tomará el camino que requiere la mínima cantidad de tiempo para ir de un punto a otro. (Esto se denomina el principio

de tiempo mínimo de Fermat.) Normalmente, el camino con el tiempo más pequeño entre dos puntos es una línea recta, de modo que los rayos de luz son rectos. (Incluso cuando la luz se desvía al entrar en un cristal, sigue obedeciendo al principio de tiempo mínimo. Esto se debe a que la luz se frena en el vidrio, y el camino con el tiempo mínimo a través de una combinación de aire y vidrio es ahora una línea quebrada. Esto se denomina refracción, que es el principio en que se basan los microscopios y telescopios.)[46] Sin embargo, si la luz toma el camino con el mínimo tiempo entre dos puntos, y los rayos de luz se curvan bajo la influencia de la gravedad, entonces la distancia más corta entre dos puntos es una línea curva. Einstein quedó conmocionado por esta conclusión: si pudiera observarse que la luz viaja en una línea curva, significaría que el propio espacio está curvado. Distorsiones del espacio En el corazón de la creencia de Einstein estaba la idea de que la «fuerza» podría explicarse utilizando la pura geometría. Por ejemplo, pensemos lo que es montar en un tiovivo. Todo el mundo sabe que si cambiamos de caballito en un tiovivo, sentimos una «fuerza» que tira de nosotros cuando caminamos por la plataforma. Puesto que el borde externo del tiovivo se mueve más rápido que el centro, dicho borde externo debe contraerse según la relatividad especial. Sin embargo, si la plataforma del tiovivo tiene ahora un borde o circunferencia contraída, la plataforma como un todo debe estar curvada. Para alguien que está en la plataforma, la luz ya no viaja en una línea recta, como si una «fuerza» estuviese tirando de ella hacia el borde. Los teoremas usuales de la geometría ya no son válidos. Por consiguiente, la «fuerza» que sentimos mientras caminamos de un caballito a otro en un tiovivo puede explicarse como el curvamiento del propio espacio. Einstein descubrió independientemente el programa original de Riemann para dar una explicación puramente geométrica del concepto de «fuerza». Recordemos que Riemann utilizó la analogía de los planilandeses viviendo en una hoja de papel arrugada. Para nosotros, es obvio que los planilandeses que se mueven en una superficie arrugada serán incapaces de caminar en línea recta. Cualquiera que sea su forma de caminar, experimentarán una «fuerza» que los zarandea de un lado a otro. Para Riemann, la curvatura o distorsión del espacio provoca la aparición de una fuerza. Así pues, las fuerzas no existen realmente; lo que en verdad está sucediendo es que el propio espacio está siendo deformado. El problema del enfoque de Riemann, sin embargo, era que él no tenía ninguna idea concreta de cómo la gravedad o la electricidad y el magnetismo provocaban la distorsión del espacio. Su enfoque era puramente matemático, sin ninguna imagen física concreta sobre cómo tenía lugar exactamente la curvatura del espacio. Einstein tuvo éxito aquí donde Riemann había fallado. Imaginemos, por ejemplo, una piedra colocada en una sábana estirada. Obviamente la piedra se hundirá en la sábana, creando una ligera depresión. Una pequeña canica lanzada sobre la sábana seguirá entonces un camino circular o elíptico alrededor de la piedra. Alguien que mire desde cierta distancia a la canica que se mueve alrededor de la piedra puede decir que existe una «fuerza instantánea» que emana de la piedra y altera el camino de la canica. Sin embargo, examinándolo de cerca puede verse lo que está sucediendo realmente: la piedra ha distorsionado la sábana y, en consecuencia, el camino de la canica.

Por analogía, si los planetas giran alrededor del Sol, es debido a que se están moviendo en un espacio que ha sido curvado por la presencia del Sol. Así pues, la razón de que nosotros permanezcamos en la Tierra, en lugar de salir despedidos hacia el vacío del espacio exterior, es que la Tierra está deformando constantemente el espacio a nuestro alrededor (figura 4.1). Einstein advirtió que la presencia del Sol distorsiona el camino de la luz procedente de estrellas lejanas. Esta simple imagen física proporcionaba así una manera de verificar experimentalmente la teoría. Primero, medimos la posición de las estrellas en la noche, en ausencia del Sol. Luego, medimos la posición de las estrellas durante un eclipse de Sol, cuando el Sol está presente (pero no oculta la luz de las estrellas). Según Einstein, la posición relativa aparente de las estrellas debería cambiar cuando el Sol está presente, porque el campo gravitatorio del Sol habrá desviado la trayectoria de la luz de estas estrellas en su camino a la Tierra. Comparando las Fig ura 4.1. Para Einstein, la «gravedad» era una ilusión fotografías de las estrellas de noche y de las causada por la curvatura del espacio. Él predijo que la luz de estrellas durante un eclipse, se podría verificar esta una estrella que rodease el Sol sería desviada, y por teoría. consiguiente las posiciones relativas de las estrellas parecerían Esta imagen puede resumirse en lo que se distorsionadas en presencia del Sol. Esto ha sido verificado repetidamente mediante experimentos. denomina principio de Mach, la guía que utilizó Einstein para crear su teoría de la relatividad general. Recordemos que la distorsión de la sábana estaba determinada por la presencia de la piedra. Einstein resumió esta analogía enunciando: la presencia de materia-energía determina la curvatura del espacio-tiempo a su alrededor. Ésta es la esencia del principio físico que Riemann no logró descubrir: que la curvatura del espacio está directamente relacionada con la cantidad de energía y materia contenida en dicho espacio. Esto, a su vez, puede resumirse en la famosa ecuación[47] de Einstein, que esencialmente afirma: Materia-energía ⇒ curvatura del espacio-tiempo donde la flecha significa «determina». Esta ecuación engañosamente corta es uno de los mayores triunfos de la mente humana. De ella emergen los principios que hay tras los movimientos de las estrellas y las galaxias, los agujeros negros, el big bang, y quizá el destino del propio universo. En cualquier caso, a Einstein aún le faltaba una pieza del rompecabezas. Había descubierto el principio físico correcto, pero carecía de un formalismo matemático riguroso suficientemente potente para expresar este principio. Carecía de una versión de los campos de Faraday para la gravedad. Irónicamente, Riemann tenía el aparato matemático, pero no el principio físico guía. Einstein, por el contrario, descubrió el principio físico, pero le faltaba el

aparato matemático. Teoría de campos de la gravedad Puesto que Einstein formuló este principio físico sin saber nada de Riemann, no tenía el lenguaje o la técnica matemática con que expresar su principio. Pasó tres largos y frustrantes años, de 1912 a 1915, en una búsqueda desesperada de un formalismo matemático suficientemente potente para expresar el principio. Einstein escribió una carta desesperada a su íntimo amigo, el matemático Marcel Grossman, rogándole: «¡Grossman, tienes que ayudarme o me volveré loco!».[48] Por fortuna, mientras buscaba en la biblioteca claves para el problema de Einstein, Grossman tropezó accidentalmente con el trabajo de Riemann. Grossman mostró a Einstein el trabajo de Riemann y su tensor métrico, que había sido ignorado por los físicos durante sesenta años. Einstein recordaría más tarde que Grossman «buscó en la literatura y pronto descubrió que el problema matemático ya había sido resuelto por Riemann, Ricci, y Levi-Civita … El logro de Riemann era el más grande». Para su asombro, Einstein descubrió que la celebrada conferencia de Riemann de 1854 era la clave del problema. Descubrió que podía incorporar todo el cuerpo del trabajo de Riemann en la reformulación de su principio. Casi línea por línea, el gran trabajo de Riemann encontraba su verdadero lugar en el principio de Einstein. Ésta fue la obra más soberbia de Einstein, incluso más que su celebrada ecuación E = mc2. La reinterpretación física de la famosa conferencia de Riemann de 1854 se denomina ahora relatividad general, y las ecuaciones de campo de Einstein se sitúan entre las ideas más profundas de la historia de la ciencia. La gran contribución de Riemann, recordémoslo, era la introducción del concepto de tensor métrico, un campo que está definido en todos los puntos del espacio. El tensor métrico no es un simple número. En cada punto del espacio, consiste en una colección de diez números. La estrategia de Einstein consistió en seguir a Maxwell y desarrollar la teoría de campos de la gravedad. El objeto de su búsqueda de un campo para describir la gravedad se encontraba prácticamente en la primera página de la conferencia de Riemann. De hecho, ¡el tensor métrico de Riemann era precisamente el campo de Faraday para la gravedad! Cuando las ecuaciones de Einstein se expresan completamente en términos del tensor métrico de Riemann adquieren una elegancia nunca antes vista en física. El premio Nobel Subrahmanyan Chandrasekhar la calificó una vez como «la más bella teoría que haya existido». (De hecho, la teoría de Einstein es tan simple y, a la vez, tan eficaz que los físicos se preguntan a veces por qué funciona tan bien. El físico del MIT Victor Weisskopf dijo una vez: «Es como el campesino que pregunta al ingeniero cómo funciona la máquina de vapor. El ingeniero explica al campesino exactamente por dónde circula el vapor y cómo mueve el motor y así sucesivamente. Y entonces el campesino dice: “Sí, entiendo todo eso, pero ¿dónde está el caballo?”. Así es como yo me siento a propósito de la relatividad general. Conozco todos los detalles, comprendo por dónde circula el vapor, pero aún no estoy seguro de si sé dónde está el caballo».)[49] En retrospectiva, vemos ahora cuán cerca estuvo Riemann de descubrir la teoría de la gravedad sesenta años antes de Einstein. Todo el aparato matemático estaba a punto en 1854. Sus ecuaciones eran suficientemente potentes para describir los retorcimientos más complicados del espacio-tiempo en cualquier dimensión. Sin embargo, le faltaba

la imagen física (que la materia-energía determina la curvatura del espacio-tiempo) y la aguda intuición física que proporcionó Einstein. Vivir en un espacio curvo Una vez asistí a un partido de hockey en Boston. Toda la acción, por supuesto, se concentraba en los jugadores de hockey mientras se deslizaban por la pista de hielo. Puesto que el disco era golpeado incesantemente en una dirección y en otra por los diversos jugadores, ello me recordó la forma en que intercambian electrones los átomos cuando forman elementos químicos o moléculas. Advertí que la pista de patinaje, por supuesto, no participaba en el juego. Sólo marcaba los límites; era un escenario pasivo en el que los jugadores de hockey marcaban puntos. Después imaginé cómo sería si la pista de patinaje participase activamente en el juego: ¿qué sucedería si los jugadores estuvieran obligados a jugar en una pista de hielo cuya superficie fuera curva, con colinas ondulantes y valles escarpados? El partido de hockey se haría de repente más interesante. Los jugadores tendrían que patinar por una superficie curva. La curvatura de la pista distorsionaría su movimiento, actuando como una «fuerza» que tiraría de los jugadores en una u otra dirección. El disco se movería en una línea curva como una serpiente, haciendo el juego mucho más difícil. Entonces imaginé que daba un paso más; imaginé que los jugadores estuviesen obligados a jugar en una pista de patinaje de forma cilíndrica. Si los jugadores pudieran alcanzar velocidad suficiente, podrían patinar boca abajo y dar vueltas al cilindro. Se podrían planear nuevas estrategias, tales como preparar una emboscada a un jugador contrario patinando boca abajo alrededor del cilindro y pillándole desprevenido. Una vez que la pista de hielo estuviera curvada en forma de círculo, el espacio se convertiría en el factor decisivo para explicar el movimiento de la materia en su superficie. Otro ejemplo más relevante para nuestro universo podría ser el vivir en un espacio, curvo dado por una hiperesfera, una esfera en cuatro dimensiones.[50] Si miramos al frente, la luz describirá un círculo completo alrededor del corto perímetro de la hiperesfera y volverá a nuestro ojos. De este modo veremos a alguien de pie delante de nosotros, dándonos su espalda, una persona que viste las mismas ropas que nosotros. Miramos con desaprobación la cabellera revuelta y desordenada de la cabeza de esta persona, y entonces recordamos que olvidamos peinarnos ese día. ¿Es esta persona una imagen falsa creada por espejos? Para averiguarlo, extendemos nuestra mano y la colocamos sobre su hombro. Encontramos que la persona que está delante de nosotros es una persona real, no una simple falsificación. Si miramos a lo lejos vemos, de hecho, un número infinito de personas idénticas, cada una mirando al frente, cada una con su mano en el hombro de la persona que tiene delante. Pero lo más chocante es que notamos la mano de alguien que nos llega por detrás, y que luego agarra nuestro hombro. Alarmados, nos volvemos, y vemos otra secuencia infinita de personas idénticas detrás de nosotros, con sus rostros vueltos hacia atrás. ¿Qué está sucediendo realmente? Nosotros somos, por supuesto, la única persona que vive en esta hiperesfera. La persona que está delante de nosotros es realmente nosotros mismos. Estamos mirando la parte trasera de nuestra propia cabeza. Al colocar nuestra mano delante de nosotros, estamos

extendiendo realmente nuestra mano alrededor de la hiperesfera, hasta que colocamos nuestra mano sobre nuestro propio hombro. Los trucos contraintuitivos que son posibles en una hiperesfera son físicamente interesantes porque muchos cosmólogos creen que nuestro universo es realmente una hiperesfera. Existen también otras topologías igualmente extrañas, como los hipertoros y las cintas de Möbius. Aunque posiblemente no tengan aplicación práctica en última instancia, ayudan a ilustrar muchas de las características de vivir en el hiperespacio. Por ejemplo, supongamos que estamos viviendo en un hipertoro. Si miramos a nuestra izquierda y a nuestra derecha, vemos, para nuestra gran sorpresa, una persona a cada lado. La luz describe círculos completos alrededor del perímetro mayor del toro, y regresa a su punto de partida. Por lo tanto, si giramos nuestras cabezas y miramos a la izquierda, vemos el lado derecho del cuerpo de alguien. Girando nuestras cabezas en la otra dirección, vemos el lado izquierdo de alguien. Por muy rápido que giremos nuestras cabezas, las personas que están delante de nosotros y a nuestros lados giran sus cabezas con la misma rapidez, y nunca podemos ver sus rostros. Imaginemos ahora que extendemos nuestros brazos a ambos lados. Tanto la persona del lado izquierdo como la del lado derecho también extienden sus brazos. De hecho, si ustedes están bastante próximos, pueden coger las manos izquierda y derecha de las personas de cada lado. Si usted mira cuidadosamente en cualquier dirección, puede ver una línea recta infinitamente larga de personas con las manos unidas. Si usted mira hacia adelante, hay otra secuencia infinita de personas de pie delante de usted, dispuestas en línea recta, todas con las manos unidas. ¿Qué está sucediendo realmente? En realidad, nuestros brazos son suficientemente largos para rodear el toro, hasta que los brazos se tocan. Así pues, ¡hemos cogido real mente nuestras propias manos! (figura 4.2). Nos empezamos a cansar de esta charada. Estas personas parecen estar burlándose de nosotros: son imitadores, que lucen exactamente lo que nosotros hacemos. Nos sentimos molestos; de modo que cogemos una pistola y apuntamos a la persona que está delante de nosotros. Justo antes de apretar el gatillo, nos preguntamos: ¿Es esta persona una imagen en un espejo? Si es así, entonces la bala pasará a través de él. Pero si no lo es, entonces la bala dará la vuelta completa al universo y nos dará en la espalda. ¡Quizá disparar una pistola en este universo no sea una idea tan buena! Para un universo aún más extraño, imagine que vive en una cinta de Möbius, que es como una larga cinta de papel retorcida 180 grados y luego vuelta a pegar para formar una cinta cerrada.

Cuando un planilandés diestro da una vuelta Fig ura 4.2. Su viviéramos en un hipertoro, veríamos una sucesión infinita de nosotros mismos repetida delante de completa a la cinta de Möbius, descubre que se ha nosotros, detrás de nosotros y a nuestros lados. Esto se debe a vuelto zurdo. Las orientaciones se invierten cuando que existen dos formas de que la luz viaje alrededor del toro. Si se viaja alrededor del universo. Esto es similar a unimos las manos con las personas que están a nuestros lados, realmente estamos uniendo nuestras propias manos; es decir, «La historia de Plattner» de H. G. Wells, en la que nuestros brazos realmente rodean el toro. el héroe vuelve a la Tierra tras un accidente para descubrir que su cuerpo está completamente invertido; por ejemplo, su corazón está en su lado derecho. Si viviéramos en una hipercinta de Möbius, y observáramos delante de nosotros, veríamos la parte trasera de la cabeza de alguien. Al principio, no pensaríamos que pudiera ser nuestra cabeza, porque la raya del cabello estaría en el lado equivocado. Si extendiéramos y colocáramos nuestra mano derecha en su hombro, entonces él levantaría su mano izquierda y la colocaría sobre el hombro de la persona que tiene delante. De hecho, veríamos una cadena infinita de personas con las manos sobre los hombros de los otros, excepto que las manos estarían alternadas sobre los hombros izquierdo y derecho. Si dejamos a alguno de nuestros amigos en un punto y damos una vuelta completa a este universo, descubriríamos que habíamos regresado a nuestro punto original. Pero nuestros amigos estarían sorprendidos al descubrir que nuestro cuerpo estaba invertido. La raya de nuestro cabello y los anillos de nuestros dedos estarían en el lado incorrecto, y nuestros órganos internos habrían sido invertidos. Nuestros amigos estarían sorprendidos por la inversión de nuestro cuerpo, y nos preguntarían si nos sentiríamos bien. De hecho, nosotros nos sentiríamos completamente normales; ¡para nosotros, serían nuestros amigos quienes se habrían dado la vuelta! Ahora tendríamos una discusión sobre quién estaba realmente invertido. Éstas y otras posibilidades interesantes se abren cuando vivimos en un universo donde el espacio y el tiempo están curvados. Ya no es un escenario pasivo; el espacio se convierte en un jugador activo en el drama que se desarrolla en nuestro universo. En resumen, vemos que Einstein cumplió el programa iniciado por Riemann sesenta años antes, utilizar las dimensiones más altas para simplificar las leyes de la naturaleza. Einstein, sin embargo, fue más allá de Riemann en varios aspectos. Como Riemann antes que él, Einstein comprendió independientemente que la «fuerza» es una consecuencia de la geometría, pero, a diferencia de Riemann, Einstein fue capaz de encontrar el principio físico tras esta geometría, el que la curvatura del espacio-tiempo es debida a la presencia de materia-energía. Einstein, como también Riemann, sabía que la gravitación puede describirse por un campo, el tensor métrico, pero Einstein fue capaz de encontrar las ecuaciones de campo precisas a que obedecen dichos campos. Un universo hecho de mármol Hacia mediados de los años veinte, con el desarrollo de las teorías de la relatividad especial y de la relatividad general, el lugar de Einstein en la historia de la ciencia estaba asegurado. En 1921, los astrónomos habían verificado que la luz de las estrellas se desvía realmente cuando pasa cerca del Sol, precisamente como Einstein había predicho. Para entonces, Einstein estaba siendo celebrado como el sucesor de Isaac Newton.

Sin embargo, Einstein aún no estaba satisfecho. Trataría una última vez de construir otra teoría excepcional. Pero en su tercer intento, él fracasó. Su tercera y última teoría tenía que haber sido el logro que coronase su vida. Estaba buscando la «teoría de todo», una teoría que explicara todas las fuerzas familiares encontradas en la naturaleza, incluyendo la luz y la gravedad. Él acuñó para esta teoría el nombre de teoría del campo unificado. Desgraciadamente, su búsqueda de una teoría unificada de la luz y la gravedad fue infructuosa. Cuando murió, sólo dejó las ideas inacabadas de varios manuscritos sobre su mesa. Irónicamente, la fuente de la frustración de Einstein era la estructura de su propia ecuación. Durante treinta años, estuvo molesto por un fallo fundamental en esta formulación. En un miembro de la ecuación estaba la curvatura del espacio-tiempo, que él asimilaba al «mármol» debido a su bella estructura geométrica. Para Einstein, la curvatura del espacio-tiempo era como el compendio de la arquitectura griega, bella y serena. Sin embargo, él odiaba el otro miembro de esta ecuación, que describía la materia-energía, al que consideraba feo y comparaba con la «madera». Mientras el «mármol» del espacio-tiempo era puro y elegante, la «madera» de la materia-energía era un horrible revoltijo de formas confusas y aparentemente aleatorias, desde partículas subatómica, átomos, polímeros y cristales, hasta piedras, árboles, planetas y estrellas. Pero en los años veinte y treinta, cuando Einstein estaba trabajando activamente en la teoría del campo unificado, la verdadera naturaleza de la materia seguía siendo un misterio insoluble. La gran estrategia de Einstein consistía en convertir la madera en mármol, es decir, dar un origen completamente geométrico a la materia. Pero sin más claves físicas y una comprensión más profunda de la madera, esto era imposible. Por analogía, pensemos en un árbol magnífico y nudoso que crece en medio de un parque. Los arquitectos han rodeado este árbol oscuro con una glorieta hecha de bellas piezas del más puro mármol. Los arquitectos han ensamblado cuidadosamente las piezas de mármol para imitar una estructura floral con cepas y raíces que emanan del árbol. Para parafrasear el principio de Mach: la presencia del árbol determina la estructura del mármol que le rodea. Pero Einstein odiaba esta dicotomía entre la madera, que parecía tan fea y complicada, y el mármol, que era simple y puro. Su sueño consistía en convertir el árbol en mármol; le hubiera gustado tener una glorieta completamente hecha de mármol, con una bella y simétrica estatua marmórea de un árbol en su centro. Visto en retrospectiva, podemos identificar el error de Einstein. Recordemos que las leyes de la naturaleza se simplifican y unifican en dimensiones más altas. Einstein aplicó correctamente este principio por dos veces, en la relatividad especial y la general. Sin embargo, en su tercer intento abandonó este principio fundamental. Muy poco se conocía en su tiempo sobre la estructura de la materia atómica y nuclear; por consiguiente, no estaba claro cómo utilizar el espacio multidimensional como un principio unificador. Einstein ensayó a ciegas varios enfoques puramente matemáticos. Aparentemente pensaba que la «materia» podía considerarse como rizos, vibraciones o distorsiones del espacio-tiempo. En esta imagen, la materia era una distorsión espacial concentrada. En otras palabras, todo lo que vemos alrededor de nosotros, desde los árboles y las nubes a las estrellas en los cielos, era probablemente una ilusión, alguna forma de arruga del hiperespacio. Sin embargo, sin ninguna pista más sólida ni datos experimentales, esta idea llevaba a un callejón sin salida.

Quedaría para un oscuro matemático el dar el paso siguiente, que nos llevaría a la quinta dimensión. El nacimiento de la teoría de Kaluza-Klein En abril de 1919, Einstein recibió una carta que le dejó sin habla. Procedía de un matemático desconocido, Theodr Kaluza, de la Universidad de Königsberg en Alemania, en lo que era Kaliningrado en la antigua Unión Soviética. En un corto articulo, de sólo unas pocas páginas de longitud, este oscuro matemático estaba proponiendo una solución a uno de los problemas más grandes del siglo. En sólo unas líneas, Kaluza estaba uniendo la teoría de Einstein de la gravedad y la teoría de Maxwell de la luz introduciendo la quinta dimensión (es decir, cuatro dimensiones espaciales y una dimensión temporal). En esencia, estaba resucitando la vieja «cuarta dimensión» de Hinton y Zöllner e incorporándola en la teoría de Einstein en una nueva forma como quinta dimensión. Como Riemann antes que él, Kaluza suponía que la luz es una perturbación provocada por el rizado de esta dimensión más alta. La diferencia clave que separaba este nuevo trabajo del de Riemann, Hinton y Zöllner era que Kaluza estaba proponiendo una auténtica teoría de campos. En esta nota corta, Kaluza comenzaba, de forma bastante inocente, desarrollando las ecuaciones de campo de Einstein para la gravedad en cinco dimensiones, y no las cuatro usuales. (El tensor métrico de Riemann, recordémoslo, puede formularse en un número cualquiera de dimensiones.) Luego procedía a demostrar que estas ecuaciones pentadimensionales contenían dentro de ellas la anterior teoría tetradimensionales de Einstein (lo que cabía esperar) con un elemento adicional. Pero lo que conmocionó a Einstein era que este elemento adicional era precisamente la teoría de Maxwell de la luz. En otras palabras, este científico desconocido estaba proponiendo combinar, de un golpe, las dos mayores teorías de campos conocidas en la ciencia, la de Maxwell y la de Einstein, mezclándolas en la quinta dimensión. Ésta era una teoría hecha de puro mármol, es decir, pura geometría. Kaluza había encontrado la primera clave importante para convertir la madera en mármol. En la analogía del parque, recordemos que la glorieta de mármol es bidimensional. La observación de Kaluza consistía en que podríamos construir un «árbol» de mármol si moviésemos las piezas de mármol hacia arriba en la tercera dimensión. Para el profano, la luz y la gravedad no tienen nada en común. Después de todo, la luz es una fuerza familiar que se presenta en una espectacular variedad de colores y formas, mientras que la gravedad es invisible y más lejana. En la Tierra, es la fuerza electromagnética, y no la gravedad, la que nos ha ayudado a dominar la naturaleza; es la fuerza electromagnética la que alimenta nuestras máquinas, electrifica nuestras ciudades, ilumina nuestros anuncios de neón, y hace brillar nuestros televisores. La gravedad, por el contrario, actúa a una escala mayor; es la fuerza que guía a los planetas e impide que el Sol explote. Es una fuerza cósmica que impregna el universo y mantiene unido el sistema solar. (Junto con Weber y Riemann, uno de los primeros científicos en buscar activamente un nexo entre la luz y la gravedad en el laboratorio fue el propio Faraday. El aparato experimental real utilizado por Faraday para medir el nexo entre estas dos fuerzas aún puede verse en la Royal Institution en Piccadilly, Londres. Aunque fracasó en encontrar experimentalmente cualquier

conexión entre las dos fuerzas, Faraday confiaba en el poder de la unificación. Escribió: «Si la esperanza [de unificación] se demostrara bien fundada, cuán grande y poderosa y sublime en su hasta ahora inmutable carácter es la fuerza que estoy tratando de manejar, y cuán grande podría ser el nuevo dominio del conocimiento que se abriría a la mente del hombre».)[51] Incluso matemáticamente, la luz y la gravedad son como el aceite y el agua. La teoría de campos de Maxwell para la luz requiere cuatro campos, mientras que la teoría métrica de Einstein para la gravedad requiere diez. Pero el artículo de Kaluza era tan elegante y concluyente que Einstein no podía rechazarlo. Al principio, parecía simplemente un truco matemático barato el ampliar de cuatro a cinco el número de dimensiones de espacio y tiempo. Esto se debía a que, como recordamos, no había evidencia experimental para la cuarta dimensión espacial. Lo que sorprendió a Einstein era que una vez que la teoría de campos pentadimensional se desglosaba en una teoría de campos tetradimensional, permanecían tanto las ecuaciones de Maxwell como las de Einstein. En otras palabras, Kaluza tuvo éxito en unir las dos piezas del rompecabezas porque ambas eran parte de un todo mayor, un espacio pentadimensional. La «luz» estaba emergiendo como la distorsión de la geometría de un espacio de dimensión más alta. Ésta era la teoría que parecía satisfacer el viejo sueño de Riemann de explicar las fuerzas como el arrugado de una hoja de papel. En su artículo, Kaluza afirmaba que su teoría, que sintetizaba las dos teorías más importantes hasta ese momento, poseía una «unidad formal virtualmente insuperable». Insistía además en que la más pura simplicidad y belleza de su teoría no podía «equivaler al simple juego seductor de un accidente caprichoso».[52] Lo que chocó a Einstein era la audacia y simplicidad del artículo. Como todas las grandes ideas, el argumento esencial de Kaluza era elegante y compacto. La analogía con encajar las piezas de un rompecabezas es bastante significativa. Recordemos que la base del trabajo de Riemann y de Einstein es el tensor métrico; es decir, una colección de diez números definidos en cada punto del espacio. Esto era una generalización natural del concepto de campo de Faraday. En la figura 2.2 vimos cómo estos diez números pueden ser dispuestos como las casillas de un tablero de ajedrez de dimensiones 4 x 4. Podemos llamar a estos diez números g 11, g 12… Además, el campo de Maxwell es una colección de cuatro miembros definidos en cada punto del espacio. Estos cuatro números pueden representarse por los símbolos A1, A2, A3, A4. Para comprender el truco de Kaluza, empecemos ahora con la teoría de Riemann en cinco dimensiones. Entonces el tensor métrico puede ser dispuesto en un tablero de ajedrez de 5 x 5. Ahora, por definición, renombraremos las componentes del campo de Kaluza, de modo que algunas de ellas se conviertan en el campo original de Einstein y algunas otras se conviertan en el campo de Maxwell (figura 4.3). Ésta es la esencia del truco de Kaluza, que cogió a Einstein totalmente por sorpresa. Añadiendo simplemente el campo de Maxwell al de Einstein, Kaluza fue capaz de reunirlos en un campo pentadimensional. ¡Nótese que hay «suficiente sitio» dentro de las quince componentes de la gravedad pentadimensional de Riemann para encajar las diez componentes del campo de Einstein y las cuatro componentes del campo de Maxwell! Así pues, la brillante idea de Kaluza puede resumirse crudamente como

Fig ura 4.3. La brillante idea de Kaluza consistía en escribir el tensor métrico de Riemann en cinco dimensiones. La quinta fila y la quinta columna se identifican con el campo electromagnético de Maxwell, mientras que el bloque 4x4 restante es la vieja métrica tetradimensional de Einstein. De un golpe, Kaluza unificó la teoría de la gravedad con la luz añadiendo simplemente otra dimensión.

15 = 10 + 4 + 1 (la componente restante es una partícula escalar, que no es importante para nuestra discusión). Cuando se analiza con cuidado la teoría pentadimensional completa, descubrimos que el campo de Maxwell está bellamente incluido dentro del tensor métrico de Riemann, precisamente como afirmaba Kaluza. Esta ecuación de aspecto inocente resume, por lo tanto, una de las ideas seminales del siglo. En resumen, el tensor métrico pentadimensional englobaba al campo de Maxwell y al tensor métrico de Einstein. A Einstein le parecía increíble que una idea tan sencilla explicara las dos fuerzas más fundamentales de la naturaleza: la gravedad y la luz. ¿Es esto simplemente un truco de salón? ¿O numerología? ¿O magia negra? Einstein quedó profundamente sacudido por la carta de Kaluza y, de hecho, se negó a responder al artículo. Reflexionó sobre la carta durante dos años, un tiempo inusualmente largo para que alguien retenga la publicación de un artículo importante. Finalmente, convencido de que este artículo era potencialmente importante, lo sometió para publicación en el Sitzungsberichte Preussische Akademie der Wissenschaften. Llevaba el imponente título «Sobre el problema de la unidad

de la física». En la historia de la física, nadie había encontrado ningún uso para la cuarta dimensión espacial. Ya desde Riemann se sabía que las matemáticas de dimensiones más altas eran de una belleza deslumbrante, pero sin aplicación física. Por primera vez, alguien había encontrado un uso para la cuarta dimensión espacial: ¡unir las leyes de la física! En cierto sentido, Kaluza estaba proponiendo que las cuatro dimensiones de Einstein eran «demasiado pequeñas» para acomodar las fuerzas electromagnética y gravitatoria. También podemos ver históricamente que el trabajo de Kaluza no era totalmente inesperado. La mayoría de los historiadores de la ciencia, cuando mencionan alguna vez el trabajo de Kaluza, dicen que la idea de una quinta dimensión era algo caído del cielo, totalmente inesperado y original. Dada la continuidad de la investigación física, estos historiadores están sorprendidos al encontrar un nuevo camino para la ciencia que se abre sin ningún precedente histórico. Pero su sorpresa es probablemente debida a su poca familiaridad con el trabajo no científico de místicos, literatos y

vanguardistas. Una mirada más próxima al escenario cultural e histórico muestra que la obra de Kaluza no era un desarrollo tan inesperado. Como hemos visto, debido a Hinton, Zöllner y otros, la posible existencia de dimensiones más altas era quizá la idea simple cuasicientífica más popular que circulaba dentro de las artes. Desde este punto de vista cultural más amplio, era sólo cuestión de tiempo el que algún físico tomase en serio la idea de Hinton ampliamente conocida de que la luz es una vibración de la cuarta dimensión espacial. En este sentido, el trabajo de Riemann fecundó el mundo de las artes y las letras a través de Hinton y Zöllner, y luego fecundó de nuevo probablemente el mundo de la ciencia a través del trabajo de Kaluza. (En apoyo de esta tesis, Freund ha revelado recientemente que Kaluza no fue en realidad el primero en proponer una teoría pentadimensional de la gravedad. Gunnar Nordstrom, un rival de Einstein, publicó realmente la primera teoría de campos pentadimensional, pero era demasiado primitiva para incluir a la vez las teorías de Einstein y de Maxwell. El hecho de que Kaluza y Nordstrom independientemente trataran de explotar la quinta dimensión indica que los conceptos que circulaban ampliamente dentro de la cultura popular afectaron a su pensamiento.)[53] La quinta dimensión Todo físico recibe una sacudida cuando se enfrenta por primera vez a la quinta dimensión. Peter Freund recuerda claramente el momento exacto en que él se encontró con la quinta y con dimensiones más altas. Fue un suceso que dejó una profunda huella en su pensamiento. Fue en 1953 en Rumania, el país natal de Freund. Josif Stalin acababa de morir, un importante acontecimiento que condujo a una considerable relajación de las tensiones. Freund era en ese momento un estudiante precoz de primer curso, y asistió a una charla de George Vranceanu. Recuerda vivamente oír a Vranceanu discutir la importante cuestión: ¿Por qué deberían la luz y la gravedad ser tan dispares? Entonces el conferenciante mencionó una vieja teoría que podría contener la teoría de la luz y las ecuaciones de Einstein de la gravedad. El secreto consistía en utilizar la teoría de Kaluza-Klein, que estaba formulada en cinco dimensiones. Freund quedó conmocionado. Aquí había una brillante idea que le cogió completamente por sorpresa. Aunque sólo era un estudiante de primer curso, tuvo la audacia de plantear la pregunta obvia: ¿Cómo explica esta teoría de Kaluza-Klein las otras fuerzas? Dijo él: «Incluso si consigue una unificación de la luz y la gravedad, usted no conseguirá nada porque aún existe la fuerza nuclear». Comprendía que la fuerza nuclear estaba fuera de la teoría de Kaluza-Klein. (De hecho, la bomba de hidrógeno, que pendía como una espada sobre cualquier persona del planeta en el punto álgido de la guerra fría, estaba basada en la liberación de la fuerza nuclear, no en el electromagnetismo o la gravedad.) El conferenciante no tenía respuesta. En su joven entusiasmo, Freund gritó: «¿Qué pasa si se añaden más dimensiones?». «¿Pero cuántas dimensiones más?», preguntó el conferenciante. Freund fue pillado con la guardia baja. Él no quería dar un número bajo de dimensiones, sólo para ser superado por algún otro. Así que propuso un número que nadie podría posiblemente superar: ¡un número infinito de dimensiones![54] (Por desgracia para este físico precoz, un número infinito de dimensiones no parece ser físicamente posible.)

La vida en un cilindro Después de la conmoción inicial que supone enfrentarse a la quinta dimensión, la mayoría de los físicos empiezan invariablemente a hacer preguntas. De hecho, la teoría de Kaluza planteaba más cuestiones de las que respondía. La pregunta obvia para hacer a Kaluza era: ¿Dónde está la quinta dimensión? Puesto que todos los experimentos normales mostraban concluyentemente que vivimos en un universo con tres dimensiones de espacio y una de tiempo, seguía quedando la pregunta embarazosa. Kaluza tenía una respuesta inteligente. Su solución era esencialmente la misma que propuso Hinton años antes, es decir, que la dimensión más alta, que no era experimentalmente observable, era diferente de las otras dimensiones. De hecho, se había colapsado en un círculo tan pequeño que ni siquiera los átomos cabían dentro. Así pues, la quinta dimensión no era un truco matemático introducido para manipular el electromagnetismo y la gravedad, sino una dimensión física que proporcionaba el pegamento para unir estas dos fuerzas fundamentales en una sola fuerza, pero era simplemente demasiado pequeña para ser medida. Cualquiera que caminase en la dirección de la quinta dimensión llegaría a encontrarse de nuevo allí donde hubiese comenzado. Esto se debe a que la quinta dimensión es topológicamente idéntica a un círculo, y el universo es topológicamente idéntico a un cilindro. Freund lo explica de este modo: Pensemos en unas personas imaginarias que viven en Línealandia, que consiste en una sola línea. Durante toda su historia, ellos habían creído que su mundo era simplemente una línea. Entonces, un científico de Línealandia propuso que su mundo no era sólo una línea unidimensional, sino un mundo bidimensional. Cuando se le preguntó dónde estaba esta misteriosa e inobservable segunda dimensión, él replicó que la segunda dimensión estaba enrollada en una pequeña bola. Así, los habitantes de la línea realmente vivían en la superficie de un cilindro largo pero muy fino. El radio del cilindro es demasiado pequeño para ser medido; es tan pequeño, de hecho, que parece que el mundo es sólo una línea.[55]

Si el radio del cilindro fuera mayor, los habitantes de la línea podrían salir de su universo y moverse en dirección perpendicular a su mundo lineal. En otras palabras, podrían realizar viajes interdimensionales. Cuando se moviesen perpendicularmente a Línealandia, encontrarían un número infinito de mundos lineales paralelos que coexisten con su universo. Cuando se alejaran más en la segunda dimensión, volverían finalmente a su propio mundo lineal. Pensemos ahora en los planilandeses que viven en un plano. De modo análogo, un científico en Planilandia podría hacer la escandalosa afirmación de que es posible viajar a través de la tercera dimensión. En principio, un planilandés podría salir de la superficie de Planilandia. Mientras este planilandés flotase lentamente hacia arriba en la tercera dimensión, sus «ojos» verían una secuencia increíble de diferentes universos paralelos, cada uno de ellos coexistente con su universo. Puesto que sus ojos serían capaces de ver sólo paralelamente a la superficie de Planilandia, él vería diferentes planilandias que aparecían ante él. Si el planilandés se elevase demasiado sobre el plano, regresaría eventualmente a su planilandia original. Imaginemos ahora que nuestro mundo actual tridimensional tiene realmente otra dimensión que está enrollada en un círculo. Por mor de la argumentación, supongamos que la quinta dimensión tiene una longitud de tres metros. Saltando a la quinta dimensión, simplemente desapareceríamos al instante de nuestro universo actual. Una vez que nos movemos en la quinta dimensión, descubrimos

que, después de recorrer tres metros, hemos vuelto al punto de partida. Pero ¿por qué la quinta dimensión se enrolla en un círculo en primer lugar? En 1926, el matemático Oskar Klein hizo varias mejoras en la teoría, afirmando que quizá la teoría cuántica podría explicar por qué se enrollaba la quinta dimensión. Sobre esta base, él calculó que el tamaño de la quinta dimensión debería ser de 10— 33 centímetros (la longitud de Planck), que es demasiado pequeña para que cualquier experimento normal detecte su presencia. (Éste es el mismo argumento utilizado hoy para justificar la teoría decadimensional.) Por una parte, esto significaba que la teoría estaba de acuerdo con el experimento porque la quinta dimensión era demasiado pequeña para ser medida. Por otra parte, significaba también que la quinta dimensión era tan fantásticamente pequeña que nunca se podrían construir máquinas con la potencia suficiente para probar que la teoría era realmente correcta. (El físico cuántico Wolfgang Pauli, en su estilo cáustico habitual, rechazaba las teorías que no le gustaban diciendo: «Ni siquiera es falsa». En otras palabras, estaban tan verdes que ni siquiera se podía determinar si eran correctas. Dado el hecho de que la teoría de Kaluza no podía ser verificada, también se podía decir que ni siquiera era falsa.) La muerte de la teoría de Kaluza-Klein Por prometedora que fuera la teoría de Kaluza-Klein para dar un fundamento puramente geométrico a las fuerzas de la naturaleza, hacia los años treinta la teoría estaba muerta. Por una parte, los físicos no estaban convencidos de que la quinta dimensión existiera realmente. La conjetura de Klein de que la quinta dimensión estaba enrollada en un círculo minúsculo del tamaño de la longitud de Planck era inverificable. La energía necesaria para explorar esta distancia minúscula puede ser calculada, y se denomina energía de Planck, o 1019 miles de millones de electronvoltios. Esta fabulosa energía está casi más allá de cualquier comprensión. Es 100 trillones de veces la energía encerrada en un protón, una energía más allá de cualquier cosa que podamos producir en los próximos siglos. Por otra parte, los físicos dejaron en masa esta área de investigación debido al descubrimiento de una nueva teoría que estaba revolucionando el mundo de la ciencia. La marea desencadenada por esta teoría del mundo subatómico empantanó por completo la investigación en la teoría de Kaluza-Klein. La nueva teoría se denominaba mecánica cuántica, y supuso el toque de difuntos para la teoría de Kaluza-Klein durante los sesenta años siguientes. Lo que es peor, la mecánica cuántica desafiaba la interpretación geométrica continua de las fuerzas, reemplazándolas por paquetes discretos de energía. ¿Estaba completamente equivocado el programa iniciado por Riemann y Einstein?

II LA UNIFICACIÓN EN DIEZ DIMENSIONES

5 LA HEREJÍA CUÁNTICA

Quienquiera que no se sienta conmocionado por la teoría cuántica no la comprende. NIELS BOHR Un universo hecho de madera En 1925 nació de repente una nueva teoría. Con velocidad vertiginosa, casi meteórica, esta teoría derribó ideas muy queridas acerca de la materia que se habían mantenido desde la época de los griegos. Casi sin esfuerzo, venció montones de problemas fundamentales de gran alcance que habían tenido paralizados a los físicos durante siglos. ¿De qué está hecha la materia? ¿Qué la mantiene unida? ¿Por qué aparece en una infinita variedad de formas, tales como gases, metales, piedras, líquidos, cristales, cerámicas, vidrios, meteoritos, estrellas y así sucesivamente? La nueva teoría fue bautizada como mecánica cuántica, y nos dio la primera formulación global con la que desvelar los secretos del átomo. El mundo subatómico, antes un dominio prohibido para los físicos, empezaba ahora a derramar abiertamente sus secretos. Para comprender la velocidad con que esta revolución demolió a sus rivales, hay que señalar que todavía a comienzos de los años veinte algunos científicos mantenían serias reservas sobre la existencia de los «átomos». Lo que no podía verse o medirse directamente en el laboratorio, decían despectivamente, no existe. Pero para 1925 y 1926, Erwin Schrödinger, Werner Heisenberg y otros habían desarrollado una descripción matemática casi completa del átomo de hidrógeno. Ahora podían explicar, con aplastante exactitud, casi todas las propiedades del átomo de hidrógeno a partir de las matemáticas puras. En 1930, físicos cuánticos como Paul A. M. Dirac afirmaban que toda la química podía derivarse a partir de primeros principios. Incluso hicieron la temeraria afirmación de que, con tiempo suficiente en una máquina de calcular, ellos podían predecir todas las propiedades químicas de la materia encontrada en el universo. Para ellos, la química ya no sería una ciencia fundamental. De ahora en adelante, sería «física aplicada». Esta espectacular aparición no sólo suponía una explicación definitiva de las extrañas propiedades del mundo atómico, sino que también eclipsó la obra de Einstein durante décadas: una de las primeras víctimas de la revolución cuántica fue la teoría geométrica de Einstein del universo. En las salas del Instituto para Estudio Avanzado, los físicos jóvenes comenzaron a murmurar que Einstein ya estaba viejo, que la revolución cuántica le había superado completamente. La generación más joven corría a leer los últimos artículos escritos sobre teoría cuántica, no aquellos sobre teoría de la relatividad. Incluso el director del Instituto, J. Robert Oppenheimer, confiaba en privado a sus amigos íntimos que el trabajo de Einstein estaba irremediablemente por detrás de los tiempos. Incluso Einstein comenzó a considerarse a sí mismo como una «vieja reliquia». El sueño de Einstein, recordémoslo, era crear un universo hecho de «mármol»; es decir, pura

geometría. A Einstein le repelía la relativa fealdad de la materia, con su confuso y anárquico revoltijo de formas, que él llamaba «madera». El objetivo de Einstein era eliminar para siempre este defecto de sus teorías, convertir la madera en mármol. Su esperanza última era crear una teoría del universo basada enteramente en mármol. Para su horror, Einstein advirtió que la teoría cuántica era una teoría ¡hecha enteramente de madera! Irónicamente, parecía ahora que él había dado un patinazo monumental, que el universo prefería en apariencia la madera al mármol. Recordemos que, en la analogía entre madera y mármol, Einstein quería convertir el árbol de la glorieta de mármol en una estatua de mármol, creando un parque hecho por completo de mármol. Los físicos cuánticos, sin embargo, enfocaban el problema desde la perspectiva opuesta. Su sueño era tomar un enorme mazo y pulverizar todo el mármol. Después de retirar las piezas de mármol desperdigadas, cubrirían el parque completamente con madera. La teoría cuántica, de hecho, ponía a Einstein del revés. En casi todos los sentidos de la palabra, la teoría cuántica es lo contrario de la teoría de Einstein. La relatividad general de Einstein es una teoría del cosmos, una teoría de las estrellas y las galaxias que se mantienen unidas en el tejido continuo del espacio y el tiempo. La teoría cuántica, por el contrario, es una teoría del microcosmos, donde las partículas subatómicas se mantienen unidas por fuerzas de tipo partícula danzando en el escenario estéril del espacio-tiempo que se considera una arena vacía, desprovista de cualquier contenido. De este modo, las dos teorías son antagónicas. De hecho, la marea generada por la revolución cuántica empantanó durante medio siglo todos los intentos de una comprensión geométrica de las fuerzas. A lo largo de este libro, hemos desarrollado el tema de que las leyes de la física parecen simples y unificadas en dimensiones más altas. Sin embargo, con la aparición de la herejía cuántica a partir de 1925, vemos el primer desafío serio a este tema. De hecho, durante los sesenta años siguientes, hasta mediados de los años ochenta, la ideología de los herejes cuánticos dominaría el mundo de la física, enterrando casi las ideas geométricas de Riemann y Einstein bajo una avalancha de éxitos innegables y triunfos experimentales sorprendentes. Con gran rapidez, la teoría cuántica empezó a darnos un marco global en el que describir el universo visible: el universo material consiste en átomos y sus constituyentes. Existen alrededor de cien tipos diferentes de átomos, o elementos, a partir de los cuales podemos construir todas las formas conocidas de materia encontradas en la Tierra e incluso en el espacio exterior. Los átomos, a su vez, constan de electrones que giran alrededor de los núcleos, que a su vez están compuestos de neutrones y protones. En esencia, las diferencias clave entre la bella teoría geométrica de Einstein y la teoría cuántica pueden resumirse ahora como sigue: 1. Las fuerzas son creadas por el intercambio de paquetes discretos de energía denominados cuantos. En contraste con la imagen geométrica de Einstein para una «fuerza», en la teoría cuántica la luz iba a ser dividida en fragmentos minúsculos. Estos paquetes de luz fueron llamados fotones, y se comportaban de forma muy parecida a partículas puntuales. Cuando dos electrones chocan, se repelen mutuamente no a causa de la curvatura del espacio, sino debido a que intercambian un paquete de energía, el fotón.

La energía de estos fotones se mide en unidades de algo denominado constante de Planck (h ~ 1027 ergios por segundo). El tamaño casi infinitesimal de la constante de Planck significa que la teoría cuántica da correcciones minúsculas a las leyes de Newton. Éstas se denominan correcciones cuánticas, y pueden ser despreciadas cuando describimos nuestro mundo macroscópico familiar. Por esto podemos prescindir en gran medida de la teoría cuántica cuando describimos fenómenos cotidianos. Sin embargo, cuando tratamos con el mundo subatómico microscópico, estas correcciones cuánticas empiezan a dominar cualquier proceso físico, dando cuenta de las propiedades extrañas y contraintuitivas de las partículas subatómicas. 2. Las diferentes fuerzas son causadas por el intercambio de diferentes cuantos. La fuerza débil, por ejemplo, es causada por el intercambio de un tipo diferente de cuanto, llamado partícula W [W es la inicial de «weak» (débil)]. Análogamente, la fuerza fuerte que mantiene unidos los protones y neutrones dentro del núcleo del átomo es causada por el intercambio de partículas subatómicas llamadas mesones n. Tanto los bosones W como los mesones n se han visto experimentalmente en los residuos de los colisionadores de átomos, verificando de este modo la corrección fundamental de este enfoque. Y finalmente, la fuerza subnuclear que mantiene los protones y neutrones e incluso los mesones n juntos se debe al intercambio de partículas llamadas gluones. De este modo, tenemos un nuevo «principio unificador» para las leyes de la física. Podemos unir las leyes del electromagnetismo, la fuerza débil y la fuerza fuerte postulando una variedad de cuantos diferentes que sirven de vehículo para las mismas. Tres de las cuatro fuerzas (excluyendo la gravedad) están así unidas por la teoría cuántica, dándonos unificación sin geometría, lo que parece contradecir el tema de este libro y todo lo que hemos considerado hasta ahora. 3. Nunca podemos conocer simultáneamente la velocidad y la posición de una partícula subatómica. Éste es el principio de incertidumbre de Heisenberg, que es con mucho el aspecto más controvertido de la teoría, aunque ha resistido todos los desafíos en el laboratorio durante medio siglo. No hay desviación experimental conocida de esta regla. El principio de incertidumbre significa que nunca podemos estar seguros de dónde está un electrón o cuál es su velocidad. Lo más que podemos hacer es calcular la probabilidad de que el electrón aparezca en un cierto lugar con una cierta velocidad. La situación no es tan desesperada como uno pudiera sospechar, porque podemos calcular con rigor matemático la probabilidad de encontrar dicho electrón. Aunque el electrón es una partícula puntual, está acompañado de una onda que obedece a una ecuación bien definida, la ecuación de ondas de Schrödinger. Hablando de forma aproximada, cuanto mayor es la onda, mayor es la probabilidad de encontrar el electrón en dicho punto. De este modo, la teoría cuántica une los conceptos de partícula y de onda en una bonita dialéctica: los objetos físicos fundamentales de la naturaleza son partículas, pero la probabilidad de encontrar

una partícula en cada lugar determinado del espacio y del tiempo está dada por una onda de probabilidad. Esta onda, a su vez, obedece a una ecuación matemática bien definida dada por Schrödinger. Lo que resulta tan loco en la teoría cuántica es que todo lo reduce a estas desconcertantes probabilidades. Podemos predecir con gran precisión cuántos electrones de un haz se dispersarán cuando atraviesan una pantalla con agujeros. Sin embargo, nunca podemos saber exactamente qué electrón concreto se dispersará en cada dirección. No es cuestión de tener instrumentos poco precisos; según Heisenberg, es una ley de la naturaleza. Esta formulación, por supuesto, tiene implicaciones filosóficas perturbadoras. La visión newtoniana mantenía que el universo era un reloj gigantesco, al que se dio cuerda en el comienzo del tiempo y que desde entonces marcha porque obedece a las tres leyes del movimiento de Newton; esta imagen del universo quedaba ahora reemplazada por la incertidumbre y el azar. La teoría cuántica demolía, de una vez por todas, el sueño newtoniano de predecir matemáticamente el movimiento de todas las partículas del universo. Si la teoría cuántica viola nuestro sentido común, se debe simplemente a que la naturaleza no parece preocuparse mucho por nuestro sentido común. Por extrañas y perturbadoras que estas ideas puedan parecer, pueden ser fácilmente verificadas en el laboratorio. Esto queda ilustrado por el famoso experimento de la doble rendija. Supongamos que lanzamos un haz de electrones contra una pantalla con dos pequeñas rendijas. Tras la pantalla existe una placa fotográfica sensible. Según la física clásica del siglo XIX, esto Fig ura 5.1. Se lanza un haz de electrones a través de dos pequeños agujeros tras los cuales hay una placa fotográfica produciría dos minúsculos puntos quemados en la expuesta. Esperamos ver dos manchas en la placa. En lugar de placa fotográfica por el haz de electrones, uno ello, encontramos una figura de interferencia ondulante. ¿Cómo detrás de cada agujero. Sin embargo, cuando el puede ser? Según la teoría cuántica, el electrón es en realidad una partícula de tipo puntual y no puede atravesar ambos experimento se lleva a cabo realmente en el agujeros a la vez, pero la onda de Schrödinger asociada con laboratorio, encontramos una figura de cada electrón puede atravesar ambos agujeros e interferir interferencia (una serie de franjas brillantes y consigo misma. oscuras) en la placa fotográfica, que se asocia normalmente con un comportamiento ondulatorio y no de partículas (figura 5.1). (La forma más sencilla de crear una figura de interferencia es tomar un baño tranquilo y luego producir ondas rítmicamente en la superficie del agua. La figura similar a una tela de araña de ondas que cruzan la superficie del agua es una figura de interferencia causada por la colisión de muchos frentes de onda.) La figura de la placa fotográfica corresponde a una onda que ha atravesado ambos agujeros simultáneamente y luego ha interferido consigo misma detrás de la pantalla. Puesto que la figura de interferencia es creada por el movimiento colectivo de muchos electrones individuales, y puesto que la onda ha pasado a través de ambos agujeros simultáneamente, llegamos a la absurda conclusión ingenua de que los electrones pueden pasar de algún modo por ambos agujeros a la vez. ¿Pero cómo

puede un electrón estar en dos lugares al mismo tiempo? Según la teoría cuántica el electrón es de hecho una partícula puntual que atraviesa un agujero u otro, pero la función de onda del electrón se extiende por el espacio, atravesando ambos agujeros, y luego interacciona consigo misma. Por desconcertante que sea esta idea, ha sido verificada repetidamente mediante experimentos. Como dijo el físico sir James Jeans, «Probablemente es tan absurdo discutir cuánto sitio ocupa un electrón como discutir cuánto sitio ocupa un miedo, una ansiedad o una incertidumbre».[56] (Una pegatina que vi una vez en un parachoques en Alemania resumía esto sucintamente. Decía: «Heisenberg quizá ha dormido aquí».) 4. Existe una probabilidad finita de que las partículas puedan «tunelear» o hacer un salto cuántico a través de barreras impenetrables. Ésta es una de las predicciones más desconcertantes de la teoría cuántica. En el nivel atómico, esta predicción no ha tenido otra cosa que éxitos espectaculares. El «efecto túnel», o saltos cuánticos a través de barreras, ha sobrevivido a cualquier desafío experimental. De hecho, un mundo sin efecto túnel es ahora inimaginable. Un experimento sencillo que demuestra la corrección del efecto túnel cuántico empieza colocando un electrón en una caja. Normalmente, el electrón no tiene suficiente energía para atravesar las paredes de la caja. Si la física clásica es correcta, entonces el electrón nunca dejará la caja. Sin embargo, según la teoría cuántica, la onda de probabilidad del electrón se difunde a través de la caja y se filtra al mundo exterior. El filtrado a través de la pared puede calcularse exactamente con la ecuación de ondas de Schrödinger; es decir, hay una pequeña probabilidad de que la posición del electrón esté en algún lugar fuera de la caja. Otra manera de decir esto es que existe una probabilidad finita aunque pequeña de que el electrón pase por efecto túnel a través de la barrera (la pared de la caja) y salga de la caja. Cuando se mide en el laboratorio el ritmo al que los electrones pasan a través de estas barreras, los números concuerdan exactamente con la teoría cuántica. Este efecto túnel cuántico es el secreto que hay tras el diodo túnel, que es un dispositivo puramente mecanocuántico. Normalmente, las cargas eléctricas no podrían tener energía suficiente para atravesar el diodo túnel. Sin embargo, la función de onda de estos electrones puede atravesar barreras en el diodo, de modo que hay una probabilidad no despreciable de que las cargas eléctricas emerjan por el otro lado de la barrera atravesándola por efecto túnel. Cuando usted oye los bellos sonidos de la música estereofónica, recuerde que está oyendo los ritmos de billones de electrones que obedecen a ésta y otras extrañas leyes de la mecánica cuántica. Pero si la mecánica cuántica fuera incorrecta, entonces toda la electrónica, incluyendo los aparatos de televisión, ordenadores, radios, aparatos estereofónicos, y así sucesivamente, dejarían de funcionar. (De hecho, si la teoría cuántica fuera incorrecta, los átomos de nuestros cuerpos colapsarían, y nos desintegraríamos instantáneamente. Según las ecuaciones de Maxwell, los electrones que giran en un átomo deberían perder su energía en un microsegundo y precipitarse en el núcleo. Este súbito colapso es impedido por la teoría cuántica. Por lo tanto, el hecho de que existamos es una prueba viviente de la corrección de la mecánica cuántica.) Esto significa también que hay una probabilidad calculable finita de que ocurran sucesos

«imposibles». Por ejemplo, yo puedo calcular la probabilidad de que desaparezca inesperadamente y atraviese la Tierra y reaparezca en Hawai. (Debe señalarse que el tiempo que tendríamos que esperar para que ocurriese un suceso semejante es mayor que la vida del universo. Por lo tanto, no podemos utilizar la mecánica cuántica para viajar por efecto túnel a lugares de vacaciones en cualquier parte del mundo.) El campo de Yang-Mills, sucesor de Maxwell Tras un alud inicial de éxitos en los años treinta y cuarenta sin precedentes en la historia de la ciencia, la física cuántica comenzó a perder fuerza hacia los años sesenta. Potentes colisionadores de átomos construidos para romper los núcleos atómicos encontraron cientos de misteriosas partículas entre los restos. Los físicos, de hecho, estaban abrumados por montones de datos experimentales que surgían de estos aceleradores de partículas. Mientras que Einstein conjeturó el marco entero de la relatividad general con sólo intuición física, los físicos de partículas se estaban ahogando en una masa de datos experimentales en los años sesenta. Como confesaba Enrico Fermi, uno de los constructores de la bomba atómica, «Si yo pudiera recordar los nombres de todas estas partículas, habría sido botánico».[57] A medida que se descubrían cientos de partículas «elementales» entre los restos de átomos rotos, los físicos de partículas proponían innumerables esquemas para explicarlas, todos ellos sin éxito. Tan grande era el número de esquemas incorrectos que a veces se dijo que la vida media de una teoría de física subatómica es de sólo dos años. Al reconsiderar todos los callejones sin salida y las salidas falsas en física de partículas durante ese periodo, viene a la memoria la historia del científico y la pulga. Un científico amaestró una vez a una pulga para que saltara cuando él hacía sonar una campana. A continuación, utilizando un microscopio, anestesió una de las patas de la pulga e hizo sonar de nuevo la campana. La pulga siguió saltando. Luego el científico anestesió otra pata e hizo sonar la campana. La pulga siguió saltando. El científico fue anestesiando una pata más cada vez, luego hacía sonar la campana, y cada vez registró que la pulga saltaba. Finalmente, la pulga sólo tenía una pata. Cuando el científico anestesió la última pata e hizo sonar la campana, descubrió para su sorpresa que la pulga ya no saltaba. Entonces el científico declaró solemnemente su conclusión, basada en datos científicos irrefutables: ¡Las pulgas oyen con sus patas! Aunque los físicos de altas energías se han sentido a menudo como el científico de esta historia, a lo largo de décadas ha emergido lentamente una teoría cuántica consistente de la materia. En 1971, el desarrollo clave que impulsó una descripción unificada de tres de las fuerzas cuánticas (excluyendo la gravedad) y cambió el panorama de la física teórica fue elaborado por un estudiante de doctorado holandés, Gerald ’t Hooft, que aún no había cumplido los treinta años. Basado en la analogía con los fotones, los cuantos de luz, los físicos creían que las fuerzas débil y fuerte eran causadas por el intercambio de un cuanto de energía, llamado el campo de Yang-Mills. Descubierto por C. N. Yang y su discípulo R. L. Mills en 1954, el campo de Yang-Mills es una generalización del campo de Maxwell introducido un siglo antes para describir la luz, con la

salvedad de que el campo de Yang-Mills tiene muchas más componentes y puede tener carga eléctrica (el fotón no lleva carga eléctrica). Para las interacciones débiles, el correspondiente cuántico al campo de Yang-Milis es la partícula W, que puede tener carga +1, 0, y –1. Para las interacciones fuertes, el correspondiente cuántico al campo de Yang-Milis, el «pegamento» que mantiene unidos los protones y los neutrones fue bautizado como gluón.[58] Aunque esta imagen general era convincente, el problema que atormentaba a los físicos en los años cincuenta y sesenta era que el campo de Yang-Mills no es «renormalizable»; es decir, no da cantidades significativas finitas cuando se aplica a interacciones simples. Esto hacía inútil la teoría cuántica para describir las interacciones débiles y fuertes. La física cuántica había dado con un muro de ladrillo. Este problema surgió porque los físicos, al calcular lo que sucede cuando chocan dos partículas, utilizan algo denominado teoría de perturbaciones, que es una manera figurada de decir que están utilizando astutas aproximaciones. Por ejemplo, en la figura 5.2(a), vemos lo que sucede cuando un electrón colisiona con otra partícula débilmente interactuante, el evasivo neutrino. Como una primera conjetura, esta interacción puede describirse mediante un diagrama (denominado diagrama de Feynman) que muestra que un cuanto de las interacciones débiles, la partícula W, se intercambia entre el electrón y el neutrino. En primera aproximación, esto nos da un ajuste crudo pero razonable a los datos experimentales. Pero según la teoría cuántica, debemos añadir también pequeñas correcciones cuánticas a nuestra primera conjetura. Para hacer nuestro cálculo riguroso, debemos añadir también en los diagramas de Feynman todos los grafos posibles, Fig ura 5.2. a) En teoría cuántica, cuando una partícula subatómica choca con otra, ambas intercambian paquetes de incluyendo los que contienen «lazos», como en la energía, o cuantos. Los electrones y los neutrinos interaccionan figura 5.2(b). Idealmente, estas correcciones intercambiando un cuanto de la fuerza débil, llamado partícula b) Para calcular la interacción completa de electrones y cuánticas serían minúsculas. Después de todo, W. neutrinos, debemos sumar una serie infinita de grafos, llamados como mencionamos antes, la teoría cuántica se diagramas de Feynman, en los que los cuantos se intercambian proponía dar correcciones cuánticas minúsculas a de acuerdo con figuras geométricas cada vez más complicadas. Este proceso de sumar una serie infinita de grafos de Feynman la física newtoniana. Pero con gran horror de los se denomina teoría de perturbaciones. físicos, estas correcciones cuánticas, o «grafos cerrados», en lugar de ser pequeñas, eran infinitas. Por mucho que los físicos arreglasen sus ecuaciones o tratasen de enmascarar estas cantidades infinitas, estas divergencias aparecían una y otra vez en cualquier cálculo de correcciones cuánticas.

Además, el campo de Yang-Mills tenía una formidable reputación de ser endiabladamente difícil de manejar, comparado con el más sencillo campo de Maxwell. Había una mitología en torno al campo de Yang-Mills que sostenía que simplemente era demasiado complicado para cálculos prácticos. Quizá fue una suerte que ’t Hooft fuera sólo un estudiante de doctorado y no estuviera influido por los prejuicios de físicos más «maduros». Utilizando técnicas propuestas por su director de tesis, Martinus Veltman, ’t Hooft demostró que cuando quiera que tenemos «ruptura de simetría» (algo que explicaremos más adelante), el campo de Yang-Mills adquiere una masa pero sigue siendo una teoría finita. Él demostró que los infinitos debidos a los grafos cerrados pueden ser cancelados o evitados hasta que se hacen inocuos. Casi veinte años después de que fuera propuesto por Yang y Mills, ’t Hooft demostró finalmente que el campo de Yang-Mills es una teoría perfectamente definida de interacciones entre partículas. Las noticias sobre el trabajo de ’t Hooft se difundieron como la pólvora. El premio Nobel Sheldon Glashow recuerda que cuando oyó la noticia, exclamó: «¡O este muchacho es un idiota total, o es el genio más grande de la física en muchos años!».[59] Los desarrollos se sucedieron con abundancia y rapidez. Una primera teoría de las interacciones débiles, propuesta en 1967 por Steven Weinberg y Abdus Salam, se mostró rápidamente como la teoría correcta de las interacciones débiles. A mediados de los años setenta, el campo de Yang-Mills se aplicó a las interacciones fuertes. En los años setenta llegó la sorprendente comprensión de que el secreto de toda la materia nuclear podría ser desvelado por el campo de Yang-Mills. Ésta era la pieza que faltaba en el rompecabezas. El secreto de la madera que mantiene unida la materia era el campo de Yang-Mills, no la geometría de Einstein. Parecía como si esto, y no la geometría, fuera la lección central de la física. El Modelo Estándar Hoy, el campo de Yang-Mills ha hecho posible una teoría global de toda la materia. De hecho, confiamos tanto en esta teoría que familiarmente la denominamos el Modelo Estándar. El Modelo Estándar puede explicar cada fragmento de datos experimentales relativos a partículas subatómicas, hasta una energía de alrededor de un billón de electronvoltios (la energía creada al acelerar un electrón por un billón de voltios). Éste es aproximadamente el límite de los colisionadores de átomos que están actualmente en funcionamiento. Por consiguiente, no es exagerado decir que el Modelo Estándar es la teoría de más éxito en la historia de la ciencia. Según el Modelo Estándar, cada una de las fuerzas que mantienen unidas las diversas partículas se crea por el intercambio de diferentes tipos de cuantos. Discutiremos ahora cada fuerza por separado, y, luego las reuniremos en el Modelo Estándar. La fuerza fuerte El Modelo Estándar afirma que los protones, neutrones y otras partículas pesadas no son partículas fundamentales en absoluto, sino que constan de algunas partículas aún más minúsculas, llamadas quarks. Estos quarks, a su vez, se presentan en una amplia variedad: tres «colores» y seis «sabores». (Estos nombres no tienen nada que ver con los colores y sabores reales.) Existen también las réplicas

en antimateria de los quarks, llamados antiquarks. (La antimateria es idéntica a la materia en todos los aspectos, excepto que las cargas están invertidas y se aniquila al contacto con la materia ordinaria.) Esto nos da un total de 3 x 6 x 2 = 36 quarks. Los quarks, a su vez, se mantienen unidos por el intercambio de pequeños paquetes de energía, llamados gluones. Matemáticamente, estos gluones se describen mediante el campo de Yang-Mills, que se «condensa» en una sustancia pegajosa y de tipo pasta de caramelo que «pega» los quarks permanentemente. El campo del gluón es tan intenso y liga los quarks tan estrechamente que los quarks nunca pueden ser separados uno de otro. Esto se denomina confinamiento de los quarks, y puede explicar por qué nunca se han visto quarks libres experimentalmente. Por ejemplo, el protón y el neutrón pueden ser comparados a tres bolas de acero (quarks) unidas mediante una cuerda (gluón) en forma de Y para constituir una bola. Otras partículas fuertemente interactuantes, tales como el mesón π, pueden ser comparadas a un quark y un antiquark unidos por una simple cuerda (figura 5.3). Obviamente, si damos un golpe a esta combinación de bolas de acero, podemos hacer que este artefacto empiece a vibrar. En el mundo cuántico, sólo está permitido un conjunto discreto de vibraciones. Cada vibración de este conjunto de bolas de acero o quarks corresponde a un tipo diferente de partícula subatómica. Así, esta imagen simple (pero poderosa) explica el hecho de que exista un número infinito de partículas fuertemente interactuantes. Esta parte del Modelo Estándar que describe la fuerza fuerte se denomina cromodinámica cuántica (QCD); es decir, la teoría cuántica de la fuerza de color. Fig ura 5.3. Las partículas que interaccionan fuertemente están realmente compuestas de partículas aún más pequeñas, llamadas quarks, unidas por un «pegamento» similar a una pasta de caramelo, que está descrito por el campo de Yang-Mills. Tanto el protón como el neutrón están constituidos por tres quarks, mientras que los mesones lo están por un quark y un antiquark.

La fuerza débil

En el Modelo Estándar, la fuerza débil gobierna las propiedades de los «leptones», tales como el electrón, el muón y el mesón tau, y sus neutrinos asociados. Al igual que las otras fuerzas, los leptones interaccionan intercambiando cuantos, llamados bosones W y Z. Estos cuantos también se describen matemáticamente por el campo de YangMills. A diferencia de la fuerza gluónica, la fuerza generada por el intercambio de los bosones W y Z es demasiado débil para mantener los leptones en una resonancia, de modo que no vemos un número infinito de leptones emergiendo de nuestros colisionadores de átomos. La fuerza electromagnética

El Modelo Estándar incluye la teoría de Maxwell en interacción con las otras partículas. Esta parte del Modelo Estándar, que gobierna la interacción de electrones y luz, se denomina electrodinámica cuántica (QED), cuya corrección ha sido verificada experimentalmente dentro de un margen de una parte en 10 millones, haciéndola técnicamente la teoría más precisa de la historia. En resumen, el fruto de cincuenta años de investigación, y varios cientos de millones de dólares de financiación gubernamental, nos ha dado la siguiente imagen de la materia subatómica: Toda la materia consiste en quarks y leptones, que interaccionan intercambiando diferentes tipos de cuantos, descritos por los campos de Maxwell y de Yang-Mills. En una frase, hemos atrapado la esencia de los últimos cien años de investigación frustrante en el dominio subatómico. A partir de esta imagen simple podemos derivar, por la pura matemática solamente, todas las numerosísimas y desconcertantes propiedades de la materia. (Aunque todo ello parece fácil ahora, el premio Nobel Steven Weinberg, uno de los creadores del Modelo Estándar, reflexionaba en cierta ocasión sobre lo tortuoso que había sido el viaje de cincuenta años hasta el descubrimiento del modelo. Escribió: «Existe una larga tradición de física teórica que no afectó a todos, ni mucho menos, pero ciertamente me afectó a mí: la que decía que las interacciones fuertes [eran] demasiado complicadas para la mente humana».)[60] Simetría en física Los detalles del Modelo Estándar son realmente bastante aburridos y poco importantes. La característica más interesante del Modelo Estándar es que está basado en la simetría. Lo que ha impulsado esta investigación sobre la materia (madera) es que podemos ver la serial inequívoca de la simetría dentro de cada una de estas interacciones. Los quarks y los leptones no son aleatorios, sino que se presentan en pautas definidas en el Modelo Estándar. La simetría, por supuesto, no es estrictamente un dominio de los físicos. Artistas, escritores, poetas y matemáticos han admirado durante mucho tiempo la belleza que se encuentra en la simetría. Para el poeta William Blake, la simetría poseía cualidades místicas e incluso temibles, como expresó en el poema «¡Tigre! ¡Tigre! luz llameante»: ¡Tigre! ¡Tigre! luz llameante en los bosques de la noche ¿qué ojo o mano inmortal pudo idear tu temible simetría? [61]

Para el matemático Lewis Carroll, la simetría representaba un concepto familiar, casi festivo. En «A la caza del Snark», captó la esencia de la simetría cuando escribió: Se cuece en serrín; se sazona con pegamento; se espesa con saltamontes y cintas; sin olvidar nunca lo principal— que es preservar su forma simétrica.[62]

En otras palabras, la simetría es la conservación de la forma de un objeto incluso después de que

lo deformemos o giremos. Varios tipos de simetrías se dan repetidamente en la naturaleza. La primera es la simetría de rotación y reflexión. Por ejemplo, un copo de nieve queda igual si lo rotamos 60 grados. La simetría de un calidoscopio, una flor o una estrella de mar es de este tipo. Las llamamos simetrías espacio-temporales, que se crean girando el objeto en una dimensión del espacio o del tiempo. La simetría de la relatividad especial es de este tipo, puesto que describe rotaciones entre espacio y tiempo. Otro tipo de simetría se crea revolviendo una serie de objetos. Pensemos en el juego de los cubiletes, donde el jugador revuelve tres cubiletes con un guisante oculto bajo uno de ellos. Lo que hace difícil el juego es que existen muchas formas de disponer los cubiletes. De hecho, hay seis formas diferentes en las que pueden ser ordenados tres cubiletes. Puesto que el guisante está oculto, estas seis configuraciones son idénticas para el observador. A los matemáticos les gusta dar nombres a estas diversas simetrías. El nombre para las simetrías de un juego de cubiletes es S3, que describe el número de formas en que pueden ser intercambiados tres objetos idénticos. Si reemplazamos los cubiletes por quarks, entonces las ecuaciones de la física de partículas deben seguir siendo las mismas después de reordenar los quarks. Si reordenamos tres quarks coloreados y las ecuaciones permanecen igual, entonces decimos que las ecuaciones poseen algo denominado simetría SU(3). El 3 representa el hecho de que tenemos tres tipos de colores, y SU representa una propiedad matemática concreta de la simetría.[63] Decimos que existen tres quarks en un multiplete. Los quarks en un multiplete pueden ser reordenados sin cambiar la física de la teoría. Análogamente, la fuerza débil gobierna las propiedades de dos partículas, el electrón y el neutrino. La simetría que intercambia estas partículas, pero deja invariante la ecuación de estado, se denomina SU(2). Esto significa que un multiplete de la fuerza débil contiene un electrón y un neutrino, que pueden rotarse hasta quedar intercambiados. Finalmente, la fuerza electromagnética tiene simetría U(l), que gira las componentes del campo de Maxwell para intercambiarlas entre sí. Cada una de estas simetrías es simple y elegante. Sin embargo, el aspecto más controvertido del Modelo Estándar es que «unifica» las tres fuerzas fundamentales simplemente empalmando las tres teorías en una simetría mayor, SU(3) x SU(2) x U(1), que es simplemente el producto de las simetrías de las fuerzas individuales. (Esto puede compararse a ensamblar un rompecabezas. Si tenemos tres piezas que no ajustan bien, siempre podemos tomar cinta adhesiva y pegarlas a la fuerza. Así es como se forma el Modelo Estándar, pegando juntos tres multipletes distintos. Esto puede no ser estéticamente agradable, pero al menos las tres piezas se mantienen ahora juntas gracias a la cinta.) Idealmente, podría esperarse que «la teoría final» contuviera todas las partículas como un simple multiplete. Por desgracia, el Modelo Estándar tiene tres multipletes distintos, que no pueden ser rotados hasta quedar intercambiados. Más allá del Modelo Estándar Los proponentes del Modelo Estándar pueden decir con verdad que ajusta todos los datos experimentales conocidos. Pueden señalar correctamente que no existen resultados experimentales que contradigan el Modelo Estándar. De todas formas, nadie, ni siquiera sus más fervientes defensores, cree que sea la teoría final de la materia. Hay varias razones profundas por las que no puede ser la teoría final.

En primer lugar, el Modelo Estándar no describe la gravedad, de modo que es necesariamente incompleto. Cuando se intenta empalmar la teoría de Einstein con el Modelo Estándar, la teoría resultante da respuestas absurdas. Cuando calculamos, pongamos por caso, la probabilidad de que un electrón sea desviado por un campo gravitatorio, la teoría híbrida nos da una probabilidad infinita, lo que no tiene sentido. Los físicos dicen que la gravedad cuántica es no renormalizable, lo que significa que no puede dar números razonables finitos para describir procesos físicos simples. En segundo lugar, y quizá más importante, el modelo es muy feo porque empalma crudamente tres interacciones muy diferentes. Personalmente, pienso que el Modelo Estándar puede compararse a cruzar tres tipos completamente diferentes de animales, tales como un mulo, un elefante y una ballena. De hecho, es tan feo y forzado que incluso sus creadores se sienten algo molestos. Son los primeros en pedir excusas por sus deficiencias y admitir que no puede ser la teoría final. Esta fealdad es obvia cuando formulamos los detalles de los quarks y los leptones. Para describir hasta qué punto es fea la teoría, enumeremos las diversas partículas y campos dentro del Modelo Estándar: 1. Treinta y seis quarks, que se presentan en seis «sabores» y tres «colores», y sus réplicas en antimateria para describir las interacciones fuertes. 2. Ocho campos de Yang-Mills para describir los gluones, que ligan los quarks. 3. Cuatro campos de Yang-Mills para describir las fuerzas débil y electromagnética. 4. Seis tipos de leptones para describir las interacciones débiles (incluyendo el electrón, el muón, el leptón tau y sus respectivos neutrinos). 5. Un gran número de misteriosas partículas de «Higgs» necesarias para a justar las masas y las constantes que describen a las partículas. 6. Al menos diecinueve constantes arbitrarias que describen las masas de las partículas y las intensidades de las diversas interacciones. Estas diecinueve constantes deben ser introducidas a la fuerza; no están determinadas en modo alguno por la teoría. Lo que es peor, esta larga lista de partículas puede dividirse en tres «familias» de quarks y leptones, que son prácticamente indistinguibles una de otra. De hecho, estas tres familias de partículas parecen ser copias exactas una de otra, dando una redundancia triple en el número de partículas supuestamente «elementales» (figura 5.4). (Es perturbador darse cuenta de que ahora tenemos muchas más partículas «elementales» que el número total de partículas subatómicas descubiertas hasta los años cuarenta. Hace que uno se pregunte hasta qué punto estas partículas son realmente elementales.) La fealdad del Modelo Estándar puede contrastarse con la simplicidad de las ecuaciones de Einstein, en las que todo se deducía de primeros principios. Para comprender el contraste estético entre el Modelo Estándar y la teoría de la relatividad general de Einstein debemos comprender que, cuando los físicos hablan de «belleza» en sus teorías, realmente quieren decir que su teoría posee al menos dos características esenciales: 1. Una simetría unificadora. 2. La capacidad de explicar grandes cantidades de datos experimentales con las expresiones matemáticas más económicas.

El Modelo Estándar falla en ambos aspectos. Su simetría, como hemos visto, está realmente formada empalmando tres simetrías más pequeñas, una por cada una de las tres fuerzas. En segundo lugar, la teoría es pesada e incómoda en su forma. Ciertamente no es económica en modo alguno. Por ejemplo, las ecuaciones de Einstein, escritas en su totalidad, sólo ocupan unos centímetros y ni siquiera llenarían una línea de este libro. A partir de esta línea de ecuaciones, podemos ir más allá de las leyes de Newton y derivar la distorsión del espacio, el big bang y otros fenómenos astronómicos importantes. Sin embargo, sólo escribir el Modelo Estándar en su totalidad requeriría dos tercios de esta página y parecería un galimatías de símbolos complejos. A los científicos les gusta creer que la naturaleza prefiere la economía en sus creaciones y que siempre parece evitar redundancias Fig ura 5.4. En el Modelo Estándar, la primera generación de innecesarias al crear estructuras físicas, biológicas partículas consta de los quarks up y down (en tres colores, con sus antipartículas asociadas) y el electrón y el neutrino. La y químicas. Cuando la naturaleza crea osos panda, característica embarazosa del Modelo Estándar es que existen moléculas de pro teína, o agujeros negros, es tres generaciones de tales partículas, siendo cada generación ahorradora en su diseño. O, como el premio Nobel casi una copia exacta de la generación anterior. Resulta difícil creer que la naturaleza fuera tan redundante como para crear, en C. N. Yang dijo una vez, «La naturaleza parece un nivel fundamental, tres copias idénticas de partículas. sacar ventaja de las simples representaciones matemáticas de las leyes de simetría. Cuando uno se detiene a considerar la elegancia y la bella perfección del razonamiento matemático involucrado y lo contrasta con las consecuencias físicas complejas y de largo alcance, nunca deja de manifestarse un profundo sentido de respeto por el poder de las leyes de simetría».[64] Sin embargo, ahora descubrimos una grosera violación de esta regla en el nivel más fundamental. La existencia de tres familias idénticas, cada una con un surtido singular de partículas, es una de las características más perturbadoras del Modelo Estándar y plantea un problema persistente para los físicos: ¿debería el Modelo Estándar, la teoría de éxito más espectacular en la historia de la ciencia, ser desechada sólo porque es fea? ¿Es necesaria la belleza? Una vez asistí a un concierto en Boston en el que el público estaba visiblemente conmovido por la fuerza e intensidad de la Novena Sinfonía de Beethoven. Después del concierto, con las ricas melodías aún frescas en mi mente, paseé por el foso vacío de la orquesta, donde advertí que algunas personas miraban maravilladas los pentagramas dejados por los músicos. Para el ojo no entrenado, pienso yo, el registro musical de incluso la pieza musical más conmovedora debe parecer una masa bruta de garabatos ininteligibles, que tienen más parecido con

un revoltijo caótico de manchas que con una bella obra de arte. Sin embargo, para el oído de un músico adiestrado, esta masa de barras, claves, llaves, agudos, graves y notas cobra vida y resuena en la mente. Un músico puede «oír» bellas armonías y ricas resonancias mirando simplemente una partitura. Un pentagrama, por consiguiente, es más que sólo la suma de sus líneas. Análogamente, sería un error definir un poema como «una breve colección de palabras organizadas de acuerdo con cierto principio». No sólo esta definición es estéril, sino que en última instancia es inexacta porque no toma en cuenta la sutil interacción entre el poema y las emociones que evoca en el lector. Los poemas, puesto que cristalizan y transmiten la esencia de los sentimientos e imágenes del autor, tienen una realidad mucho mayor que las palabras impresas en una hoja de papel. Unas pocas palabras cortas de un poema haiku, por ejemplo, pueden transportar al lector a un nuevo dominio de sensaciones y sentimientos. Al igual que la música o el arte, las ecuaciones matemáticas pueden tener una lógica y una progresión natural que pueden evocar extrañas pasiones en un científico. Aunque el público profano considera que las ecuaciones matemáticas son bastante opacas, para un científico una ecuación es muy semejante a un movimiento en una sinfonía mayor. Simplicidad. Elegancia. Éstas son las cualidades que han inspirado a algunos de los más grandes artistas para crear sus obras maestras, y son ellas precisamente las mismas cualidades que motivan a los científicos para buscar las leyes de la naturaleza. Como una obra de arte o un poema encantador, las ecuaciones tienen una belleza y rítmica propias. El físico Richard Feynman expresó esto cuando decía: Se puede reconocer la verdad por su belleza y simplicidad. Cuando uno la encuentra correcta, es obvio que es correcta —al menos si uno tiene cierta experiencia— porque lo que sucede normalmente es que sale más de lo que se ha metido dentro … Los inexpertos, los charlatanes y similares, hacen conjeturas que son simples, pero uno puede ver inmediatamente que son falsas, de modo que no cuentan. Otros, los estudiantes inexpertos, hacen conjeturas que son muy complicadas, y de alguna manera parece que todo es correcto, pero yo sé que no es verdadero porque las verdades siempre resultan ser más sencillas de lo que uno piensa.[65]

El matemático francés Henri Poincaré lo expresó de forma aún más franca cuando escribió: «El científico no estudia la Naturaleza porque es útil; la estudia porque disfruta con ello, y disfruta con ello porque es bella. Si la Naturaleza no fuera bella, no valdría la pena conocerla, y si no valiese la pena conocer la Naturaleza, no valdría la pena vivir la vida». En cierto sentido, las ecuaciones de la física son como los poemas de la naturaleza. Son cortas y están organizadas de acuerdo con cierto principio, y las más bellas de ellas transmiten las simetrías ocultas de la naturaleza. Por ejemplo, las ecuaciones de Maxwell, recordemos, consistían originalmente en ocho ecuaciones. Estas ecuaciones no son «bellas». No poseen mucha simetría. En su forma original, son feas, pero son el pan de cada día para todo físico o ingeniero que se haya ganado la vida trabajando con el radar, la radio, las microondas, los láseres o los plasmas. Estas ocho ecuaciones son lo que un recurso es para un abogado o un estetoscopio para un médico. Sin embargo, cuando se reescriben utilizando el tiempo como cuarta dimensión, este conjunto bastante incómodo de ocho ecuaciones se reduce a una sola ecuación tensorial. Esto es lo que un físico llama «belleza», porque ambos criterios son ahora satisfechos. Incrementando el número de dimensiones, revelamos la verdadera simetría tetradimensional de la teoría y podemos ahora explicar grandes cantidades de datos experimentales con una sola ecuación.

Como hemos visto repetidamente, la adición de dimensiones más altas hace que se simplifiquen las leyes de la naturaleza. Uno de los mayores misterios a los que se enfrenta hoy la ciencia es la explicación del origen de estas simetrías, especialmente en el mundo subatómico. Cuando nuestras poderosas máquinas revientan los núcleos de los átomos golpeándolos con energías por encima de un billón de electronvoltios, descubrimos que los fragmentos pueden disponerse según estas simetrías. Algo raro y precioso está sucediendo incuestionablemente cuando sondeamos en distancias subatómicas. El propósito de la ciencia, sin embargo, no es maravillarse por la elegancia de las leyes naturales, sino explicarlas. El problema fundamental a que se enfrentan los físicos subatómicos es que, históricamente, no teníamos idea de por qué estas simetrías estaban emergiendo en nuestros laboratorios y nuestras pizarras. Y aquí es precisamente donde falla el Modelo Estándar. Por mucho éxito que tenga la teoría, los físicos creen universalmente que debe ser reemplazada por una teoría superior. Fracasa en los dos «tests» de belleza. No tiene un simple grupo de simetría ni tampoco describe el mundo subatómico de forma económica. Pero, lo que es más importante, el Modelo Estándar no explica de dónde proceden originalmente estas simetrías. Simplemente son empalmadas a la fuerza, sin ninguna comprensión profunda de su origen. GUT El físico Ernest Rutherford, quien descubrió el núcleo del átomo, dijo una vez: «Toda ciencia es o física o coleccionar sellos».[66] Con esto quería decir que la ciencia consta de dos partes. La primera es la física, que se basa en leyes o principios físicos. La segunda es la taxonomía («coleccionar insectos» o coleccionar sellos), que es dar nombres griegos eruditos a objetos de los cuales lo poco que se sabe está basado en analogías superficiales. En este sentido, el Modelo Estándar no es física real; se parece más a coleccionar sellos, ordenando las partículas subatómicas de acuerdo con algunas simetrías superficiales, pero sin la menor intuición sobre la procedencia de las simetrías. Análogamente, cuando Charles Darwin tituló su libro Sobre el origen de las especies, estaba yendo mucho más allá de la taxonomía al dar la explicación lógica para la diversidad de animales en la naturaleza. Lo que se necesita en física es un equivalente de este libro, que se llamaría Sobre el origen de la simetría, que explique las razones por las que se encuentran ciertas simetrías en la naturaleza. Puesto que el Modelo Estándar es tan forzado, durante años se han hecho intentos para ir más allá del mismo, con éxitos dispares. Un intento destacable fue la denominada Teoría de Gran Unificación (GUT), popular a finales de los años setenta, que trataba de unir las simetrías de los cuantos fuerte, débil y electromagnético disponiéndolos en un grupo de simetría mucho mayor [por ejemplo, SU(5), 0(10), o E(6)]. En lugar de empalmar ingenuamente los grupos de simetría de las tres fuerzas, las GUT trataban de empezar con una simetría mayor que requería menos constantes arbitrarias y menos hipótesis. Las GUT incrementaron enormemente el número de partículas más allá del Modelo Estándar, pero la ventaja era que el feo SU(3) x SU(2) x U(l) quedaba ahora reemplazado por un solo grupo de simetría. La más simple de estas GUT, llamada SU(5), utilizaba veinticuatro campos de

Yang-Mills, pero al menos todos estos campos de Yang-Mills pertenecían a una sola simetría, y no a tres simetrías separadas. La ventaja estética de las GUT era que ponían los quarks con interacción fuerte y los leptones con interacción débil en pie de igualdad. En SU(5), por ejemplo, un multiplete de partículas constaba de tres quarks coloreados, un electrón y un neutrino. Bajo una rotación SU(5), estas cinco partículas podían rotar de una a otra sin cambiar la física. Al principio, las GUT se enfrentaron a un gran escepticismo porque la energía a la que se unificaban las tres fuerzas fundamentales era de alrededor de 1012 miles de millones de electronvoltios, sólo algo menor que la energía de Planck. Esto estaba mucho más allá de la energía de cualquier colisionador de átomos en la Tierra, y ello resultaba descorazonador. Sin embargo, los físicos se fueron animando poco a poco con la idea de las GUT cuando se advirtió que éstas hacían una predicción clara y verificable: la desintegración del protón. Recordemos que, en el Modelo Estándar, una simetría como la SU(3) hace una rotación entre tres quarks; es decir, un multiplete consta de tres quarks. Esto significa que cada uno de los quarks puede transformarse en otro quark bajo ciertas condiciones (tales como el intercambio de una partícula de Yang-Mills). Sin embargo, los quarks no pueden transformarse en electrones. Los multipletes no se mezclan. Pero en SU(5) GUT, existen cinco partículas dentro de un multiplete que pueden rotarse entre sí: tres quarks, el electrón y el neutrino. Esto significa que, bajo ciertas circunstancias, se puede transformar un protón (hecho de quarks) en un electrón o un neutrino. En otras palabras, las GUT dicen que el protón, que durante mucho tiempo se consideró una partícula estable con una vida media infinita, es realmente inestable. En principio, esto significa también que todos los átomos del universo se llegarían a desintegrar en radiación. Si esto es correcto, significa que los elementos químicos, que en las clases de química elemental se enseña que son estables, son todos ellos realmente inestables. Esto no significa que debiéramos esperar que los átomos de nuestro cuerpo se desintegren, en una ráfaga de radiación en cualquier instante próximo. Se calculó que el tiempo necesario para que el protón se desintegre en leptones era del orden de 1031 años, mucho mayor que la vida del universo (de 15 a 20.000 mil millones de años). Aunque esta escala de tiempo era astronómicamente larga, esto no detuvo a los físicos experimentales. Dado que un tanque normal de agua contiene una cantidad astronómica de protones, existe una probabilidad medible de que algún protón dentro del tanque se desintegre, incluso si en promedio los protones se desintegran en una escala de tiempo cosmológica. La búsqueda de la desintegración del protón En unos pocos años, este cálculo teórico abstracto fue puesto a prueba: varios experimentos con coste multimillonario fueron realizados por varios grupos de físicos en todo el mundo. La construcción de detectores suficientemente sensibles para detectar una desintegración del protón implicaba técnicas muy costosas y complejas. En primer lugar, los experimentadores necesitaban construir enormes cubas en las que detectar la desintegración del protón. Luego tenían que llenar las cubas con un líquido rico en hidrógeno (tal como el agua o el líquido limpiador) que hubiera sido filtrado con técnicas especiales para eliminar cualquier impureza y contaminante. Lo más importante, tenían luego que enterrar estos tanques gigantescos en las profundidades de la Tierra para eliminar

cualquier contaminación debida a rayos cósmicos muy penetrantes. Y, finalmente, tenían que construir miles de detectores altamente sensibles para registrar las débiles trazas de partículas subatómicas emitidas en la desintegración del protón. De forma notable, a finales de los años ochenta seis detectores gigantescos estaban operativos en todo el mundo, como el detector de Kamioka en Japón y el detector IMB (Irvine, Michigan, Brookhaven) cerca de Cleveland, Ohio. Contenían enormes cantidades de líquido puro (tal como agua) que iban desde 60 a 3.300 toneladas de peso. (El detector IMB, por ejemplo, es el mayor del mundo y contiene un enorme cubo de 20 metros horadado en una mina de sal bajo el lago Erie. Cualquier protón que espontáneamente se desintegre en el agua purificada produciría una ráfaga microscópica de luz, que a su vez sería captada por alguno de los 2.048 tubos fotoeléctricos.) Para comprender cómo estos monstruosos detectores pueden medir la vida media del protón, pensemos por analogía en la población norteamericana. Sabemos que el norteamericano medio tiene una esperanza de vida del orden de setenta años. Sin embargo, no tenemos que esperar setenta años para que se produzcan fallecimientos. Puesto que existen muchos norteamericanos, de hecho más de 250 millones, cabe esperar que algunos norteamericanos mueran cada pocos minutos. Del mismo modo, la SU(5) GUT más simple predecía que la vida media del protón debería ser de alrededor de 1029 años; es decir, al cabo de 1029 años, la mitad de los protones del universo se habría desintegrado.[67] (En comparación, esto es unas 10 trillones de veces mayor que la vida del propio universo.) Aunque esto parece una vida enorme, estos detectores hubieran sido capaces de ver estos raros y fugaces sucesos simplemente porque había muchos protones en el detector. De hecho, cada tonelada de agua contiene más de 1029 protones. Con tantos protones, se esperaba que cada año se desintegrara un puñado de ellos. Sin embargo, por mucho que esperaron los experimentadores, no vieron ninguna clara evidencia de desintegraciones de protones. Actualmente, parece que los protones deben tener una vida media mayor de 1032 años, lo que descarta la más simple de las GUT, pero aún deja abierta la posibilidad de GUT más complicadas. Inicialmente, una cierta excitación a propósito de las GUT se filtró a los medios de comunicación. La búsqueda de una teoría unificada de la materia y la investigación sobre la desintegración del protón captó la atención de los productores y escritores científicos. El programa «Nova» de la televisión pública dedicó a ello varios programas, y se escribieron libros populares y numerosos artículos en las revistas de divulgación científica. De todas formas, la fanfarria se desvaneció a finales de los años ochenta. Por mucho que esperasen los físicos a que el protón se desintegrara, el protón sencillamente no cooperaba. Después de que se han gastado decenas de millones de dólares en varios países para buscar este suceso, todavía no se ha encontrado. El interés público en las GUT comenzó a decaer. El protón puede aún desintegrarse, y las GUT pueden aún mostrarse correctas, pero los físicos son ahora mucho más cautos en aceptar las GUT como la «teoría final», por varias razones. Como sucede con el Modelo Estándar, las GUT no hacen mención de la gravedad. Si combinamos ingenuamente las GUT con la gravedad, la teoría da lugar a números que son infinitos y, por lo tanto, no tienen sentido. Al igual que el Modelo Estándar, las GUT son no renormalizables. Además, la teoría está definida para energías enormes, donde ciertamente esperaríamos que aparezcan efectos

gravitacionales. Por ello, el hecho de que la gravedad esté ausente en la teoría GUT es un serio revés. Además, también está plagada por la misteriosa presencia de tres idénticas copias o familias de partículas. Y finalmente, la teoría no podía predecir las constantes fundamentales, tales como las masas de los quarks. A las GUT les faltaba un principio físico más amplio que fijase las masas de los quarks y las otras constantes a partir de primeros principios. En última instancia, parecía que las GUT eran también coleccionismo de sellos. El problema fundamental era que el campo de Yang-Mills no bastaba para proporcionar el «pegamento» que una las cuatro interacciones. El mundo de madera, descrito por el campo de YangMills, no era suficientemente poderoso para explicar el mundo de mármol. Tras medio siglo de letargo, había llegado el tiempo para la «venganza de Einstein».

6 LA VENGANZA DE EINSTEIN

La supersimetría es la propuesta definitiva para una completa unificación de todas las partículas. ABDUS SALAM La resurrección de Kaluza-Klein Ha sido calificado como «el mayor problema científico de todos los tiempos». La prensa lo ha llamado el «Santo Grial» de la física, la búsqueda para unir la teoría cuántica con la gravedad, creando así una Teoría de Todo. Éste es el problema que ha frustrado las mentes más agudas del siglo XX. Sin discusión, la persona que resuelva este problema ganará el premio Nobel. Hacia los años ochenta, la física estaba llegando a un punto muerto. La gravedad se mantenía tercamente apartada y alejada de las otras tres fuerzas. Irónicamente, aunque la teoría clásica de la gravedad fue la primera en ser comprendida a través de la obra de Newton, la teoría cuántica de la gravedad era la última interacción en ser entendida por los físicos. Todos los gigantes de la física habían intentado resolver este problema, y todos habían fracasado. Einstein dedicó los últimos treinta años de su vida a su teoría del campo unificado. Incluso el gran Werner Heisenberg, uno de los fundadores de la teoría cuántica, pasó los últimos años de su vida persiguiendo su versión de una teoría unificada de campos, e incluso publicó un libro sobre el tema. En 1958, Heisenberg llegó a difundir por la radio que él y su colega Wolfgang Pauli habían tenido éxito finalmente en encontrar la teoría del campo unificado, y que sólo faltaban los detalles técnicos. (Cuando la prensa aireó esta sorprendente declaración, Pauli se enfureció porque Heisenberg había hecho este anuncio prematuramente y le envió una carta que consistía en una hoja de papel en blanco con el pie de figura «Esto es para mostrar al mundo que yo puedo pintar como Tiziano. Sólo faltan detalles técnicos».)[68] Más adelante, ese mismo año, cuando Wolfgang Pauli dio finalmente una conferencia sobre la teoría del campo unificado de Heisenberg-Pauli, había muchos físicos impacientes entre la audiencia, ansiosos de oír los detalles que faltaban. Sin embargo, cuando él hubo acabado, la charla recibió una acogida dividida. Niels Bohr se puso en pie y dijo: «Todos estamos de acuerdo en que su teoría es loca. La cuestión que nos divide es si es suficientemente loca».[69] De hecho, se habían realizado tantos intentos para la «síntesis final» que se había creado una reacción de escepticismo. El premio Nobel Julián Schwinger ha dicho: «No es nada más que otro síntoma del vivo deseo que aflige a cada generación de físicos: el prurito de tener contestadas todas las cuestiones fundamentales durante sus propias vidas».[70] Sin embargo, hacia los años ochenta, la «teoría cuántica de la madera», tras medio siglo de éxito casi ininterrumpido, estaba empezando a perder fuerza. Tengo un vivo recuerdo del sentimiento de frustración que dominaba durante este periodo entre jóvenes físicos hastiados. Todo el mundo sentía

que el Modelo Estándar estaba siendo víctima de su propio éxito. Era tan exitoso que cualquier conferencia internacional de física parecía simplemente otro sello de aprobación. Todas las charlas dedicadas al Modelo Estándar descubrían algún otro aburrido éxito experimental del mismo. En una conferencia de física miré de reojo a la audiencia y descubrí que la mitad de ellos estaban dormitando; el orador estaba murmurando y comentando un gráfico tras otro que demostraban cómo podían ajustarse los últimos datos de acuerdo con el Modelo Estándar. Yo me sentía como los físicos de comienzos de siglo. Ellos, también, parecían enfrentarse a un callejón sin salida. Pasaron décadas llenando tediosamente tablas de cifras para las líneas espectrales de varios gases, o calculando las soluciones a las ecuaciones de Maxwell para superficies metálicas cada vez más complicadas. Puesto que el Modelo Estándar tenía diecinueve parámetros que podían ser «ajustados» arbitrariamente a cualquier valor, como los diales de una radio, yo imaginaba que los físicos tardarían décadas hasta descubrir los valores exactos de los diecinueve parámetros. Había llegado el tiempo para una revolución. Lo que atraía a la próxima generación de físicos era el mundo de mármol. Por supuesto, seguían quedando varios problemas profundos en el camino de una genuina teoría cuántica de la gravedad. Un problema al construir una teoría de la gravedad es que la fuerza es desesperantemente débil. Por ejemplo, se necesita toda la masa de la Tierra para mantener hojas de papel en mi mesa de trabajo. Sin embargo, frotando un peine en mi cabello yo puedo levantar estas hojas de papel, superando la fuerza del planeta Tierra. Los electrones en mi peine son más poderosos que la atracción gravitatoria de todo el planeta. Análogamente, si yo tuviera que tratar de construir un «átomo» con electrones atraídos hacia el núcleo por la fuerza gravitatoria, y no por la fuerza eléctrica, el átomo tendría el tamaño del universo. Clásicamente, vemos que la fuerza gravitatoria es despreciable comparada con la fuerza electromagnética, y por lo tanto es extraordinariamente difícil de medir. Pero si intentamos desarrollar una teoría cuántica de la gravedad, entonces cambian las tornas. Las correcciones cuánticas debidas a la gravedad son del orden de la energía de Planck, o 1016 miles de millones de electronvoltios, mucho más allá de cualquier cosa alcanzable en el planeta Tierra en este siglo. Esta situación de perplejidad se ahonda cuando tratamos de construir una teoría completa de la gravedad cuántica. Recordemos que cuando los físicos cuánticos tratan de cuantizar una fuerza, la descomponen en minúsculos paquetes de energía, llamados cuantos. Si uno trata de cuantizar a ciegas la teoría de la gravedad, postula que funciona por el intercambio de minúsculos paquetes de gravedad, llamados gravitones. El rápido intercambio de gravitones entre la materia es lo que la mantiene unida gravitatoriamente. En esta imagen, lo que nos mantiene en el suelo, y nos impide salir despedidos al espacio exterior a miles de kilómetros por hora, es el intercambio invisible de billones de minúsculas partículas gravitones. Pero cuando los físicos tratan de realizar cálculos simples para calcular las correcciones cuánticas a las leyes de la gravedad de Newton y de Einstein, descubren que el resultado es infinito, lo que lo hace inútil. Por ejemplo, examinemos lo que sucede cuando chocan entre sí dos partículas eléctricamente neutras. Para calcular los diagramas de Feynman para esta teoría tenemos que hacer una aproximación, de modo que suponemos que la curvatura del espacio-tiempo es pequeña, y por lo tanto el tensor métrico de Riemann es próximo a 1. Para una primera estimación, suponemos que el

Fig ura 6.1. a) En teoría cuántica, un cuanto de la fuerza gravitatoria, señalado con h, se denomina graviten, que se forma al romper la métrica de Riemann. En esta teoría, los objetos interaccionan intercambiando este paquete de gravedad. De esta forma, hemos perdido completamente la bella imagen geométrica de Einstein. b) Por desgracia, todos los diagramas que contienen lazos cerrados son infinitos, lo que ha impedido una unificación de la gravedad con la teoría cuántica durante el último medio siglo. Una teoría cuántica de la gravedad que la una con las otras fuerzas es el Santo Grial de la física.

espacio-tiempo es casi plano, no curvo, de modo que descomponemos los componentes del tensor métrico en la forma g11 = 1 + h11 donde 1 representa el espacio plano en nuestras ecuaciones y h11 es el campo del gravitón. (Einstein, por supuesto, estaba horrorizado de que los físicos cuánticos mutilaran de esta forma sus ecuaciones rompiendo el tensor métrico. Esto es parecido a tomar una bella pieza de mármol y golpearla con un mazo para romperla.) Después de hacer esta mutilación, llegamos a una teoría cuántica de aspecto convencional. En la figura 6.1a, vemos que las dos partículas neutras intercambian un cuanto de gravedad, etiquetado por el campo b. El problema surge cuando sumamos sobre todos los lazos de los diagramas: divergen, como en la figura 6.1b. Para el campo de Yang-Mills, podríamos utilizar inteligentes trucos malabares para reordenar estas cantidades infinitas hasta que o bien se cancelen o sean absorbidas en cantidades que no pueden ser medidas. Sin embargo, puede demostrarse que las recetas normales de renormalización fallan completamente cuando las aplicamos a una teoría cuántica de la gravedad. De hecho, los esfuerzos de los físicos durante medio siglo para eliminar o absorber estos infinitos han sido vanos. En otras palabras, los intentos de fuerza bruta por romper el mármol en piezas

fracasaron miserablemente. Luego, a comienzos de los años ochenta, ocurrió un curioso fenómeno. Recordemos que la teoría de Kaluza-Klein había estado inactiva durante sesenta años. Pero los físicos quedaron tan frustrados por sus intentos de unificar la gravedad con las otras fuerzas cuánticas que empezaron a superar su prejuicio sobre las dimensiones invisibles y el hiperespacio. Estaban listos para una alternativa, y ésa fue la teoría de Kaluza-Klein. El finado físico Heinz Pagels resumió esta excitación a propósito del resurgimiento de la teoría de Kaluza-Klein: Después de los años treinta, la idea de Kaluza-Klein perdió su favor, y durante muchos años permaneció latente. Pero, conforme los físicos investigaban cada posible camino para la unificación de la gravedad con las otras fuerzas, ha cobrado de nuevo relevancia. Hoy día, en contraste con los años veinte, los físicos se proponen algo más que unificar la gravedad con el electromagnetismo solamente: quieren también unificar la gravedad con las interacciones débil y fuerte. Esto requiere incluso más dimensiones, por encima de la quinta.[71]

Incluso el premio Nobel Steven Weinberg fue arrastrado por el entusiasmo generado por la teoría de Kaluza-Klein. Sin embargo, había aún físicos escépticos a propósito del renacimiento de KaluzaKlein. Howard Georgi, de Harvard, recordando a Weinberg lo difícil que es medir experimentalmente estas dimensiones compactificadas que están enrolladas, compuso el siguiente poema: Steve Weinberg, de Texas volvió y con un montón de dimensiones nos sorprendió pero todas las dimensiones de más enrolladas en una bola están que es tan minúscula que nunca nos afectará.[72]

Aunque la teoría de Kaluza-Klein seguía siendo no renormalizable, lo que despertó el intenso interés por la teoría era que daba la esperanza de una teoría hecha de mármol. Convertir el feo y confuso revoltijo de madera en el puro y elegante mármol de la geometría era, por supuesto, el sueño de Einstein. Pero en los años treinta y cuarenta no se sabía casi nada de la naturaleza de la madera. Sin embargo, hacia los años setenta, el Modelo Estándar había desvelado finalmente el secreto de la madera: el hecho de que la madera consiste en quarks y leptones que se mantienen unidos por el campo de Yang-Mills que obedece a la simetría SU(3) x SU(2) x U(l). El problema era cómo derivar estas partículas y simetrías misteriosas a partir del mármol. A primera vista, eso parecía imposible. Después de todo, estas simetrías son el resultado de intercambiar partículas puntuales entre sí. Si se reordenan N quarks dentro de un multiplete, entonces la simetría es SU(N). Estas simetrías parecían ser exclusivamente las simetrías de la madera, no del mármol. ¿Qué tenía que ver SU(N) con la geometría? Convertir la madera en mármol La primera pequeña pista llegó en los años sesenta, cuando los físicos descubrieron, con gran placer, que existe una manera alternativa de introducir las simetrías en la física. Cuando los físicos extendieron la vieja teoría pentadimensional de Kaluza-Klein a N dimensiones se dieron cuenta de que hay libertad para imponer una simetría en el hiperespacio. Cuando se enrollaba la quinta dimensión, vieron que el campo de Maxwell surgía de la métrica de Riemann. Pero cuando se enrollaban N dimensiones, ¡los físicos encontraron que de sus ecuaciones surgía el celebrado campo de Yang-Mills, la clave del Modelo Estándar! Para ver cómo emergen las simetrías del espacio, consideremos un balón de playa normal. Tiene una simetría: podemos rotarlo alrededor de su centro, y el balón de playa conserva su forma. La simetría de un balón de playa, o de una esfera, se denomina O(3), o rotaciones en tres dimensiones. Análogamente, en dimensiones más altas, una hiperesfera también puede ser rotada alrededor de su centro y mantiene su forma. La hiperesfera tiene una simetría denominada O(N). Consideremos ahora que el balón de playa está vibrando. Se forman ondulaciones en la superficie del balón. Si hacemos vibrar cuidadosamente el balón de playa en una cierta forma, podemos inducir en él vibraciones regulares que se denominan resonancias. Estas resonancias, a diferencia de las ondulaciones ordinarias, pueden vibrar sólo a ciertas frecuencias. De hecho, si hacemos vibrar el balón de playa de modo suficientemente rápido, podemos crear tonos musicales de una frecuencia

definida. Estas vibraciones, a su vez, pueden clasificarse mediante la simetría O(3). El hecho de que una membrana, como un balón de playa, puede inducir frecuencias resonantes es un fenómeno común. Las cuerdas vocales de nuestra garganta, por ejemplo, son membranas tensas que vibran a frecuencias definidas, o resonancias, y pueden así producir tonos musicales. Otro ejemplo es nuestro oído. Sobre nuestros tímpanos inciden ondas sonoras de todo tipo, que resuenan entonces a frecuencias definidas. Estas vibraciones se transforman luego en señales eléctricas que se envían a nuestro cerebro, que las interpreta como sonidos. Éste es también el principio que subyace en el teléfono. El diafragma metálico que hay dentro de cualquier teléfono se pone en movimiento por medio de señales eléctricas en el cable telefónico. Esto crea vibraciones mecánicas o resonancias en el diafragma, que a su vez crean las ondas sonoras que oímos en el auricular. Éste es también el principio que subyace en los altavoces estéreo o en los tambores de una orquesta. Para un hiperespacio, el efecto es el mismo. Al igual que una membrana, puede resonar a varias frecuencias, que a su vez pueden ser determinadas por su simetría O(N). Alternativamente, los matemáticos han imaginado superficies más perfeccionadas en dimensiones más altas que están descritas mediante números complejos. (Los números complejos utilizan la raíz cuadrada de –1, –



l ). Entonces es sencillo demostrar que la simetría correspondiente a una «hiperesfera» es SU(N). El punto clave ahora es éste: si la función de onda de una partícula vibra a lo largo de esta superficie, heredará esta simetría SU(N). Por lo tanto, las misteriosas simetrías SU(N) que aparecen en la física subatómica ¡pueden verse ahora como subproductos de un hiperespacio vibrante! En otras palabras, tenemos ahora una explicación para el origen de las misteriosas simetrías de la madera: son realmente las simetrías ocultas que proceden del mármol. Si ahora tomamos una teoría de Kaluza-Klein definida en 4 + N dimensiones y luego enrollamos N dimensiones, descubriremos que las ecuaciones se dividen en dos piezas. La primera pieza son las ecuaciones usuales de Einstein, que recuperamos como era de esperar. Pero la segunda pieza no será la teoría de Maxwell. ¡Descubrimos que el resto es precisamente la teoría de Yang-Mills, que forma la base de toda física subatómica! Ésta es la clave para convertir las simetrías de la madera en las simetrías del mármol. A primera vista, parece casi místico que las simetrías de la madera, que se descubrieron trabajosamente por ensayo y error —es decir, examinando laboriosamente los residuos de los colisionadores de átomos—, emerjan casi automáticamente de dimensiones más altas. Es milagroso que las simetrías descubiertas al reordenar quarks y leptones aparezcan a partir del hiperespacio. Una analogía puede ayudarnos a comprender esto. La materia puede asimilarse a la arcilla, que es informe y desordenada. La arcilla carece de cualquiera de las bellas simetrías que son inherentes a las figuras geométricas. Sin embargo, la arcilla puede ser comprimida en un molde que puede tener simetrías. Por ejemplo, el molde puede conservar su forma si es girado en un cierto ángulo. Entonces la arcilla heredará también la simetría del molde. La arcilla, como la materia, hereda su simetría porque el molde, como el espacio-tiempo, tiene una simetría. Si esto es correcto, significa que las extrañas simetrías que vemos entre quarks y leptones, que se descubrieron básicamente por accidente durante varias décadas, pueden verse ahora como subproductos de vibraciones en el hiperespacio. Por ejemplo, si las dimensiones invisibles tienen la simetría SU(5), entonces podemos escribir SU(5) GUT como una teoría de Kaluza-Klein.

Esto puede verse también a partir del tensor métrico de Riemann. Recordemos que se parece al campo de Faraday excepto porque tiene muchas más componentes. Puede ser dispuesto como los cuadrados de un tablero de ajedrez. Dejando aparte las quintas fila y columna del tablero, podemos separar el campo de Maxwell del campo de Einstein. Hagamos ahora el mismo truco con la teoría de Kaluza-Klein en un espacio (4 + N)dimensional. Si se separan las N columnas y filas de las primeras cuatro columnas y filas, entonces se obtiene un tensor métrico que describe la teoría Fig ura 6.2. Si vamos a la N-ésima dimensión, el tensor métrico es una serie de N2 números que pueden ser dispuestos en un de Einstein y la teoría de Yang-Mills. En la figura bloque N x N. Separando la quinta y superiores filas y 6.2, hemos inscrito el tensor métrico de una teoría columnas, podemos extraer el campo electromagnético de de Kaluza-Klein (4 + N)-dimensional, separando el Maxwell y el campo de Yang-Mills. De este modo, de golpe, la teoría del hiperespacio nos permite unificar el campo de campo de Einstein del campo de Yang-Mills. Einstein (que describe la gravedad), el campo de Maxwell (que Aparentemente, uno de los primeros físicos en describe la fuerza electromagnética), y el campo de Yang-Mills describe las fuerzas débil y fuerte). Las fuerzas llevar a cabo esta reducción fue Bryce DeWitt, de (que fundamentales encajan exactamente como en un rompecabezas. la Universidad de Texas, que ha dedicado muchos años al estudio de la gravedad cuántica. Una vez que fue descubierto este truco de descomponer el tensor métrico, el cálculo para extraer el campo de Yang-Mills es sencillo. DeWitt pensó que extraer el campo de Yang-Mills de una teoría de gravedad N-dimensional era un ejercicio matemático tan simple que lo propuso como un problema para resolver en casa en la Escuela de Verano de Física de Les Houches en Francia en 1963. [Recientemente, Peter Freund puso de manifiesto que Oskar Klein había descubierto independientemente el campo de Yang-Mills en 1938, anticipándose en varias décadas a la obra de Yang, Milis y otros. En una conferencia que tuvo lugar en Varsovia titulada «Nuevas teorías físicas», Klein anunció que él era capaz de generalizar el trabajo de Maxwell para incluir una simetría mayor, O(3). Por desgracia, debido al caos desencadenado por la segunda guerra mundial, y puesto que la teoría de Kaluza-Klein quedó enterrada por la excitación generada por la teoría cuántica, este importante trabajo fue olvidado. Es irónico que la teoría de Kaluza-Klein fuese víctima de la emergencia de la teoría cuántica, ahora basada en el campo de Yang-Mills, que fue descubierto por primera vez analizando la teoría de Kaluza-Klein. En la excitación por desarrollar la teoría cuántica, los físicos habían ignorado un descubrimiento capital que procedía de la teoría de Kaluza-Klein.] Extraer el campo de Yang-Mills de la teoría de Kaluza-Klein fue sólo el primer paso. Aunque ahora podía verse que las simetrías de la madera aparecían a partir de las simetrías ocultas de dimensiones invisibles, el próximo paso consistía en crear la propia madera (hecha de quarks y leptones) enteramente a partir del mármol. Este próximo paso sería denominado supergravedad. Supergravedad Convertir la madera en mármol se enfrentaba todavía a formidables problemas porque, según el

Modelo Estándar, todas las partículas están «girando». Sabemos ahora, por ejemplo, que la madera está hecha de quarks y leptones. Éstos, a su vez, tienen 1/2 unidad de giro o espín cuántico (medido en unidades de la constante de Planck h. Las partículas con espín semientero (1/2, 3/2, 5/2, y así sucesivamente) se denominan fermiones (en honor de Enrico Fermi, que investigó por primera vez sus extrañas propiedades). Sin embargo, las fuerzas se describen mediante cuantos con espín entero. Por ejemplo, el fotón, el cuanto de luz, tiene un espín unidad. Lo mismo sucede con el campo de Yang-Mills. El gravitón, el paquete hipotético de gravedad, tiene dos unidades de espín. Se denominan bosones (en honor del físico indio Satyendra Bose). Tradicionalmente, la teoría cuántica mantiene a fermiones y bosones estrictamente separados. De hecho, cualquier intento por convertir la madera en mármol tendría inevitablemente que enfrentarse con el hecho de que fermiones y bosones son mundos aparte en sus propiedades. Por ejemplo, SU(N) puede reordenar los quarks entre sí, pero se supone que fermiones y bosones nunca se mezclan. Se produjo así una conmoción cuando se descubrió una nueva simetría, denominada supersimetría, que hacía exactamente eso. Las ecuaciones que son supersimétricas permiten el intercambio de un fermión con un bosón y siguen manteniendo las ecuaciones intactas. En otras palabras, un multiplete de supersimetría consta de números iguales de bosones y fermiones. Reordenando los bosones y los fermiones dentro del mismo multiplete, las ecuaciones supersimétricas permanecen igual. ¡Esto nos da la extraordinaria posibilidad de poner todas las partículas del universo en un multiplete! Como ha resaltado el premio Nobel Abdus Salam, «La supersimetría es la propuesta definitiva para una unificación completa de todas las partículas». La supersimetría está basada en un nuevo tipo de sistema de numeración que volvería loco a cualquier maestro de escuela. La mayoría de las operaciones de multiplicación y división que damos por supuestas dejan de ser válidas en la supersimetría. Por ejemplo, si a y b son dos «supernúmeros», entonces a x b= –b x a. Esto, por supuesto, es imposible para los números ordinarios. Normalmente, cualquier maestro de escuela arrojaría estos supernúmeros por la ventana, porque se puede demostrar que a x a = –a x a, o, en otras palabras, a x a = 0. Si éstos fueran números ordinarios, entonces esto significa que a = 0, y el sistema numérico colapsa. Sin embargo, con los supernúmeros, el sistema no colapsa; tenemos el enunciado bastante sorprendente de que a x a = 0 aun cuando a ≠ 0. Aunque estos supernúmeros violan casi todo lo que hemos aprendido sobre los números desde nuestra infancia, puede demostrarse que dan un sistema autoconsistente y altamente no trivial. Resulta notable que un sistema totalmente nuevo de supercálculo puede basarse en ellos. Pronto, tres físicos (Daniel Freedman, Sergio Ferrara y Peter van Nieuwenhuizen, de la Universidad del Estado de Nueva York en Stony Brook) desarrollaron la teoría de supergravedad en 1976. La supergravedad era el primer intento realista para construir un mundo hecho enteramente de mármol. En una teoría supersimétrica, todas las partículas tienen supercompañeras, llamadas spartículas. La teoría de supergravedad del grupo de Stony Brook contiene solamente dos campos: el campo del graviten de espín-dos (que es un bosón) y su compañero de espín 3/2, denominado gravitino (que significa «pequeña gravedad»). Puesto que estas partículas no son suficientes para incluir el Modelo Estándar, se hicieron intentos para acoplar la teoría a partículas más complicadas. La manera más sencilla de incluir la materia es desarrollar la teoría de supergravedad en un espacio de once dimensiones. Para desarrollar la superteoría de Kaluza-Klein en once dimensiones,

Fig ura 6.3. La supergravedad satisface casi el sueño de Einstein de dar una derivación puramente geométrica de todas las fuerzas y partículas del universo. Para ver esto, notemos que si añadimos la supersimetría al tensor métrico de Riemann, la métrica se duplica en tamaño, dándonos la supermétrica de Riemann. Las nuevas componentes del supertensor de Riemann corresponden a quarks y leptones. Al descomponer el supertensor de Riemann en sus componentes, descubrimos que incluye casi todas las partículas y fuerzas fundamentales de la naturaleza: la teoría de la gravedad de Einstein, los campos de Yang-Mills y de Maxwell, y los quarks y leptones. Pero el hecho de que ciertas partículas estén ausentes en esta imagen nos obliga a ir a un formalismo más potente: la teoría de supercuerdas.

uno tiene que incrementar enormemente los componentes dentro del tensor de Riemann, que ahora se convierte en el supertensor de Riemann. Para visualizar cómo la supergravedad convierte la madera en mármol, desarrollemos el tensor métrico y mostremos cómo se las arregla la supergravedad para encajar el campo de Einstein, el campo de Yang-Mills, y los campos de la materia en un campo de supergravedad (figura 6.3). La característica esencial de este diagrama es que la materia, junto con las ecuaciones de YangMills y de Einstein, está ahora incluida en el mismo campo de supergravedad 11-dimensional. La supersimetría es la simetría que reordena la madera en el mármol, y viceversa, dentro del campo de supergravedad. Por lo tanto, todos ellos son manifestaciones de la misma fuerza, la superfuerza. La madera ya no existe como una entidad sola y aislada. ¡Ahora está unida con el mármol, para formar supermármol! (figura 6.4)

El físico Peter van Nieuwenhuizen, uno de los creadores de la supergravedad, quedó profundamente impresionado por las implicaciones de esta superunificación. Escribió que la supergravedad «puede unificar teorías de gran unificación … con la gravedad, llevando a un modelo sin casi ningún parámetro libre. Es la única teoría con una simetría gauge local entre fermiones y bosones. Es la más bella teoría gauge conocida, tan bella, de hecho, que ¡la naturaleza debería ser consciente de ella!».[73] Fig ura 6.4. En supergravedad, obtenemos casi una unificación Recuerdo con agrado el haber asistido y dado de todas las fuerzas conocidas (mármol) con la materia charlas en muchas de estas conferencias sobre (madera). Como en un rompecabezas, ellas encajan en el tensor métrico de Riemann. Esto satisface casi el sueño de Einstein. supergravedad. Había un sentimiento intenso y alborozado de que estábamos en vísperas de algo importante. En una reunión en Moscú, lo recuerdo muy bien, se hicieron una serie de animados brindis por el éxito continuado de la teoría de supergravedad. Parecía que finalmente estábamos en vísperas de culminar el sueño de Einstein de un universo de mármol tras sesenta años de olvido. Alguno de nosotros lo llamó bromeando «la venganza de Einstein».

El 29 de abril de 1980, cuando el cosmólogo Stephen Hawking asumió la Cátedra Lucasiana (que previamente habían ocupado algunos de los inmortales de la física, incluyendo a Isaac Newton y P. A. M. Dirac), pronunció una conferencia con el prometedor título «¿Está a la vista el final de la física teórica?». Un estudiante leyó en su nombre: «Hemos hecho enormes progresos en los años recientes y, como voy a describir, existe alguna base para un prudente optimismo acerca de que podamos ver una teoría completa durante el tiempo de vida de algunos de los aquí presentes». La fama de la supergravedad se extendió poco a poco al público general e incluso comenzó a tener un seguimiento entre grupos religiosos. Por ejemplo, el concepto de «unificación» es una creencia central dentro del movimiento de meditación transcendental. Sus seguidores editaron un gran póster que contenía las ecuaciones completas que describen la supergravedad 11-dimensional. Cada término de la ecuación, afirmaban ellos, representa algo especial, tal como «armonía», «amor», «fraternidad», y así sucesivamente. (Este póster cuelga de la pared del instituto teórico de Stony Brook. Que yo sepa ¡ésta es la primera vez que una ecuación abstracta de la física teórica ha inspirado un seguimiento entre un grupo religioso!) Supertensores métricos Peter van Nieuwenhuizen compone una figura bastante brillante en círculos físicos. Alto, curtido, de aspecto atlético, y bien vestido, se parece más a un actor anunciando una loción bronceadora en televisión que a uno de los creadores originales de la supergravedad. Es un físico holandés, ahora profesor en Stony Brook; fue discípulo de Veltman, como lo fue ’t Hooft, y por ello se sintió muy interesado por la cuestión de la unificación. Es uno de los pocos físicos que he encontrado con una capacidad verdaderamente inagotable para el sufrimiento matemático. Trabajar con la supergravedad requiere una extraordinaria paciencia. Recordemos que el sencillo tensor métrico introducido por Riemann en el siglo XIX tenía sólo diez componentes. El tensor métrico de Riemann tiene ahora que ser reemplazado por el supertensor métrico de la supergravedad, que tiene literalmente cientos de componentes. Esto no es sorprendente, puesto que cualquier teoría que tiene dimensiones más altas y pretende la unificación de toda la materia ha de tener suficientes componentes para describirla, pero esto incrementa enormemente la complejidad matemática de las ecuaciones. (A veces me pregunto qué pensaría Riemann al saber que un siglo después su tensor métrico florecería en un supertensor métrico muchas veces mayor que cualquier cosa que un matemático del siglo XIX pudiera imaginar.) La llegada de la supergravedad y los supertensores métricos ha significado que la cantidad de matemáticas que un estudiante licenciado debe dominar ha explotado en la última década. Como observa Steven Weinberg, «Miren lo que ha sucedido con la gravedad. Quienes han estado trabajando en ella durante los últimos diez años son enormemente brillantes. Algunos de ellos son más brillantes que cualquiera de los que yo conocí en mis primeros años».[74] Peter no sólo es un calculador soberbio, sino también alguien que impone modas. Puesto que los cálculos para una simple ecuación de supergravedad pueden ocupar fácilmente más de una hoja de papel, él empezó a utilizar cuadernos de gran tamaño para bocetos artísticos. Un día fui a su casa y vi cómo procedía. Empezaba en el ángulo superior izquierdo del cuaderno y comenzaba a escribir sus ecuaciones con su escritura microscópica. Luego seguía trabajando a lo largo y hacia abajo del cuaderno de bocetos hasta que estaba completamente lleno, y entonces volvía la página y empezaba

de nuevo. Este proceso seguiría luego durante horas, hasta que el cálculo estaba completo. La única vez que se interrumpía era cuando introducía su lápiz en un sacapuntas eléctrico cercano y, a continuación, en pocos segundos reanudaba su cálculo sin ninguna equivocación. Finalmente, almacenaría estas hojas de artista en su estantería, como si fuesen volúmenes de alguna revista científica. Los cuadernos de bocetos de Peter se hicieron poco a poco famosos en todo el campus. Pronto se inició una moda; todos los estudiantes licenciados en física empezaron a comprar estos voluminosos cuadernos de bocetos artísticos y podía vérseles por el campus llevándolos bajo el brazo, incómodos pero orgullosos. Una vez, Peter, su amigo Paul Townsend (ahora en la Universidad de Cambridge) y yo estábamos colaborando en un problema de supergravedad excepcionalmente difícil. El cálculo era tan difícil que consumía varios cientos de páginas. Puesto que ninguno de nosotros confiaba totalmente en nuestros cálculos, decidimos reunimos en mi comedor y verificar colectivamente nuestro trabajo. Nos enfrentábamos a un temible desafío: varios miles de términos tenían que sumar exactamente cero. (Normalmente, nosotros los físicos teóricos podemos «visualizar» bloques de ecuaciones en nuestras cabezas y manipularlas sin tener que utilizar papel. Sin embargo, debido a la gran longitud y delicadeza de este problema, teníamos que comprobar cada simple signo aritmético del cálculo.) Entonces dividimos el problema en varios fragmentos grandes. Sentados alrededor de la mesa del comedor, cada uno de nosotros se ocuparía en calcular el mismo fragmento. Tras una hora más o menos, cruzaríamos nuestros resultados. Normalmente dos de los tres estarían de acuerdo y se le pediría al tercero que descubriese su error. Entonces pasaríamos al siguiente fragmento, y repetiríamos el mismo proceso hasta que los tres estuviésemos de acuerdo en la misma respuesta. Este proceso repetitivo de verificación cruzada seguiría hasta últimas horas de la noche. Sabíamos que incluso un error en varios centenares de páginas nos daría un cálculo totalmente inútil. Finalmente, bien pasada la medianoche comprobamos el último y definitivo término. Era cero, como habíamos esperado. Entonces celebramos nuestro resultado. (El arduo cálculo debió agotar incluso a un caballo de tiro infatigable como Peter. Después de dejar mi apartamento, olvidó al momento dónde estaba el nuevo apartamento de su mujer en Manhattan. Llamó en varias puertas de una casa de apartamentos, pero sólo obtuvo respuestas desairadas; había elegido el edificio equivocado. Tras una vana búsqueda, Peter y Paul se volvieron de mala gana a Stony Brook. Pero debido a que Peter había olvidado reemplazar el cable del embrague, el cable se rompió y tuvieron que empujar su automóvil. ¡Finalmente llegaron a Stony Brook en su automóvil averiado a las 5 de la madrugada!) El declinar de la supergravedad Los críticos, no obstante, empezaron a ver cada vez más problemas en la supergravedad. Tras una búsqueda intensiva, las spartículas no se vieron en ningún experimento. Por ejemplo, el electrón de espín 1/2 no tiene ningún compañero de espín 0. De hecho, no existe, hasta el presente, la más mínima evidencia experimental de spartículas en nuestro mundo de baja energía. Sin embargo, la creencia firme de los físicos que trabajan en esta área es que, a las energías enormes que existían en el instante de la Creación, todas las partículas estaban acompañadas por sus supercompañeras. Sólo a esta energía increíble vemos un mundo perfectamente supersimétrico. Pero tras algunos años de ferviente interés y montones de conferencias internacionales se hizo

evidente que esta teoría no podía ser cuantizada correctamente, lo que hizo fracasar temporalmente el sueño de crear una teoría puramente a partir del mármol. Como todos los demás intentos de construir una teoría de la materia enteramente a partir del mármol, la supergravedad fracasaba por una razón muy simple: cuando quiera que tratábamos de calcular números a partir de estas teorías llegábamos a infinitos sin significado. La teoría, aunque tenía menos infinitos que la teoría original de KaluzaKlein, seguía siendo no renormalizable. Había otros problemas. La simetría más alta que podía incluir la supergravedad se denominaba O(8), que era demasiado pequeña para acomodar la simetría del Modelo Estándar. Parecía que la supergravedad era sólo otro paso en el largo viaje hacia una teoría unificada del universo. Sanaba un problema (convertir la madera en mármol), sólo para caer víctima de otras varias enfermedades. Sin embargo, precisamente cuando el interés por la supergravedad empezaba a decaer, llegó una nueva teoría que era quizá la teoría física más extraña pero más potente jamás propuesta: la teoría de supercuerdas decadimensional.

7 SUPERCUERDAS

La teoría de cuerdas es física del siglo XXI que cayó accidentalmente en el siglo XX. EDWARD WITTEN Edward Witten, del Instituto para Estudio Avanzado en Princeton, New Jersey, domina el mundo de la física teórica. Witten es actualmente el «jefe de la banda», el más brillante físico de altas energías, que marca las tendencias en la comunidad física al modo en que Picasso marcaba las tendencias en el mundo del arte. Cientos de físicos siguen su trabajo religiosamente para tener noción de sus ideas innovadoras. Un colega de Princeton, Samuel Treiman, dice: «Él nos saca una cabeza a todos los demás. Ha iniciado a grupos enteros de personas en nuevos caminos. Construye demostraciones elegantes y asombrosas que dejan a la gente boquiabierta y admirada». Treiman concluye: «No deberíamos establecer comparaciones con Einstein con demasiada alegría, pero cuando se trata de Witten …».[75] Witten procede de una familia de físicos. Su padre es Leonard Witten, profesor de física en la Universidad de Cincinnati y una destacada autoridad en la teoría de la relatividad general de Einstein. (Su padre, de hecho, se jacta a veces de que su mayor contribución a la física fue engendrar a su hijo.) Su esposa es Chiara Nappi, también física teórica en el instituto. Witten no es como los demás físicos. La mayoría de ellos comienzan su romance con la física a una edad temprana (cuando están en el instituto de enseñanza media o incluso en la escuela elemental). Witten ha desafiado muchas convenciones, al empezar con un título en historia en la Universidad Brandéis y un fuerte interés en lingüística. Después de licenciarse en 1971, trabajó en la campaña presidencial de George McGovern. McGovern le escribió incluso una carta de recomendación para una facultad universitaria. Witten había publicado artículos en The Nation y New Republic. (Scientific American, en una entrevista con Witten, comentaba: «sí, un hombre que es presumiblemente la persona más inteligente del mundo es un demócrata liberal».)[76] Pero una vez que Witten decidió escoger la física como profesión, aprendió física con pasión. Se licenció en Princeton, enseñó en Harvard, y luego fue catapultado a un puesto de profesor permanente en Princeton a la edad de veintiocho años. También recibió la prestigiosa Beca MacArthur (a veces calificada como el premio «al genio» por la prensa). Los resultados de su trabajo han afectado también profundamente al mundo de las matemáticas. En 1990, fue premiado con la Medalla Fields que, en el mundo de las matemáticas, es tan prestigiosa como el premio Nobel. La mayor parte del tiempo, sin embargo, Witten permanece sentado y mira por la ventana, manipulando y reordenando grandes conjuntos de ecuaciones en su cabeza. Su mujer señala: «Nunca hace cálculos excepto en su mente. Yo llenaría páginas con cálculos antes de llegar a comprender lo que estoy haciendo. Pero Edward sólo se sienta para calcular un signo menos, o un factor dos».[77]

Witten dice: «La mayoría de las personas que no han estudiado física probablemente piensan que lo que hacen los físicos es cuestión de cálculos increíblemente complicados, pero eso no es realmente lo esencial. Lo esencial es que la física trata de conceptos, busca comprender los conceptos, los principios mediante los que opera el mundo».[78] El próximo proyecto de Witten es el más ambicioso y desafiante de su carrera. Una nueva teoría, denominada de supercuerdas, ha causado sensación en el mundo de la física, al afirmar que es la teoría que puede unir la teoría de la gravedad de Einstein con la teoría cuántica. Witten no está contento, sin embargo, con la forma en que normalmente se formula la teoría de supercuerdas. Se ha planteado el problema de descubrir el origen de la teoría de supercuerdas, que puede resultar un desarrollo decisivo hacia la explicación del propio instante de la Creación. El aspecto clave de esta teoría, el factor que le da su potencia tanto como su unicidad, es su geometría inusual. Las cuerdas pueden vibrar autoconsistentemente sólo en diez y veintiséis dimensiones. ¿Qué es una partícula? La esencia de la teoría de cuerdas consiste en que puede explicar la naturaleza de la materia y del espacio-tiempo; es decir, la naturaleza de la madera y del mármol. La teoría de cuerdas responde a una serie de cuestiones enigmáticas acerca de las partículas, tales como por qué existen tantas en la naturaleza. Cuanto más profundamente sondeamos en la naturaleza de las partículas subatómicas, más partículas encontramos. El actual «zoo» de partículas subatómicas alcanza números de varios centenares, y sus propiedades llenan volúmenes enteros. Incluso con el Modelo Estándar tenemos un desconcertante número de «partículas elementales». La teoría de cuerdas responde a esta pregunta porque la cuerda, alrededor de 100 trillones de veces más pequeña que un protón, está vibrando; cada modo de vibración representa una resonancia o partícula distinta. La cuerda es tan increíblemente minúscula que, a cierta distancia, una resonancia de una cuerda y una partícula son indistinguibles. Sólo cuando ampliamos de alguna forma la partícula podemos ver que no es en absoluto un punto, sino un modo de una cuerda vibrante. En esta imagen, cada partícula subatómica corresponde a una resonancia distinta que vibra sólo a una frecuencia característica. La idea de una resonancia es familiar en la vida cotidiana. Pensemos en el ejemplo de cantar en la ducha. Aunque nuestra voz natural puede ser frágil, delgada o temblorosa, sabemos que repentinamente nos transformamos en estrellas de ópera en la intimidad de nuestras duchas. Esto se debe a que nuestras ondas sonoras rebotan rápidamente de un lado a otro entre las paredes de la ducha. Las vibraciones que pueden encajar fácilmente dentro de las paredes de la ducha son amplificadas muchas veces, produciendo ese sonido resonante. Estas vibraciones concretas se denominan resonancias, mientras que otras vibraciones (cuyas ondas no tienen el tamaño correcto) son canceladas. O pensemos en una cuerda de violín, que puede vibrar a diferentes frecuencias creando notas musicales como do, re o mi. Los únicos modos que pueden sobrevivir en la cuerda son aquellos que se anulan en los extremos de la cuerda de violín (porque está sujeta en sus extremos) y ondulan un número entero de veces entre los extremos. En principio, la cuerda puede vibrar en una de entre un número infinito de frecuencias diferentes. Sabemos que las notas propiamente dichas no son fundamentales. La nota do no es más fundamental que la nota re. Sin embargo, lo que sí es

fundamental es la propia cuerda. No hay necesidad de estudiar cada nota aislada de las demás. Comprendiendo cómo vibra una cuerda de violín, comprendemos inmediatamente las propiedades de un número infinito de notas musicales. Análogamente, las partículas del universo propiamente dichas no son fundamentales. Un electrón no es más fundamental que un neutrino. Parecen ser fundamentales sólo porque nuestros microscopios no son suficientemente potentes para revelar su estructura. Según la teoría de cuerdas, si pudiéramos ampliar de alguna forma una partícula puntual veríamos realmente una pequeña cuerda vibrante. De hecho, según esta teoría, la materia no es nada más que las armonías creadas por esta cuerda vibrante. Del mismo modo que se puede componer un número infinito de armonías para el violín, puede construirse un número infinito de formas de materia a partir de cuerdas vibrantes. Esto explica la riqueza de las partículas en la naturaleza. Análogamente, las leyes de la física pueden ser comparadas a las leyes de la armonía permitida en la cuerda. El propio universo, compuesto de innumerables cuerdas vibrantes, sería entonces comparable a una sinfonía. La teoría de cuerdas puede explicar no sólo la naturaleza de las partículas, sino también la del espacio-tiempo. Cuando una cuerda se mueve en el espacio-tiempo, ejecuta un conjunto complicado de movimientos. La cuerda puede, a su vez, romperse en cuerdas más pequeñas o colisionar con otras cuerdas para formar cuerdas más largas. El punto clave es que todas estas correcciones cuánticas o diagramas cerrados son finitos y calculables. Ésta es la primera teoría cuántica de la gravedad en la historia de la física que tiene correcciones cuánticas finitas. (Recordemos que todas las teorías previas conocidas —incluyendo la teoría original de Einstein, la teoría de Kaluza-Klein y la supergravedad fallaban en este criterio clave.) Para ejecutar estos movimientos complicados, una cuerda debe satisfacer un gran conjunto de condiciones de autoconsistencia. Estas condiciones de autoconsistencia son tan estrictas que imponen condiciones extraordinariamente restrictivas sobre el espacio-tiempo. En otras palabras, la cuerda no puede viajar autoconsistentemente en cualquier espacio-tiempo arbitrario, como sucede con una partícula puntual. Cuando se calcularon por primera vez las ligaduras que impone la cuerda sobre el espaciotiempo, los físicos quedaron sorprendidos al descubrir que las ecuaciones de Einstein emergían de la cuerda. Esto era notable; sin suponer ninguna de las ecuaciones de Einstein, los físicos descubrían que ellas emergían de la teoría de cuerdas, como por encanto. Las ecuaciones de Einstein ya no resultaban ser fundamentales; podían derivarse de la teoría de cuerdas. Si esto es correcto, entonces la teoría de cuerdas resuelve el persistente misterio de la naturaleza de la madera y el mármol. Einstein pensaba que el mármol por sí solo explicaría un día todas las propiedades de la madera. Para Einstein, la madera era sólo un nudo o vibración del espacio-tiempo, ni más ni menos. Los físicos cuánticos, sin embargo, pensaban lo contrario. Pensaban que el mármol podía convertirse en madera; es decir, que el tensor métrico de Einstein podría convertirse en un gravitón, el paquete discreto de energía que transporta la fuerza gravitatoria. Éstos son dos puntos de vista diametralmente opuestos, y durante mucho tiempo se pensó que un compromiso entre ellos era imposible. La cuerda, sin embargo, es precisamente el «eslabón perdido» entre la madera y el mármol. La teoría de cuerdas puede derivar las partículas de materia como vibraciones resonantes en la

cuerda. Y la teoría de cuerdas puede derivar también las ecuaciones de Einstein exigiendo que la cuerda se mueva autoconsistentemente en el espacio-tiempo. De este modo, tenemos una teoría global de la materia-energía y del espacio-tiempo. Estas ligaduras de autoconsistencia son sorprendentemente rígidas. Por ejemplo, prohíben que la cuerda se mueva en tres o cuatro dimensiones. Veremos que estas condiciones de autoconsistencia obligan a la cuerda a moverse en un número concreto de dimensiones. De hecho, los únicos «números mágicos» permitidos por la teoría de cuerdas son diez y veintiséis dimensiones. Afortunadamente, una teoría de cuerdas definida en estas dimensiones tiene suficiente «sitio» para unificar todas las fuerzas fundamentales. La teoría de cuerdas, por consiguiente, es suficientemente rica para explicar todas las leyes fundamentales de la naturaleza. Partiendo de una simple teoría de una cuerda vibrante, uno puede extraer la teoría de Einstein, la teoría de Kaluza-Klein, la supergravedad, el Modelo Estándar e incluso una teoría GUT. Parece un milagro que, partiendo de algunos argumentos puramente geométricos acerca de una cuerda, uno sea capaz de rederivar el desarrollo total de la física durante los últimos dos milenios. Todas las teorías discutidas hasta ahora en este libro están incluidas automáticamente en la teoría de cuerdas. El interés actual en la teoría de cuerdas deriva del trabajo de John Schwarz del Instituto Tecnológico de California y su colaborador Michael Green del Queen Mary’s College en Londres. Previamente, se pensaba que la cuerda podría poseer defectos que impedirían una teoría completamente autoconsistente. Luego, en 1984, estos dos físicos demostraron que se podía hacer frente a todas las condiciones de autoconsistencia de la cuerda. Esto, a su vez, desencadenó la estampida actual entre los físicos jóvenes para resolver la teoría y ganar un reconocimiento potencial. A finales de los años ochenta, empezó una verdadera «fiebre del oro» entre los físicos. (La competición entre centenares de los físicos teóricos más brillantes del mundo para resolver la teoría ha llegado a ser bastante feroz. De hecho, la portada de Discover mostraba recientemente al teórico de cuerdas D. V. Nanopoulous, de Texas, quien abiertamente se jactaba de que estaba a punto de ganar el premio Nobel en física. Pocas veces una teoría tan abstracta ha despertado tales pasiones.) ¿Por qué cuerdas? En cierta ocasión estaba comiendo con un ganador de un premio Nobel en física en un restaurante chino de Nueva York. Mientras estábamos dando cuenta del cerdo agridulce, surgió el tema de la teoría de supercuerdas. Sin previo aviso, él se lanzó a una larga discusión personal de por qué la teoría de supercuerdas no era el camino correcto para los físicos teóricos jóvenes. Era una caza del pato salvaje, afirmaba. Nunca había habido nada igual en la historia de la física, de modo que él la encontraba demasiado extraña para su gusto. Era demasiado ajena, demasiado ortogonal a todas las tendencias anteriores en la ciencia. Tras una larga discusión, lo redujo a una pregunta: ¿Por qué cuerdas? ¿Por qué no sólidos o gotas vibrantes? El mundo físico, me recordaba él, utiliza los mismos conceptos una y otra vez. La naturaleza es como una obra de Bach o de Beethoven, que a menudo empieza con un tema central y hace variaciones sobre el mismo repartidas a lo largo de la sinfonía. Según este criterio, parece que las cuerdas no son conceptos fundamentales en la naturaleza.

El concepto de órbitas, por ejemplo, se da repetidamente en la naturaleza en diferentes variaciones; desde la obra de Copérnico, las órbitas han proporcionado un tema esencial que se repite constantemente a lo largo de la naturaleza en diferentes variaciones, desde la galaxia más grande hasta el átomo y la más pequeña partícula subatómica. Análogamente, los campos de Faraday se han mostrado como uno de los temas favoritos de la naturaleza. Los campos pueden describir el magnetismo de la galaxia y la gravitación, o pueden describir la teoría electromagnética de Maxwell, la teoría métrica de Riemann y Einstein, y los campos de Yang-Mills encontrados en el Modelo Estándar. La teoría de campos, de hecho, ha emergido como el lenguaje universal de la física subatómica, y quizá también del universo. Es el arma simple más poderosa en el arsenal de la física teórica. Todas las formas conocidas de materia y energía han sido expresadas en términos de teoría de campos. Las estructuras, entonces, como los temas y variaciones en una sinfonía, son repetidos constantemente. ¿Pero las cuerdas? Las cuerdas no parecen ser una estructura preferida por la naturaleza en el diseño de los cielos. No vemos cuerdas en el espacio exterior. De hecho, me explicaba mi colega, no vemos cuerdas en ninguna parte. Un momento de reflexión, sin embargo, revelará que la naturaleza ha reservado un papel especial a las cuerdas, como un ladrillo básico para otras formas. Por ejemplo, la característica esencial de la vida en la Tierra es la molécula de ADN similar a una cuerda, que contiene la información compleja y el código de la propia vida. Para construir la materia de la vida, tanto como la materia subatómica, las cuerdas parecen ser la respuesta perfecta. En ambos casos, queremos encerrar una gran cantidad de información en una estructura reproducible y relativamente simple. La característica distintiva de una cuerda es que es una de las formas más compactas de almacenar grandes cantidades de datos de un modo en que la información pueda ser replicada. Para los seres vivos, la naturaleza utiliza la doble cadena de la molécula de ADN, que se separa y forma copias duplicadas de cada una de ellas. Nuestros cuerpos también contienen millones de millones de millones de cadenas de proteínas, formadas de ladrillos de aminoácido. Nuestros cuerpos, en cierto sentido, pueden ser considerados como una enorme colección de cuerdas: moléculas de proteínas que revisten nuestros huesos. El cuarteto de cuerda Actualmente, la versión de más éxito de la teoría de cuerdas es la creada por los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohm, a quienes a veces se les llama el cuarteto de cuerda de Princeton. El mayor de ellos es David Gross. En la mayoría de los seminarios en Princeton, Witten puede plantear preguntas con su voz suave, pero la voz de Gross es inconfundible: grave, atronadora y exigente. Cualquiera que dé un seminario en Princeton vive con el temor de las agudas y rápidas preguntas con las que Gross le ametrallará. Lo que resulta notable es que sus preguntas dan normalmente en el clavo. Gross y sus colaboradores propusieron lo que se denomina la cuerda heterótica. Hoy día, de todas las variedades de teorías tipo Kaluza-Klein que se han propuesto en el pasado, es precisamente la cuerda heterótica la que tiene el mayor potencial para unificar todas las leyes de la naturaleza en una teoría. Gross cree que la teoría de cuerdas resuelve el problema de convertir la madera en mármol:

«Construir la propia materia a partir de la geometría: eso es en cierto sentido lo que hace la teoría de cuerdas. Puede considerarse de esta manera, especialmente en una teoría como la cuerda heterótica que es inherentemente una teoría de la gravedad en la que las partículas de materia, tanto como las otras fuerzas de la naturaleza, emergen del mismo modo que la gravedad emerge de la geometría». [79]

La característica más notable de la teoría de cuerdas, como hemos resaltado, es que la teoría de la gravedad de Einstein está contenida automáticamente en ella. De hecho, el gravitón (el cuanto de gravedad) emerge como la vibración más pequeña de la cuerda cerrada. Mientras las GUT se esforzaban por evitar cualquier mención de la teoría de la gravedad de Einstein, las teorías de supercuerdas exigen que se incluya la teoría de Einstein. Por ejemplo, si simplemente abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. Ésta, de hecho, es la razón por la que Witten se sintió atraído inicialmente hacia la teoría de cuerdas. En 1982, leyó un artículo de revisión de John Schwarz y quedó sorprendido al darse cuenta de que la gravedad emerge de la teoría de supercuerdas a partir solamente de los requisitos de autoconsistencia. Recuerda que fue «la mayor excitación intelectual de mi vida». Witten dice: «La teoría de cuerdas es extraordinariamente atractiva porque la gravedad se nos impone. Todas las teorías de cuerdas consistentes conocidas incluyen la gravedad, de modo que mientras que la gravedad es imposible en teoría cuántica de campos tal como la conocemos, resulta obligatoria en teoría de cuerdas».[80] Gross se siente satisfecho pensando que Einstein, si viviera, disfrutaría con la teoría de supercuerdas. Amaría el hecho de que la belleza y simplicidad de esa teoría proceden en última instancia de un principio geométrico, cuya naturaleza exacta es aún desconocida. Gross afirma: «Einstein se hubiera sentido a gusto con esto, al menos con el objetivo, si no con la realización … Le hubiera gustado el hecho de que existe un principio geométrico subyacente que, por desgracia, no comprendemos realmente».[81] Witten llega incluso a decir que «todas las ideas realmente grandes en la física» son «retornos» de la teoría de supercuerdas. Con esto, él quiere decir que todos los grandes avances en física teórica están incluidos en la teoría de supercuerdas. Incluso afirma que el hecho de que la teoría de la relatividad general de Einstein fuera descubierta antes que la teoría de supercuerdas fue «un mero accidente del desarrollo en el planeta Tierra». Afirma que, en alguna parte en el espacio exterior, «otras civilizaciones en el universo» pudieron haber descubierto primero la teoría de supercuerdas, y derivado la relatividad general como un subproducto.[82] Compactificación y belleza La teoría de cuerdas es un candidato muy prometedor para la física porque da un origen sencillo de las simetrías descubiertas en física de partículas tanto como de la relatividad general. Vimos en el capítulo 6 que la supergravedad era no renormalizable y demasiado pequeña para acomodar la simetría del Modelo Estándar. Por consiguiente, no era autoconsistente y no podía describir de forma realista las partículas conocidas. Sin embargo, la teoría de cuerdas hace ambas cosas. Como pronto veremos, elimina los infinitos encontrados en gravedad cuántica y da una teoría finita de la misma. Esto por sí solo garantizaría que la teoría de cuerdas debería considerarse un

serio candidato para una teoría del universo. Pero además, existe un premio añadido. Cuando compactificamos algunas de las dimensiones de la cuerda, descubrimos que hay «suficiente sitio» para acomodar las simetrías del Modelo Estándar e incluso de las GUT. La cuerda heterótica consiste en una cuerda cerrada que tiene dos tipos de vibraciones, en el sentido de las agujas del reloj y en sentido contrario, que son tratadas de forma diferente. Las vibraciones en el sentido de las agujas del reloj viven en un espacio de diez dimensiones. Las vibraciones de sentido contrario viven en un espacio de veintiséis dimensiones, de las que dieciséis han sido compactificadas. (Recordemos que en la teoría pentadimensional original de Kaluza, la quinta dimensión se compactificaba curvándose en un círculo.) La cuerda heterótica debe su nombre al hecho de que las vibraciones en el sentido de las agujas del reloj y en sentido contrario viven en dos dimensiones diferentes pero se combinan para producir una sola teoría de supercuerdas. Ésta es la razón de que se denomine según la palabra griega heterosis, que significa «vigor híbrido». El espacio compactificado de dieciséis dimensiones es el más interesante con mucho. Recordemos que, en la teoría de Kaluza-Klein, el espacio compactificado N-dimensional puede tener una simetría asociada con él, de forma muy similar a un balón de playa. Entonces todas las vibraciones (o campos) definidas en el espacio N-dimensional heredan automáticamente estas simetrías. Si la simetría es SU(N), entonces todas las vibraciones en el espacio deben obedecer la simetría SU(N) (de la misma forma que la arcilla hereda las simetrías del molde). De este modo, la teoría de Kaluza-Klein podría acomodar las simetrías del Modelo Estándar. Sin embargo, de esta manera podría determinarse también que la supergravedad era «demasiado pequeña» para contener todas las partículas de las simetrías encontradas en el Modelo Estándar. Esto era suficiente para eliminar la teoría de supergravedad como una teoría realista de la materia y el espacio-tiempo. Pero cuando el cuarteto de cuerda de Princeton analizó las simetrías del espacio 16-dimensional, descubrió que es una simetría monstruosamente grande, denominada E(8) x E(8), que es mucho mayor que cualquier simetría GUT que se hubiese intentado jamás.[83] Esto era un premio inesperado. Significaba que todas las vibraciones de la cuerda heredarían la simetría del espacio 16-dimensional, que era más que suficiente para acomodar la simetría del Modelo Estándar. Ésta, entonces, es la expresión matemática del tema central del libro, a saber, que las leyes de la física se simplifican en dimensiones más altas. En este caso, el espacio 26-dimensional de las vibraciones de sentido contrario a las agujas del reloj de la cuerda heterótica tiene sitio suficiente para explicar todas las simetrías encontradas en la teoría de Einstein y en la teoría cuántica. Así, por primera vez, la geometría pura ha dado una simple explicación de por qué el mundo subatómico debería exhibir necesariamente ciertas simetrías que emergen del enrollamiento del espacio de más dimensiones: Las simetrías del dominio subatómico no son sino remanentes de la simetría del espacio de más dimensiones. Esto significa que la belleza y simetría encontradas en la naturaleza pueden ser rastreadas en última instancia hasta el espacio multidimensional. Por ejemplo, los copos de nieve crean bellas figuras hexagonales, ninguna de las cuales es exactamente igual a otra. Estos copos de nieve y cristales, a su vez, han heredado su estructura de la forma en que sus moléculas han sido dispuestas geométricamente. Esta disposición está básicamente determinada por las cortezas electrónicas de la molécula, que a su vez nos llevan de nuevo a las simetrías rotacionales de la teoría cuántica, dadas

por O(3). Todas las simetrías del universo de baja energía que observamos en los elementos químicos se deben a las simetrías catalogadas por el Modelo Estándar, que a su vez pueden derivarse compactificando la cuerda heterótica. En conclusión, las simetrías que vemos a nuestro alrededor, desde el arco iris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría decadimensional original.[84] Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia. Pero les faltaba un ingrediente clave para mostrar la relación entre la madera y el mármol. Este eslabón perdido es con gran probabilidad una teoría de supercuerdas. Con la teoría de cuerdas decadimensional, vemos que la geometría de la cuerda puede ser responsable en última instancia tanto de las fuerzas como de la estructura de la materia. Un fragmento de física del siglo XXI Dado el enorme poder de sus simetrías, no es sorprendente que la teoría de supercuerdas sea radicalmente diferente de cualquier otro tipo de física. De hecho, fue descubierta casi por casualidad. Muchos físicos han comentado que si este accidente fortuito no hubiese ocurrido, entonces la teoría no se hubiese descubierto hasta el siglo XXI. Esto es así porque supone una neta desviación de todas las ideas ensayadas en este siglo. No es una extensión natural de tendencias y teorías populares en este siglo; permanece aparte. Por el contrario, la teoría de la relatividad general tuvo una evolución «normal» y lógica. En primer lugar, Einstein postuló el principio de equivalencia. Luego reformuló este principio físico en las matemáticas de una teoría de campos de la gravitación basada en los campos de Faraday y en el tensor métrico de Riemann. Más tarde llegaron las «soluciones clásicas», tales como el agujero negro y el big bang. Finalmente, la última etapa es el intento actual de formular una teoría cuántica de la gravedad. Por lo tanto, la relatividad general siguió una progresión lógica, desde un principio físico a una teoría cuántica: Geometría ⇒ teoría de campos ⇒ teoría clásica ⇒ teoría cuántica Por el contrario, la teoría de supercuerdas ha estado evolucionando hacia atrás desde su descubrimiento accidental en 1968. Ésta es la razón de que la teoría de supercuerdas parezca tan extraña y poco familiar para la mayoría de los físicos. Estamos aún buscando su principio físico subyacente, la contrapartida del principio de equivalencia de Einstein. La teoría nació casi por casualidad en 1968 cuando dos jóvenes físicos teóricos, Gabriel Veneziano y Mahiko Suzuki, estaban hojeando independientemente libros de matemáticas, buscando funciones matemáticas que describieran las interacciones de partículas fuertemente interactivas. Mientras estudiaban en el CERN, el centro europeo para física teórica en Ginebra, Suiza, tropezaron independientemente con la función beta de Euler, una función matemática desarrollada en el siglo XIX por el matemático Leonhard Euler. Se quedaron sorprendidos al descubrir que la función beta de Euler ajustaba casi todas las propiedades requeridas para describir las interacciones fuertes de

partículas elementales. Durante un almuerzo en el Lawrence Berkeley Laboratory en California, con una espectacular vista del sol brillando sobre el puerto de San Francisco, Suzuki me explicó una vez la excitación de descubrir, prácticamente por casualidad, un resultado potencialmente importante. No se suponía que la física se hiciese de este modo. Después de encontrar la función beta de Euler en un libro de matemáticas, mostró excitadamente su resultado a un físico veterano en el CERN. Tras oír a Suzuki, el físico veterano no quedó impresionado. De hecho, le dijo a Suzuki que otro físico joven (Veneziano) había descubierto la misma función unas semanas antes. Disuadió a Suzuki de publicar su resultado. Hoy, esta función beta se conoce con el nombre de modelo de Veneziano, que ha inspirado varios miles de artículos de investigación, iniciando una escuela importante de física, y ahora tiene la pretensión de unificar todas las leyes físicas. (Visto en retrospectiva, Suzuki, por supuesto, debería haber publicado su resultado. Sospecho que hay una lección en todo esto: nunca tomes demasiado en serio el consejo de tus mayores.) En 1970, el misterio que rodeaba al modelo de Veneziano-Suzuki fue parcialmente explicado cuando Yoichiro Nambu, de la Universidad de Chicago, y Tetsuo Goto, de la Nihon University, descubrieron que una cuerda vibrante yace detrás de sus maravillosas propiedades. Puesto que la teoría de cuerdas fue descubierta hacia atrás y por casualidad, los físicos aún no conocen el principio físico que subyace en ella. El último paso en la evolución de la teoría (y el primer paso en la evolución de la relatividad general) aún está por encontrarse. Witten añade que los seres humanos en el planeta Tierra nunca dispusieron del marco conceptual que les llevara a concebir la teoría de cuerdas intencionadamente … Nadie la concibió intencionadamente, sino que fue concebida por un feliz accidente. Por sus méritos, los físicos del siglo XX no deberían haber tenido el privilegio de estudiar esta teoría. Por sus méritos, la teoría de cuerdas no debería haber sido concebida hasta que nuestro conocimiento de algunas de las ideas que son un prerrequisito para la teoría de cuerdas se hubiese desarrollado hasta el punto de que nos fuera posible tener el concepto correcto de lo que se trataba.[85]

Lazos La fórmula descubierta por Veneziano y Suzuki, que ellos esperaban que describiera las propiedades de partículas subatómicas interactivas, estaba aún incompleta. Violaba una de las propiedades de la física: la unitariedad, o la conservación de la probabilidad. Por sí misma, la fórmula de VenezianoSuzuki daría respuestas incorrectas para las interacciones entre partículas. De este modo, el próximo paso en la evolución de la teoría consistía en añadir pequeños términos de correcciones cuánticas que restauraran esta propiedad. En 1969, incluso antes de la interpretación de cuerdas de Nambu y Goto, tres físicos (Keiji Kikkawa, Bunji Sakita y Miguel A. Virasoro, entonces todos ellos en la Universidad de Wisconsin) propusieron la solución correcta: añadir términos cada vez más pequeños a la fórmula de Veneziano-Suzuki para restaurar la unitariedad. Aunque estos físicos tenían que conjeturar cómo construir las series a partir de cero, hoy se entiende más fácilmente en el marco de la imagen de cuerdas de Nambu. Por ejemplo, cuando un abejorro vuela por el aire, su trayectoria puede describirse como una línea sinuosa. Cuando un fragmento de cuerda que está en el aire se mueve por el espacio, su trayectoria puede asemejarse a

una hoja imaginaria bidimensional. Cuando una cuerda cerrada flota en el espacio, su trayectoria se parece a un tubo. Las cuerdas interaccionan rompiéndose en cuerdas más pequeñas o uniéndose a otras cuerdas. Cuando estas cuerdas interactivas se mueven, describen las configuraciones mostradas en la figura 7.1. Nótese que hay dos tubos que proceden de la izquierda, con un tubo que se fisiona en la mitad, intercambian el tubo central, y luego continúan hacia la derecha. Así es como interaccionan los tubos entre sí. Este diagrama, por supuesto, es una abreviatura para una expresión matemática muy complicada. Cuando calculamos la expresión numérica que corresponde a estos diagramas, recuperamos la función beta de Euler. En la imagen de cuerdas, el truco esencial propuesto por Kikkawa-Sakita-Virasoro (KSV) equivalía a añadir todos los posibles diagramas en donde las cuerdas pueden colisionar y romperse. Hay, por supuesto, un número infinito de estos diagramas. El proceso de añadir un número infinito de diagramas «cerrados», tal que cada diagrama nos acerque más a la respuesta final, es una teoría de perturbaciones y es una de las armas más importantes en el arsenal de cualquier físico Fig ura 7.1. En la teoría de cuerdas, la fuerza gravitatoria se cuántico. (Estos diagramas de cuerdas poseen una representa mediante el intercambio de cuerdas cerradas, que barren tubos en el espacio-tiempo. Incluso si sumamos una serie bella simetría que nunca antes se había visto en infinita de diagramas con un gran número de agujeros, nunca física, conocida como simetría conforme en dos aparecen infinitos en la teoría, dándonos una teoría finita de la dimensiones. Esta simetría conforme nos permite gravedad cuántica. tratar estos tubos y hojas como si estuviesen hechos de goma: podemos presionar, estirar, doblar y contraer estos diagramas. Luego, debido a la simetría conforme, podemos demostrar que todas estas expresiones matemáticas permanecen iguales.) KSV afirmaban que la suma total de todos estos diagramas cerrados daría la fórmula matemática exacta que explica cómo interaccionan las partículas subatómicas. Sin embargo, el programa KSV consistía en una serie de conjeturas indemostradas. Alguien tenía que construir estos lazos explícitamente, o de otro modo estas conjeturas eran inútiles. Intrigado por el programa iniciado por KSV, decidí probar suerte en la solución del problema. Esto era un poco difícil, porque en ese momento yo estaba esquivando balas de ametralladora. Centro de instrucción de reclutas

Recuerdo claramente cuando salió el artículo de KSV en 1969. Más que dar detalles precisos, KSV estaban proponiendo un programa para trabajo futuro. Decidí entonces calcular todos los lazos posibles explícitamente y completar el programa KSV. Es difícil olvidar aquellos tiempos. Había una guerra feroz en ultramar, y los campus universitarios desde Kent State[86] a la Universidad de París, estaban en un estado de agitación. Yo me había graduado en Harvard el año anterior, cuando el presidente Lyndon Johnson revocó las exenciones del servicio militar para los estudiantes de doctorado, lo que hizo cundir el pánico en las facultades universitarias del país. El caos prendió en los campus. De repente, mis amigos estaban dejando las facultades para enseñar en institutos, haciendo sus maletas y marchándose a Canadá, o tratando de arruinar su salud para engañar al médico del ejército. Se estaban destruyendo carreras prometedoras. Uno de mis buenos amigos en física, ya desde el MIT, juraba que él iría a la cárcel antes que volar a Vietnam. Nos decía que le enviáramos copias del Physical Review a su celda para poder estar al día de los desarrollos en el modelo de Veneziano. Otros amigos, que dejaron la facultad para enseñar en institutos de enseñanza media antes que combatir en la guerra, abandonaron carreras científicas prometedoras. (Muchos de ellos aún enseñan en esos institutos.) Tres días después de la graduación, dejé Cambridge y me encontré en el ejército de los Estados Unidos, estacionado en Fort Benning, Georgia (el mayor centro de instrucción de infantería en el mundo), y posteriormente en Fort Lewis, Washington. Decenas de miles de reclutas sin ninguna instrucción militar previa se estaban forjando para constituir una fuerza de combate y luego ser enviados a Vietnam, para reemplazar a los 500 soldados norteamericanos que estaban muriendo cada semana. Un día, mientras arrojaba granadas reales bajo el sol abrasador de Georgia y veía cómo la metralla mortal se esparcía en todas direcciones, mis pensamientos empezaron a vagar. ¿Cuántos científicos a lo largo de la historia tuvieron que enfrentarse a los destrozos de la guerra? ¿Cuántos científicos prometedores murieron por una bala en la flor de su juventud? Recordé que Karl Schwarzschild había muerto en el ejército del káiser en el frente ruso durante la primera guerra mundial, sólo unos meses después de haber descubierto la solución básica a las ecuaciones de Einstein utilizada en todo cálculo de agujeros negros. (El radio de Schwarzschild de un agujero negro lleva este nombre en su honor. Einstein se dirigió a la Academia Prusiana en 1916 para conmemorar el trabajo de Schwarzschild después de su prematura muerte en las líneas del frente.) ¿Y cuántas personas prometedoras murieron incluso antes de que pudiesen comenzar su carrera? La instrucción en infantería, descubrí, es rigurosa; está diseñada para endurecer el espíritu y embotar el intelecto. La independencia de pensamiento es cercenada. Después de todo, lo que menos necesita el ejército es una inteligencia que cuestione las órdenes del sargento en medio de una batalla. Comprendiendo esto, decidí llevarme algunos artículos de física. Necesitaba algo para mantener mi mente activa mientras pelaba patatas en servicio de cocina o disparaba ametralladoras, de modo que me llevé una copia del artículo KSV. Durante la instrucción nocturna de infantería, tuve que superar una carrera de obstáculos, lo que significaba evitar balas reales de ametralladora mientras atravesaba alambradas de espino y reptaba por lodo espeso. Puesto que los proyectiles llevaban trazadores, podía ver las bellas rayas carmesí

hechas por miles de balas de ametralladora que zumbaban a unos pocos metros por encima de mi cabeza. Sin embargo, mis ideas seguían dirigiéndose al artículo KSV y cómo podría ser llevado a cabo su programa. Afortunadamente, la característica esencial del cálculo era estrictamente topológica. Estaba claro para mí que estos lazos estaban introduciendo un lenguaje completamente nuevo para la física, el lenguaje de la topología. Nunca antes en la historia de la física habían sido utilizadas las cintas de Möbius o las botellas de Klein de un modo fundamental. Puesto que raramente tenía papel o lápiz mientras practicaba con ametralladoras, me obligué a visualizar en mi cabeza cómo podían retorcerse las cuerdas en lazos y volverse del revés. La instrucción en ametralladoras fue realmente una bendición enmascarada porque me obligaba a manipular grandes bloques de ecuaciones en mi cabeza. Para cuando acabé el programa de entrenamiento avanzado con ametralladoras, estaba convencido de que podía completar el programa de calcular todos los lazos. Finalmente, me las arreglé para exprimir tiempo del ejército para ir a la Universidad de California en Berkeley, donde trabajé arduamente los detalles de lo que estaba dando vueltas en mi cabeza. Dediqué varios cientos de horas de intensa reflexión a esta cuestión. Esto, de hecho, se convirtió en mi tesis doctoral. En 1970, el cálculo final ocupaba varios cientos de páginas de cuaderno densamente apretadas. Bajo la cuidadosa supervisión de mi director, Stanley Madelstam, mi colega Lohping Yu y yo calculamos con éxito una expresión explícita para todos los posibles diagramas con lazos conocidos en esa época. Sin embargo, yo no estaba satisfecho con este trabajo. El programa KSV consistía en un batiburrillo de recetas empíricas e intuición, no en un conjunto riguroso de principios básicos de los que se pudieran derivar estos lazos. La teoría de cuerdas, ya lo vimos, estaba evolucionando hacia atrás, a partir de su descubrimiento accidental por Veneziano y Suzuki. El próximo paso en la evolución hacia atrás de las cuerdas era seguir las huellas de Faraday, Riemann, Maxwell y Einstein y construir una teoría de campos de cuerdas. Teoría de campos de cuerdas Desde el trabajo pionero de Faraday, cualquier teoría física se había formulado en términos de campos. La teoría de la luz de Maxwell estaba basada en la teoría de campos. La teoría de Einstein también lo estaba. De hecho, toda la física de partículas estaba basada en teoría de campos. La única teoría no basada en teoría de campos era la de cuerdas. El programa KSV era más un conjunto de reglas convenientes que una teoría de campos. Mi siguiente objetivo era rectificar esta situación. Sin embargo, el problema con una teoría de campos de cuerdas era que muchas de las figuras pioneras en la física estaban en contra de ella. Sus argumentos eran simples. Estos gigantes de la física, tales como Hideki Yukawa y Werner Heisenberg, habían trabajado durante años para crear una teoría de campos que no estuviera basada en partículas puntuales. Ellos pensaban que las partículas elementales podrían ser gotas pulsantes de materia, más que puntos. Sin embargo, por mucho que ellos lo intentaran, las teorías de campos basadas en gotas siempre violaban la causalidad. Si agitáramos la gota en un punto, las interacciones se propagarían por la gota a una velocidad

superior a la de la luz, violando la relatividad especial y creando todo tipo de paradojas temporales. Por lo tanto, se sabía que las «teorías de campos no locales» basadas en gotas eran un problema monstruosamente difícil. De hecho, muchos físicos insistían en que sólo las teorías de campos locales basadas en partículas puntuales podían ser consistentes. Las teorías de campos no locales debían violar la relatividad. El segundo argumento era aún más convincente. El modelo de Veneziano tenía muchas propiedades mágicas (incluyendo algo llamado dualidad) que nunca antes se habían visto en una teoría de campos. Años antes, Richard Feynman había dado «reglas» que deberían obedecer cualquier teoría de campos. Sin embargo, estas reglas de Feynman suponían una violación directa de la dualidad. Por ello, muchos teóricos de cuerdas estaban convencidos de que una teoría de campos de cuerdas era imposible, porque la teoría de cuerdas violaba necesariamente las propiedades del modelo de Veneziano. La teoría de cuerdas, decían, era única en toda la física porque no podía ser reformulada como una teoría de campos. Colaboré con Keiji Kikkawa en este difícil pero importante problema. Paso a paso construimos nuestra teoría de campos, de una forma muy parecida a como nuestros predecesores habían construido teorías de campos para otras fuerzas. Siguiendo a Faraday, introdujimos un campo en cada punto del espacio-tiempo. Sin embargo, para una teoría de campos de cuerdas, tuvimos que generalizar el concepto de Faraday y postular un campo que estaba definido para todas las configuraciones posibles de una cuerda vibrante en el espacio-tiempo. El segundo paso era postular las ecuaciones de campo que obedecía la cuerda. La ecuación de campo para una sola cuerda moviéndose en el espacio-tiempo era fácil. Como era de esperar, nuestras ecuaciones de campo reproducían una serie infinita de resonancias en la cuerda, cada una de ellas correspondiente a una partícula subatómica. A continuación, descubrimos que las objeciones de Yukawa y Heisenberg se resolvían por la teoría de campos de cuerdas. Si pulsábamos la cuerda, las vibraciones se propagaban por la cuerda a velocidad inferior a la de la luz. Pronto, sin embargo, topamos con un muro. Cuando tratamos de introducir cuerdas en interacción, no pudimos reproducir correctamente la amplitud de Veneziano. La dualidad y el recuento de grafos dado por Feynman para cualquier teoría de campos estaban en conflicto directo. Exactamente como esperaban los críticos, los grafos de Feynman eran incorrectos. Esto resultaba descorazonador. Parecía que la teoría de campos, que había constituido el fundamento de la física en el siglo pasado, era esencialmente incompatible con la teoría de cuerdas. Desanimado, recuerdo haber estado meditando sobre el problema hasta altas horas de la noche. Durante horas, estuve comprobando sistemáticamente todas las posibles alternativas a este problema. Pero la conclusión de que la dualidad tenía que romperse parecía inevitable. Entonces recordé lo que dice Sherlock Holmes a Watson en «El signo de cuatro» de Arthur Conan Doyle: «Cuántas veces le he dicho que cuando se ha eliminado lo imposible, lo que quede, por muy improbable que sea, debe ser la verdad». Animado por esta idea, eliminé todas las alternativas imposibles. La única alternativa improbable que quedaba consistía en violar las propiedades de la fórmula de Veneziano-Suzuki. Aproximadamente a las 3 de la madrugada, encontré finalmente la solución. Me di cuenta de que los físicos habían pasado por alto el hecho obvio de que uno puede dividir la fórmula de VenezianoSuzuki en dos fragmentos. Entonces cada parte corresponde a uno de los diagramas de Feynman, y

cada parte viola la dualidad, pero la suma obedece a todas las propiedades correctas de una teoría de campos. Rápidamente cogí papel y completé el cálculo. Pasé las cinco horas siguientes comprobando y volviendo a comprobar el cálculo desde todas las direcciones posibles. La conclusión era inevitable: la teoría de campos viola la dualidad, como todos esperaban, pero es aceptable porque la suma final reproduce la fórmula de Veneziano-Suzuki. Ahora tenía resuelto gran parte del problema. Sin embargo, aún faltaba un diagrama más de Feynman, que representaba la colisión de cuatro cuerdas. Ese año, yo estaba impartiendo cursos introductorios de electricidad y magnetismo para estudiantes de licenciatura en la City University de Nueva York, y estábamos estudiando las líneas de fuerza de Faraday. Pedía a los estudiantes que dibujasen las líneas de fuerza que emanaban de diferentes configuraciones de cargas, repitiendo los mismos pasos de los que Faraday fue pionero en el siglo XIX. De repente, se me ocurrió que las sinuosas líneas que yo estaba pidiendo dibujar a mis estudiantes tenían exactamente la misma estructura topológica que la colisión de cuerdas. De este modo, reordenando las cargas en un laboratorio de principiantes había encontrado la configuración correcta para describir la colisión de cuatro cuerdas. ¿Era así de sencillo? Corrí a casa a comprobar mi idea, y era correcta. Empleando técnicas gráficas que incluso un principiante puede utilizar, pude demostrar que la interacción de cuatro cuerdas debía estar oculta en la fórmula de Veneziano. Para el verano de 1974, utilizando métodos que se remontaban a Faraday, Kikkawa y yo completamos la teoría de campos de cuerdas, el primer intento satisfactorio de combinar la teoría de cuerdas con el formalismo de la teoría de campos. Nuestra teoría de campos, si bien incorporaba correctamente toda la información contenida dentro de una teoría de cuerdas, aún necesitaba mejoras. Puesto que estábamos construyendo la teoría de campos hacia atrás, muchas de las simetrías eran aún oscuras. Por ejemplo, las simetrías de la relatividad especial estaban presentes pero no de una manera obvia. Se necesitaba mucho más trabajo para refinar las ecuaciones de campo qué habíamos encontrado. Pero precisamente cuando estábamos empezando a explorar las propiedades de nuestra teoría de campos, el modelo sufrió inesperadamente un grave revés. Ese año, el físico Claude Lovelace de la Rutgers University descubrió que la cuerda bosónica (que describe espines enteros) es autoconsistente sólo en veintiséis dimensiones. Otros físicos verificaron este resultado y demostraron que la supercuerda (que describe tanto espín entero como semienten)) es autoconsistente sólo en diez dimensiones. Pronto se comprendió que, en dimensiones distintas de diez o veintiséis, la teoría pierde por completo todas sus bellas propiedades matemáticas. Pero nadie creía que una teoría definida en diez o veintiséis dimensiones tuviera algo que ver con la realidad. La investigación en teoría de cuerdas llegó a un brusco parón. Como la teoría de KaluzaKlein antes que ella, la teoría de cuerdas cayó en profunda hibernación. Durante diez largos años, el modelo fue expulsado a las tinieblas. (Aunque la mayoría de los físicos de cuerdas, incluido yo mismo, abandonaran el modelo como un barco que se hunde, algunos pocos empecinados, como los físicos John Schwarz y el finado Joel Scherk, trataron de mantener vivo el modelo haciendo continuas mejoras. Por ejemplo, originalmente se pensaba que la teoría de cuerdas era simplemente

una teoría de las interacciones fuertes, cada uno de cuyos modos de vibración correspondía a una resonancia del modelo de quarks. Schwarz y Scherk demostraron correctamente que el modelo de fuerzas era en realidad una teoría unificada de todas las fuerzas, no sólo de las interacciones fuertes.) La investigación en gravedad cuántica iba en otra dirección. Desde 1974 a 1984, periodo en que la teoría de cuerdas estuvo eclipsada, se estudiaron con éxito un gran número de teorías alternativas de la gravedad cuántica. Durante este periodo, la teoría original de Kaluza-Klein, y luego la teoría de supergravedad, disfrutaron de gran popularidad, pero en cualquier caso se hacían aparentes también los fallos de estos modelos. Por ejemplo, se demostró que tanto la teoría de Kaluza-Klein como la de supergravedad eran no renormalizables. Luego sucedió algo extraño durante esa década. Por una parte, los físicos empezaron a sentirse frustrados por la creciente lista de modelos que se intentaron y luego se descartaron durante este periodo. Todo fallaba. Lentamente llegó la comprensión de que la teoría de Kaluza-Klein y la teoría de supergravedad estaban probablemente en el camino correcto, aunque no eran suficientemente avanzadas para resolver el problema de la no renormalizabilidad. Pero la única teoría suficientemente compleja para contener a la vez la teoría de Kaluza-Klein y la supergravedad era la teoría de supercuerdas. Por otro lado, los físicos se habían acostumbrado lentamente a trabajar en el hiperespacio. Debido al renacimiento de Kaluza-Klein, la idea del hiperespacio ya no parecía inverosímil o prohibida. Pasado el tiempo, ni siquiera una teoría definida en veintiséis dimensiones parecía extravagante. La resistencia original a las veintiséis dimensiones empezaba a diluirse lentamente con el tiempo. Finalmente, en 1984, Green y Schwarz demostraron que la teoría de supercuerdas era la única teoría autoconsistente de la gravedad cuántica, y empezó la estampida. En 1985, Edward Witten hizo un avance importante en la teoría de campos de cuerdas, que muchos consideran que es uno de los logros más bellos de la teoría. Demostró que nuestra vieja teoría de campos podía derivarse utilizando poderosos teoremas matemáticos y geométricos (que proceden de algo denominado teoría de cohomología) con una forma completamente relativista. Con la nueva teoría de campos de Witten quedó de manifiesto la verdadera elegancia matemática de la teoría de campos de cuerdas, que estaba oculta en nuestro formalismo. Pronto se escribieron casi un centenar de artículos científicos para explorar las fascinantes propiedades matemáticas de la teoría de campos de Witten.[87] Nadie es suficientemente inteligente Suponiendo que la teoría de campos de cuerdas sea correcta, en principio deberíamos ser capaces de calcular la masa del protón a partir de primeros principios y entrar en contacto con los datos conocidos, tales como las masas de las diversas partículas. Si las respuestas numéricas fueran incorrectas, entonces tendríamos que tirar la teoría por la ventana. Sin embargo, si la teoría es correcta se situará entre los avances más importantes de la física en dos mil años. Tras la intensa y eufórica fanfarria de finales de los años ochenta (cuando parecía que la teoría estaría completamente resuelta en unos pocos años y repartiría premios Nobel por docenas), se impuso un cierto grado de frío realismo. Aunque la teoría está matemáticamente bien definida, nadie ha sido capaz de resolver la teoría. Nadie.

El problema es que nadie es suficientemente inteligente para resolver la teoría de campos de cuerdas o cualquier otro enfoque no perturbativo de la teoría de cuerdas. Éste es un problema bien definido, pero la ironía consiste en que resolver una teoría de campos requiere técnicas que están actualmente más allá de la capacidad de cualquier físico. Esto es frustrante. Ante nosotros hay una teoría de cuerdas perfectamente bien definida. Dentro de ella está la posibilidad de zanjar toda la controversia que rodea al espacio de dimensiones más altas. El sueño de calcular todo a partir de primeros principios está ante nosotros. El problema es cómo resolverlo. Uno se acuerda del famoso comentario de Julio César en la obra de Shakespeare: «La falta, querido Bruto, no está en nuestras estrellas, sino en nosotros mismos». Para una teoría de cuerdas, la falta no está en la teoría, sino en nuestras matemáticas primitivas. La razón para este pesimismo es que nuestra principal herramienta de cálculo, la teoría de perturbaciones, falla. La teoría de perturbaciones empieza con una fórmula de tipo Veneziano y luego calcula correcciones cuánticas a la misma (que tienen la forma de lazos). La esperanza de los teóricos de cuerdas era poder desarrollar una fórmula más avanzada de tipo Veneziano definida en cuatro dimensiones que describiera unívocamente el espectro conocido de partículas. Visto en retrospectiva, ellos tuvieron demasiado éxito. El problema es que ahora se han descubierto millones de fórmulas de tipo Veneziano. De forma embarazosa, los teóricos de cuerdas se están literalmente ahogando en estas soluciones perturbativas. El problema fundamental que ha atascado el avance en teoría de supercuerdas en los últimos años es que nadie sabe cómo seleccionar la solución correcta de entre los millones de soluciones que se han descubierto. Algunas de estas soluciones están notablemente próximas a una descripción del mundo real. Con algunas hipótesis modestas, es fácil extraer el Modelo Estándar como una vibración de la cuerda. Varios grupos han anunciado, de hecho, que pueden encontrar soluciones que están de acuerdo con los datos conocidos sobre partículas subatómicas. El problema, como vemos, está en que existen también millones y millones de otras soluciones que describen universos que no se parecen en nada al nuestro. En algunas de estas soluciones, el universo no tiene quarks o tiene demasiados. En la mayoría de ellos, la vida como la conocemos no puede existir. Nuestro universo puede estar perdido en alguna parte entre los millones de universos posibles que han sido descubiertos en la teoría de cuerdas. Para encontrar la solución correcta, debemos utilizar técnicas no perturbativas, que son terriblemente difíciles. Puesto que el 99 por 100 de lo que conocemos sobre física de altas energías se basa en la teoría de perturbaciones, esto significa que estamos totalmente perdidos a la hora de encontrar la verdadera solución de la teoría. Hay cierto lugar para el optimismo, no obstante. Las soluciones no perturbativas que se han encontrado para teorías mucho más sencillas demuestran que muchas de las soluciones son en realidad inestables. Al cabo de un cierto tiempo, estas soluciones inestables incorrectas darán un salto cuántico a la solución estable correcta. Si esto es cierto para la teoría de cuerdas, entonces quizá los millones de soluciones que se han encontrado sean realmente inestables y se descompongan después de algún tiempo en la solución correcta. Para comprender la frustración que sentimos los físicos, piénsese, por un momento, en cómo podrían reaccionar los físicos del siglo XIX si se les diera un ordenador portátil. Podrían fácilmente aprender a mover los botones y presionar las teclas. Podrían aprender a dominar los videojuegos u

observar programas educativos en el monitor. Al estar un siglo por detrás en tecnología, quedarían maravillados por la fantástica capacidad de cálculo del ordenador. En su memoria podría almacenarse fácilmente todo el saber científico conocido en su siglo. En un corto periodo de tiempo, aprenderían a realizar hazañas matemáticas que sorprenderían a cualquiera de sus colegas. Sin embargo, una vez que decidieran abrir el monitor para ver qué había dentro, quedarían horrorizados. Los transistores y microprocesadores serían totalmente ajenos a cualquier cosa que ellos pudieran comprender. Realmente no habría nada en su experiencia comparable al ordenador electrónico. Estaría fuera de su alcance. Sólo podrían mirar perplejos a la complicada circuitería, sin tener la más mínima idea de cómo funciona o qué significa todo eso. La fuente de su frustración estaría en que el ordenador existe y está allí delante de sus narices, pero ellos no tendrían marco de referencia en el que explicarlo. Análogamente, la teoría de cuerdas parece ser física del siglo XXI que fue descubierta accidentalmente en nuestro siglo. La teoría de campos de cuerdas parece incluir, también, todo el conocimiento físico. Con poco esfuerzo somos capaces de girar algunos mandos y presionar algunos botones con la teoría, y al momento surgen la teoría de supergravedad, la teoría de Kaluza-Klein y el Modelo Estándar. Pero estamos totalmente perdidos para explicar por qué trabaja. La teoría de campos de cuerdas existe, pero nos sorprende porque no somos suficientemente inteligentes para resolverla. El problema es que mientras que la física del siglo XXI cayó accidentalmente en el siglo XX, las matemáticas del siglo XXI todavía no han sido inventadas. Parece que tendremos que esperar a las matemáticas del siglo XXI antes de que podamos hacer cualquier progreso, o que la generación actual de físicos debe inventar las matemáticas del siglo XXI por sí mismos. ¿Por qué diez dimensiones? Uno de los secretos más profundos de la teoría de cuerdas, que aún no es bien comprendido, es por qué está definida sólo en diez y veintiséis dimensiones. Si la teoría fuera tridimensional, no podría unificar las leyes conocidas de la física de ninguna manera razonable. Así pues, es la geometría de dimensiones más altas la característica central de la teoría. Si calculamos cómo se rompen y se vuelven a formar las cuerdas en el espacio N-dimensional, constantemente descubrimos que pululan términos absurdos que destruyen las maravillosas propiedades de la teoría. Afortunadamente, estos términos indeseados aparecen multiplicados por (N – 10). Por consiguiente, para hacer que desaparezcan estas anomalías, no tenemos otra elección que fijar N igual a diez. La teoría de cuerdas, de hecho, es la única teoría cuántica conocida que exige completamente que la dimensión del espacio-tiempo esté fijada en un número único. Por desgracia, los teóricos de cuerdas están, por el momento, completamente perdidos para explicar por qué se discriminan las diez dimensiones. La respuesta yace en las profundidades de las matemáticas, en un área denominada funciones modulares. Cuando quiera que manipulamos los diagramas de lazos KSV creados por cuerdas en interacción, encontramos estas extrañas funciones modulares en las que el número diez aparece en los lugares más extraños. Estas funciones modulares son tan misteriosas como el hombre que las investigó, el místico del Este. Quizá si entendiéramos mejor el trabajo de este genio indio, comprenderíamos por qué vivimos en nuestro universo actual.

El misterio de las funciones modulares Srinivasa Ramanujan fue el hombre más extraño de todas las matemáticas, y probablemente de toda la historia de la ciencia. Ha sido comparado a una explosión de supernova, que iluminó los rincones más profundos y oscuros de las matemáticas, antes de ser abatido trágicamente por la tuberculosis a la edad de treinta y tres años, como Riemann antes que él. Trabajando en total aislamiento de las corrientes principales de su campo, fue capaz de rederivar por sí mismo lo más valioso de cien años de matemáticas occidentales. La tragedia de su vida es que gran parte de su trabajo se malgastó en redescubrir matemáticas conocidas. Dispersas entre oscuras ecuaciones en sus cuadernos están estas funciones modulares, que figuran entre las más extrañas jamás encontradas en matemáticas. Ellas reaparecen en las ramas más distantes e inconexas de las matemáticas. Una función, que aparece una y otra vez en la teoría de las funciones modulares, se denomina hoy función de Ramanujan en su honor. Esta extraña función contiene un término elevado a la potencia veinticuatro. El número 24 aparece repetidamente en la obra de Ramanujan. Éste es un ejemplo de lo que los matemáticos llaman números mágicos, que aparecen continuamente, donde menos se esperan, por razones que nadie entiende. Milagrosamente, la función de Ramanujan aparece también en la teoría de cuerdas. El número 24 que aparece en la función de Ramanujan es también el origen de las cancelaciones milagrosas que se dan en la teoría de cuerdas. En la teoría de cuerdas, cada uno de los veinticuatro modos de la función de Ramanujan corresponde a una vibración física de la cuerda. Cuando quiera que la cuerda ejecuta sus movimientos complejos en el espacio-tiempo dividiéndose y recombinándose, deben satisfacerse un gran número de identidades matemáticas altamente perfeccionadas. Éstas son precisamente las identidades matemáticas descubiertas por Ramanujan. (Puesto que los físicos añaden dos dimensiones más cuando cuentan el número total de vibraciones que aparecen en una teoría relativista, ello significa que el espacio-tiempo debe tener 24 + 2 = 26 dimensiones espacio-temporales.)[88] Cuando se generaliza la función de Ramanujan, el número 24 queda reemplazado por el número 8. Por lo tanto, el número crítico para la supercuerda es 8 + 2, o 10. Éste es el origen de la décima dimensión. La cuerda vibra en diez dimensiones porque requiere estas funciones de Ramanujan generalizadas para permanecer autoconsistente. En otras palabras, los físicos no tienen la más mínima comprensión de por qué 10 y 26 dimensiones se seleccionan como dimensión de la cuerda. Es como si hubiera algún tipo de numerologia profunda que se manifestara en estas funciones que nadie comprende. Son precisamente estos números mágicos que aparecen en las funciones modulares elípticas los que determinan que la dimensión del espacio-tiempo sea diez. En el análisis final, el origen de la teoría decadimensional es tan misterioso como el propio Ramanujan. Cuando los oyentes preguntan por qué la naturaleza debería existir en diez dimensiones, los físicos están obligados a responder «No lo sabemos». Sabemos, en términos difusos, por qué debe seleccionarse alguna dimensión del espacio-tiempo (de lo contrario la cuerda no puede vibrar de una forma cuánticamente autoconsistente), pero no sabemos por qué se seleccionan estos números concretos. Quizá la respuesta esté esperando a ser descubierta en los cuadernos perdidos de Ramanujan. Reinventar cien años de matemáticas

Ramanujan nació en 1887 en Erode, India, cerca de Madras. Aunque su familia era brahmín, la más alta de las castas hindúes, ellos fueron destituidos y vivían de los escasos recursos del trabajo del padre de Ramanujan como empleado en una oficina de un comerciante de tejidos. A la edad de diez años, estaba claro que Ramanujan no era como los demás niños. Como Riemann antes que él, se hizo bien conocido en su pueblo por sus sorprendentes poderes de cálculo. Cuando era niño, ya había rederivado la identidad de Euler entre funciones trigonométricas y exponenciales. En la vida de cada científico joven existe un punto de retorno, un suceso singular que ayuda a cambiar el curso de su vida. Para Einstein, fue la fascinación de observar la aguja de una brújula. Para Riemann, fue la lectura del libro de Legendre sobre teoría de números. Para Ramanujan, fue cuando se sumergió en un oscuro y olvidado libro de matemáticas escrito por George Carr. Este libro ha quedado inmortalizado desde entonces por el hecho de que señaló la única exposición conocida de Ramanujan a las modernas matemáticas occidentales. Según su hermana: «Fue este libro el que despertó su genio. Él se propuso establecer por sí mismo las fórmulas dadas allí. Como no tenía la ayuda de otros libros, cada solución era un trabajo de investigación por lo que a él concernía … Ramanujan solía decir que las diosas de Namakkal le inspiraron las fórmulas en sueños».[89] Debido a su brillantez, fue capaz de ganar una beca para la escuela superior. Pero puesto que le aburría el tedio de las aulas y estaba intensamente preocupado con las ecuaciones que constantemente estaban danzando en su cabeza, fracasó en su ingreso en el nivel superior, y su beca fue cancelada. Frustrado, se escapó de casa. Finalmente volvió, pero sólo para caer enfermo y suspender su examen de nuevo. Con la ayuda de amigos, Ramanujan se las arregló para convertirse en un empleado de bajo nivel en el puerto franco de Madras. Era un trabajo servil, con una mísera paga de veinte libras al año, pero dio libertad a Ramanujan, como a Einstein antes de él en la oficina de patentes suiza, para seguir sus sueños en su tiempo libre. Ramanujan envió entonces algunos de los resultados de sus «sueños» a tres matemáticos británicos bien conocidos, buscando un contacto con otros cerebros matemáticos. Dos de los matemáticos, al recibir esta carta escrita por un desconocido empleado indio sin instrucción formal, la tiraron al momento. El tercero era el brillante matemático de Cambridge Godfrey H. Hardy. Debido a su categoría en Inglaterra, Hardy estaba acostumbrado a recibir correo de chiflados y apenas prestó atención a la carta. Entre los densos garabatos advirtió muchos teoremas matemáticos que ya eran bien conocidos. Pensando que era la obra obvia de un plagiario, él también la desechó. Pero había algo que no encajaba. Algo inquietaba a Hardy; no podía dejar de preguntarse sobre esta extraña carta. Durante la cena de esa noche, el 16 de enero de 1913, Hardy y su colega John Littlewood discutieron esta carta singular y decidieron echar una segunda ojeada a su contenido. Empezaba de forma bastante inocente, con «Me permito presentarme a usted como un empleado en el departamento de contabilidad de la oficina del puerto franco de Madras con un salario de sólo veinte libras al año». [90] Pero la carta del pobre empleado de Madras contenía teoremas que eran totalmente desconocidos para los matemáticos occidentales. En total, contenía 120 teoremas. Hardy estaba atónito. Recordaba que demostrar alguno de estos teoremas «Me derrotó por completo». Recordaba: «Nunca había visto nada antes que se le pareciera en lo más mínimo. Una simple ojeada a ellos es suficiente para mostrar que sólo podían estar elaborados por un matemático de la más alta categoría».[91]

Littlewood y Hardy alcanzaron la idéntica y sorprendente conclusión: esto era obviamente el trabajo de un genio empeñado en derivar de nuevo cien años de matemáticas europeas. «Él había estado llevando a cabo una carrera imposible, un pobre y solitario hindú enfrentando su cerebro contra la sabiduría acumulada de Europa», recordaba Hardy.[92] Hardy escribió a Ramanujan y, tras muchas dificultades, arregló su estancia en Cambridge en 1914. Por primera vez, Ramanujan podía comunicarse regularmente con sus iguales, la comunidad de los matemáticos europeos. Entonces comenzó un estallido de actividad: tres cortos e intensos años de colaboración con Hardy en el Trinity College en Cambridge. Hardy trató más tarde de estimar la capacidad matemática que poseía Ramanujan. Concedió a David Hilbert, universalmente reconocido como uno de los mayores matemáticos occidentales del siglo XIX, una puntuación de 80. A Ramanujan le asignó una puntuación de 100. (Hardy se concedió a sí mismo un 25.) Por desgracia, ni Hardy ni Ramanujan parecían interesados en la psicología o los procesos de pensamiento mediante los cuales Ramanujan descubría estos increíbles teoremas, especialmente cuando este diluvio de material brotaba de sus sueños con semejante frecuencia. Hardy señaló: «Parecía ridículo importunarle sobre cómo había descubierto este o ese teorema conocido, cuando él me estaba mostrando media docena de nuevos teoremas cada día».[93] Hardy recordaba vivamente: Recuerdo una vez que fui a visitarle cuando estaba enfermo en Putney. Yo había tomado un taxi n.° 1729, y comenté que el número me parecía bastante feo, y que esperaba que no fuese un mal presagio. «No —replicó él—, es un número muy interesante; es el número más pequeño expresable como una suma de dos cubos en dos formas diferentes».[94]

(Es la suma de 1 x 1 x 1 y 12 x 12 x 12, y también la suma de 9 x 9 x 9 y 10 x 10 x 10.) Era capaz de recitar en el acto teoremas complejos de aritmética cuya demostración requeriría un ordenador moderno. Siempre con pobre salud, la austeridad de la economía británica desgarrada por la guerra impidió a Ramanujan mantener su estricta dieta vegetariana, y constantemente estaba entrando y saliendo de hospitales. Después de colaborar con Hardy durante tres años, Ramanujan cayó enfermo y nunca se recuperó. La primera guerra mundial interrumpió los viajes entre Inglaterra y la India, y en 1919 consiguió finalmente volver a casa, donde murió un año más tarde. Funciones modulares El legado de Ramanujan es su obra, que consta de 4.000 fórmulas en cuatrocientas páginas que llenan tres volúmenes de notas, todas densamente llenas de teoremas de increíble fuerza pero sin ningún comentario o, lo que es más frustrante, sin ninguna demostración. En 1976, sin embargo, se hizo un nuevo descubrimiento. Ciento treinta páginas de borradores, que contenían los resultados del último año de su vida, fueron descubiertas por casualidad en una caja en el Trinity College. Esto se conoce ahora como el «Cuaderno Perdido» de Ramanujan. Comentando este Cuaderno Perdido, el matemático Richard Askey dice: «El trabajo de ese año, mientras se estaba muriendo, era el equivalente a una vida entera de trabajo de un matemático muy grande. Lo que él consiguió era increíble. Si fuera una novela, nadie lo creería». Para poner de manifiesto la dificultad de su ardua

tarea de descifrar los «cuadernos», los matemáticos Jonathan Borwein y Peter Borwein han comentado: «Que nosotros sepamos, nunca se ha intentado una redacción matemática de este alcance o dificultad».[95] Examinar la progresión de las ecuaciones de Ramanujan es como haber sido educado durante años para oír la música occidental de Beethoven y ser luego expuesto repentinamente a otro tipo de música, una misteriosa y bella música oriental que contiene armonías y ritmos nunca oídos antes en la música occidental. Jonathan Borwein dice: «Parece haber trabajado de una forma diferente a cualquier otro que nosotros conozcamos. Tenía tal intuición de las cosas que éstas simplemente fluían de su cerebro. Quizá no las veía de ninguna forma que sea traducible. Es como observar a alguien en una fiesta a la que tú no has sido invitado». Como saben los físicos, los «accidentes» no aparecen sin una razón. Cuando están realizando un cálculo largo y difícil, y entonces resulta de repente que miles de términos indeseados suman milagrosamente cero, los físicos saben que esto no sucede sin una razón más profunda subyacente. Hoy, los físicos saben que estos «accidentes» son una indicación de que hay una simetría en juego. Para las cuerdas, la simetría se denomina simetría conforme, la simetría de estirar y deformar la hoja del universo de la cuerda. Aquí es precisamente donde entra el trabajo de Ramanujan. Para proteger la simetría conforme original contra su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto número de identidades matemáticas. Estas identidades son precisamente las identidades de la función modular de Ramanujan. En resumen, hemos dicho que nuestra premisa fundamental es que las leyes de la naturaleza se simplifican cuando se expresan en dimensiones más altas. Sin embargo, a la luz de la teoría cuántica, debemos corregir algo este tema básico. El enunciado correcto se leería ahora: las leyes de la naturaleza se simplifican cuando se expresan coherentemente en dimensiones más altas. El añadido de la palabra coherentemente es crucial. Esta ligadura nos obliga a utilizar las funciones modulares de Ramanujan, que fijan en diez la dimensión del espacio-tiempo. Esto, a su vez, puede darnos la clave decisiva para explicar el origen del universo. Einstein se preguntaba a menudo si Dios tuvo alguna elección al crear el universo. Según los teóricos de supercuerdas, una vez que exigimos una unificación de la teoría cuántica y de la relatividad general, Dios no tenía elección. La autoconsistencia por sí sola, afirman ellos, debe haber obligado a Dios a crear el universo como lo hizo. Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan como su punto más débil. Cualquier teoría, afirman, debe ser verificable. Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de electronvoltios es verificable, ¡la teoría de supercuerdas no es realmente una teoría en absoluto! El principal problema, como hemos señalado, es teórico más que experimental. Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría. Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría. Para verificar la teoría, debemos esperar señales de la décima dimensión.

8 SEÑALES DE LA DÉCIMA DIMENSIÓN

¡Qué extraño sería que la teoría final se descubriera durante nuestra vida! El descubrimiento de las leyes finales de la naturaleza marcará una discontinuidad en la historia del intelecto humano, la más abrupta que haya ocurrido desde el comienzo de la ciencia moderna en el siglo XVII. ¿Podemos imaginar ahora cómo sería? STEVEN WEINBERG ¿Es la belleza un principio físico? Aunque la teoría de supercuerdas nos da una formulación convincente de la teoría del universo, el problema fundamental es que un test experimental de la teoría parece más allá de nuestra tecnología actual. De hecho, la teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, o 1016 miles de millones de electronvoltios, que es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores. El físico David Gross, al comentar el coste de generar esta fantástica energía, dice: «No hay suficiente dinero en las tesorerías de todos los países del mundo juntos. Es verdaderamente astronómica».[96] Esto es decepcionante, porque significa que la verificación experimental, el motor que hace progresar la física, ya no es posible con nuestra generación actual de máquinas o con cualquier generación de máquinas en un futuro previsible. Esto, a su vez, significa que la teoría decadimensional no es una teoría en el sentido usual, porque es inverificable dado el actual estado tecnológico de nuestro planeta. Nos quedamos entonces con la pregunta: ¿Es la belleza, por sí misma, un principio físico que pueda sustituir a la falta de verificación experimental? Para algunos, la respuesta es un rotundo no. Ellos califican irónicamente a estas teorías como «física teatral» o «matemáticas recreativas». El más cáustico de los críticos es el ganador del premio Nobel Sheldon Glashow, de la Universidad de Harvard. Él ha asumido el papel de tábano en este debate, dirigiendo la carga contra las afirmaciones de otros físicos de que pueden existir dimensiones más altas. Glashow se lanza contra estos físicos, comparando la epidemia actual con el virus del SIDA; es decir, es incurable. Compara también el actual efecto locomotora con el anterior programa de la guerra de las galaxias del presidente Reagan: He aquí un acertijo: nombre dos grandes proyectos que sean increíblemente complejos, requieran décadas de investigación para su desarrollo, y quizá nunca funcionen en el mundo real. Solución: la guerra de las galaxias y la teoría de cuerdas … Ninguna de estas ambiciones puede satisfacerse con la tecnología existente, y ninguna puede alcanzar sus objetivos propuestos. Ambas aventuras son costosas en términos de recursos humanos escasos. Y, en ambos casos, los

rusos están tratando desesperadamente de alcanzarnos.[97]

Para agitar aún más la controversia, Glashow escribió incluso un poema, que termina así: La Teoría de Todo, si uno no se arredra, podría ser algo más que un calidoscopio de cuerdas. Aunque algunas cabezas se hayan vuelto viejas y escleróticas, no hay que confiar sólo en las cosas heteróticas, seguid nuestro consejo y no cedáis la partida: el Libro no está acabado, la última palabra no es conocida.[98]

Glashow ha jurado (sin éxito) mantener estas teorías fuera de Harvard, donde él enseña. Pero admite que a menudo se siente superado en esta cuestión. Se lamenta: «Me siento un dinosaurio en un mundo de mamíferos advenedizos».[99] (Los puntos de vista de Glashow no son ciertamente compartidos por otros premios Nobel, como Murray Gell-Mann y Steven Weinberg. El físico Weinberg, de hecho, dice: «La teoría de cuerdas proporciona nuestra única fuente actual de candidatos para una teoría final, así que ¿cómo podríamos esperar que muchos de los más brillantes teóricos jóvenes no trabajasen en ella?».[100] Para comprender las implicaciones de este debate respecto a la unificación de todas las fuerzas, y también los problemas de su verificación experimental, es instructivo considerar la siguiente analogía, la «parábola de la piedra preciosa». En el principio, pongamos por caso, había una piedra preciosa de gran belleza, que era perfectamente simétrica en tres dimensiones. Sin embargo, esta gema era inestable. Un día estalló y lanzó fragmentos en todas direcciones; éstos fueron a caer en el mundo bidimensional de Planilandia. Curiosos, los habitantes de Planilandia iniciaron una búsqueda para reunir los fragmentos. Ellos llamaron big bang a la explosión original, pero no comprendían por qué estos fragmentos estaban dispersos por todo su mundo. Con el tiempo, se identificaron dos tipos de fragmentos. Algunos de ellos estaban pulidos y suaves por un lado, y los planilandeses los compararon al «mármol». Otros fragmentos eran completamente rugosos y feos, sin ninguna regularidad, y los planilandeses compararon estas piezas a la «madera». Pasados los años, los planilandeses se dividieron en dos bandos. El primero de ellos empezó a juntar los fragmentos pulidos. Lentamente, algunas de las piezas pulidas empezaron a encajar. Maravillados de cómo se estaban juntando los fragmentos pulidos, estos planilandeses estaban convencidos de que de alguna forma una poderosa geometría nueva debía estar en acción. Estos planilandeses llamaron a su pieza parcialmente reunida «relatividad». El segundo bando dedicó sus esfuerzos a reunir los fragmentos rugosos e irregulares. También tuvieron un éxito parcial al encontrar pautas entre estos fragmentos. Sin embargo, las piezas rugosas sólo producían un montón mayor pero incluso más irregular, que ellos llamaron Modelo Estándar. Nadie se sentía inspirado por esta fea masa llamada Modelo Estándar. Tras años de laborioso trabajo tratando de ajustar estas diversas piezas parecía, no obstante, que no hubiera forma de juntar las piezas pulidas con las piezas rugosas. Entonces, un ingenioso planilandés dio un día con una idea maravillosa. Declaró que los dos conjuntos de piezas podían ser reunidos en una pieza si se movían hacia «arriba», es decir, en algo que él llamó la tercera dimensión. La mayoría de los planilandeses quedaron aturdidos por este

nuevo enfoque, porque nadie podía entender lo que significaba «arriba». Sin embargo, él fue capaz de demostrar mediante un ordenador que los fragmentos de «mármol» podían ser considerados como fragmentos externos de algún objeto, y por lo tanto estaban pulidos, mientras que los fragmentos de «madera» eran los fragmentos internos. Cuando se reunieron ambos conjuntos de fragmentos en la tercera dimensión, los planilandeses se quedaron sin aliento al ver lo que se manifestaba en el ordenador: una gema extraordinaria con una perfecta simetría tridimensional. De golpe, la distinción artificial entre los dos conjuntos de fragmentos quedaba resuelta por la pura geometría. Esta solución, sin embargo, dejaba varias cuestiones sin resolver. Algunos planilandeses esperaban aún una demostración experimental, no sólo cálculos teóricos, de que las piezas podían realmente reunirse en esta gema. Esta teoría daba un número concreto para la energía que sería necesaria para construir máquinas potentes que pudieran sacar estos fragmentos «arriba» de Planilandia y unir las piezas en el espacio tridimensional. Pero la energía requerida estaba mil billones de veces por encima de la mayor fuente de energía disponible para los planilandeses. Para algunos, el cálculo teórico era suficiente. Incluso careciendo de verificación experimental, ellos sentían que la «belleza» era más que suficiente para establecer la cuestión de la unificación. Apuntaban que la historia siempre había demostrado que las soluciones a los problemas más difíciles en la naturaleza habían sido las más bellas. También señalaban correctamente que la teoría tridimensional no tenía rival. Otros planilandeses, sin embargo, pusieron el grito en el cielo. Una teoría que no puede ser verificada no es una teoría, se quejaban. Decían que comprobar esta teoría se llevaría las mejores mentes y supondría malgastar valiosos recursos en una caza del pato salvaje. El debate en Planilandia, tanto como en el mundo real, persistirá durante algún tiempo, lo que es bueno. Como dijo el filósofo del siglo xviii Joseph Joubert, «Es mejor debatir una cuestión sin zanjarla que zanjar una cuestión sin debatirla». El supercolisionador superconductor: una ventana a la Creación El filósofo inglés del siglo xviii David Hume, famoso por proponer la tesis de que toda teoría debía asentarse sobre la base del experimento, estaba perdido para explicar cómo se puede verificar experimentalmente una teoría de la Creación. La esencia del experimento, afirmaba, es la reproducibilidad. A menos que un experimento pueda repetirse una y otra vez, en diferentes lugares y en diferentes momentos con los mismos resultados, la teoría no es fiable. Pero ¿cómo puede uno realizar un experimento con la propia Creación? Puesto que la Creación, por definición, no es un suceso reproducible, Hume tuvo que concluir que es imposible verificar cualquier teoría de la Creación. La ciencia, afirmaba, puede responder a casi todas las cuestiones relativas al universo excepto una, la Creación, el único experimento que no puede ser reproducido. En cierto sentido, nos estamos enfrentando a una versión moderna del problema identificado por Hume en el siglo XVIII. El problema sigue siendo el mismo: la energía necesaria para recrear la Creación supera cualquier cosa disponible en el planeta Tierra. Sin embargo, aunque no es posible la verificación experimental directa de la teoría decadimensional en nuestros laboratorios, existen varias maneras de enfocar esta cuestión indirectamente. El enfoque más lógico era confiar en que el

supercolisionador superconductor (SSC) encontrara partículas subatómicas que mostraran una firma característica de la supercuerda, tal como la supersimetría. Aunque el SSC no hubiera podido sondear la energía de Planck, sí podría habernos dado una fuerte evidencia indirecta de la corrección de la teoría de supercuerdas. El SSC (eliminado por una formidable oposición política) hubiera sido una máquina verdaderamente monstruosa, la última de su género. Cuando se hubiese completado en las afueras de Dallas, Texas, alrededor del año 2000, hubiera constado de un tubo gigantesco de 85 kilómetros de circunferencia rodeado de enormes bobinas magnéticas. (Si estuviera centrado en Manhattan, llegaría perfectamente hasta el interior de Connecticut y New Jersey.) Más de tres mil científicos a tiempo completo, visitantes y personal técnico, habrían realizado experimentos y analizado los datos procedentes de la máquina. El objetivo del SSC era lanzar dos haces de protones en el interior de este tubo hasta que alcanzasen una velocidad muy próxima a la de la luz. Puesto que estos haces viajarían tanto en el sentido de las agujas del reloj como en sentido contrario, habría sido una cuestión sencilla hacerlos colisionar dentro del tubo cuando alcanzasen su máxima energía. Los protones se habrían aplastado unos contra otros a una energía de 40 billones de electronvoltios (TeV), generando así una intensa ráfaga de residuos subatómicos analizados por detectores. Colisiones de este tipo no se han producido desde el tiempo del propio big bang (de ahí el apelativo para el SSC: «ventana a la Creación»), Entre los restos, los físicos esperaban encontrar partículas subatómicas exóticas que hubieran arrojado luz sobre la forma esencial de la materia. No es sorprendente que el SSC fuera un extraordinario proyecto de ingeniería y de física, que ampliaba los límites de la tecnología conocida. Puesto que los campos magnéticos necesarios para guiar los protones y los antiprotones dentro del tubo son tan excepcionalmente grandes (del orden de 100.000 veces el campo magnético de la Tierra), hubieran sido necesarios procedimientos extraordinarios para generarlos y mantenerlos. Por ejemplo, para reducir el calentamiento y la resistencia eléctrica de los cables, las bobinas magnéticas deberían haber sido enfriadas hasta casi el cero absoluto. Asimismo, habrían sido reforzadas de forma especial porque los campos magnéticos son tan intensos que de lo contrario hubiesen retorcido el metal de la propia bobina. Proyectado con un coste de 11.000 millones de dólares, el SSC se convirtió en una fruta apetecida y en una cuestión de intenso juego político. En el pasado, los emplazamientos para aceleradores de partículas se decidían mediante una inacabable negociación política. Por ejemplo, el estado de Illinois pudo alojar el acelerador Fermilab en Batavia, en las afueras de Chicago, porque (según Physics Today) el presidente Lyndon Johnson necesitaba el voto crucial del senador de Illinois Everett Dirkson para la guerra de Vietnam. El SSC probablemente no era diferente. Aunque muchos estados compitieron vigorosamente por el proyecto, probablemente no fue una sorpresa que en 1988 el gran estado de Texas acogiese el SSC, especialmente cuando tanto el presidente electo de los Estados Unidos como el candidato demócrata para la vicepresidencia procedían de Texas. Aunque se han gastado miles de millones de dólares en el SSC, nunca se concluirá. Para horror de la comunidad física, la Cámara de Representantes votó en 1993 a favor de cancelar completamente el proyecto. Una intensa labor de lobby no tuvo éxito en recuperar fondos para el proyecto. Para el Congreso, un colisionador de átomos muy caro puede verse de dos formas. Puede ser una fruta

jugosa, que genere miles de puestos de trabajo y miles de millones de dólares en subvenciones federales para el estado que lo acoja. O puede ser visto como un regalo envenenado, un desperdicio de dinero que no genera beneficios directos al consumidor. En tiempos de crisis, argumentan, un juguete caro para físicos de altas energías es un lujo que el país no puede permitirse. (Para ser precisos, no obstante, los fondos para el proyecto SSC deben colocarse en su justa perspectiva. Los fondos para la guerra de las galaxias en un solo año ascienden a 4.000 millones de dólares. Cuesta alrededor de 1.000 millones de dólares restaurar un portaaviones. Una sola misión de la lanzadera espacial cuesta 1.000 millones de dólares. Y un solo bombardero B-2 cuesta casi 1.000 millones de dólares.) Aunque el SSC está muerto, ¿qué podríamos haber descubierto con él? Como mínimo, los científicos esperaban encontrar partículas exóticas, tales como la misteriosa partícula de Higgs predicha por el Modelo Estándar. Es la partícula de Higgs la que genera la ruptura de simetría y es por lo tanto el origen de la masa de los quarks. Por consiguiente, esperábamos que el SSC hubiera encontrado el «origen de la masa». Todos los objetos a nuestro alrededor que tienen peso deben su masa a la partícula de Higgs. Lo que los físicos apostaban, sin embargo, era que había una probabilidad singular de que el SSC encontrara partículas exóticas más allá del Modelo Estándar. (Las posibilidades incluían partículas en «Technicolor», que están apenas más allá del Modelo Estándar, o «axiones», que pueden ayudar a explicar el problema de la materia oscura.) Pero quizá la posibilidad más excitante eran las partículas, que son las compañeras supersimétricas de las partículas ordinarias. El gravitino, por ejemplo, es el compañero supersimétrico del gravitón. Los compañeros supersimétricos del quark y del leptón, respectivamente, son el squark y el sleptón. Si se llegan a descubrir las partículas supersimétricas, entonces hay una buena probabilidad de que estemos viendo los residuos de la propia supercuerda. (La supersimetría, como simetría de una teoría de campos, fue descubierta por primera vez en la teoría de supercuerdas en 1971, incluso antes del descubrimiento de la supergravedad. De hecho, la supercuerda es probablemente la única teoría en la que supersimetría y gravedad pueden combinarse de una forma completamente coherente.) E incluso aunque el descubrimiento potencial de spartículas no demostrara la corrección de la teoría de supercuerdas, ayudaría a calmar a los escépticos que han dicho que no existe ni una pizca de evidencia física para la teoría de supercuerdas. Señales del espacio exterior Puesto que el SSC no se construirá nunca, y por lo tanto nunca detectará partículas que sean resonancias de baja energía de la supercuerda, otra posibilidad consiste en medir la energía de rayos cósmicos, que son partículas subatómicas altamente energéticas cuyo origen es aún desconocido, pero que debe estar en las profundidades del espacio exterior más allá de nuestra galaxia. Por ejemplo, aunque nadie sabe de dónde vienen, los rayos cósmicos tienen energías mucho mayores que cualquier cosa encontrada en nuestros laboratorios. Los rayos cósmicos, a diferencia de los rayos controlados producidos en los colisionadores de átomos, tienen energías impredecibles y no pueden producir energías precisas por encargo. En cierto sentido, es como tratar de apagar un fuego usando o bien una manguera de agua o bien esperando

una tormenta. La manguera es mucho más conveniente: podemos enchufarla en cualquier momento que queramos, podemos regular la intensidad del agua a voluntad, y toda el agua viaja a la misma velocidad uniforme. El agua de un hidrante para incendios corresponde así a la producción de haces controlados en los colisionadores de átomos. Sin embargo, el agua de una tormenta puede ser mucho más intensa y efectiva que el agua de un hidrante para incendios. El problema, por supuesto, es que las tormentas, como los rayos cósmicos, son impredecibles. No se puede regular el agua de lluvia, ni se puede predecir su velocidad, que puede fluctuar violentamente. Los rayos cósmicos fueron descubiertos por primera vez hace ochenta años en experimentos realizados por el sacerdote jesuita Theodor Wulf en lo alto de la torre Eiffel en París. Desde principios de siglo hasta los años treinta, físicos valerosos se embarcaron en globos o escalaron montañas para obtener las mejores medidas de rayos cósmicos. Pero la investigación en rayos cósmicos empezó a declinar durante los años treinta, cuando Ernest Lawrence inventó el ciclotrón y produjo en el laboratorio haces controlados con más energía que la mayoría de los rayos cósmicos. Por ejemplo, rayos cósmicos que llegan a energías de cien millones de electronvoltios son tan comunes como las gotas de lluvia; inciden en la atmósfera de la Tierra a un ritmo de unos pocos por centímetro cuadrado y por segundo. Sin embargo, el invento de Lawrence proporcionaba máquinas gigantes que podían superar esa energía en un factor entre diez y cien. Afortunadamente, los experimentos con rayos cósmicos han cambiado espectacularmente desde que el padre Wulf colocó por primera vez jarras electrificadas en la torre Eiffel. Ahora podemos enviar contadores de radiación en cohetes e incluso en satélites a gran altura por encima de la superficie de la Tierra, de modo que los efectos atmosféricos se minimizan. Cuando un rayo cósmico altamente energético incide en la atmósfera, rompe los átomos que encuentra a su paso. Estos fragmentos, a su vez, crean un chaparrón de átomos rotos, o iones, que pueden entonces ser detectados en el suelo mediante una batería de detectores. Una colaboración entre la Universidad de Chicago y la Universidad de Michigan ha inaugurado el proyecto de rayos cósmicos más ambicioso hasta la fecha, una enorme red de 1.089 detectores dispersos sobre aproximadamente una milla cuadrada de desierto, esperando a ser activados por los chaparrones de rayos cósmicos. Estos detectores están localizados en un área aislada ideal: los Dugway Proving Grounds, a unos 140 kilómetros al suroeste de Salt Lake City, en Utah. El detector de Utah es suficientemente sensible para identificar el punto de origen de algunos de los rayos cósmicos más energéticos. Hasta el momento, Cygnus X-3 y Hércules X-l han sido identificados como poderosos emisores de rayos cósmicos. Probablemente son grandes estrellas de neutrones, o incluso agujeros negros, en rotación que están engullendo lentamente a una estrella compañera, creando un gran vórtice de energía y escupiendo cantidades gigantescas de radiación (por ejemplo, protones) al espacio exterior. Hasta la fecha, el rayo cósmico más energético detectado tenía una energía de 1020 electronvoltios. Esta cifra supone una increíble energía diez millones de veces mayor de la que se habría producido en el SSC. No esperamos generar energías que se aproximen a esta energía cósmica con nuestras máquinas dentro de este siglo. Aunque esta fantástica energía es todavía cien millones de veces menor que la energía necesaria para sondear la décima dimensión, esperamos que energías producidas en el interior profundo de los agujeros negros en nuestra galaxia se acercarán a

la energía de Planck. Con grandes naves espaciales en órbita, deberíamos ser capaces de sondear profundamente la estructura de estas fuentes de energía y detectar energías incluso mayores que ésta. Según una teoría favorita, la mayor fuente de energía dentro de nuestra Vía Láctea —mucho más allá de cualquier cosa producida por Cygnus X-3 o Hércules X-l— está en el centro, y puede constar de millones de agujeros negros. Así, puesto que el SSC fue cancelado por el Congreso, podemos encontrarnos con que la última sonda para explorar la décima dimensión puede estar en el espacio exterior. Comprobar lo incomprobable Históricamente hablando, ha habido muchas ocasiones en las que los físicos han declarado solemnemente que algunos fenómenos eran «inverificables» o «indemostrables». Pero los científicos pueden adoptar otra actitud respecto a la inaccesibilidad de la energía de Planck: que descubrimientos imprevisibles harán posible los experimentos indirectos próximos a la energía de Planck. En el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento. En 1825, el filósofo y crítico social francés Auguste Comte, al escribir el Curso de Filosofía, declaraba que nunca conoceríamos las estrellas de otra forma que como inalcanzables puntos de luz en el cielo debido a su enorme distancia de nosotros. Las máquinas del siglo XIX, o de cualquier siglo, argumentaba, no eran suficientemente potentes para escapar de la Tierra y alcanzar las estrellas. Aunque determinar de qué estaban hechas las estrellas parecía un asunto que iba más allá de las capacidades de cualquier ciencia, resulta irónico que, casi al mismo tiempo, el físico alemán Joseph von Fraunhofer estuviera haciendo precisamente eso. Utilizando un prisma y un espectroscopio, pudo descomponer la luz blanca emitida desde las estrellas lejanas y determinar la composición química de dichas estrellas. Puesto que cada elemento químico dentro de las estrellas emite una «huella dactilar» característica, o espectro de luz, fue fácil para Fraunhofer realizar lo «imposible» y determinar que el hidrógeno es el elemento más abundante en las estrellas. Esto, a su vez, inspiró al poeta Ian D. Bush para escribir: Centellea, centellea estrellita no me pregunto qué eres, pues, por conocimiento espectroscópico, sé que eres hidrógeno.[101]

Así pues, aunque la energía necesaria para llegar a las estrellas por medio de cohetes estaba mucho más allá de cualquier cosa disponible para Comte (o, para el caso, cualquier cosa disponible para la ciencia moderna), el paso crucial no implicaba energía. La observación clave era que las señales de las estrellas, más que la medida directa, eran suficientes para resolver el problema. Análogamente, cabe esperar que señales de la energía de Planck (quizá de rayos cósmicos o quizá una fuente todavía desconocida), más que una medida directa en un gran colisionador de átomos, pueden ser suficientes para sondear la décima dimensión. Otro ejemplo de una idea «inverificable» era la existencia de átomos. En el siglo XIX, la hipótesis atómica se reveló como el paso decisivo en la comprensión de las leyes de la química y la

termodinámica. Sin embargo, muchos físicos se negaban a creer que los átomos existieran realmente. Quizá sólo fueran un artificio matemático que, por accidente, daba la descripción correcta del mundo. Por ejemplo, el filósofo Ernst Mach no creía en la existencia de átomos de otro modo que no fuera como una herramienta de cálculo. (Incluso hoy, somos todavía incapaces de tomar imágenes directas del átomo debido al principio de incertidumbre de Heisenberg, aunque ahora existen métodos indirectos.) Sin embargo, en 1905 Einstein proporcionó la evidencia más convincente, aunque indirecta, de la existencia de átomos, cuando demostró que el movimiento browniano (es decir, el movimiento aleatorio de partículas de polvo suspendidas en un líquido) puede ser explicado como colisiones aleatorias entre las partículas y los átomos del líquido. Por analogía, podríamos esperar la confirmación experimental de la física de la décima dimensión utilizando métodos indirectos que todavía no han sido descubiertos. En lugar de fotografiar el objeto que deseamos, quizá nos contentaríamos con una fotografía de su «sombra». La aproximación indirecta consistiría en examinar cuidadosamente datos de baja energía de un colisionador de átomos, y tratar de ver si la física decadimensional afecta de alguna forma a estos datos. La tercera idea «inverificable» en física era la existencia del evasivo neutrino. En 1930, el físico Wolfgang Pauli propuso la hipótesis de una nueva e invisible partícula denominada neutrino para dar cuenta de la energía perdida en ciertos experimentos sobre radiactividad que parecían violar la conservación de la materia y la energía. Pauli comprendió, no obstante, que los neutrinos serían casi imposibles de observar experimentalmente, porque interaccionarían muy débilmente y, por consiguiente, muy raramente con la materia. Por ejemplo, si pudiésemos construir un bloque sólido de plomo con una extensión de varios años-luz desde nuestro sistema solar hasta Alpha Centauri y lo colocásemos en el camino de un haz de neutrinos, aún saldrían algunos por el extremo opuesto. Pueden atravesar la Tierra como si ni siquiera existiese y, de hecho, billones de neutrinos emitidos por el Sol están atravesando continuamente nuestro cuerpo, incluso por la noche. Pauli admitió: «He cometido el pecado más grave, he predicho la existencia de una partícula que nunca puede ser observada».[102] Tan evasivo e indetectable era el neutrino que incluso inspiró un poema de John Updike, llamado «Cosmic Gall»: Los neutrinos son muy pequeños. no tienen carga ni masa y no interaccionan con nada. Para ellos, la Tierra es sólo una ridícula bola que atraviesan sin dificultad, como las motas de polvo una sala abierta o los fotones un cristal. Desprecian al gas más exquisito, ignoran la pared más sustancial, tratan con desdén al acero y al sonoro latón, insultan en su establo al semental, y desdeñando las barreras de clase se infiltran en usted y en mí. Siegan nuestras cabezas en la hierba como altas e incruentas guillotinas. De noche, entran por Nepal

y atraviesan al amante y su chica. Desde debajo de la cama—Usted lo llama maravilloso; yo lo llamo estúpido.[103]

Aunque el neutrino, debido a que apenas interacciona con otros materiales, fue considerado en otro tiempo la última idea «inverificable», hoy producimos regularmente haces de neutrinos en colisionadores de átomos, realizamos experimentos con los neutrinos emitidos en un reactor nuclear, y detectamos su presencia en minas muy profundas bajo la superficie de la Tierra. (De hecho, cuando una espectacular supernova se iluminó en el cielo del hemisferio sur en 1987, los físicos registraron una ráfaga de neutrinos que atravesaron sus detectores situados en las profundidades de estas minas. Ésta fue la primera vez que se utilizaron detectores de neutrinos para hacer medidas astronómicas cruciales.) En sólo tres décadas, los neutrinos se han transformado de una idea «inverificable» en uno de los caballos de tiro de la física moderna. El problema es teórico, no experimental Echando una larga mirada a la historia de la ciencia, quizá hay algún motivo para el optimismo. Witten está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Dice: No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas … La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante veinticinco años.

En su opinión, «las buenas ideas siempre se verifican».[104] El astrónomo Arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado. Él escribió: «Un científico normalmente confiesa basar sus creencias en observaciones, no en teorías … Nunca he encontrado a nadie que lleve esta profesión a la práctica … La observación no es suficiente … la teoría tiene una cuota importante en determinar la creencia». [105] El premio Nobel Paul Dirac incluso llegó a decir de forma más categórica: «Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten con ellas».[106] O, en palabras del físico John Ellis del CERN: «como decía en una envoltura de caramelo que abrí hace algunos años: “Es sólo el optimista el que consigue algo en este mundo”». En cualquier caso, a pesar de los argumentos que mantienen un cierto grado de optimismo, la situación experimental parece poco propicia. Comparto, con los escépticos, la idea de que lo mejor que podemos esperar es comprobaciones indirectas de la teoría decadimensional en el siglo XXI. Esto se debe, en el análisis final, a que esta teoría es una teoría de la Creación y, por lo tanto, verificarla implica necesariamente recrear un fragmento del big bang en nuestros laboratorios. Personalmente, no creo que tengamos que esperar un siglo hasta que nuestros aceleradores, sondas espaciales y contadores de rayos cósmicos sean suficientemente poderosos para sondear indirectamente la décima dimensión. En un periodo de años, y ciertamente dentro de la vida de los físicos actuales, alguien será suficientemente perspicaz para verificar o refutar la teoría decadimensional resolviendo la teoría de campos de cuerdas o alguna otra formulación no perturbativa. El problema es por consiguiente teórico, no experimental.

Suponiendo que algún físico brillante resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, sigue existiendo el problema práctico de cuándo seríamos capaces de aprovechar el poder de la teoría del hiperespacio. Existen dos posibilidades: 1. Esperar a que nuestra civilización alcance la capacidad para dominar energías billones de veces mayores que cualquier cosa que podamos producir hoy. 2. Encontrar civilizaciones extraterrestres que hayan dominado el arte de manipular el hiperespacio. Recordemos que llevó aproximadamente setenta años, entre el trabajo de Faraday y Maxwell y el trabajo de Edison y sus colaboradores, explotar la fuerza electromagnética para fines prácticos. Pero la civilización moderna depende crucialmente del aprovechamiento de esta fuerza. La fuerza nuclear fue descubierta casi con el cambio de siglo, y ochenta años más tarde todavía no tenemos los medios de aprovecharla con éxito en los reactores de fusión. El próximo paso, el aprovechar la potencia de la teoría del campo unificado, requiere un salto mucho mayor en nuestra tecnología, aunque sea un salto que probablemente tendrá implicaciones muchísimo más importantes. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando su «ámbito natural» está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la Creación. En otras palabras, la teoría de supercuerdas es naturalmente una teoría de la Creación. Al igual que el leopardo enjaulado, estamos exigiendo que este soberbio animal baile y cante para nuestra diversión. El hogar real del leopardo está en las vastas llanuras de África. El «hogar» real de la teoría de supercuerdas está en el instante de la Creación. De todas formas, dada la precisión de nuestros satélites artificiales, existe quizá un último «laboratorio» en el que podamos sondear experimentalmente el ámbito natural de la teoría de supercuerdas, ¡y éste es el eco de la Creación!

9 ANTES DE LA CREACIÓN

En el principio, estaba el gran huevo cósmico. Dentro del huevo estaba el caos, y flotando en el caos estaba P’an Ku, el Embrión divino. Mito de P’an Ku (China, siglo III) Si Dios creó el mundo, ¿dónde estaba Él antes de la Creación? … Sabed que el mundo es increado, como lo es el propio tiempo, sin principio ni fin. Mahapurana (India, siglo IX) «¿Tenía Dios una madre?» Los niños, cuando se les dice que Dios creó los cielos y la Tierra, preguntan inocentemente si Dios tenía una madre. Esta pregunta engañosamente simple ha confundido a los padres de la Iglesia y ha desconcertado a los mejores teólogos, dando lugar a algunos de los debates teológicos más espinosos a lo largo de los siglos. Todas las grandes religiones han elaborado mitologías en torno al acto divino de la Creación, pero ninguna de ellas afronta adecuadamente las paradojas lógicas inherentes a las preguntas que plantean incluso los niños. Dios puede haber creado los cielos y la Tierra en siete días, pero ¿qué sucedía antes del primer día? Si uno concede que Dios tenía madre, entonces surge naturalmente la pregunta de si ella, también, tenía una madre, y así sucesivamente. Sin embargo, si Dios no tenía una madre, entonces esta respuesta plantea incluso más preguntas: ¿De dónde procedía Dios? ¿Existió siempre Dios desde toda la eternidad, o está Dios más allá del propio tiempo? A lo largo de los siglos, incluso grandes pintores que trabajaban para la Iglesia tuvieron que bregar con estos delicados debates teológicos en sus obras de arte: si usted tuviese que representar a Dios o a Adán y Eva, ¿les pondría ombligo? Dado que el ombligo marca el punto de unión del cordón umbilical, entonces ni Dios ni Adán y Eva podían ser pintados con ombligos. Por ejemplo, Miguel Ángel se enfrentó a este dilema en su famosa representación de la Creación y la expulsión de Adán y Eva del Jardín del Edén cuando pintó el techo de la Capilla Sixtina. La respuesta a esta cuestión teológica se encuentra colgada en cualquier museo importante: Dios y Adán y Eva simplemente no tienen ombligos, porque fueron los primeros. Pruebas de la existencia de Dios Molesto por las inconsistencias en la ideología de la Iglesia, santo Tomás de Aquino, que escribía en

el siglo XIII, decidió elevar el nivel del debate teológico desde la vaguedad de la mitología al rigor de la lógica. Propuso resolver estas antiguas cuestiones en sus famosas «pruebas de la existencia de Dios». Santo Tomás resumió sus pruebas en el siguiente poema: Las cosas están en movimiento, por consiguiente existe un primer motor Las cosas son causadas, por consiguiente existe una causa primera Las cosas existen, por consiguiente existe un creador La bondad perfecta existe, por consiguiente tiene una fuente Las cosas están diseñadas, por consiguiente sirven a un propósito.[107] (Las tres primeras líneas son variantes de lo que se denomina la prueba cosmológica; la cuarta argumenta sobre bases morales; y la quinta se denomina prueba teleológica. La prueba moral es con mucho la más débil, porque la moralidad puede ser considerada en términos de costumbres sociales que evolucionan.) Las pruebas «cosmológica» y «teleológica» de la existencia de Dios que dio santo Tomás han sido utilizadas por la Iglesia durante los últimos setecientos años para responder a esta peliaguda cuestión teológica. Aunque desde entonces se han puesto de manifiesto los fallos de estas pruebas a la luz de los descubrimientos científicos hechos a lo largo de los siete últimos siglos, eran bastante ingeniosas para su época y muestran la influencia de los griegos, quienes fueron los primeros en introducir el rigor en sus especulaciones sobre la naturaleza. Santo Tomás comenzaba la prueba cosmológica postulando que Dios era el Primer Motor y el Primer Hacedor. Ingeniosamente evitó la cuestión de «quién hizo a Dios» afirmando simplemente que la pregunta no tenía sentido. Dios no tuvo hacedor porque él fue el Primero. Punto. La prueba cosmológica establece que todo lo que se mueve debe haber tenido algo que lo impulse, que a su vez debe haber tenido algo que lo impulse, y así sucesivamente. ¿Pero qué inició el primer impulso? Imagínese, por un momento, sentado ociosamente en el parque y viendo un coche de juguete que pasa frente a usted. Obviamente, piensa usted, hay un niño empujando el coche. Usted espera un instante sólo para descubrir otro coche que empuja al primer coche. Sintiendo curiosidad, usted espera un poco más a que aparezca el niño, pero hay un tercer coche que empuja a los dos primeros coches. Conforme pasa el tiempo, usted va viendo cientos de coches, cada uno de ellos empujando a los otros sin que haya ningún niño a la vista. Intrigado, usted mira en la distancia y se sorprende al ver una secuencia infinita de coches que se extiende hasta el horizonte, cada uno empujando a los anteriores, pero sin rastro de ningún niño. Si se necesita un niño para empujar un coche, ¿puede una secuencia infinita de coches ser impulsada sin el Primer Impulsor? ¿Puede una secuencia infinita de coches impulsarse a sí misma? No. Por consiguiente, Dios debe existir. La prueba teleológica es aún más convincente. Afirma que tiene que haber un Primer Diseñador. Por ejemplo, imagínese paseando por las arenas de Marte, donde los vientos y las tormentas de polvo han borrado incluso las montañas y los cráteres gigantes. Durante decenas de millones de años, nada ha escapado al efecto corrosivo y triturador de las tormentas de arena. Entonces, para su sorpresa, usted encuentra una bella cámara fotográfica que yace en las dunas de arena. La lente está minuciosamente pulida y el mecanismo obturador delicadamente articulado. Seguramente, piensa

usted, las arenas de Marte no podrían haber creado una pieza de artesanía tan bella. Usted concluye que obviamente alguien inteligente hizo esta cámara. Luego, después de caminar un poco más por la superficie de Marte, usted encuentra un conejo. Obviamente, el ojo del conejo es infinitamente más complejo que el ojo de una cámara. Los músculos del ojo del conejo son infinitamente más elaborados que el obturador de la cámara. Por lo tanto, el hacedor de este conejo debe ser infinitamente más avanzado que el hacedor de la cámara. Este hacedor, por consiguiente, debe ser Dios. Imagine ahora las máquinas de la Tierra. No cabe duda de que estas máquinas fueron hechas por algo aún más grande, como los seres humanos. No cabe duda de que un ser humano es infinitamente más complejo que una máquina. Por consiguiente, la persona que nos creó debe ser infinitamente más compleja que nosotros. Por consiguiente, Dios debe existir. En 1078, san Anselmo, arzobispo de Canterbury, elaboró quizá la prueba más perfeccionada de la existencia de Dios, la prueba ontológica, que no depende en absoluto de Primeros Motores o Primeros Diseñadores. San Anselmo afirmaba que él podía probar la existencia de Dios a partir de la pura lógica. Definió a Dios como el ser más perfecto y más poderoso imaginable. Sin embargo, es posible concebir dos tipos de Dios. Supongamos que el primer Dios no existe, y supongamos que el segundo Dios existe realmente y puede realizar milagros, tales como dividir las aguas y resucitar a los muertos. Obviamente, el segundo Dios (que existe) es más poderoso y más perfecto que el primer Dios (que no existe). Sin embargo, nosotros definimos a Dios como el ser más perfecto y poderoso imaginable. Por la definición de Dios, el segundo Dios (que existe) es el más poderoso y más perfecto. Por consiguiente, el segundo Dios es el que encaja en la definición. El primer Dios (que no existe) es más débil y menos perfecto que el segundo, y por consiguiente no encaja en la definición de Dios. Así pues, Dios debe existir. En otras palabras, si definimos a Dios como «el ser del que nada mayor que él puede ser concebido», entonces Dios debe existir porque, si no lo hiciera, sería posible concebir un Dios mucho mayor que sí existe. Esta prueba bastante ingeniosa es, a diferencia de las de santo Tomás de Aquino, totalmente independiente del acto de la Creación y descansa únicamente en la definición del ser perfecto. Notablemente, estas «pruebas» de la existencia de Dios perduraron durante más de setecientos años, desafiando los repetidos retos de científicos y lógicos. La razón para esto es que no se conocía lo suficiente sobre las leyes fundamentales de la física y la biología. De hecho, sólo en el siglo pasado han sido descubiertas nuevas leyes de la naturaleza que pueden aislar los fallos potenciales de estas pruebas. El fallo en la prueba cosmológica, por ejemplo, es que la conservación de la masa y la energía es suficiente para explicar el movimiento sin apelar a un Primer Motor. Por ejemplo, las moléculas de gas pueden rebotar entre las paredes de un recipiente sin que se requiera nada o nadie que las mueva. En principio, estas moléculas pueden moverse para siempre, sin que se requiera comienzo o fin. Así pues, no hay necesidad de un Primer o un Último Motor mientras se conserven la masa y la energía. En cuanto a la prueba ideológica, la teoría de la evolución demuestra que es posible crear formas de vida superiores y más complejas a partir de otras más primitivas por medio del azar y la selección. En última instancia, podemos rastrear el origen de la propia vida hasta la formación

espontánea de moléculas de proteínas en los primitivos océanos de la Tierra sin apelar a una inteligencia superior. Estudios realizados por Stanley L. Miller en 1955 han demostrado que descargas eléctricas en un matraz que contenga metano, amoniaco y otros gases que se encontraban en la atmósfera primitiva de la Tierra, pueden crear espontáneamente moléculas complejas de hidrocarburos y eventualmente aminoácidos (precursores de moléculas de proteína) y otras moléculas orgánicas complejas. Así pues, no es necesario un Primer Diseñador para crear los elementos esenciales de la vida; éstos pueden emerger aparentemente de forma natural a partir de elementos químicos inorgánicos si se les da el tiempo suficiente. Y, finalmente, Immanuel Kant fue el primero en identificar el error en la prueba ontológica tras siglos de confusión. Kant señaló que afirmar que un objeto existe no lo hace más perfecto. Por ejemplo, esta prueba puede utilizarse para demostrar la existencia del unicornio. Si definimos el unicornio como el caballo más perfecto imaginable, y si los unicornios no existen, entonces es posible imaginar un unicornio que sí existe. Pero decir que existe no significa que sea más perfecto que un unicornio que no existe. Por consiguiente, los unicornios no tienen que existir necesariamente. Y lo mismo sucede con Dios. ¿Hemos hecho algún progreso desde la época de santo Tomás de Aquino y san Anselmo? Sí y no. Podemos decir que las teorías actuales de la Creación están construidas sobre dos pilares: la teoría cuántica y la teoría de la gravedad de Einstein. Podemos decir que, por primera vez en mil años, las «pruebas» religiosas de la existencia de Dios están siendo reemplazadas por nuestra comprensión de la termodinámica y la física de partículas. Sin embargo, al reemplazar el acto divino de la Creación por el big bang, hemos sustituido un problema por otro. Santo Tomás pensaba que él resolvía el problema de lo que había antes de Dios definiéndole como el Primer Motor. Aún hoy aún seguimos luchando con la cuestión de qué sucedió antes del big bang. Por desgracia, las ecuaciones de Einstein dejan de ser válidas a las distancias enormemente pequeñas y energías enormemente grandes que se encuentran en el origen del universo. A distancias del orden de 10-33 centímetros, los efectos cuánticos dominan sobre la teoría de Einstein. Así pues, para resolver las cuestiones filosóficas implicadas en el comienzo del tiempo, debemos invocar necesariamente la teoría decadimensional. A lo largo de este libro hemos resaltado el hecho de que las leyes de la física se unifican cuando añadimos dimensiones más altas. Al estudiar el big bang, vemos el reverso exacto de esta afirmación. El big bang, como veremos, quizá se originó en la ruptura del universo decadimensional original en un universo de cuatro y otro de seis dimensiones. Así pues, podemos ver la historia del big bang como la historia de la división del espacio decadimensional y, por lo tanto, la división de las simetrías que previamente estaban unificadas. Éste, a su vez, es el tema de este libro al revés. No sorprende, por consiguiente, que haya sido tan difícil juntar las piezas de la dinámica del big bang. En efecto, yendo hacia atrás en el tiempo, estamos reencajando las piezas del universo decadimensional. Evidencia experimental del big bang Cada año que pasa, encontramos más evidencia experimental de que el big bang ocurrió hace aproximadamente entre quince y veinte mil millones de años. Revisemos algunos de estos resultados

experimentales. En primer lugar, el hecho de que las estrellas se están alejando de nosotros a velocidades fantásticas ha sido verificado repetidamente midiendo la distorsión de su luz estelar (denominada desplazamiento hacia el rojo). (La luz estelar de una estrella que se aleja está desplazada hacia longitudes de onda más largas —es decir, hacia el extremo rojo del espectro— de la misma forma que el pitido de un tren en movimiento suena más agudo de lo normal cuando se acerca y más grave cuando se aleja. Esto se denomina efecto Doppler. Además, la ley de Hubble afirma que cuanto más lejana está la estrella o la galaxia, más rápidamente se aleja de nosotros. Este hecho, anunciado por primera vez por el astrónomo Edwin Hubble en 1929, ha sido verificado experimentalmente durante los últimos cincuenta años.) No vemos ningún desplazamiento hacia el azul de las galaxias distantes, lo que significaría un universo en contracción. En segundo lugar, sabemos que la distribución de los elementos químicos en nuestra galaxia está en un acuerdo casi exacto con la predicción de producción de elementos pesados en el big bang y en las estrellas. En el big bang primigenio, debido al enorme calor, los núcleos elementales de hidrógeno chocaron entre sí a velocidades suficientemente grandes para fusionarse, dando lugar a un nuevo elemento: el helio. La teoría del big bang predice que la proporción entre helio e hidrógeno en el universo debería ser aproximadamente de un 25 por 100 de helio frente al 75 por 100 de hidrógeno. Esto está de acuerdo con los resultados observacionales sobre la abundancia de helio en el universo. En tercer lugar, los objetos más antiguos del universo tienen una edad de entre 10.000 y 15.000 millones de años, de acuerdo con la cruda estimación del big bang. No vemos ninguna evidencia de objetos más viejos que el big bang. Puesto que los materiales radiactivos se desintegran (por ejemplo, vía las interacciones débiles) a un ritmo exactamente conocido, es posible decir la edad de un objeto calculando la abundancia relativa de ciertos materiales radiactivos. Por ejemplo, la mitad de una sustancia radiactiva llamada carbono-14 se desintegra cada 5.730 años, lo que nos permite determinar la edad de objetos arqueológicos que contienen carbono. Otros elementos radiactivos (como el uranio-238, con una vida media de más de 4.000 millones de años) nos permiten determinar la edad de las rocas lunares (traídas por la misión Apolo). Las rocas y meteoritos más viejos encontrados en la Tierra datan de entre 4.000 y 5.000 millones de años, que es la edad aproximada del sistema solar. Calculando la masa de ciertas estrellas cuya evolución es conocida, podemos demostrar que las estrellas más viejas de nuestra galaxia se remontan a alrededor de 10.000 millones de años. En cuarto lugar, y lo más importante, el big bang produjo un «eco» cósmico reverberando en el universo que debería ser medible por nuestros instrumentos. De hecho, Amo Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1978 por detectar este eco del big bang, una radiación de microondas que impregna todo el universo conocido. El que el eco del big bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralph Alpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la Creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante. Cualquier objeto, cuando se calienta, emite radiación de

forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando lo calentamos en un horno. Cuanto más caliente está el hierro, mayor es la frecuencia de la radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color, en este caso) con la temperatura.[108] (De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana, examinando su color.) Esta radiación se denomina radiación de cuerpo negro. Cuando el hierro se enfría, la frecuencia de la radiación emitida también decrece, hasta que el hierro ya no emite en el intervalo visible. El hierro vuelve a su color normal, pero continúa emitiendo radiación infrarroja invisible. Así es como los visores nocturnos del ejército operan en la oscuridad. De noche, los objetos relativamente calientes, tales como los soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojos. Ésta es también la razón de que nuestro automóvil cerrado se caliente durante el verano. La luz solar atraviesa los cristales del automóvil y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, la radiación infrarroja no atraviesa muy bien el vidrio, y por lo tanto queda atrapada dentro del automóvil, incrementando espectacularmente su temperatura. (Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión de combustible fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra y, de este modo, calentar gradualmente el planeta.) Gamow razonó que el big bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la Creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían suficientemente sensibles para detectar esta radiación «fósil». La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del big bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones pudieron empezar a rodear a los protones y formar átomos estables, que ya no serían destruidos por la intensa radiación que impregnaba el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por la radiación en cuanto se formaban. Esto significaba que el universo era opaco, como una niebla espesa absorbente e impenetrable. Sin embargo, al cabo de 300.000 años la radiación ya no era suficientemente fuerte para romper los átomos, y por lo tanto la luz podía atravesar grandes distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente al cabo de 300.000 años. (Estamos tan acostumbrados a oír hablar de la «oscuridad del espacio exterior» que olvidamos que el universo primitivo no era transparente en absoluto, sino que estaba lleno de radiación opaca y turbulenta.) Al cabo de 300.000 años, la radiación electromagnética ya no interaccionaba tan fuertemente con la materia, y así se convirtió en radiación de cuerpo negro. Poco a poco, a medida que el universo se enfriaba, la frecuencia de esta radiación decreció. Gamow y sus discípulos calcularon que la radiación estaría muy por debajo del dominio infrarrojo, en la región de las microondas. Gamow razonaba que explorando los cielos en busca de una fuente uniforme e isotrópica de radiación de

microondas, uno sería capaz de detectar dicha radiación y descubrir el eco del big bang. La predicción de Gamow quedó en el olvido durante muchas décadas, hasta que la radiación de fondo de microondas fue descubierta casi por casualidad en 1965. Penzias y Wilson encontraron una misteriosa radiación de fondo que impregnaba todo el espacio cuando conectaron su nueva antena reflectora en Holmdel, New Jersey. Al principio, pensaron que esta radiación indeseada se debía a ruido eléctrico causado por contaminantes, tales como excrementos de pájaros en su antena. Pero cuando desmontaron y limpiaron grandes porciones de la antena, descubrieron que el «ruido parásito» persistía. Simultáneamente, los físicos Robert Dicke y James Peebles de la Universidad de Princeton estaban reconsiderando el viejo cálculo de Gamow. Cuando Penzias y Wilson fueron informados finalmente del trabajo de los físicos de Princeton, quedó claro que había una relación directa entre sus resultados. Se dice que, cuando comprendieron que esta radiación de fondo podría ser el eco del big bang original, exclamaron: «¡O hemos visto un montón de m… de pájaro, o hemos visto la creación del universo!». Descubrieron que esta radiación de fondo uniforme era casi exactamente la misma que había sido predicha años antes por George Gamow y sus colaboradores si el big bang hubiese dejado un manto residual de radiación que se hubiera enfriado hasta 3 °K. COBE y el big bang Quizá la confirmación científica más espectacular de la teoría del big bang llegó en 1992 con los resultados del satélite COBE (Cosmic Background Explorer). El 23 de abril, los titulares de los periódicos de todo el país pregonaban los hallazgos de un equipo de científicos de la Universidad de California en Berkeley, dirigido por George Smoot, quien anunció la prueba más espectacular y convincente a favor de la teoría del big bang. De la noche a la mañana, periodistas y columnistas, sin ninguna formación en física o teología, se pusieron a hacer elocuentes disertaciones sobre el «rostro de Dios» en sus despachos de agencia. El satélite COBE fue capaz de mejorar el trabajo anterior de Penzias, Wilson, Peebles y Dicke en muchos órdenes de magnitud, suficiente para descartar cualquier duda de que la radiación fósil emitida por el big bang había sido definitivamente encontrada. El cosmólogo de Princeton Jeremiah P. Ostriker declaró: «Cuando se encontraron fósiles en las rocas, quedó absolutamente claro el origen de las especies. Bien, COBE encontró sus fósiles».[109] Lanzado a finales de 1989, el satélite COBE estaba diseñado específicamente para analizar los detalles microscópicos de la estructura de la radiación de fondo de microondas postulada por primera vez por George Gamow y sus colegas. La misión de COBE tenía también una nueva tarea: resolver un enigma anterior que surgía de la radiación de fondo. El trabajo original de Penzias y Wilson era algo impreciso; sólo podía demostrar que la radiación de fondo era uniforme dentro de un margen del 10 por 100. Cuando los científicos analizaron la radiación de fondo con más detalle, descubrieron que era excepcionalmente uniforme, sin aparentes rizos, arrugas o grumos. De hecho, era demasiado uniforme. La radiación de fondo era como una niebla invisible y uniforme que llenara el universo, tan uniforme que los científicos tenían dificultades en reconciliarla con los datos astronómicos conocidos. En los años setenta, los astrónomos orientaron sus grandes telescopios para observar sistemáticamente enormes colecciones de galaxias en grandes porciones del cielo. Para su sorpresa,

descubrieron que, mil millones de años después del big bang, el universo ya mostraba una pauta de condensación en galaxias e incluso grandes cúmulos de galaxias y enormes espacios vacíos. Los cúmulos eran enormes, conteniendo miles de millones de galaxias a la vez, y los vacíos se extendían a lo largo de millones de años-luz. Pero aquí hay un misterio cósmico: si el big bang era excepcionalmente suave y uniforme, entonces mil millones de años no era tiempo suficiente para desarrollar el agrupamiento que vemos en los cúmulos galácticos. El gran contraste entre la tersura original del big bang y el apelmazamiento del universo mil millones de años después era un problema persistente que roía a todo cosmólogo. La propia teoría del big bang nunca estuvo en duda; lo que estaba en dificultades era nuestra comprensión de la evolución post-big bang mil millones de años después de la Creación. Pero sin satélites sensibles que pudieran medir la radiación cósmica de fondo, el problema se enconó durante años. De hecho, en 1990, periodistas sin una rigurosa formación científica comenzaron a escribir artículos sensacionalistas diciendo erróneamente que los científicos habían descubierto un fallo fatal en la propia teoría del big bang. Muchos periodistas escribieron que la teoría del big bang estaba a punto de ser desechada. Empezaron a resurgir en la prensa alternativas a la teoría del big bang que habían quedado desacreditadas hacía mucho tiempo. Incluso el New York Times publicó un extenso artículo afirmando que la teoría del big bang estaba en serias dificultades (lo que era científicamente incorrecto). Esta pseudocontroversia en torno a la teoría del big bang hizo más interesante el anuncio de los datos de COBE. Con una exactitud sin precedentes, capaz de detectar variaciones tan pequeñas como una parte en 100.000, el satélite COBE pudo explorar los cielos y transmitir el mapa más exacto de la radiación cósmica de fondo nunca construido. Los resultados de COBE reconfirmaron la teoría del big bang, y más cosas. Sin embargo, los datos de COBE no eran fáciles de analizar. El equipo dirigido por Smoot tuvo que hacer frente a enormes problemas. Por ejemplo, tuvieron que sustraer cuidadosamente el efecto del movimiento de la Tierra en la radiación de fondo. El sistema solar se mueve a una velocidad de 370 kilómetros por segundo con respecto a la radiación de fondo. Existe también el movimiento relativo del sistema solar con respecto a la galaxia, y los movimientos complejos de la galaxia con respecto a los cúmulos galácticos. En cualquier caso, después de laboriosas ampliaciones por ordenador, varios resultados sorprendentes Fig ura 9.1. La línea continua representa la predicción de la teoría del big bang, que predice que la radiación cósmica de surgieron del análisis. Primero, el fondo de fondo debe parecerse a la radiación de cuerpo negro en la microondas coincidía con la antigua predicción de región de microondas. Las x representan los datos reales George Gamow (ajustada con números recogidos por el satélite COBE, dándonos una de las pruebas experimentales más exactos) dentro de un margen más convincentes de la teoría del big bang. del 0,1 por 100 (figura 9.1). La curva continua

representa la predicción; las x marcan los datos medidos por el satélite COBE, Cuando este gráfico fue presentado en pantalla por primera vez en una reunión de aproximadamente mil astrónomos, todos en la sala prorrumpieron en una atronadora ovación. Ésta era quizá la primera vez en la historia de la ciencia que un sencillo gráfico recibía tan estruendoso aplauso de tantos científicos distinguidos. En segundo lugar, el equipo de Smoot fue capaz de demostrar que grumos minúsculos, casi microscópicos, aparecían realmente en el fondo de microondas. Estos pequeños grumos eran precisamente lo que se necesitaba para explicar el agrupamiento y los vacíos que se encuentran mil millones de años después del big bang. (Si estos grumos no hubieran sido descubiertos por COBE, entonces sí hubiera tenido que llevarse a cabo una revisión importante en el análisis post-big bang.) En tercer lugar, los resultados eran consistentes, aunque no la demostraban, con la llamada teoría inflacionaria. (Esta teoría, propuesta por Alan Guth del MIT, afirma que en el instante inicial de la Creación existió una expansión mucho más explosiva del universo que la que afirma el escenario del big bang normal; sostiene que el universo visible que vemos con nuestros telescopios es sólo la parte más minúscula de un universo mucho mayor cuyos límites están más allá de nuestro horizonte visible.) Antes de la Creación: ¿calidoscopios?[110] Los resultados de COBE han dado confianza a los físicos en que comprendemos el origen del universo a partir de una fracción de segundo posterior al big bang. Sin embargo, aún nos quedan las cuestiones embarazosas sobre lo que precedió al big bang y por qué ocurrió. La relatividad general, llevada al límite, da en última instancia respuestas sin sentido. Einstein, al comprender que la relatividad general dejaba simplemente de ser válida a dichas distancias enormemente pequeñas, trató de ampliar la relatividad general a una teoría más global que pudiera explicar estos fenómenos. En el instante del big bang, esperamos que los efectos cuánticos sean la fuerza dominante que supere abrumadoramente a la gravedad. La clave del origen del big bang, por consiguiente, es una teoría cuántica de la gravedad. Hasta ahora, la única teoría que puede afirmar que resuelve el misterio de lo que sucedió antes del big bang es la teoría de supercuerdas decadimensional. Los científicos están conjeturando precisamente ahora cómo se desdobló el universo decadimensional en un universo de cuatro y otro de seis dimensiones. ¿Qué aspecto tiene nuestro universo gemelo? Un físico que está luchando con estas cuestiones cósmicas es Cumrum Vafa, un profesor de Harvard que ha dedicado varios años al estudio de cómo puede haberse desgarrado nuestro universo decadimensional en dos universos más pequeños. Irónicamente, él es también un físico desgarrado entre dos mundos. Aunque vive en Cambridge, Massachusetts, Vafa es natural de Irán, que durante la última década se ha visto atormentado por convulsiones políticas. Por una parte, él desea regresar eventualmente a su Irán natal, quizá cuando los tumultos sociales se hayan calmado. Por otra parte, su investigación le aleja de esta región del mundo en dificultades y le lleva hasta los confines del espacio hexadimensional, mucho antes de que el tumulto del universo primitivo hubiera tenido oportunidad de estabilizarse. «Imaginemos un videojuego sencillo», dice él. Una nave espacial puede viajar en la videopantalla, señala, hasta que llega al extremo de la derecha. Cualquier jugador de videojuegos sabe que la nave

espacial aparece entonces repentinamente en el lado izquierdo de la pantalla, exactamente a la misma altura. Análogamente, si la nave espacial desciende demasiado y desaparece por el fondo de la pantalla, se rematerializa en la parte superior. De este modo, explica Vafa, hay un universo enteramente autocontenido en la videopantalla. Nunca se puede salir del universo definido por esa pantalla. Aun así, la mayoría de los adolescentes nunca se han preguntado qué forma tiene realmente dicho universo. Vafa señala, de forma bastante sorprendente, que ¡la topología de la videopantalla es la de un tubo cerrado! Imaginemos la videopantalla como una hoja de papel. Puesto que los puntos de la parte superior de la pantalla son idénticos a los puntos de la parte inferior, podemos unir con pegamento los bordes superior e inferior. Haciendo esto hemos enrollado la hoja de papel para formar un tubo. Pero los puntos del extremo izquierdo del tubo son idénticos a los puntos de su extremo derecho. Una forma de empalmar estos dos extremos es curvar el tubo cuidadosamente para hacer un círculo, y unir los dos extremos abiertos con pegamento (figura 9.2). Lo que hemos hecho es convertir la hoja de papel en una rosquilla o toro. Un cohete espacial que se desplaza por la videopantalla puede describirse como si se estuviera moviendo en la superficie de un tubo cerrado. La desaparición de la nave en un extremo de la videopantalla y su reaparición en el otro lado equivale a la nave espacial atravesando la unión pegada del tubo cerrado. Fig ura 9.2. Si desaparece un cohete por el lado derecho de una Vafa conjetura que nuestro universo hermano pantalla de videojuegos, reemerge en el lado izquierdo. Si en la parte superior, reemerge en la parte inferior. tiene la forma de algún tipo de toro desaparece Doblemos ahora la pantalla de modo que empalmen los puntos hexadimensional retorcido. Vafa y sus colegas han idénticos. Primero empalmamos los puntos superiores y los propuesto la idea de que nuestro universo hermano inferiores curvando la pantalla. Luego empalmamos los puntos de la izquierda con los puntos de la derecha enrollando la puede describirse mediante lo que los matemáticos pantalla como un tubo. De este modo, podemos mostrar que una llaman un calidoscopio (orbifold). De hecho, su pantalla de videojuegos tiene la topología de un toro. propuesta de que nuestro universo hermano tiene la topología de un calidoscopio parece ajustarse bastante bien con los datos observados.[111] Para visualizar un calidoscopio, pensemos en lo que supone desplazarse 360 grados en un círculo. Todo el mundo sabe que regresamos al mismo punto. En otras palabras, si yo me muevo 360 grados alrededor del eje de un tiovivo, sé que volveré al mismo punto. En un calidoscopio, sin embargo, si nos movemos menos de 360 grados alrededor del eje, habremos vuelto al mismo punto. Aunque esto pueda sonar absurdo, es fácil construir calidoscopios. Pensemos en planilandeses que

viven en un cono. Si se mueven menos de 360 grados en torno al vértice del cono, llegan al mismo punto. Así pues, un calidoscopio es una generalización de un cono en dimensiones superiores (figura 9.3). Para hacernos una idea de los calidoscopios, imaginemos que algunos planilandeses viven en lo que se denomina un Z-calidoscopio, que es equivalente a la superficie de una bolsa cuadrada de pipas (como las que se encuentran en carnavales y verbenas). Al principio, nada parece diferente de vivir en la propia Planilandia. Sin embargo, cuando exploran la superficie empiezan a descubrir cosas extrañas. Por ejemplo, si un planilandés camina lo suficiente en cualquier dirección, regresa a su posición original como si hubiese recorrido un círculo. Sin embargo, los planilandeses notan también que hay algo extraño en ciertos puntos de su universo (los cuatro vértices de la bolsa). Cuando caminan 180 grados (no 360 grados) alrededor de cualquiera de estos cuatro puntos, vuelven al mismo lugar del que partieron. Fig ura 9.3. Si unimos los puntos A y B, formamos un cono, que Lo curioso de los calidoscopios de Vafa es que es el ejemplo más simple de calidoscopio. En teoría de cuerdas, nuestro universo tetradimensional puede tener un gemelo con sólo unas pocas hipótesis podemos derivar hexadimensional, que tiene la topología de un calidoscopio. Sin muchas de las características de los quarks y otras embargo, el universo hexadimensional es tan pequeño que es partículas subatómicas. (Esto se debe a que, como inobservable. vimos antes, la geometría del espacio en la teoría de Kaluza-Klein obliga a los quarks a asumir la simetría de dicho espacio.) Esto nos hace confiar en que estamos en el camino correcto. Si estos calidoscopios nos dieran resultados totalmente absurdos, entonces nuestra intuición nos diría que hay algo fundamentalmente incorrecto en esta construcción. Si ninguna de las soluciones de la teoría de cuerdas contiene al Modelo Estándar, entonces debemos descartar la teoría de cuerdas como otra teoría prometedora pero finalmente incorrecta. Sin embargo, los físicos están excitados por el hecho de que es posible obtener soluciones que están sorprendentemente próximas al Modelo Estándar. Los matemáticos han estado trabajando durante los últimos ochenta años en las propiedades de estas extrañas superficies en dimensiones superiores ya desde que el matemático francés Henri Poincaré sentó las bases de la topología a comienzos del siglo XX. De este modo, la teoría decadimensional es capaz de incorporar un gran cuerpo de matemáticas modernas que previamente parecían bastante inútiles. ¿Por qué hay tres generaciones?

En particular, el rico almacén de teoremas matemáticos reunidos por los matemáticos durante el siglo pasado está siendo utilizado ahora para explicar por qué hay tres familias de partículas. Como vimos antes, una característica desastrosa de las GUT es que existen tres familias idénticas de quarks y leptones. Sin embargo, los calidoscopios pueden explicar esta característica desconcertante de las GUT.[112] Vafa y sus colaboradores han descubierto muchas soluciones prometedoras a las ecuaciones de cuerdas que parecen asemejarse al mundo físico. En realidad, con un conjunto de hipótesis notablemente pequeño pueden rederivar el Modelo Estándar, lo que es un paso importante en la teoría. De hecho, ésta es la fuerza y también la debilidad de la teoría de supercuerdas. En cierto modo, Vafa y sus colaboradores han tenido demasiado éxito: han encontrado millones de otras soluciones posibles a las ecuaciones de cuerdas. El problema fundamental al que se enfrenta la teoría de supercuerdas es éste: de los millones de universos posibles que pueden ser generados matemáticamente por la teoría de supercuerdas, ¿cuál es el correcto? Como ha dicho David Gross: Existen millones y millones de soluciones con tres dimensiones espaciales. Existe una enorme abundancia de soluciones clásicas posibles … Esta abundancia de riqueza era originalmente muy satisfactoria porque proporcionaba evidencia de que una teoría como la de la cuerda heterótica podía tener un aspecto muy parecido al mundo real. Estas soluciones, además de tener cuatro dimensiones espacio-temporales, tenían muchas otras propiedades que se asemejaban a nuestro mundo: el tipo correcto de partículas tales como quarks y leptones, y el tipo correcto de interacciones … Esto constituyó una fuente de excitación hace dos años.[113]

Gross advierte que aunque algunas de estas soluciones están muy próximas al Modelo Estándar, otras dan lugar a propiedades físicas indeseables: «Es, no obstante, algo embarazoso que tengamos tantas soluciones pero ninguna buena forma de escoger entre ellas. Parece incluso más embarazoso que dichas soluciones tengan, además de muchas propiedades deseadas, algunas propiedades potencialmente desastrosas».[114] Un profano, al oír esto por primera vez, puede quedar intrigado y preguntar: ¿por qué no calcular simplemente qué solución prefiere la cuerda? Puesto que la teoría de cuerdas es una teoría bien definida, parece enigmático que los físicos no puedan calcular la respuesta. El problema es que la teoría de perturbaciones, una de las herramientas principales de la física, no sirve de mucho en este caso. La teoría de perturbaciones (que añade pequeñas correcciones cuánticas de forma sucesiva) fracasa en dividir la teoría decadimensional en cuatro y seis dimensiones. Por ello estamos obligados a utilizar métodos no perturbativos, que son notoriamente difíciles de utilizar. Ésta es la razón de que no podamos resolver la teoría de cuerdas. Como dijimos antes, la teoría de campos de cuerdas, desarrollada por Kikkawa y yo, y posteriormente mejorada por Witten, no puede por el momento ser resuelta de forma no perturbativa. Nadie es suficientemente inteligente. Una vez tuve un compañero de habitación que era licenciado en historia. Recuerdo que un día me advirtió sobre la revolución de los ordenadores, que con el tiempo podrían dejar sin empleo a los físicos. «Después de todo —decía—, los ordenadores pueden calcularlo todo, ¿o no?» Para él, sólo era cuestión de tiempo el que los matemáticos planteasen cualquier cuestión de física al ordenador y los físicos fuesen a la cola del paro. Quedé sorprendido por el comentario, porque para un físico un ordenador no es otra cosa que una máquina de sumar avanzada, un idiota impecable. Suple con velocidad lo que le falta en inteligencia. Uno tiene que introducir la teoría en el ordenador antes de que éste pueda hacer un

cálculo. El ordenador no puede generar nuevas teorías por sí solo. Además, incluso si se conoce una teoría, el ordenador puede tardar una cantidad infinita de tiempo en resolver el problema. De hecho, computar todas las cuestiones realmente interesantes en física necesitaría una cantidad infinita de tiempo de cálculo. Éste es el problema de la teoría de cuerdas. Aunque Vafa y sus colegas hayan producido millones de soluciones posibles, llevaría una cantidad infinita de tiempo decidir cuál de los millones de posibilidades era la correcta, o calcular soluciones a problemas cuánticos que implican el extraño proceso del efecto túnel, uno de los fenómenos cuánticos más difíciles de resolver. Efecto túnel a través del espacio y del tiempo En definitiva, estamos planteando la misma cuestión propuesta por Kaluza en 1919 —¿dónde está la quinta dimensión?—, pero ahora en un nivel mucho más alto. Como Klein señaló en 1926, la respuesta a esta cuestión tiene que ver con la teoría cuántica. Quizá el fenómeno más extraordinario (y complejo) de la teoría cuántica es el efecto túnel. Por ejemplo, yo estoy ahora sentado en una silla. La idea de que mi cuerpo atraviese repentinamente las moléculas de la pared cercana y se reúnan, sin ser invitadas, en la sala de estar de alguna otra persona no es una idea agradable. También es poco probable. Sin embargo, la mecánica cuántica postula que existe una probabilidad finita (aunque pequeña) de que incluso los sucesos más extraños y poco probables —tales como despertarnos una mañana y encontrar nuestra cama en mitad de la selva amazónica— sucedan realmente. Todos los sucesos, por muy extraños que sean, son reducidos a probabilidades por la teoría cuántica. Este efecto túnel suena más a ciencia ficción que a ciencia real. Sin embargo, el efecto túnel puede ser medido en el laboratorio y, de hecho, resuelve el enigma de la desintegración radiactiva. Normalmente, el núcleo de un átomo es estable. Los protones y neutrones en el interior del núcleo están ligados por la fuerza nuclear. Sin embargo, hay una pequeña probabilidad de que el núcleo se divida, de que los protones y neutrones puedan escapar por efecto túnel a través de la gran barrera de energía, la fuerza nuclear que mantiene el núcleo unido. Por consiguiente, podríamos decir que, en general, todos los núcleos deben ser estables. Pero es un hecho innegable que los núcleos de uranio realmente se desintegran cuando no deberían hacerlo; de hecho, la ley de conservación de la energía se viola brevemente cuando los neutrones de los núcleos abren su túnel a través de la barrera. La cuestión, no obstante, es que estas probabilidades tienden a cero para objetos grandes, tales como los seres humanos. La probabilidad de que pasemos por efecto túnel a través de una pared durante el tiempo de vida del universo conocido es infinitesimalmente pequeña. Por consiguiente, puedo suponer sin temor a equivocarme que yo no seré transportado involuntariamente a través de la pared, al menos dentro de mi tiempo de vida. Análogamente, nuestro universo, que originalmente podría haber empezado como un universo decadimensional, no era estable; explotó por efecto túnel en un universo de cuatro y otro de seis dimensiones. Para comprender esta forma de efecto túnel, pensemos en una película imaginaria de Charlie Chaplin en la que él mismo está tratando de estirar una sábana en una cama de gran tamaño. La sábana es de las que tienen bandas elásticas en las esquinas. Pero es demasiado pequeña, de modo que él tiene que tirar para colocar, de una en una, las bandas elásticas alrededor de cada esquina del colchón. Él

respira con satisfacción una vez que ha estirado uniformemente la sábana alrededor de las cuatro esquinas de la cama. Pero la tensión es demasiado grande; una banda elástica salta de una esquina, y la sábana se enrolla. Frustrado, tira de esta banda elástica para colocarla alrededor de la esquina, sólo para ver que otra banda salta en otra esquina. Cada vez que coloca una banda elástica alrededor de una esquina, otra banda salta en otra esquina. Este proceso se denomina ruptura de simetría. La sábana uniformemente estirada posee un alto grado de simetría. Usted puede girar la cama 180 grados alrededor de cualquier eje y la sábana permanece igual. Este estado altamente simétrico se denomina el falso vacío. Aunque el falso vacío aparece muy simétrico, no es estable. La sábana no quiere estar en esta condición estirada. Hay demasiada tensión. La energía es demasiado alta. Por ello, una banda elástica salta y la sábana se enrolla. La simetría se rompe, y la sábana pasa a un estado de energía más baja con menor simetría. Si rotamos la sábana enrollada 180 grados alrededor de un eje ya no volvemos a tener la misma sábana. Reemplacemos ahora la sábana por el espacio-tiempo decadimensional, el espacio-tiempo de simetría definitiva. En el comienzo del tiempo, el universo era perfectamente simétrico. Si alguien hubiera estado allí en ese instante, podría moverse libremente y sin problemas por cualquiera de las diez dimensiones. En esa época la gravedad y las fuerzas débil, fuerte y electromagnética estaban todas ellas unificadas por la supercuerda. Toda la materia y las fuerzas formaban parte del mismo multiplete de cuerda. Sin embargo, esta simetría no podía durar. El universo decadimensional, aunque perfectamente simétrico, era inestable, exactamente igual que la sábana, y estaba en un falso vacío. Por lo tanto, el paso por efecto túnel hacia un estado de menor energía era inevitable. Cuando finalmente ocurrió el efecto túnel, tuvo lugar una transición de fase y se perdió la simetría. Puesto que el universo empezó a dividirse en un universo de cuatro y otro de seis dimensiones, el universo ya no era simétrico. Seis dimensiones se habían enrollado, de la misma forma que la sábana se enrolla cuando una cinta elástica salta de una esquina del colchón. Pero nótese que la sábana puede enrollarse de cuatro maneras, dependiendo de qué esquina haya saltado. Para el universo decadimensional, sin embargo, existen aparentemente millones de modos de enrollarse. Para calcular qué estado prefiere el universo decadimensional, necesitamos resolver la teoría de campos de cuerdas utilizando la teoría de transiciones de fase, el problema más difícil en la teoría cuántica. Ruptura de simetría Las transiciones de fase no son nada nuevo. Pensemos en nuestras propias vidas. En su libro Pasajes, Gail Sheehy destaca que la vida no es un flujo continuo de experiencias, como parece a menudo, sino que realmente pasa por varios estadios, caracterizados por conflictos específicos que deben ser resueltos y por objetivos que deben ser cumplidos. El psicólogo Erik Erikson llegó a proponer una teoría de los estadios psicológicos del desarrollo. Un conflicto fundamental caracteriza cada fase. Cuando este conflicto se resuelve correctamente, pasamos a la siguiente fase. Si este conflicto no queda resuelto, puede enconarse e incluso provocar una regresión a un periodo anterior. Análogamente, el psicólogo Jean Piaget demostró que el desarrollo mental de la primera infancia tampoco es un proceso continuo de aprendizaje, sino que está realmente caracterizado por estadios discontinuos en la capacidad de

conceptualización de un niño. Un mes, un niño puede dejar de buscar una pelota una vez que ha rodado fuera de su campo de visión, sin comprender que un objeto sigue existiendo aunque ya no pueda verse. Al mes siguiente, esto resulta obvio para el niño. Ésta es la esencia de la dialéctica. Según esta filosofía, todos los objetos (personas, gases, el propio universo) pasan por una serie de estadios. Cada estadio está caracterizado por un conflicto entre dos fuerzas opuestas. La naturaleza de dicho conflicto determina, de hecho, la naturaleza del estadio. Cuando el conflicto se resuelve, el objeto pasa a un estadio superior, llamado síntesis, donde empieza una nueva contradicción, y el proceso pasa de nuevo a un nivel superior. Los filósofos llaman a esto transición de la «cantidad» a la «cualidad». Pequeños cambios cuantitativos se acumulan hasta que, eventualmente, se produce una ruptura cualitativa con el pasado. Esta teoría se aplica también a las sociedades. Las tensiones en una sociedad pueden crecer espectacularmente, como lo hicieron en Francia a finales del siglo XVIII. Los campesinos se enfrentaban al hambre, se produjeron motines espontáneos y la aristocracia se retiró a sus fortalezas. Cuando las tensiones alcanzaron el punto de ruptura, ocurrió una transición de fase de lo cuantitativo a lo cualitativo: los campesinos se alzaron en armas, tomaron París y asaltaron la Bastilla. Las transiciones de fase pueden ser también asuntos bastante explosivos. Por ejemplo, pensemos en un río que ha sido represado. Tras la presa se forma rápidamente un embalse con agua a enorme presión. Puesto que es inestable, el embalse está en el falso vacío. El agua preferiría estar en su verdadero vacío, significando esto que preferiría reventar la presa y correr aguas abajo, hacia un estado de menor energía. Así pues, una transición de fase implicaría un estallido de la presa, que tendría consecuencias desastrosas. Un ejemplo aún más explosivo es el de una bomba atómica. El falso vacío corresponde a núcleos estables de uranio. Aunque los núcleos de uranio parecen estables, existen enormes energías explosivas atrapadas dentro del núcleo de uranio que son un millón de veces más poderosas, para masas iguales, que un explosivo químico. De vez en cuando, el núcleo pasa por efecto túnel a un estado más bajo, lo que significa que el núcleo se rompe espontáneamente. Esto se denomina desintegración radiactiva. Sin embargo, disparando neutrones contra los núcleos de uranio, es posible liberar de golpe esta energía encerrada. Esto, por supuesto, es una explosión atómica. La nueva característica descubierta por los científicos en las transiciones de fase es que normalmente van acompañadas de una ruptura de simetría. Al premio Nobel Abdus Salam le gusta la siguiente ilustración: consideremos una mesa de banquete circular, donde todos los comensales están sentados con una copa de champán a cada lado. Aquí existe simetría. Mirando la mesa del banquete reflejada en un espejo, vemos lo mismo: cada comensal sentado en torno a la mesa, con copas de champán a cada lado. Asimismo, podemos girar la mesa de banquete circular y la disposición sigue siendo la misma. Rompamos ahora la simetría. Supongamos que el primer comensal toma la copa que hay a su derecha. Siguiendo la pauta, todos los demás comensales tomarán la copa de champán de su derecha. Nótese que la imagen de la mesa del banquete vista en el espejo produce la situación opuesta. Cada comensal ha tomado la copa de su izquierda. De este modo, la simetría izquierda-derecha se ha roto. Otro ejemplo de ruptura de simetría procede de un antiguo cuento de hadas. Esta fábula trata de una princesa que está atrapada en lo alto de una esfera de cristal pulido. Aunque no hay barrotes de

hierro que la confinen en la esfera, ella está prisionera porque si hace el menor movimiento se deslizará hacia abajo por la esfera y se matará. Numerosos príncipes han tratado de rescatar a la princesa, pero todos han fracasado al escalar la esfera porque es demasiado lisa y resbaladiza. Éste es un ejemplo de ruptura de simetría. Mientras la princesa permanece en lo alto de la esfera, está en un estado perfectamente simétrico. No existe dirección preferida. Podemos girar la esfera un ángulo cualquiera, y la situación sigue siendo la misma. Cualquier falso movimiento a partir del centro, sin embargo, causará la caída de la princesa, rompiendo de este modo la simetría. Si ella cae hacia el oeste, por ejemplo, la simetría de rotación se rompe. La dirección hacia el oeste está ahora discriminada. Así pues, el estado de máxima simetría es con frecuencia también un estado inestable, y por lo tanto corresponde a un falso vacío. El verdadero estado vacío corresponde a la princesa que cae de la esfera. Así, una transición de fase (caída de la esfera) corresponde a una ruptura de simetría (que selecciona la dirección hacia el oeste). Con respecto a la teoría de supercuerdas, los físicos suponen (pero todavía no pueden demostrar) que el universo decadimensional original era inestable y pasó por efecto túnel á un universo de cuatro y otro de seis dimensiones. Así pues, el universo original estaba en el estado del falso vacío, el estado de máxima simetría, mientras que hoy estamos en el estado roto del verdadero vacío. Esto plantea una cuestión perturbadora: ¿Qué sucedería si nuestro universo no estuviera realmente en el verdadero vacío? ¿Qué sucedería si la supercuerda sólo escogió temporalmente nuestro universo, pero el verdadero vacío está entre los millones de posibles calidoscopios? Esto tendría consecuencias desastrosas. En muchos otros calidoscopios descubrimos que no está presente el Modelo Estándar. Por consiguiente, si el verdadero vacío fuera realmente un estado donde el Modelo Estándar no está presente, entonces todas las leyes de la química y la física, tal como las conocemos, se vendrían abajo. Si esto ocurriese, una burbuja minúscula podría aparecer repentinamente en nuestro universo. Dentro de esta burbuja, el Modelo Estándar ya no es válido, de modo que habría que aplicar un conjunto diferente de leyes químicas y físicas. La materia en el interior de la burbuja se desintegraría y quizá se reconstruiría de formas diferentes. Esta burbuja se expandiría entonces a la velocidad de la luz, tragándose sistemas completos de estrellas, galaxias y cúmulos galácticos, hasta engullir el universo entero. Nosotros nunca veríamos su llegada. Al viajar a la velocidad de la luz, nunca podría ser observada por adelantado. Nunca sabríamos qué es lo que se nos viene encima. De los cubos de hielo a las supercuerdas Consideremos un cubo de hielo normal dentro de una olla a presión en nuestra cocina. Todos sabemos lo que sucede si enchufamos el hornillo. ¿Pero qué le sucede a un cubo de hielo si lo calentamos hasta billones y billones de grados? Si calentamos el cubo de hielo en el hornillo, primero se funde y se convierte en agua; es decir, sufre una transición de fase. Calentemos ahora el agua hasta que hierva. Entonces sufre otra transición de fase y se convierte en vapor. Continuamos ahora calentando el vapor a temperaturas enormes. Llega un momento en que las moléculas de agua se rompen. La energía de las moléculas supera a la energía de enlace de las moléculas, que se descomponen en hidrógeno y oxígeno gaseosos.

Ahora continuamos calentando por encima de 3.000 °K, hasta que se descomponen los átomos de hidrógeno y oxígeno. Los electrones se separan de los núcleos y tenemos ahora un plasma (un gas ionizado), a menudo llamado el cuarto estado de la materia (después de los gases, líquidos y sólidos). Aunque un plasma no forma parte de la experiencia común, podemos verlo cada vez que miramos al Sol. De hecho, el plasma es el estado más común de la materia en el universo. Sigamos ahora calentando el plasma en el hornillo hasta 1.000 millones de grados Kelvin, hasta que los núcleos de hidrógeno y oxígeno se descomponen, y tenemos un «gas» de neutrones y protones individuales, similar al interior de una estrella de neutrones. Si calentamos aún más el «gas» de nucleones hasta 10 billones de grados °K, estas partículas subatómicas se convertirán en quarks disociados. Ahora tendremos un gas de quarks y leptones (los electrones y neutrinos). Si calentamos este gas a 1.000 billones de grados Kelvin, la fuerza electromagnética y la fuerza débil se unen. La simetría SU(2) x U(l) emergerá a esta temperatura. A 1028 °K, las fuerzas electrodébil y fuerte se unifican, y aparecen las simetrías GUT [SU(5), O(10), o E(6)]. Finalmente, a la fabulosa temperatura de 1032 °K, la gravedad se unifica con la fuerza GUT, y aparecen todas las simetrías de la supercuerda decadimensional. Ahora tenemos un gas de supercuerdas. En este punto, se le ha dado tanta energía a la olla a presión que la geometría del espacio-tiempo puede muy bien empezar a distorsionarse, y la dimensionalidad del espacio-tiempo puede cambiar. El espacio que rodea a nuestra cocina puede muy bien hacerse inestable, puede formarse una arruga en el tejido del espacio, y puede aparecer un agujero de gusano en la cocina. En este punto, puede ser aconsejable abandonar la cocina. Enfriamiento del big bang De este modo, calentando un cubo de hielo normal a temperaturas fantásticas, podemos recuperar la supercuerda. La lección aquí es que la materia pasa por estadios definidos de desarrollo a medida que la calentamos. Cuando incrementamos la energía, se recuperan cada vez más simetrías. Invirtiendo este proceso, podemos apreciar cómo el big bang ocurrió en una secuencia de estadios diferentes. En lugar de calentar un cubo de hielo, ahora enfriamos la materia supercaliente del universo pasando por estadios diferentes. Empezando en el instante de la Creación, tenemos los siguientes estadios en la evolución de nuestro universo: 10-43 segundos El universo decadimensional se rompe en un universo de cuatro y otro de seis dimensiones. El universo hexadimensional colapsa hasta un tamaño de 10-32 centímetros. El universo tetradimensional se infla rápidamente. La temperatura es de 1032 °K. 10-35 segundos La fuerza GUT se rompe; la fuerza fuerte ya no está unida con las interacciones electrodébiles. SU(3) se separa de la simetría GUT. Una pequeña mota en el universo mayor se infla en un factor de 1050, llegando a ser con el tiempo nuestro universo visible. 10-9 segundos La temperatura es ahora de 1015 °K, y la simetría electrodébil se rompe en SU(2) y U(l). 10-3 segundos Los quarks empiezan a condensarse en neutrones y protones. La temperatura es aproximadamente de 1014 °K.

3 minutos Los protones y neutrones se condensan ahora en núcleos estables. La energía de las colisiones aleatorias ya no es suficientemente poderosa para romper el núcleo de los núcleos emergentes. El espacio es aún opaco a la luz porque los iones no transmiten bien la luz. 300.000 años Los electrones empiezan a condensarse alrededor de los núcleos. Los átomos empiezan a formarse. Puesto que la luz ya no es muy dispersada o absorbida, el universo se hace transparente a la luz. El espacio exterior se vuelve negro. 3.000 millones de años Aparecen los primeros cuásares. 5.000 millones de años Aparecen las primeras galaxias. 10 a 15.000 millones de años Nace el sistema solar. Algunos miles de millones de años después de esto, las primeras formas de vida aparecen sobre la Tierra. Parece casi incomprensible que nosotros, como monos inteligentes en el tercer planeta de una estrella menor en una galaxia menor, fuéramos capaces de reconstruir la historia de nuestro universo remontándonos casi al instante de su nacimiento, donde las temperaturas y presiones superaron cualquier cosa encontrada en nuestro sistema solar. Pero la teoría cuántica de las interacciones débil, electromagnética y fuerte nos revela esta imagen. Por extraordinaria que sea esta imagen de la Creación, quizá aún es más extraña la posibilidad de que agujeros de gusano puedan actuar como puertas a otro universo y quizá incluso como máquinas del tiempo hacia el pasado y el futuro. Armados con una teoría cuántica de la gravedad, los físicos quizá puedan responder a preguntas intrigantes: ¿Existen universos paralelos? ¿Puede cambiarse el pasado?

III AGUJEROS DE GUSANO: ¿PUERTAS A OTRO UNIVERSO?

10 AGUJEROS NEGROS Y UNIVERSOS PARALELOS

Escucha, hay un universo estupendo aquí al lado: ¡vamos! E. E. CUMMINGS Agujeros negros: túneles en el espacio y el tiempo Los agujeros negros han captado recientemente la imaginación del público. Se han dedicado libros y documentales a explorar esta extraña predicción de las ecuaciones de Einstein, la etapa final en la muerte de una estrella colapsada. Irónicamente, el público permanece fundamentalmente ajeno a la característica quizá más peculiar de los agujeros negros, la de que pueden ser puertas hacia un universo alternativo. Además, también se especula fuertemente en la comunidad científica sobre la posibilidad de que un agujero negro pueda abrir un túnel en el tiempo. Para comprender los agujeros negros y las dificultades de encontrarlos, debemos comprender primero qué es lo que hace que las estrellas brillen, cómo crecen y cómo eventualmente mueren. Una estrella nace cuando una nube masiva de gas hidrógeno de un tamaño muchas veces mayor que el de nuestro sistema solar es comprimida lentamente por la fuerza de la gravedad. La fuerza gravitatoria que comprime el gas lo calienta poco a poco, a medida que la energía gravitatoria es convertida en energía cinética de los átomos de hidrógeno. Normalmente, la carga repulsiva de los protones dentro del hidrógeno es suficiente para mantenerlos apartados. Pero en cierto punto, cuando la temperatura crece de diez a cien millones de grados Kelvin, la energía cinética de los protones (que son núcleos de hidrógeno) supera a su repulsión electrostática, y éstos chocan entre sí. Entonces, la fuerza nuclear domina sobre la fuerza electromagnética y los dos núcleos de hidrógeno se «fusionan» en helio, liberando enormes cantidades de energía. En otras palabras, una estrella es un horno nuclear, que quema hidrógeno como combustible y produce «cenizas» nucleares en forma de helio residual. Una estrella es también un delicado equilibrio entre la fuerza de gravedad, que tiende a aplastar la estrella en el olvido, y la fuerza nuclear, que tiende a hacer explotar la estrella con la fuerza de billones de bombas de hidrógeno. Luego, la estrella madura y envejece a medida que agota su combustible nuclear. Para ver cómo se extrae energía del proceso de fusión, y comprender las etapas en la vida de una estrella que conducen a un agujero negro, debemos analizar la figura 10.1, que muestra una de las curvas más importantes de la ciencia moderna, que suele llamarse curva de energía de enlace. En la escala horizontal se indica el peso atómico de los diversos elementos, desde el hidrógeno al uranio. En la escala vertical, hablando crudamente, figura el «peso» medio aproximado de cada protón en el núcleo. Nótese que el hidrógeno y el uranio tienen protones que pesan, en promedio, más que los protones de otros elementos situados en el centro

del diagrama. Nuestro Sol es una estrella amarilla ordinaria, que consta básicamente de hidrógeno. Como el big bang original, fusiona hidrógeno y forma helio. Sin embargo, puesto que los protones en el hidrógeno pesan más que los protones en el helio, existe un exceso de masa que se transforma en energía mediante la fórmula de Einstein E = mc2. Esta energía es la que mantiene unidos a los núcleos, y es también la energía liberada cuando el hidrógeno se fusiona para dar helio. Por este motivo es que brilla el Sol. Sin embargo, a medida que el hidrógeno se va consumiendo lentamente a lo largo de varios miles de millones de años, una estrella amarilla llega a acumular demasiado helio residual, y su horno nuclear se apaga. Cuando eso sucede, la gravedad llega a dominar y aplasta la estrella. A medida que la temperatura aumenta de nuevo, la estrella pronto se hace suficientemente caliente para quemar el helio residual y transformarlo en otros elementos, como litio y carbono. Nótese que todavía puede liberarse energía si descendemos por la curva hacia los elementos más pesados. En otras Fig ura 10.1. El «peso» promedio de cada protón de los palabras, aún es posible quemar helio residual (de elementos ligeros, tales como hidrógeno y helio, es relativamente grande. Por lo tanto, si fusionamos hidrógeno para la misma forma que la ceniza ordinaria puede ser formar helio dentro de una estrella, tenemos un exceso de masa, todavía quemada bajo ciertas condiciones). Aunque que se convierte en energía según la ecuación de Einstein E = el tamaño de la estrella ha disminuido mc2. Ésta es la energía que ilumina las estrellas. Pero a medida enormemente, su temperatura es muy alta y su que las estrellas fusionan elementos cada vez más pesados, llegamos finalmente al hierro, y ya no podemos extraer más atmósfera se expande mucho en tamaño. De hecho, energía. Entonces la estrella colapsa, y el tremendo calor del cuando nuestro propio Sol agote su provisión de colapso crea una supernova. Esta colosal explosión destroza la estrella y siembra el espacio interestelar, en el que se forman hidrógeno y empiece a quemar helio, su atmósfera nuevas estrellas. Entonces vuelve a comenzar el proceso podrá llegar a extenderse más allá de la órbita de entero, como en un billar eléctrico. Marte. Esto es lo que se denomina una estrella gigante roja. Esto supone, por supuesto, que la Tierra se vaporizará en el proceso. De este modo, la curva también predice el destino final de la Tierra. Puesto que nuestro Sol es una estrella de mediana edad de aproximadamente 5.000 millones de años, aún le quedan otros 5.000 millones de años antes de que se «coma» a la Tierra. (Irónicamente, la Tierra nació originalmente a partir de la misma nube de gas turbulento que dio lugar a nuestro Sol. La física predice ahora que la Tierra, que fue creada con el Sol, volverá al Sol.) Finalmente, cuando el helio se consume, el horno nuclear se apaga de nuevo, y la gravedad

domina para aplastar la estrella. La gigante roja se contrae hasta convertirse en una enana blanca, una estrella en miniatura con la masa de toda una estrella comprimida en aproximadamente el tamaño del planeta Tierra.[115] Las enanas blancas no son muy luminosas porque, una vez llegado al fondo de la curva, existe sólo un pequeño exceso de energía que se pueda exprimir de ella a través de E = mc2. La enana blanca quema lo poco que queda en el fondo de la curva. Nuestro Sol se convertirá con el tiempo en una enana blanca y, durante miles de millones de años, morirá lentamente a medida que agote su combustible nuclear. Con el tiempo se convertirá en una estrella enana apagada y oscura. Sin embargo, se cree que si una estrella es suficientemente masiva (varias veces la masa de nuestro Sol), entonces la mayoría de los elementos de la enana blanca continuarán siendo fusionados en elementos cada vez más pesados, llegando eventualmente hasta el hierro. Una vez que llegamos al hierro, estamos cerca del fondo de la curva. Ya no podemos extraer más energía del exceso de masa, de modo que el horno nuclear se apaga. La gravedad una vez más vuelve a dominar, aplastando la estrella hasta que las temperaturas aumentan explosivamente multiplicándose por mil, llegando a billones de grados. En este punto, el núcleo central de hierro colapsa y la capa exterior de la enana blanca explota, liberando el mayor destello de energía conocido en la galaxia, una estrella en explosión denominada supernova. Una sola supernova puede brillar temporalmente como toda una galaxia de 100.000 millones de estrellas. Como secuela de la supernova, encontramos una estrella completamente muerta, una estrella de neutrones del tamaño aproximado de la isla de Manhattan. Las densidades en una estrella de neutrones son tan grandes que, hablando crudamente, todos los neutrones se están «tocando». Aunque las estrellas de neutrones son casi invisibles, aún podemos detectarlas con nuestros instrumentos. Debido a que emiten alguna radiación mientras están girando, actúan como un faro cósmico en el espacio exterior. Las vemos como una estrella parpadeante, o pulsar. (Aunque este escenario suena a ciencia ficción, se han observado bastantes más de 400 pulsares desde su descubrimiento inicial en 1967.) Cálculos mediante ordenador han demostrado que la mayoría de los elementos más pesados por encima del hierro pueden sintetizarse con el calor y presión de una supernova. Cuando la estrella explota, libera grandes cantidades de residuos estelares, consistentes en elementos más altos, al vacío del espacio. Estos residuos se mezclan eventualmente con otros gases, hasta que se acumula suficiente gas hidrógeno para empezar de nuevo el proceso de contracción gravitatoria. Las estrellas de segunda generación que nacen a partir de este gas y polvo estelar contienen abundancia de elementos pesados. Algunas de estas estrellas (como nuestro Sol) tendrán planetas a su alrededor que también contienen estos elementos pesados. Esto resuelve un viejo misterio de la cosmología. Nuestros cuerpos están hechos de elementos pesados por encima del hierro, pero nuestro Sol no está suficientemente caliente para forjarlos. Si la Tierra y los átomos de nuestros cuerpos hubiesen salido originalmente de la misma nube de gas, entonces ¿de dónde procederían los elementos pesados de nuestros cuerpos? La conclusión es inevitable: los elementos pesados de nuestros cuerpos fueron sintetizados en una supernova que estalló antes de que se formase nuestro Sol. En otras palabras, una supernova anónima explotó hace miles de millones de años, sembrando la nube de gas que dio origen a nuestro sistema solar. La evolución de una estrella puede representarse aproximadamente como un billar eléctrico, como en la figura 10.1, con la forma de la curva de energía de enlace. La bola empieza en la parte

superior y rebota del hidrógeno al helio, de los elementos más ligeros a los elementos más pesados. Cada vez que rebota siguiendo la curva, se convierte en un tipo diferente de estrella. Finalmente, la bola rebota en el fondo de la curva, donde cae en el hierro, y es expulsada de forma explosiva en una supernova. Luego, cuando este material estelar es otra vez recogido en una nueva estrella rica en hidrógeno, el proceso comienza una vez más en el billar eléctrico. Nótese, sin embargo, que hay dos formas de que la bola rebote en la curva. Puede empezar también en el otro lado de la curva, en el uranio, y bajar por la curva con un solo rebote fisionando el núcleo de uranio en fragmentos. Puesto que el peso promedio de los protones en los productos de fisión, como el cesio y el kripton, es menor que el peso promedio de los protones en el uranio, el exceso de masa se ha transformado en energía mediante E = mc2. Ésta es la fuente de energía que subyace en la bomba atómica. Así pues, la curva de energía de enlace no sólo explica el nacimiento y muerte de las estrellas y la creación de los elementos, ¡sino que también hace posible la existencia del hidrógeno y las bombas atómicas! (A los científicos se les pregunta a menudo si sería posible desarrollar bombas nucleares diferentes de las bombas atómica y de hidrógeno. A partir de la curva de energía de enlace, podemos ver que la respuesta es no. Nótese que la curva excluye la posibilidad de bombas hechas de oxígeno o hierro. Estos elementos están cerca del fondo de la curva, de modo que no hay exceso de masa suficiente para crear una bomba. Las diversas bombas mencionadas en la prensa, tales como las bombas de neutrones, son sólo variantes de las bombas de uranio y de hidrógeno.) Cuando uno oye por primera vez la historia de la vida de las estrellas, puede mostrarse un poco escéptico. Después de todo, nadie ha vivido 10.000 millones de años para ser testigo de su evolución. Sin embargo, puesto que existen incontables estrellas en los cielos, es una cuestión simple ver estrellas en prácticamente cada etapa de su evolución. (Por ejemplo, la supernova de 1987, que fue visible a simple vista en el hemisferio sur, proporcionó un tesoro de datos astronómicos que encajaban en las predicciones teóricas de una enana colapsante con un núcleo de hierro. Asimismo, la espectacular supernova observada por los antiguos astrónomos chinos el 4 de julio de 1054 dejó tras de sí un remanente, que ahora ha sido identificado como una estrella de neutrones.) Además, nuestros programas de ordenador se han hecho tan exactos que podemos predecir en esencia la secuencia de la evolución estelar numéricamente. Cuando estudiaba en la facultad tuve un compañero de habitación que tenía un título en astronomía. Él desaparecía invariablemente de madrugada y volvía tarde por la noche. Justo antes de salir, decía que iba a poner una estrella en el horno para observar cómo crecía. Al principio, yo pensaba que lo decía en broma. Sin embargo, cuando le insistí sobre este punto, él dijo con toda seriedad que estaba poniendo una estrella en el ordenador y observando cómo evolucionaba durante el día. Puesto que las ecuaciones termodinámicas y las ecuaciones de la fusión eran bien conocidas, sólo era cuestión de decir al ordenador que empezara con una cierta masa de gas hidrógeno y luego dejarle resolver numéricamente la evolución de este gas. De este modo, podemos comprobar que nuestra teoría de la evolución estelar puede reproducir las etapas conocidas de la vida de la estrella que vemos en el cielo con nuestros telescopios. Agujeros negros

Si una estrella tuviera un tamaño de diez a cincuenta veces el de nuestro Sol, entonces la gravedad seguiría comprimiéndola incluso después de que se hubiera convertido en una estrella de neutrones. Sin la fuerza de fusión para repeler la compresión gravitatoria, no hay nada que se oponga al colapso final de la estrella. Llegado a este punto, ella se convierte en el famoso agujero negro. En cierto sentido, los agujeros negros deben existir. Una estrella, recordémoslo, es el producto de dos fuerzas cósmicas: la gravedad, que trata de aplastar la estrella, y la fusión, que trata de explotar la estrella como sucede en una bomba de hidrógeno. Todas las diversas fases en la historia de una estrella son una consecuencia de este delicado equilibrio entre gravedad y fusión. Más pronto o más tarde, cuando todo el combustible nuclear en una estrella masiva se agote finalmente y la estrella sea una masa de puros neutrones, no hay nada conocido que pueda resistir la poderosa fuerza de la gravedad. Con el tiempo, la fuerza gravitatoria dominará y aplastará la estrella de neutrones hacia la nada. La estrella ha cerrado el círculo: nació cuando la gravedad empezó inicialmente a comprimir gas hidrógeno de los cielos en una estrella, y morirá cuando se agote el combustible nuclear y la gravedad la haga colapsar. La densidad de un agujero negro es tan grande que la luz, como sucede con un cohete lanzado desde la Tierra, estará obligada a dar vueltas alrededor de él. Puesto que ninguna luz puede escapar del enorme campo gravitatorio, la estrella colapsada se presenta de color negro. De hecho, ésta es la definición usual de un agujero negro, una estrella colapsada de la que ninguna luz puede escapar. Para comprender esto, notemos que todos los cuerpos celestes tienen lo que se denomina una velocidad de escape. Ésta es la velocidad necesaria para escapar definitivamente de la atracción gravitatoria de dicho cuerpo. Por ejemplo, una sonda espacial debe alcanzar una velocidad de escape de algo más de once kilómetros por segundo para superar la atracción gravitatoria de la Tierra y llegar al espacio profundo. Nuestras sondas espaciales, como las Voyager, que se han aventurado en el espacio profundo y han abandonado definitivamente el sistema solar (llevando mensajes de buena voluntad para cualquier extraterrestre que pudiera captarlos) han alcanzado la velocidad de escape de nuestro Sol. (El hecho de que nosotros respiremos oxígeno se debe a que los átomos de oxígeno no tienen velocidad suficiente para escapar del campo gravitatorio de la Tierra. El hecho de que Júpiter y los otros gigantes gaseosos estén hechos principalmente de hidrógeno se debe a que la velocidad de escape es en ellos suficientemente grande para capturar el hidrógeno primordial del primitivo sistema solar. De este modo, la velocidad de escape ayuda a explicar la evolución de los planetas de nuestro sistema solar durante los últimos 5.000 millones de años.) La teoría de la gravedad de Newton, de hecho, da la relación exacta entre la velocidad de escape y la masa de la estrella. Cuanto más pesado es el planeta o estrella y más pequeño es su radio, mayor es la velocidad de escape necesaria para escapar de su atracción gravitatoria. Ya en 1783, el astrónomo inglés John Michell utilizó este cálculo para proponer que una estrella supermasiva podría tener una velocidad de escape igual a la velocidad de la luz. La luz emitida por una estrella masiva semejante nunca podría escapar, sino que daría vueltas a su alrededor. De este modo, para un observador exterior, la estrella parecería totalmente negra. Utilizando el mejor conocimiento disponible en el siglo XVIII, él calculó realmente la masa de tal agujero negro.[116] Por desgracia, esta teoría se consideró una locura y pronto fue olvidada. De todas formas, hoy tendemos a creer en la existencia de los agujeros negros porque nuestros telescopios e instrumentos han visto enanas blancas y

estrellas de neutrones en el cielo. Existen dos formas de explicar por qué los agujeros negros son negros. Desde un punto de vista algo pedestre, la «fuerza» entre la estrella y un rayo de luz es tan grande que su trayectoria se curva en un círculo. O uno puede adoptar el punto de vista einsteniano, en cuyo caso la «distancia más corta entre dos puntos es una línea curva». Curvar un rayo de luz en un círculo completo significa que el propio espacio se ha curvado en un círculo completo. Esto sólo puede suceder si el agujero negro ha atrapado completamente un fragmento de espacio-tiempo con él, de modo que el rayo de luz está circulando en una hiperesfera. Este fragmento de espacio-tiempo está ahora desconectado del espacio-tiempo que le rodea. El propio espacio se ha «rasgado». El puente de Einstein-Rosen La descripción relativista del agujero negro procede de la obra de Karl Schwarzschild. En 1916, apenas unos meses después de que Einstein formulara sus famosas ecuaciones, Schwarzschild fue capaz de resolver exactamente las ecuaciones de Einstein y calcular el campo gravitatorio de una estrella masiva estacionaria. La solución de Schwarzschild tiene varias características interesantes. En primer lugar, una «línea de no retorno» rodea al agujero negro. Cualquier objeto que se acerque a una distancia menor que este radio será absorbido inevitablemente en el agujero negro, sin posibilidad de escape. Cualquier persona suficientemente desafortunada para entrar en el radio de Schwarzschild sería capturada inexorablemente por el agujero negro y aplastada hasta morir. Actualmente, esta distancia a partir del agujero negro se denomina radio de Schwarzschild, u horizonte (el punto visible más lejano). En segundo lugar, cualquiera que cayera dentro del radio de Schwarzschild sería consciente de un «universo especular» al «otro lado» del espacio-tiempo (figura 10.2). Einstein no se preocupaba por la existencia de este extraño universo especular porque la comunicación con él era imposible. Cualquier sonda espacial enviada al centro de un agujero negro encontraría una curvatura infinita; es decir, el campo gravitatorio sería infinito, y cualquier objeto material sería aplastado. Los electrones serían separados de los átomos, e incluso los protones y los neutrones dentro de los propios núcleos serían desgajados. Además, para penetrar en el universo alternativo, la sonda debería ir más rápida que la velocidad de la luz, lo que no es posible. Así pues, aunque este universo especular es matemáticamente necesario para dar sentido a la solución de Schwarzschild, nunca podría ser observado físicamente. En consecuencia, el famoso puente de Einstein-Rosen que conecta estos dos universos (que recibe su nombre de Einstein y su colaborador, Nathan Rosen) fue considerado un artificio matemático. El puente era necesario para tener una teoría matemáticamente consistente del agujero negro, pero era imposible llegar al universo especular viajando a través del puente de Einstein-Rosen. Los puentes de Einstein-Rosen se encontraron pronto en otras soluciones de las ecuaciones gravitatorias, tales como la solución de Reissner-Nordstrom que describe un agujero negro eléctricamente cargado. Sin embargo, el puente de Einstein-Rosen siguió siendo una nota a pie de página curiosa pero olvidada en el saber de la relatividad. Las cosas empezaron a cambiar con el trabajo del matemático neozelandés Roy Kerr, quien en 1963 encontró otra solución exacta de las ecuaciones de Einstein. Kerr supuso que cualquier estrella

colapsante estaría en rotación. Al igual que un patinador gira más rápido cuando recoge sus brazos, una estrella en rotación se aceleraría necesariamente cuando empezase a colapsar. Así pues, la solución estacionaria de Schwarzschild para un agujero negro no era la solución físicamente más relevante de las ecuaciones de Einstein. La solución de Kerr causó sensación en el campo de la relatividad cuando fue propuesta. El astrofísico Subrahmanyan Chandrasekhar dijo en cierta ocasión: La experiencia que ha dejado más huella en toda mi vida científica, que abarca más de cuarenta y cinco años, fue cuando comprendí que una solución exacta de las ecuaciones de Einstein de la relatividad general, descubierta por el matemático neozelandés Roy Kerr, proporciona la representación absolutamente exacta de innumerables agujeros negros masivos que pueblan el universo. Este «estremecimiento ante lo bello», este hecho increíble de que un descubrimiento motivado por una búsqueda de la belleza en matemáticas encontrara su réplica exacta en la Naturaleza, es lo que me lleva a decir que la belleza es aquello a lo que responde la mente humana en su nivel más profundo.[117]

Kerr descubrió, sin embargo, que una estrella Fig ura 10.2. El puente de Einstein-Rosen conecta dos universos diferentes. Einstein creía que cualquier cohete que masiva en rotación no colapsa en un punto. En su entrase en el puente sería aplastado, haciendo así imposible la lugar, la estrella en rotación se achata hasta que comunicación entre estos dos universos. Sin embargo, cálculos eventualmente se comprime en un anillo, que tiene más recientes muestran que el viaje a través del puente podría ser muy difícil, pero tal vez posible. propiedades interesantes. Si se lanzara una sonda al interior del agujero negro desde un lado incidiría en el anillo y sería totalmente destruida. La curvatura del espacio-tiempo sigue siendo infinita cuando se aproxima al anillo desde un lado. Existe aún un «anillo de muerte», por así decir, alrededor del centro. Sin embargo, si se lanzara una sonda espacial hacia el interior del anillo desde arriba o desde abajo, experimentaría una curvatura grande pero finita; es decir, la fuerza gravitatoria no sería infinita. Esta consecuencia más bien sorprendente de la solución de Kerr significa que una sonda espacial lanzada a través de un agujero negro giratorio a lo largo de su eje de rotación podría, en principio, sobrevivir a los enormes pero finitos campos gravitatorios en el centro, y seguir derecha hasta el universo especular sin ser destruida por una curvatura infinita. El puente de Einstein-Rosen actúa como un túnel que conecta dos regiones del espacio-tiempo; es un agujero de gusano. Por lo tanto, el agujero negro de Kerr es una puerta a otro universo. Imaginemos ahora que su cohete ha entrado en el puente de Einstein-Rosen. Cuando su cohete se aproxima al agujero negro en rotación, ve una estrella rotatoria en forma de anillo. Al principio, parece que el cohete se encamina a un aterrizaje desastroso a medida que desciende hacia el agujero

negro desde el polo norte. Sin embargo, cuando nos acercamos más al anillo, la luz del universo especular llega a nuestros sensores. Puesto que toda la radiación electromagnética, incluyendo la del radar, da vueltas alrededor del agujero negro, nuestras pantallas de radar están detectando señales que han estado circulando un cierto número de veces alrededor del agujero negro. Este efecto se parece al de una sala de espejos, en la que nos volvemos locos por las múltiples imágenes que nos rodean. La luz rebota en los numerosos espejos, creando la ilusión de que existen muchas copias de nosotros mismos en la sala. El mismo efecto ocurre cuando atravesamos el agujero negro de Kerr. Puesto que el mismo rayo de luz da varias vueltas alrededor del agujero negro, el radar de nuestro cohete detecta imágenes que han estado girando alrededor del agujero negro, creando la ilusión de objetos que no están realmente allí. Factor de distorsión 5 ¿Significa esto que pueden utilizarse los agujeros negros para viajar por la galaxia, como en Star Trek y otras películas de ciencia ficción? Como hemos visto antes, la curvatura en un cierto espacio está determinada por la cantidad de materia-energía contenida en dicho espacio (principio de Mach). La famosa ecuación de Einstein nos da el grado exacto de curvatura espacio-temporal causada por la presencia de materia-energía. Cuando el capitán Kirk nos lleva volando a través del hiperespacio en «factor de distorsión 5», los «cristales de dilicio» que impulsan al Enterprise deben realizar hazañas milagrosas de distorsión del espacio y del tiempo. Esto significa que los cristales de dilicio tienen el poder mágico de plegar el continuo espacio-temporal en rebanadas; es decir, son tremendos almacenes de materia y energía. Si el Enterprise viaja desde la Tierra a la estrella más próxima, no se desplaza físicamente hasta Alpha Centauri; más bien, es Alpha Centauri la que viene al Enterprise, Imagínese sentado en una alfombra y echando un lazo a una mesa que está a varios metros de distancia. Si somos bastante fuertes y el suelo es suficientemente liso, podemos tirar del lazo hasta que la alfombra comienza a doblarse bajo nosotros. Si tiramos suficientemente fuerte, la mesa viene hasta nosotros, y la «distancia» entre la mesa y nosotros desaparece en una masa de alfombra arrugada. Entonces simplemente saltamos a través de esta «alfombra distorsionada». En otras palabras, apenas nos hemos movido; el espacio entre nosotros y la mesa se ha contraído, y simplemente atravesamos esta distancia contraída. Análogamente, el Enterprise no atraviesa realmente todo el espacio hasta Alpha Centauri; simplemente se mueve a través del espacio-tiempo arrugado: a través de un agujero de gusano. Para comprender mejor lo que sucede cuando uno cae en el puente de Einstein-Rosen, discutamos ahora la topología de los agujeros de gusano. Para visualizar estos espacios múltiplemente conexos, imaginemos que estamos paseando por la Quinta Avenida de Nueva York una tarde luminosa, pensando en nuestros propios asuntos, cuando una extraña ventana flotante se abre frente a nosotros, muy parecida al espejo de Alicia. (No importa por el momento que la energía necesaria para abrir esta ventana pueda ser suficiente para destrozar la Tierra. Esto es un ejemplo puramente hipotético.) Avanzamos hacia la ventana flotante para echar una mirada más próxima, y quedamos horrorizados al descubrir frente a nosotros la cabeza de un Tyrannosaurus rex de aspecto asqueroso.

Estamos a punto de echar a correr, cuando advertimos que el tiranosaurio no tiene cuerpo. No puede hacernos daño porque todo su cuerpo está evidentemente al otro lado de la ventana. Cuando miramos por debajo de la ventana para descubrir el cuerpo del dinosaurio, podemos ver toda la calle, como si el dinosaurio y la ventana no estuvieran allí. Intrigados, rodeamos lentamente la ventana y nos sentimos aliviados al descubrir que el tiranosaurio no se encuentra en ninguna parte. Sin embargo, cuando miramos por la ventana desde el lado posterior, ¡vemos la cabeza de un brontosaurio que nos mira de frente! (figura 10.3). Aterrorizados, caminamos otra vez alrededor de la ventana, mirando sus bordes laterales. Para nuestra total sorpresa, todas las huellas de la ventana, el tiranosaurio y el brontosaurio han desaparecido. Damos ahora algunas vueltas más alrededor de la ventana flotante. Desde una Fig ura 10.3. En este ejemplo puramente hipotético, se ha dirección, vemos la cabeza del tiranosaurio. Desde abierto una «ventana» o agujero de gusano en nuestro universo. Si miramos por la ventana en una dirección, ^vernos a un otra dirección, vemos la cabeza del brontosaurio. dinosaurio. Si miramos desde el otro lado de la ventana, vemos Y cuando miramos desde el lateral, descubrimos otro dinosaurio. Visto desde el otro universo, se ha abierto una ventana entre los dos dinosaurios. Dentro de la ventana, los que el espejo y los dinosaurios han desaparecido. dinosaurios ven un pequeño animal extraño (nosotros). ¿Qué está pasando? En algún universo remoto, el tiranosaurio y el brontosaurio están preparados para una lucha a vida o muerte. Cuando van a enfrentarse, una ventana flotante aparece repentinamente entre ellos. Cuando el tiranosaurio mira en el espejo flotante, queda sorprendido al ver la cabeza de un mamífero escuchimizado y enjuto con pelo rizado y rostro minúsculo: un ser humano. La cabeza es claramente visible, pero no tiene cuerpo. Sin embargo, cuando el brontosaurio mira por la misma ventana desde la otra dirección, ve la Quinta Avenida, con sus tiendas y su tráfico. Entonces el tiranosaurio descubre que esta criatura humana de la ventana ha desaparecido, sólo para aparecer en el lado de la ventana que da al brontosaurio. Supongamos ahora que el viento se lleva repentinamente nuestro sombrero por la ventana. Vemos el sombrero flotando en el cielo del otro universo, pero no se ve en ninguna parte de la Quinta Avenida. Tragamos saliva, y luego, con desesperación, introducimos nuestro brazo en la ventana para recuperar el sombrero. Tal como lo ve el tiranosaurio, un sombrero sale de la ventana, apareciendo de la nada. Luego ve un brazo sin cuerpo que atraviesa la ventana, buscando desesperadamente el sombrero. El viento cambia ahora de dirección, y el sombrero es llevado en dirección contraria. Introducimos nuestro brazo en la ventana, pero desde el lado contrario. Estamos ahora en una posición incómoda. Nuestros dos brazos están introducidos en la ventana, aunque desde lados

diferentes. Pero no podemos ver nuestros dedos. En lugar de ello, nos parece que ambas manos han desaparecido. ¿Cómo se le presenta esto a los dinosaurios? Ellos ven dos pequeños brazos que se agitan saliendo de ambos lados de la ventana. Pero allí no hay nadie (figura 10.4). Este ejemplo ilustra algunas de las deliciosas distorsiones del espacio y del tiempo que uno puede inventar con espacios múltiplemente conexos. Cerrar el agujero de gusano Parece notable que una idea tan simple —la de que las dimensiones superiores pueden unificar el espacio con el tiempo, y que una «fuerza» puede ser explicada por la distorsión de dicho espaciotiempo— conduzca a tan rica diversidad de consecuencias físicas. Sin embargo, con el agujero de gusano y los espacios múltiplemente conexos, estamos sondeando los mismos límites de la teoría de la relatividad general de Einstein. De hecho, la cantidad de materia-energía necesaria para crear un agujero de gusano o puerta dimensional es tan grande que esperamos que los efectos cuánticos dominen. Las correcciones cuánticas, a su vez, pueden cerrar realmente la abertura del agujero de gusano, haciendo imposible el atravesar la puerta. Puesto que ni la teoría cuántica ni la relatividad son suficientemente poderosas para zanjar esta cuestión, tendremos que esperar hasta que la teoría decadimensional esté completa para decidir si Fig ura 10.4. Si introducimos nuestras manos en la ventana estos agujeros de gusano son física mente desde dos lados diferentes, parece como si nuestras manos relevantes o sólo son otra idea loca. Sin embargo, hubieran desaparecido. Tenemos un cuerpo, pero no tenemos manos. En el universo alternativo, ha emergido una mano de antes de discutir la cuestión de las correcciones cada lado de la ventana pero estas manos no están unidas a un cuánticas y la teoría decadimensional, hagamos cuerpo. ahora una pausa y consideremos la quizá más extraña consecuencia de los agujeros de gusano. Del mismo modo que los físicos pueden demostrar que los agujeros de gusano permiten espacios múltiplemente conexos, también podemos demostrar que permiten asimismo el viaje en el tiempo. Consideremos ahora la quizá más fascinante y especulativa consecuencia de los universos múltiplemente conexos: la construcción de una máquina del tiempo.

11 CONSTRUIR UNA MÁQUINA DEL TIEMPO

Para nosotros, físicos convencidos, la distinción entre pasado, presente y futuro es sólo una ilusión, por persistente que ésta sea. ALBERT EINSTEIN Viaje en el tiempo ¿Podemos ir hacia atrás en el tiempo? Como el protagonista de La máquina del tiempo de H. G. Wells, ¿podemos girar el botón de una máquina y saltar cientos de miles de años hasta el año 802.701? O, como Michael J. Fox, ¿podemos entrar en nuestros automóviles propulsados por plutonio y regresar al futuro? La posibilidad de viajar en el tiempo abre un vasto mundo de interesantes posibilidades. Como Kathleen Turner en Peggy Sue se casó, todo el mundo alberga un secreto deseo de volver a vivir de alguna forma el pasado y corregir algún error pequeño pero vital en la vida de cada uno. En el poema de Robert Frost «El camino no tomado», nos preguntamos qué podría haber sucedido si, en disyuntivas claves de nuestra vida, hubiéramos hecho una elección diferente y tomado otro camino. Con el viaje en el tiempo, podríamos volver a nuestra juventud y borrar sucesos embarazosos de nuestro pasado, escoger un compañero diferente o elegir diferente carrera; o incluso podríamos cambiar el resultado de sucesos históricos claves y alterar el destino de la humanidad. Por ejemplo, en el clímax de Superman, nuestro héroe queda destrozado emocionalmente cuando un terremoto asola la mayor parte de California y entierra a su amada bajo cientos de toneladas de rocas y residuos. Lamentando su horrible muerte, queda tan abrumado por la angustia que se lanza al espacio a gran velocidad y viola su juramento de no interferir el curso de la historia humana. Incrementa su velocidad hasta que destroza la barrera de la luz, rasgando el tejido del espacio y del tiempo. Al viajar a la velocidad de la luz, obliga al tiempo a frenarse hasta que éste se detiene y, finalmente, marcha hacia atrás, hacia un instante anterior al momento en que Lois Lane murió aplastada. El truco, sin embargo, es claramente imposible. Aunque el tiempo se frene cuando usted incrementa su velocidad, usted no puede ir más rápido que la velocidad de la luz (y hacer así que el tiempo vaya hacia atrás) porque la relatividad especial establece que su masa se haría infinita en el proceso. Por lo tanto, el método del viaje más rápido que la luz preferido por la mayoría de los escritores de ciencia ficción contradice la teoría de la relatividad especial. El propio Einstein era perfectamente consciente de esta imposibilidad, como lo era A. H. R. Buller cuando publicó el siguiente chascarrillo en Punch:

Una joven llamada Mariluz, viajaba más deprisa que la luz, partió un buen día, por relativa vía, y regresó la noche anterior.[118]

La mayoría de los científicos, que no han estudiado seriamente las ecuaciones de Einstein, desprecian el viaje en el tiempo como una tontería, tan válida como los relatos sensacionalistas de secuestros por alienígenas del espacio. Sin embargo, la situación es realmente bastante compleja. Para resolver la cuestión debemos abandonar la teoría más sencilla de la relatividad especial, que prohíbe el viaje en el tiempo, y adoptar toda la potencia de la teoría de la relatividad general, que puede permitirlo. La relatividad general tiene una validez mucho más amplia que la relatividad especial. Mientras que la relatividad especial sólo describe objetos que se mueven a velocidad constante muy lejos de cualquier estrella, la teoría de la relatividad general es mucho más potente, capaz de describir cohetes que se aceleran cerca de estrellas supermasivas y agujeros negros. La teoría general sustituye así algunas de las conclusiones más simples de la teoría especial. Para cualquier físico que haya analizado seriamente las matemáticas del viaje en el tiempo dentro de la teoría de la relatividad general de Einstein, la conclusión final, de forma bastante sorprendente, no está ni mucho menos clara. Los defensores del viaje en el tiempo señalan que las ecuaciones de Einstein de la relatividad general permiten ciertas formas de viaje en el tiempo. Admiten, sin embargo, que las energías necesarias para doblar el tiempo en un círculo son tan grandes que las ecuaciones de Einstein ya no serían válidas. En la región físicamente interesante en la que el viaje en el tiempo se convierte en una posibilidad seria, la teoría cuántica domina sobre la relatividad general. Recordemos que las ecuaciones de Einstein establecen que la curvatura del espacio y del tiempo está determinada por el contenido de materia-energía del universo. Es posible, de hecho, encontrar configuraciones de materia-energía suficientemente poderosas para forzar la curvatura del tiempo y permitir el viaje en el tiempo. Sin embargo, las concentraciones de materia-energía necesarias para doblar el tiempo hacia atrás son tan enormes que la relatividad general deja de ser válida y las correcciones cuánticas empiezan a dominar sobre la relatividad. Así pues, el veredicto final sobre el viaje en el tiempo no puede pronunciarse dentro del marco de las ecuaciones de Einstein, que dejan de ser válidas en campos gravitatorios extraordinariamente grandes, donde esperamos que la teoría cuántica se haga dominante. Aquí es donde la teoría del hiperespacio puede zanjar la cuestión. Puesto que la teoría cuántica y la teoría de la gravedad de Einstein están unidas en el espacio decadimensional, esperamos que la cuestión del viaje en el tiempo será establecida definitivamente por la teoría del hiperespacio. Como en el caso de los agujeros de gusano y las ventanas dimensionales, el capítulo final se escribirá cuando incorporemos toda la potencia de la teoría del hiperespacio. Describamos ahora la controversia que rodea al viaje en el tiempo y las deliciosas paradojas que inevitablemente aparecen. El colapso de la causalidad

Los escritores de ciencia ficción se han preguntado a menudo qué sucedería si un solo individuo volviese atrás en el tiempo. La mayoría de estas historias parecen superficialmente plausibles. Pero imaginemos el caos que surgiría si las máquinas del tiempo fuesen tan comunes como los automóviles, con decenas de millones de ellas disponibles comercialmente. Pronto habría estragos, que rasgarían el tejido de nuestro universo. Millones de personas volverían hacia atrás en el tiempo para entrometerse en su propio pasado y en el pasado de los demás, reescribiendo la historia con ello. Algunos incluso podrían regresar en el tiempo armados con pistolas para matar a los padres de sus enemigos antes de que éstos nacieran. De este modo sería imposible hacer un simple censo para ver cuántas personas existen en un momento dado. Si el viaje en el tiempo es posible, entonces las leyes de la causalidad se derrumban. De hecho, toda la historia tal como la conocemos podría también colapsar. Imaginémonos el caos provocado por miles de personas que regresan en el tiempo para alterar sucesos claves que cambiaron el curso de la historia. De repente, la audiencia en el Teatro Ford estaría abarrotada de personas del futuro discutiendo entre ellos mismos para ver quién tendría el honor de impedir el asesinato de Lincoln. El desembarco de Normandía fracasaría cuando miles de buscadores de emociones llegasen con sus cámaras para tomar fotografías. Los campos de batalla claves de la historia cambiarían hasta quedar irreconocibles. Consideremos la decisiva victoria de Alejandro Magno sobre los persas, conducidos por Darío III en el 331 a. C., en la batalla de Gaugamela. Esta batalla llevó a la aniquilación de las fuerzas persas y terminó su rivalidad con Occidente, que ayudó a hacer posible el florecimiento de la civilización y la cultura occidental en el mundo durante los mil años siguientes. Pero consideremos lo que sucedería si una pequeña banda de mercenarios armados provistos de pequeños misiles y artillería moderna interviniesen en la batalla. La más mínima muestra de la potencia de fuego moderna pondría en fuga a los aterrorizados soldados de Alejandro. Esta intromisión en el pasado paralizaría la expansión de la influencia de Occidente en el mundo. El viaje en el tiempo significaría que nunca podría resolverse completamente cualquier suceso histórico. Los libros de historia nunca podrían escribirse. Algunos extremistas siempre estarían tratando de asesinar al general Ulises S. Grant o dar el secreto de la bomba atómica a los alemanes en los años treinta. ¿Qué sucedería si la historia pudiera reescribirse de forma tan accidental como se borra una pizarra? Nuestro pasado sería como las dunas movedizas en la orilla del mar, constantemente alteradas por la más mínima brisa. La historia estaría cambiando constantemente cada vez que alguien girase el botón de una máquina del tiempo y entrase en su pasado. La historia, tal como la conocemos, sería imposible. Dejaría de existir. Obviamente, la mayoría de los científicos no disfrutan con esta desagradable posibilidad. No sólo sería imposible para los historiadores sacar ningún sentido de la «historia», sino que inmediatamente aparecerían paradojas genuinas cuando quiera que entráramos en el pasado o en el futuro. El cosmólogo Stephen Hawking, de hecho, ha utilizado esta situación para proporcionar evidencia «experimental» de que no es posible el viaje en el tiempo. El no cree posible el viaje en el tiempo por «el hecho de que no hemos sido invadidos por hordas de turistas procedentes del futuro». Paradojas del tiempo

Para comprender los problemas del viaje en el tiempo, es necesario primero clasificar las diversas paradojas. En general, la mayoría de ellas pueden ser clasificadas dentro de dos tipos principales: 1. Encuentro con los padres antes de haber nacido. 2. El hombre sin pasado. El primer tipo de viaje en el tiempo causa el daño mayor al tejido del espacio-tiempo porque altera sucesos previamente registrados. Por ejemplo, recuérdese que en Regreso al futuro, nuestro joven héroe viaja hacia atrás en el tiempo y encuentra a su madre cuando ésta era joven, precisamente antes de que se enamorase de su padre. Con gran susto y consternación, él descubre que ha impedido involuntariamente el decisivo encuentro entre sus padres. Para empeorar las cosas, ¡su joven madre se ha llegado a sentir tiernamente atraída por él! Si impide inconscientemente que su padre y su madre se enamoren y no puede desviar los afectos equivocados de su madre, él desaparecerá porque su nacimiento nunca tendrá lugar. La segunda paradoja implica sucesos sin ningún comienzo. Por ejemplo, supongamos que un inventor empobrecido está tratando de construir la primera máquina del tiempo del mundo en su sótano desordenado. De no se sabe dónde, aparece un caballero rico y maduro y le ofrece muchos fondos y las complejas ecuaciones y la circuitería para construir una máquina del tiempo. El inventor se enriquece posteriormente con el conocimiento del viaje en el tiempo, sabiendo por adelantado cuándo ocurrirán exactamente las alzas y caídas de la Bolsa antes de que sucedan. Hace una fortuna jugando a la Bolsa, a las carreras de caballos y otros juegos. Décadas más tarde, ya un hombre viejo y rico, regresa en el tiempo para cumplir su destino. Se encuentra a sí mismo cuando era un joven que trabajaba en su sótano, y da a su yo más joven el secreto del viaje en el tiempo y el dinero para explotarlo. La cuestión es: ¿de dónde procedía la idea del viaje en el tiempo? Quizá la más loca de estas paradojas del viaje en el tiempo del segundo tipo fue ideada por Robert Heinlein en su clásico relato corto «All you Zombies—». Una niña es misteriosamente abandonada en un orfanato de Cleveland en 1945. «Jane» crece solitaria y triste, sin saber quiénes son sus padres, hasta que un día se siente extrañamente atraída por un vagabundo. Ella se enamora de él. Pero precisamente cuando parece que las cosas empiezan a ir bien para Jane, ocurren una serie de desastres. En primer lugar, se queda embarazada del vagabundo, que luego desaparece. En segundo lugar, durante el complicado parto, los doctores descubren que Jane tiene dos conjuntos de órganos sexuales y, para salvar su vida, se ven obligados a transformar quirúrgicamente a «ella» en «él». Finalmente, un misterioso extraño rapta a su hija de la sala de partos. Destrozado por estos desastres, rechazado por la sociedad, desahuciado por el destino, «él» se convierte en un borracho vagabundo. Jane no sólo ha perdido a sus padres y a su amor, sino que también ha perdido a su única hija. Años más tarde, en 1970, entra en un bar solitario, llamado Pop’s Place, y cuenta su patética historia a un viejo camarero. El compasivo camarero ofrece al vagabundo la oportunidad de vengarse del extraño que la dejó embarazada y abandonada, a condición de que se una al «cuerpo de viajeros del tiempo». Ambos entran en una máquina del tiempo, y el camarero deja al vagabundo en 1963. El vagabundo se siente extrañamente atraído por una joven huérfana, que luego se queda embarazada.

El camarero sigue a continuación nueve meses hacia adelante, secuestra a la niña del hospital y la abandona en un orfanato en 1945. Luego, el camarero deja al vagabundo totalmente confuso en 1985, para alistarse en el cuerpo de viajeros del tiempo. El vagabundo consigue rehacer su vida, se convierte en un miembro anciano y respetado del cuerpo de viajeros del tiempo, y luego se disfraza de camarero y tiene su misión más difícil: una cita con el destino, encontrarse con un cierto vagabundo en Pop’s Place en 1970. La pregunta es: ¿quién es la madre, el padre, el abuelo, la abuela, el hijo, la hija, la nieta y el nieto de Jane? La muchacha, el vagabundo y el camarero, por supuesto, son todos la misma persona. Estas paradojas pueden causarle mareos, especialmente si usted trata de desentrañar la retorcida parentela de Jane. Si dibujamos el árbol genealógico de Jane, encontramos que todas las ramas se curvan hacia atrás sobre sí mismas, como en un círculo. Llegamos a la sorprendente conclusión de que ¡ella es su propia madre y padre! Ella es todo un árbol genealógico en sí misma. Líneas de universo La relatividad nos proporciona un método sencillo para sortear la más espinosa de estas paradojas. Haremos uso del método de la «línea de universo» avanzado por Einstein. Por ejemplo, supongamos que nuestro despertador nos despierta un día a las 8 de la mañana, y decidimos pasar la mañana en la cama en lugar de ir al trabajo. Aunque parece que no estamos haciendo nada al quedarnos en la cama, realmente estamos describiendo una «línea de universo». Tomemos una hoja de papel de gráficos, y pongamos «distancia» en la escala horizontal y «tiempo» en la escala vertical. Si simplemente nos quedamos en la cama desde las 8 hasta las 12, nuestra línea de universo es una línea recta vertical. Avanzamos 4 horas en el futuro, pero no viajamos ninguna distancia. Incluso aunque nos dediquemos a nuestro pasatiempo favorito, no hacer nada, creamos una línea de universo. (Si alguien nos criticara por quedarnos en la cama, podríamos afirmar ciertamente que, según la teoría de la relatividad de Einstein, estamos describiendo una línea de universo en el espacio-tiempo tetradimensional.) Supongamos ahora que nos levantamos de la cama al mediodía y llegamos al trabajo a la 1 de la tarde. Nuestra línea de universo se ha inclinado porque nos estamos moviendo en el espacio tanto como en el tiempo. En el ángulo inferior izquierdo está nuestra casa, y en el ángulo superior derecho está nuestra oficina (figura 11.1). No obstante, si cogemos el coche para ir a trabajar, llegamos antes a la oficina, a las 12,30. Esto significa que cuanto más rápido viajemos, más se desvía nuestra línea de universo de la vertical. (Nótese que hay también una «zona prohibida» en el diagrama que nuestra línea de universo no puede atravesar porque tendríamos que estar viajando a velocidad mayor que la de la luz.) Una conclusión es inmediata. Nuestra línea de universo nunca empieza ni termina realmente. Incluso cuando morimos, las líneas de universo de las moléculas de nuestros cuerpos siguen conservándose. Estas moléculas pueden dispersarse en el aire o en el suelo, pero describirán sus propias líneas de universo sin fin. Análogamente, cuando nacemos, las líneas de universo de las moléculas procedentes de nuestra madre se juntan en un bebé. En ningún punto se rompen estas líneas de universo ni aparecen de la nada. Para ver cómo encaja todo esto, tomemos el ejemplo sencillo de nuestra propia línea de universo

personal. En 1950, pongamos por caso, se encontraron nuestro padre y nuestra madre, se enamoraron y engendraron un bebé (nosotros). De este modo, las líneas de universo de nuestra madre y nuestro padre colisionaron y produjeron una tercera línea de universo (la nuestra). Eventualmente, cuando alguien muere las líneas de universo que forman la persona se dispersan en miles de millones de líneas de universo de sus moléculas. Desde este punto de vista, un ser humano puede definirse como una colección temporal de líneas de universo de moléculas. Estas líneas de universo estaban dispersas antes de que naciéramos, se juntaron para formar nuestros cuerpos, y se volverán a dispersar cuando muramos. La Biblia dice: «del polvo al polvo». En esta imagen relativista podríamos decir: «de las líneas de universo a las líneas de universo». Nuestra línea de universo contiene así toda la información concerniente a nuestra historia. Todo lo que nos ha sucedido —desde nuestra primera bicicleta hasta nuestra primera cita o nuestro primer trabajo— está registrado en nuestra línea de universo. De hecho, el gran cosmólogo ruso George Gamow, famoso por enfocar el trabajo de Einstein con ingenio y humor, tituló Fig ura 11.1. Nuestra línea de universo resume toda nuestra historia, desde el nacimiento a la muerte. Por ejemplo, si apropiadamente su autobiografía Mi línea de permanecemos en la cama desde las 8 hasta las 12, nuestra universo. línea de universo es una línea vertical. Si vamos en automóvil al Con la ayuda de la línea de universo, podemos trabajo, entonces nuestra línea de universo se inclina. Cuanto más deprisa nos movemos, más se inclina nuestra línea de ahora imaginar lo que sucede cuando volvemos universo. Sin embargo, la velocidad más rápida a la que hacia atrás en el tiempo. Supongamos que podemos viajar es la velocidad de la luz. Por consiguiente, una parte de este diagrama espacio-temporal está «prohibida»; es entramos en una máquina del tiempo y decir, tendríamos que ir a mayor velocidad que la luz para encontramos a nuestra madre antes de que entrar en esta zona prohibida. hayamos nacido. Por desgracia, ella se enamora de nosotros y rechaza a nuestro padre. ¿Realmente desaparecemos, como se muestra en Regreso al futuro? Sobre una línea de universo, vemos ahora por qué esto es imposible. Cuando desaparecemos, nuestra línea de universo desaparece. Sin embargo, según Einstein, las líneas de universo no pueden interrumpirse. De este modo, no es posible alterar el pasado en la relatividad. La segunda paradoja, que implica recrear el pasado, plantea, no obstante, interesantes problemas. Por ejemplo, al ir hacia atrás en el tiempo, estamos cumpliendo el pasado, y no destruyéndolo. Así, la línea de universo del inventor del viaje en el tiempo es un lazo cerrado. Su línea de universo cumple,

más que cambia, el pasado. Mucho más complicada es la línea de universo de «Jane», la mujer que es su propia madre y su propio padre y su hijo y su hija (figura 11.2). Nótese, una vez más, que no podemos alterar el pasado. Cuando nuestra línea de universo retrocede en el tiempo, simplemente cumple lo que es ya conocido. En un universo semejante, por consiguiente, es posible encontrarse a sí mismo en el pasado. Si vivimos en un ciclo, entonces más pronto o más tarde encontraremos a un o una joven que resulta ser nosotros mismos cuando éramos más jóvenes. Nosotros decimos a esta persona joven que él o ella nos parece sospechosamente familiar. Entonces, pensando un poco, recordamos que cuando éramos jóvenes encontramos a una curiosa persona mayor que afirmaba que nosotros le parecíamos familiares. Así pues, quizá podamos cumplir el pasado, pero nunca alterarlo. Las líneas de universo, como hemos resaltado, no pueden cortarse y no pueden acabar. Quizá pueden hacer lazos en el tiempo, pero nunca alterarlo. Estos diagramas de cono de luz, sin embargo, han sido presentados sólo en el marco de la relatividad especial, que puede describir lo que sucede si entramos en el pasado, pero es demasiado primitiva para zanjar la cuestión de si Fig ura 11.2. Si el viaje en el tiempo es posible, entonces tiene sentido el viaje en el tiempo. Para responder a nuestra línea de universo se convierte en un lazo cerrado. En 1945, nace la joven. En 1963, ella tiene un bebé. En 1970, él es esta cuestión mayor debemos volver a la teoría de un vagabundo que regresa a 1945 para encontrarse consigo la relatividad general, donde la situación se hace mismo. En 1985, él es un viajero en el tiempo que se encuentra a sí mismo en un bar en 1970, y se lleva de retorno a 1945, mucho más delicada. secuestra a la niña y la devuelve a 1945, para empezar todo de Con toda la potencia de la relatividad general, nuevo. La joven es su propia madre, padre, abuelo, abuela, hijo, vemos que estas líneas de universo retorcidas hija y así sucesivamente. podrían estar físicamente permitidas. Estos lazos cerrados responden al nombre científico de curvas cerradas de tipo tiempo (CTC). El debate en los círculos científicos es si las CTC están permitidas por la relatividad general y la teoría cuántica. Aguafiestas de la aritmética y la relatividad general En 1949, Einstein estaba interesado en el descubrimiento de uno de sus más íntimos amigos y colegas, el matemático vienes Kurt Gödel, también del Instituto para Estudio Avanzado en Princeton,

donde Einstein trabajaba. Gödel encontró una desconcertante solución a las ecuaciones de Einstein que permitía violaciones de los conceptos básicos del sentido común: su solución permitía ciertas formas de viaje en el tiempo. Por primera vez en la historia se daba un fundamento matemático al viaje en el tiempo. En algunos círculos, Gödel era conocido como un aguafiestas. En 1931, se hizo famoso (o, en realidad, infame) cuando probó, contrariamente a cualquier expectativa, que no se puede demostrar la coherencia de la aritmética. Con ello arruinó un sueño de dos mil años, que se remontaba a Euclides y los griegos, y que tenía que haber sido el logro que coronase las matemáticas: reducir todas las matemáticas a un pequeño conjunto coherente de axiomas de los que todo podría derivarse. En un tour de force matemático, Gödel demostró que siempre existirán teoremas de la aritmética cuya corrección o incorrección nunca puede demostrarse a partir de los axiomas de la aritmética; es decir, la aritmética siempre será incompleta. El resultado de Gödel fue el desarrollo más sorprendente e inesperado en la lógica matemática en quizá mil años. Las matemáticas, que otrora se consideraban las más puras de todas las ciencias porque eran exactas y seguras, inmunes a la desagradable crudeza de nuestro mundo material, se hacían ahora inseguras. Después de Gödel, la base fundamental de las matemáticas parecía quedar a la deriva. (Hablando crudamente, la notable demostración de Gödel empezaba mostrando que hay curiosas paradojas en la lógica. Por ejemplo, consideremos el enunciado «Esta sentencia es falsa». Si la sentencia es verdadera, entonces se sigue que es falsa. Si la sentencia es falsa, entonces la sentencia es verdadera. O consideremos el enunciado «Yo soy un mentiroso». Entonces yo soy un mentiroso sólo si digo la verdad. Gödel formuló entonces el enunciado «Esta sentencia no puede demostrarse verdadera». Si la sentencia es correcta, entonces no puede demostrarse que sea correcta. Construyendo cuidadosamente una compleja madeja de paradojas semejantes, Gödel demostró que existen enunciados verdaderos que no pueden ser demostrados utilizando la aritmética.) Después de echar por tierra uno de los sueños más acariciados de todas las matemáticas, Gödel hizo añicos a continuación el saber convencional en torno a las ecuaciones de Einstein. Demostró que la teoría de Einstein contiene algunas patologías sorprendentes, incluyendo el viaje en el tiempo. Supuso, en primer lugar, que el universo estaba lleno de un gas o polvo que estaba girando lentamente. Esto parecía razonable, puesto que los confines lejanos del universo parecen estar llenos de gas y polvo. Sin embargo, la solución de Gödel provocó un gran interés por dos razones. En primer lugar, su solución violaba el principio de Mach. Él demostró que eran posibles dos soluciones a las ecuaciones de Einstein con la misma distribución de polvo y de gas. (Esto significaba que el principio de Mach era de algún modo incompleto, que estaban presentes hipótesis ocultas.) Más importante, demostró que estaban permitidas ciertas formas de viaje en el tiempo. Si uno seguía el camino de una partícula en un universo de Gödel, eventualmente volvería atrás y se encontraría a sí mismo en el pasado. Él escribió: «Haciendo un viaje de ida y vuelta en una nave espacial siguiendo una curva suficientemente amplia, es posible en estos mundos viajar a cualquier región del pasado, presente y futuro, y volver de nuevo».[119] De este modo, Gödel descubrió la primera CTC en relatividad general. Previamente, Newton había considerado que el tiempo se movía como una flecha recta, que vuela inevitablemente hacia su blanco. Nada podía desviar o cambiar el curso de esta flecha una vez

lanzada. Einstein, sin embargo, demostró que el tiempo se parecía más a un río caudaloso, que se mueve hacia adelante pero que con frecuencia hace meandros por valles y llanuras retorcidos. La presencia de materia o energía podría desplazar momentáneamente la dirección del río, pero el curso global del río sería suave: nunca terminaría abruptamente o se volvería bruscamente hacia atrás. Sin embargo, Gödel demostró que el río del tiempo podría curvarse suavemente hacia atrás en círculo. Los ríos, después de todo, tienen corrientes con remolinos y vórtices. Un río puede fluir hacia adelante en su centro, pero en las orillas habrá siempre zonas de remanso donde el agua fluye con movimiento circular. La solución de Gödel no podía ser rechazada como la obra de un charlatán porque Gödel había utilizado las propias ecuaciones de campo de Einstein para encontrar soluciones extrañas en las que el tiempo se cerraba en un círculo. Puesto que Gödel había jugado con las reglas y descubrió una solución legítima a sus ecuaciones, Einstein estaba obligado a tomar una vía de escape y desecharla porque no se ajustaba a los datos experimentales. El punto débil en el universo de Gödel era la hipótesis de que el gas y polvo del universo estaban girando con lentitud. Experimentalmente, no vemos ninguna rotación del polvo cósmico y del gas en el espacio. Nuestros instrumentos han verificado que el universo se está expandiendo, pero no parece estar en rotación. Por consiguiente, el universo de Gödel puede descartarse sin problemas. (Esto nos deja con la posibilidad bastante perturbadora, aunque plausible, de que si nuestro universo rotase, como Gödel especuló, entonces las CTC y el viaje en el tiempo serían físicamente posibles.) Einstein murió en 1955, contento de que las soluciones perturbadoras de sus ecuaciones pudiesen ser barridas bajo la alfombra por razones experimentales y que las personas no pudieran encontrarse con sus padres antes de haber nacido. Vivir en la zona tenebrosa Luego, en 1963, Ezra Newman, Theodore Unti y Louis Tamburino descubrieron una nueva solución de las ecuaciones de Einstein que era aún más loca que la de Gödel. A diferencia del universo de Gödel, su solución no estaba basada en un universo en rotación lleno de polvo. Superficialmente, se parecía a un agujero negro típico. Como en la solución de Gödel, su universo permitía CTC y viajes en el tiempo. Además, al describir 360 grados alrededor del agujero negro, uno no volvía al lugar de donde partió originalmente. En su lugar, como si viviera en un universo con un corte de Riemann, uno pasaría a otra hoja del universo. La topología de un universo de Newman-Unti-Tamburino podría compararse a vivir en una escalera de caracol. Si nos movemos 360 grados alrededor de la escalera, no llegamos al mismo punto del que partimos, sino a otro peldaño de la escalera. Vivir en un universo semejante superaría a nuestra peor pesadilla, con el sentido común completamente arrojado por la ventana. De hecho, este extraño universo era tan patológico que rápidamente fue bautizado como el universo NUT, según las iniciales de sus creadores.[120] Al principio, los relativistas desecharon la solución NUT de la misma forma que habían desechado la solución de Gödel; es decir, nuestro universo no parecía evolucionar del modo predicho por estas soluciones, de modo que fueron descartadas arbitrariamente por razones experimentales. Sin embargo, con el paso de las décadas, hubo un diluvio de semejantes soluciones

extrañas a, las ecuaciones de Einstein que permitían el viaje en el tiempo. A comienzos de los años setenta, Frank J. Tipler de la Tulane University en Nueva Orleans volvió a analizar una vieja solución a las ecuaciones de Einstein encontrada por W. J. van Stockum en 1936, incluso antes de la solución de Gödel. Esta solución suponía la existencia de un cilindro infinitamente largo en rotación. De forma bastante sorprendente, Tipler fue capaz de demostrar que esta solución también violaba la causalidad. Incluso se demostró que la solución de Kerr (que representa la descripción físicamente más realista de agujeros negros en el espacio exterior) permitía el viaje en el tiempo. Las naves espaciales que atravesasen el centro del agujero negro de Kerr (suponiendo que no fueran aplastadas en el proceso) violarían la causalidad. Pronto, los físicos encontraron que singularidades de tipo NUT podrían insertarse en cualquier agujero negro o universo en expansión. De hecho, ahora se hacía posible imaginar un número infinito de soluciones patológicas a las ecuaciones de Einstein. Por ejemplo, podría demostrarse que toda solución de agujero de gusano a las ecuaciones de Einstein permitía alguna forma de viaje en el tiempo. Según el relativista Frank Tipler, «pueden encontrarse soluciones a las ecuaciones de campo que exhiben virtualmente cualquier tipo de comportamiento extraño».[121] De este modo, se descubría una explosión de soluciones patológicas a las ecuaciones de Einstein que ciertamente hubieran horrorizado a Einstein si hubiese estado todavía vivo. Las ecuaciones de Einstein, en cierto sentido, eran como un caballo de Troya. Superficialmente, el caballo parece un regalo perfectamente aceptable, dándonos la curvatura observada de la luz estelar bajo la acción de la gravedad y una explicación concluyente del origen del universo. Sin embargo, en su interior pululan todo tipo de demonios y monstruos extraños, que permiten la posibilidad de viajes interestelares a través de agujeros de gusano así como viajes en el tiempo. El precio que teníamos que pagar por escudriñar los secretos más oscuros del universo era el potencial desmoronamiento de nuestras creencias más comúnmente mantenidas acerca de nuestro mundo: la de que el espacio es simplemente conexo y su historia es inalterable. Pero sigue quedando la siguiente pregunta: ¿podrían estas CTC ser desechadas sobre bases puramente experimentales, como hizo Einstein, o podría alguien demostrar que eran teóricamente posibles y a continuación construir realmente una máquina del tiempo? Construir una máquina del tiempo En junio de 1988, tres físicos (Kip Thorne y Michael Morris del Instituto Tecnológico de California, y Ulvi Yurtsever de la Universidad de Michigan) hicieron la primera propuesta seria de una máquina del tiempo. Convencieron a los editores de Physical Review Letters, una de las publicaciones más distinguidas del mundo, de que su obra merecía seria consideración. (Durante décadas, montones de propuestas chifladas de viajes en el tiempo habían sido propuestas a las principales revistas de física pero todas habían sido rechazadas porque no se basaban en principios físicos correctos o en las ecuaciones de Einstein.) Como científicos experimentados, presentaron sus argumentos en un lenguaje aceptado de teoría de campos y luego explicaron cuidadosamente dónde estaban sus hipótesis más débiles.

Thorne y sus colegas comprendieron que, para superar el escepticismo de la comunidad científica, tendrían que rebatir las objeciones estándar a la utilización de agujeros de gusano como máquinas del tiempo. En primer lugar, como se mencionó antes, el propio Einstein advirtió que las fuerzas gravitatorias en el centro de un agujero negro serían tan enormes que cualquier nave espacial quedaría destrozada. Aunque los agujeros de gusano fueran matemáticamente posibles, en la práctica serían inútiles. En segundo lugar, los agujeros de gusano podrían ser inestables. Se podría demostrar que pequeñas perturbaciones en los agujeros de gusano provocarían el colapso del puente de EinsteinRosen. De este modo, la presencia de una nave espacial en el interior de un agujero negro sería suficiente para provocar una perturbación que cerrara la entrada del agujero de gusano. Tercero, uno tendría que ir a velocidad mayor que la de la luz para penetrar realmente en el agujero de gusano y llegar al otro lado. Cuarto, los efectos cuánticos serían tan grandes que el agujero de gusano podría cerrarse por sí mismo. Por ejemplo, la intensa radiación emitida por la entrada del agujero negro no sólo mataría a cualquiera que tratase de entrar en el agujero negro, sino que también podría cerrar la entrada. Quinto, el tiempo se frena en un agujero de gusano y llega a detenerse completamente en el centro. Así pues, los agujeros de gusano tienen la característica indeseable de que, vistos por alguien en la Tierra, un viajero espacial parece frenarse y llegar a una parada total en el centro del agujero negro. Parece como si el viajero espacial estuviera congelado en el tiempo. En otras palabras, el viajero espacial necesita una cantidad infinita de tiempo para atravesar un agujero de gusano. Suponiendo, por el momento, que uno pudiera de alguna forma llegar a atravesar el centro del agujero de gusano y volver a la Tierra, la distorsión del tiempo seguiría siendo tan grande que podrían haber pasado millones o incluso miles de millones de años en la Tierra. Por todas estas razones, las soluciones de agujero de gusano nunca fueron tomadas en serio. Thorne es un cosmólogo serio, alguien que normalmente podría ver las máquinas del tiempo con extremo escepticismo o incluso burla. Sin embargo, Thorne se vio llevado gradualmente a esta investigación de la forma más curiosa. En el verano de 1985, Carl Sagan envió a Thorne el borrador de su nuevo libro, una novela denominada Contacto, que explora seriamente las cuestiones científicas y políticas que rodean a un suceso que marcaría una época: la entrada en contacto con la primera vida extraterrestre en el espacio exterior. Todo científico que considere la cuestión de la vida en el espacio exterior debe enfrentarse a la cuestión de cómo romper la barrera de la luz. Puesto que la teoría de la relatividad especial de Einstein prohíbe explícitamente viajar a velocidad mayor que la de la luz, puede llevar miles de años el viajar a las estrellas lejanas en una nave espacial convencional, haciendo así impracticable el viaje interestelar. Como Sagan quería hacer su libro tan científicamente preciso como fuera posible, escribió a Thorne preguntando si existía cualquier forma científicamente aceptable de evitar la barrera de la luz. La solicitud de Sagan picó la curiosidad intelectual de Thorne. Aquí había una petición honesta y científicamente relevante hecha por un científico a otro y que exigía una respuesta seria. Afortunadamente, debido a la naturaleza poco ortodoxa de la petición, Thorne y sus colegas enfocaron la cuestión de una forma muy inusual: trabajaron hacia atrás. Normalmente, los físicos empiezan con cierto objeto astronómico conocido (una estrella de neutrones, un agujero negro, el

big bang) y luego resuelven las ecuaciones de Einstein para encontrar la curvatura del espacio circundante. La esencia de las ecuaciones de Einstein, recordémoslo, es que el contenido de materia y energía de un objeto determina la cantidad de curvatura en el espacio y el tiempo circundantes. Procediendo de este modo, tenemos la garantía de encontrar soluciones a las ecuaciones de Einstein para los objetos astronómicamente relevantes que esperamos encontrar en el espacio exterior. Sin embargo, debido a la extraña petición de Sagan, Thorne y sus colaboradores enfocaron la cuestión hacia atrás. Partieron con una idea cruda de lo que querían encontrar. Buscaban una solución a las ecuaciones de Einstein en la que el viajero espacial no, fuese desgarrado por los efectos de marea del intenso campo gravitatorio. Buscaban un agujero de gusano que fuera estable y que no se cerrara repentinamente a mitad del viaje. Buscaban un agujero de gusano en el que el tiempo que se necesita para un viaje de ida y vuelta se midiera en días, no en millones o miles de millones de años, y así sucesivamente. De hecho, su principio guía consistía en que trataban de que un viajero en el tiempo tuviera un regreso razonablemente confortable a través del tiempo después de entrar en el agujero de gusano. Una vez que decidieron qué aspecto tendría su agujero de gusano, entonces, y sólo entonces, empezaron a calcular la cantidad de energía necesaria para crear un agujero de gusano semejante. Desde su punto de vista heterodoxo, no se preocuparon en concreto de si los requisitos de energía estaban mucho más allá de la ciencia del siglo XX. Para ellos, el construir realmente la máquina del tiempo era un problema de ingeniería para alguna civilización futura. Querían probar que era científicamente factible, no que lo fuera económicamente o que estuviese dentro de los límites de la ciencia actual en la Tierra: Normalmente, los físicos teóricos preguntan: «¿Cuáles son las leyes de la física?» y/o «¿Qué predicen dichas leyes acerca del Universo?». En este artículo, nosotros preguntamos, en su lugar: «¿Qué limitaciones ponen las leyes de la física a las actividades de una civilización arbitrariamente avanzada?». Esto llevará a algunas investigaciones interesantes sobre las propias leyes. Empezamos preguntando si las leyes de la física permiten a una civilización arbitrariamente avanzada construir y mantener agujeros de gusano para viajes interestelares.[122]

La frase clave es, por supuesto, «civilización arbitrariamente avanzada». Las leyes de la física nos dicen lo que es posible, no lo que es práctico. Las leyes de la física son independientes de lo que pudiera costar el verificarlas. De este modo, lo que es teóricamente posible puede superar el producto nacional bruto del planeta Tierra. Thorne y sus colegas fueron cuidadosos en afirmar que esta civilización mítica, que puede dominar el poder de los agujeros de gusano, debe ser «arbitrariamente avanzada»; es decir, capaz de realizar todos los experimentos que son posibles (incluso si no son prácticos para los terrícolas). Con gran satisfacción, pronto encontraron con notable facilidad una solución sorprendentemente simple que satisfacía todas sus rígidas condiciones. No era una típica solución de agujero negro en absoluto, de modo que no tuvieron que preocuparse por todos los problemas de ser desgajados por una estrella colapsada. Bautizaron a su solución como el «agujero de gusano practicable», para distinguirlo de las otras soluciones de agujero de gusano que no eran practicables por una nave espacial. Estaban tan excitados por su solución que se la comunicaron a Sagan, quien entonces incorporó algunas de sus ideas en su novela. De hecho, quedaron tan sorprendidos por la simplicidad de su solución que estaban convencidos de que un estudiante que empezase su doctorado en física

sería capaz de comprenderla. En el otoño de 1985, en el examen final de un curso de relatividad general impartido en el Caltech, Thorne dio la solución de agujero de gusano a sus estudiantes sin decirles lo que era, y les pidió que dedujeran sus propiedades físicas. (La mayoría de los estudiantes dio análisis matemáticos detallados de la solución, pero no se dieron cuenta de que tenían ante ellos una solución que permitía el viaje en el tiempo.) Si los estudiantes hubieran sido un poco más observadores en ese examen final habrían sido capaces de deducir algunas propiedades bastante sorprendentes del agujero de gusano. De hecho, hubieran descubierto que un viaje a través de este agujero de gusano practicable sería tan cómodo como un viaje en avión. Las máximas fuerzas gravitatorias experimentadas por los viajeros no superarían 1 g. En otras palabras, su peso aparente no superaría a su peso en la Tierra. Además, los viajeros nunca tendrían que preocuparse de que la entrada del agujero de gusano se cerrara durante el viaje. El agujero de gusano de Thorne está, de hecho, abierto permanentemente. En lugar de necesitar un millón o mil millones de años, un viaje a través del agujero de gusano practicable sería abordable. Morris y Thorne escriben que «el viaje será completamente cómodo y requerirá un total de unos 200 días», o menos.[123] Hasta aquí, Thorne advierte que las paradojas del tiempo que uno halla normalmente en las películas no se encuentran: «De la exposición a los guiones de ciencia ficción (por ejemplo, aquellos en los que uno vuelve atrás en el tiempo y se mata a sí mismo) uno podría esperar que las CTC den lugar a trayectorias iniciales con multiplicidades nulas» (es decir, trayectorias que son imposibles). [124] Sin embargo, él ha demostrado que las CTC que aparecen en su agujero de gusano parecen cumplir el pasado, más que cambiarlo o iniciar paradojas temporales. Finalmente, al presentar estos resultados sorprendentes a la comunidad científica, Thorne escribía: «Se presenta una nueva clase de soluciones de las ecuaciones de campo de Einstein, que describen agujeros de gusano que, en principio, podrían ser atravesados por seres humanos». Hay, por supuesto, una trampa en todo esto, que es una razón por la que hoy no tenemos máquinas del tiempo. El último paso en el cálculo de Thorne consistía en deducir la naturaleza exacta de la materia y la energía necesarias para crear este maravilloso agujero de gusano practicable. Thorne y sus colegas descubrieron que en el centro del agujero de gusano debe haber una forma de materia «exótica» que tiene propiedades inusuales. Thorne apunta rápidamente que, aunque inusual, esta forma de materia «exótica» no parece violar ninguna de las leyes de la física conocidas. Él advierte que, en algún momento futuro, los científicos pueden demostrar que la materia exótica no existe. Sin embargo, la materia exótica parece ser, por el momento, una forma perfectamente aceptable de materia siempre que uno tenga acceso a una tecnología suficientemente avanzada. Thorne escribe confiadamente que «a partir de un solo agujero de gusano, una civilización arbitrariamente avanzada puede construir una máquina para viajar hacia atrás en el tiempo». Proyecto para una máquina del tiempo Cualquiera que haya leído La máquina del tiempo de H. G. Wells, sin embargo, puede sentirse insatisfecho con el proyecto de Thorne para una máquina del tiempo. Usted no se sienta en una silla en su sala de estar, gira unos pocos botones, ve luces parpadeantes, y es testigo del vasto panorama de la historia, incluyendo las guerras mundiales destructivas, el auge y caída de las grandes

civilizaciones, o los frutos de las maravillas científicas futuristas. Una versión de la máquina del tiempo de Thorne consiste en dos cabinas, cada una de las cuales contiene dos placas de metal paralelas. Los intensos campos eléctricos creados entre cada par de placas (mayores que cualquier cosa posible con la tecnología actual) rizan el tejido del espaciotiempo, creando un agujero en el espacio que une las dos cabinas. Una cabina se coloca entonces en una nave espacial y es acelerada hasta velocidades próximas a la de la luz, mientras que la otra permanece en la Tierra. Puesto que un agujero de gusano puede conectar dos regiones del espacio con tiempos diferentes, un reloj en la primera cabina marcha más despacio que un reloj en la segunda cabina. Debido a que el tiempo transcurriría a diferentes velocidades en los dos extremos del agujero de gusano, cualquiera que entrase en un extremo del agujero de gusano sería instantáneamente lanzado al pasado o al futuro. Otra máquina del tiempo podría tener el siguiente aspecto. Si puede encontrarse materia exótica y dársele la forma de metal, entonces la forma ideal sería probablemente un cilindro. Un ser humano está situado en el centro del cilindro. La materia exótica distorsiona entonces el espacio y el tiempo a su alrededor, creando un agujero de gusano que se conecta a una parte lejana del universo en un tiempo diferente. En el centro del vórtice está el ser humano, que no experimenta más que 1 g de tensión gravitatoria cuando es absorbido en el agujero de gusano y se encuentra a sí mismo en el otro extremo del universo. Aparentemente, el razonamiento matemático de Thorne es impecable. Las ecuaciones de Einstein muestran en realidad que las soluciones de agujero de gusano permiten que el tiempo transcurra a diferentes velocidades en cada extremo del agujero de gusano, de modo que en principio el viaje en el tiempo es posible. El truco, por supuesto, consiste en crear el agujero de gusano en primer lugar. Como Thorne y sus colaboradores señalan rápidamente, el principal problema es cómo dominar suficiente energía para crear y mantener un agujero de gusano con materia exótica. Normalmente, una de las ideas básicas de la física elemental es que todos los objetos tienen energía positiva. Las moléculas vibrantes, los automóviles en movimiento, los pájaros que vuelan y los misiles propulsados tienen todos energía positiva. (Por definición, el espacio vacío tiene energía nula.) Sin embargo, si podemos producir objetos con «energías negativas» (es decir, algo que tiene un contenido de energía menor que el del vacío), entonces podríamos ser capaces de generar configuraciones exóticas de espacio y tiempo en las que el tiempo se curve en un círculo. Este concepto más bien simple se conoce con un título que suena complicado: la condición de energía media débil (average weak energy condition, o AWEC). Como Thorne tiene cuidado en señalar, la AWEC debe ser violada; la energía debe hacerse temporalmente negativa para que el viaje en el tiempo tenga éxito. Sin embargo, la energía negativa ha sido históricamente anatema para los relativistas, que advierten que la energía negativa haría posible la antigravedad y un montón de otros fenómenos que nunca se han visto experimentalmente. Pero Thorne señala al momento que existe una forma de obtener energía negativa, y esto es a través de la teoría cuántica. En 1948, el físico holandés Henrik Casimir demostró que la teoría cuántica puede crear energía negativa: tomemos simplemente dos grandes placas de metal paralelas y descargadas. Ordinariamente, el sentido común nos dice que estas dos placas, puesto que son eléctricamente neutras, no ejercen ninguna fuerza entre sí. Pero Casimir demostró que, debido al

principio de incertidumbre de Heisenberg, en el vacío que separa estas dos placas hay realmente una agitada actividad, con billones de partículas y antipartículas apareciendo y desapareciendo constantemente. Aparecen a partir de la nada y vuelven a desaparecer en el vacío. Puesto que son tan fugaces, son, en su mayoría, inobservables, y no violan ninguna de las leyes de la física. Estas «partículas virtuales» crean una fuerza neta atractiva entre estas dos placas que Casimir predijo que era medible. Cuando Casimir publicó su artículo, se encontró con un fuerte escepticismo. Después de todo, ¿cómo pueden atraerse dos objetos eléctricamente neutros, violando así las leyes normales de la electricidad clásica? Esto era inaudito. Sin embargo, en 1958 el físico M. J. Sparnaay observó este efecto en el laboratorio, exactamente como había predicho Casimir. Desde entonces, ha sido bautizado como el efecto Casimir. Una manera de aprovechar el efecto Casimir es colocar dos grandes placas conductoras paralelas en la entrada de cada agujero de gusano, creando así energía negativa en cada extremo. Como concluyen Thorne y sus colegas: «Podría resultar que la condición de energía media débil nunca pueda violarse, en cuyo caso no habría cosas tales como agujeros de gusano practicables, viajes en el tiempo o fallos de causalidad. Es prematuro tratar de cruzar un puente antes de llegar a él».[125] Por el momento, aún no hay veredicto sobre la máquina del tiempo de Thorne. Todos están de acuerdo en que el factor decisivo es tener una teoría de la gravedad completamente cuantizada para zanjar la cuestión de una vez por todas. Por ejemplo, Stephen Hawking ha señalado que la radiación emitida en la entrada del agujero de gusano sería muy grande y contribuiría a su vez al contenido de materia y energía de las ecuaciones de Einstein. Esta realimentación en las ecuaciones de Einstein distorsionaría la entrada del agujero de gusano, quizá incluso cerrándolo para siempre. Thorne, sin embargo, discrepa en que la radiación sea suficiente para cerrar la entrada. Aquí es donde interviene la teoría de supercuerdas. Puesto que la teoría de supercuerdas es una teoría completamente mecanocuántica que incluye la teoría de la relatividad general de Einstein como un subconjunto, puede ser utilizada para calcular correcciones a la teoría del agujero de gusano original. En principio, nos permitiría determinar si la condición AWEC es físicamente realizable, y si la entrada del agujero de gusano permanece abierta para que los viajeros del tiempo disfruten de un viaje al pasado. Hawking ha expresado sus reservas sobre los agujeros de gusano de Thorne. Sin embargo, esto resulta irónico porque el propio Hawking ha propuesto una nueva teoría de agujeros de gusano que es incluso más fantástica. En lugar de conectar el presente con el pasado, Hawking propone utilizar agujeros de gusano ¡para conectar nuestro universo con un número infinito de universos paralelos!

12 UNIVERSOS EN COLISIÓN

La naturaleza no sólo es más extraña de lo que suponemos; es más extraña de lo que podamos suponer. J. B. S. HALDANE El cosmólogo Stephen Hawking es una de las figuras más trágicas de la ciencia. Condenado por una enfermedad degenerativa incurable, ha continuado sin descanso sus actividades investigadoras haciendo frente a obstáculos casi insuperables. Aunque ha perdido el control de sus manos, piernas, lengua y finalmente sus cuerdas vocales, ha sido la punta de lanza de nuevos caminos de investigación mientras permanece confinado en una silla de ruedas. Cualquier físico de menos categoría hubiera abandonado hace tiempo la lucha por abordar los grandes problemas de la ciencia. Incapaz de sujetar un lápiz o una pluma, realiza todos los cálculos en su cabeza, ayudado ocasionalmente por un asistente. Privado de cuerdas vocales, utiliza dispositivos mecánicos para comunicarse con el mundo exterior. Pero no sólo mantiene un intenso programa de investigación, sino que también dedica tiempo a escribir un libro de gran éxito, Historia del tiempo, y dar conferencias por todo el mundo. Visité una vez a Hawking en su casa en las afueras de la Universidad de Cambridge cuando fui invitado a hablar en una conferencia de física que él organizaba. Caminando por su sala de estar, quedé sorprendido por el impresionante despliegue de ingeniosos artilugios que él utiliza para continuar su investigación. Por ejemplo, vi en su mesa de trabajo un dispositivo muy parecido al que utilizan los músicos para sostener las partituras. Sin embargo, éste era mucho más elaborado y tenía la capacidad de coger cada página y volverla cuidadosamente para leer un libro. (Me estremecí al pensar, como creo que lo hacen muchos físicos, si yo hubiera tenido el ánimo y la enorme fuerza de voluntad para continuar la investigación sin brazos, piernas o voz, incluso si tuviese a mi disposición las mejores ayudas mecánicas.) Hawking es el titular de la cátedra Lucasiana de Física en la Universidad de Cambridge, la misma que ocupó Isaac Newton. Y como su ilustre predecesor, Hawking se ha embarcado en la mayor búsqueda del siglo, la unificación final de la teoría de la gravedad de Einstein y la teoría cuántica. Como resultado, también él se ha sentido maravillado por la elegante coherencia de la teoría decadimensional, y de hecho cierra su conocido libro con un análisis de la misma. Hawking ya no dedica el grueso de su energía creativa al campo que le hizo mundialmente famoso: los agujeros negros, que ahora ya están superados. Él persigue una pieza mayor: la teoría del campo unificado. La teoría de cuerdas, recordémoslo, empezó como una teoría cuántica y posteriormente absorbió a la teoría de la gravedad de Einstein. Hawking, partiendo como un puro relativista clásico más que como un teórico cuántico, enfoca el problema desde el punto de vista inverso. Él y su colega James Hartle parten del universo clásico de Einstein, y luego ¡cuantizan el

universo entero! La función de onda del universo Hawking es uno de los fundadores de una nueva disciplina científica, denominada cosmología cuántica. A primera vista, esto parece una contradicción en los términos. La palabra cuántico se aplica al mundo infinitesimalmente pequeño de los quarks y los neutrinos, mientras que cosmología significa la extensión casi ilimitada del espacio exterior. Sin embargo, Hawking y otros creen ahora que las preguntas finales de la cosmología sólo pueden ser respondidas por la teoría cuántica. Hawking lleva la cosmología cuántica a sus últimas consecuencias cuánticas, que permiten la existencia de un número infinito de universos paralelos. Recordemos que el punto de partida de la teoría cuántica es una función de onda que describe todos los diversos estados posibles de una partícula. Por ejemplo, imaginemos un gran nubarrón irregular que cubre el cielo. Cuanto más oscuro es el nubarrón, mayor es la concentración de vapor de agua y polvo en dicho punto. De este modo, mirando sencillamente al nubarrón, podemos estimar rápidamente la probabilidad de encontrar grandes concentraciones de agua y polvo en ciertas partes del cielo. El nubarrón puede compararse a una sola función de onda electrónica. Al igual que un nubarrón, ésta llena todo el espacio. Análogamente, cuanto mayor es su valor en un punto, mayor es la probabilidad de encontrar allí el electrón. Asimismo, las funciones de onda pueden estar asociadas con objetos grandes, como personas. Cuando estoy sentado en mi sillón en Princeton, sé que tengo una función de onda de probabilidad de Schrödinger. Si de algún modo pudiera ver mi propia función de onda, se parecería a una nube con una forma muy aproximada a la de mi cuerpo. Sin embargo, algo de la nube se extenderá por todo el espacio, más allá de Marte e incluso más allá del sistema solar, aunque allí sea prácticamente nula. Esto significa que existe una probabilidad muy grande de que yo esté, de hecho, sentado en mi silla y no en el planeta Marte. Aunque parte de mi función de onda se extienda incluso más allá de la Vía Láctea, hay sólo una probabilidad infinitesimal de que yo esté sentado en otra galaxia. La nueva idea de Hawking consistía en tratar el universo entero como si fuera una partícula cuántica. Repitiendo algunos pasos simples, nos vemos llevados a algunas conclusiones esclarecedoras. Empezamos con una función de onda que describe el conjunto de todos los universos posibles. Esto significa que el punto de partida de la teoría de Hawking debe ser un conjunto infinito de universos paralelos, la función de onda del universo. El análisis bastante simple de Hawking, reemplazando la palabra partícula por universo, ha conducido a una revolución conceptual en nuestras ideas sobre la cosmología. Según esta imagen, la función de onda del universo se extiende sobre todos los universos posibles. Se supone que la función de onda es muy grande cerca de nuestro propio universo, de modo que hay una buena probabilidad de que nuestro universo sea el correcto, tal como esperamos. Sin embargo, la función de onda se extiende sobre todos los demás universos, incluso sobre aquellos que no tienen vida y son incompatibles con las leyes familiares de la física. Puesto que se supone que la función de onda es prácticamente nula para estos otros universos, no esperamos que nuestro universo

haga un salto cuántico a ellos en un futuro próximo. El objetivo al que se enfrentan los cosmólogos cuánticos es verificar matemáticamente esta conjetura, demostrar que la función de onda del universo es grande para nuestro universo presente y prácticamente nula para los demás universos. Esto demostraría entonces que nuestro universo familiar es en cierto sentido único y también estable. (Por el momento, los cosmólogos cuánticos son incapaces de resolver este importante problema.) Si tomamos a Hawking en serio, ello significa que debemos empezar nuestro análisis con un número infinito de todos los universos posibles en mutua coexistencia. Para decirlo llanamente, la definición de la palabra universo ya no es «todo lo que existe». Ahora significa «todo lo que puede existir». Por ejemplo, en la figura 12.1 vemos cómo la función de onda del universo puede extenderse sobre varios universos posibles, siendo nuestro universo el más probable pero ciertamente no el único. La cosmología cuántica de Hawking también supone que la función de onda del universo permite que estos universos colisionen. Pueden desarrollarse agujeros de gusano que unan estos universos. Sin embargo, estos agujeros de Fig ura 12.1. En la función de onda del universo de Hawking, gusano no son como los que encontramos en los ésta se halla concentrada con más probabilidad en torno a nuestro propio universo. Vivimos en nuestro universo porque es capítulos anteriores, que conectan diferentes partes el que tiene la probabilidad más alta. Sin embargo, existe una dentro del mismo espacio tridimensional. Los probabilidad pequeña pero no nula de que la función de onda nuevos agujeros de gusano conectan diferentes prefiera universos paralelos vecinos. De este modo, las transiciones entre universos pueden ser posibles (aunque con universos entre sí. probabilidad muy pequeña). Pensemos, por ejemplo, en una gran colección de pompas de jabón suspendidas en el aire. Normalmente, cada pompa de jabón es como un universo en sí mismo, excepto que periódicamente choca con otra pompa para formar una más grande, o se divide en dos pompas más pequeñas. La diferencia está en que cada pompa de jabón es ahora un universo decadimensional completo. Puesto que el espacio y el tiempo pueden existir sólo dentro de cada pompa, no hay tal cosa como espacio y tiempo entre las pompas. Cada universo tiene su propio «tiempo» autocontenido. No tiene sentido decir que el tiempo transcurre a la misma velocidad en todos estos universos. (Deberíamos resaltar, sin embargo, que el viaje entre estos universos no está abierto a nosotros a causa de nuestro nivel tecnológico primitivo. Además, deberíamos resaltar también que las grandes transiciones cuánticas a esta escala son extremadamente raras y probablemente necesitan un tiempo mucho mayor que la duración de nuestro universo.) La mayoría de estos universos son universos muertos, carentes de cualquier vida. En estos universos las leyes de la física serían diferentes, y por lo tanto no se satisfarían las condiciones físicas que hicieran posible la vida. Quizá, entre los miles de millones de universos paralelos, sólo uno (el nuestro) tiene el conjunto correcto de leyes físicas para permitir la vida (figura 12.2).

La teoría del «universo bebé» de Hawking, aunque no sea un método práctico de transporte, plantea ciertamente cuestiones filosóficas y quizá incluso religiosas. Ha estimulado ya dos debates que llevan mucho tiempo cociéndose entre los cosmólogos. ¿Colocar de nuevo a Dios en el universo? El primer debate concierne al principio antrópico. Durante siglos, los científicos han aprendido a ver el universo como algo fundamentalmente independiente de las inclinaciones humanas. Ya no proyectamos nuestros prejuicios y caprichos humanos sobre cada descubrimiento científico. Históricamente, sin embargo, los primeros científicos incurrieron a menudo en la falacia del antropomorfismo, que supone que objetos y animales tienen cualidades de tipo humano. Este error lo comete cualquiera que ve que sus animales de compañía manifiestan emociones y sentimientos humanos. (También lo cometen los guionistas de Hollywood que suponen regularmente que seres similares a nosotros poblarían planetas en órbita alrededor de las estrellas del cielo.) El antropomorfismo es un viejo problema. El filósofo jonio Jenófanes se lamentaba en cierta ocasión: «Los hombres imaginan que los dioses han nacido, y llevan ropas y tienen voces y formas como las nuestras … Sí, los dioses de los etíopes ura 12.2. Nuestro universo puede ser uno entre un número son negros y de nariz chata, y los dioses de los Fig infinito de universos paralelos, cada uno de los cuales está tracios tienen el pelo rojo y los ojos azules». En conectado a los demás por una serie infinita de agujeros de las últimas décadas, algunos cosmólogos se han gusano. El viaje por estos agujeros de gusano es posible pero extremadamente improbable. sentido horrorizados al descubrir que el antropomorfismo se reintroducía en la ciencia bajo la máscara del principio antrópico, algunos de cuyos defensores declaran abiertamente que les gustaría volver a colocar a Dios en la ciencia. Realmente, existe algún valor científico en este extraño debate sobre el principio antrópico, que gira en torno al hecho incontrovertible de que, si las constantes físicas del universo fueran alteradas en la más mínima cantidad, la vida en el universo sería imposible. ¿Es este hecho notable sólo una coincidencia afortunada, o manifiesta el trabajo de algún Ser Supremo? Existen dos versiones del principio antrópico. La versión «débil» afirma que el hecho de que la vida inteligente (nosotros) existe en el universo debería tomarse como un hecho experimental que nos ayuda a comprender las constantes del universo. Como lo explica el premio Nobel Steven Weinberg, «el mundo es como es, al menos en parte, porque de otro modo no habría nadie para preguntar por qué es como es».[126] Expresada de esta forma, la versión débil del principio antrópico

es difícilmente discutible. Para tener vida en el universo, se necesita una rara conjunción de muchas coincidencias. La vida, que depende de una variedad de complejas reacciones bioquímicas, puede fácilmente hacerse imposible si cambiamos alguna de las constantes de la química y la física en una pequeña cantidad. Por ejemplo, si las constantes que gobiernan la física nuclear cambiasen aunque fuera ligeramente, entonces la nucleosíntesis y la creación de los elementos pesados en las estrellas y supernovas podría hacerse imposible. Los átomos podrían hacerse inestables o imposibles de crear en las supernovas. La vida depende de los elementos pesados (elementos por encima del hierro) para la creación de ADN y moléculas de proteínas. Así pues, el más pequeño cambio en la física nuclear haría que los elementos pesados del universo fuesen imposibles de fabricar en las estrellas. Somos hijos de las estrellas; sin embargo, si las leyes de la física nuclear cambiasen lo más mínimo, nuestras «madres» serían incapaces de tener «hijos» (nosotros). Como un ejemplo más, se puede afirmar con seguridad que la creación de la vida en los océanos primitivos necesitó probablemente mil o dos mil millones de años. Sin embargo, si se pudiera contraer de alguna forma la vida media del protón hasta dejarla en varios millones de años, entonces la vida sería imposible. No habría tiempo suficiente para crear vida a partir de colisiones aleatorias de moléculas. En otras palabras, el hecho mismo de que existimos en el universo para plantear estas cuestiones acerca de él significa que debe haber ocurrido necesariamente una compleja secuencia de sucesos. Significa que las constantes físicas de la naturaleza deben tener un cierto intervalo de valores para que las estrellas vivan el tiempo suficiente para crear los elementos pesados de nuestros cuerpos, para que los protones no se desintegren demasiado rápidamente antes de que la vida tenga una oportunidad de germinar, y así sucesivamente. En otras palabras, la existencia de seres humanos que pueden plantearse cuestiones sobre el universo impone un enorme número de rígidas restricciones sobre la física del universo; por ejemplo, su edad, su composición química, su temperatura, su tamaño y sus procesos físicos. Reparando en estas coincidencias cósmicas, el físico Freeman Dyson escribió en cierta ocasión: «Cuando miramos en el Universo e identificamos los muchos accidentes de la física y la astronomía que han colaborado en nuestro beneficio, casi parece que el Universo debe haber sabido, en cierto sentido, que nosotros íbamos a venir». Esto nos lleva a la versión «fuerte» del principio antrópico, que afirma que todas las constantes físicas del universo han sido escogidas de forma precisa (por Dios o por algún Ser Supremo) para que la vida sea posible en nuestro universo. Puesto que plantea cuestiones sobre una deidad, esta versión fuerte es mucho más controvertida entre los científicos. Es concebible que, si lo único que se requiriese para hacer posible la vida es que unas pocas constantes de la naturaleza asumieran ciertos valores, esto podría haber sido fruto del ciego azar. Sin embargo, parece que un gran conjunto de constantes físicas debe asumir una banda estrecha de valores para que se forme la vida en nuestro universo. Puesto que accidentes de este tipo son altamente improbables, quizá una inteligencia divina (Dios) escogió exactamente estos valores para crear la vida. Cuando los científicos oyen hablar por primera vez de alguna versión del principio antrópico, inmediatamente se quedan estupefactos. El físico Heinz Pagels recordaba: «Aquí había una forma de razonamiento completamente ajena a la forma normal que siguen los físicos teóricos en sus asuntos». [127]

El argumento antrópico es una versión más avanzada del viejo argumento de que Dios situó la Tierra precisamente a la distancia justa del Sol. Si Dios hubiese situado la Tierra demasiado próxima, entonces estaría demasiado caliente para mantener la vida. Si Dios hubiera situado la Tierra demasiado lejos, entonces estaría demasiado fría. La falacia de este argumento reside en que millones de planetas en la galaxia están situados probablemente a la distancia incorrecta de su sol y, por lo tanto, la vida en ellos es imposible. Sin embargo, algunos planetas estarán, por puro accidente, a la distancia correcta de su sol. Nuestro planeta es uno de ellos y por eso estamos aquí para discutir la cuestión. Con el tiempo, la mayoría de los científicos quedan desilusionados con el principio antrópico porque no tiene poder predictivo, ni puede ser verificado. Pagels concluía con pesar que «a diferencia de los principios de la física, no proporciona ninguna forma de determinar si es correcto o falso; no hay manera de verificarlo. A diferencia de los principios físicos convencionales, el principio antrópico no está sujeto a falsación experimental —la señal cierta de que no es un principio científico».[128] El físico Alan Guth dice con franqueza: «Emocionalmente, me parece un camino equivocado … El principio antrópico es algo que la gente propone si no pueden pensar en algo mejor que hacer».[129] Para Richard Feynman, el objetivo de un físico teórico es «demostrarse a sí mismo que está equivocado en cuanto sea posible».[130] Sin embargo, el principio antrópico es estéril y no puede ser refutado. O, como dijo Weinberg, «aunque la ciencia es claramente imposible sin científicos, no está claro que el universo sea imposible sin ciencia».[131] El debate sobre el principio antrópico (y por consiguiente, sobre Dios) estuvo en letargo durante muchos años, aunque fue reavivado recientemente por la función de onda del universo de Hawking. Si Hawking está en lo cierto, entonces existen en realidad un número infinito de universos paralelos, muchos de ellos con diferentes constantes físicas. En algunos de ellos, quizá los protones se desintegran con demasiada rapidez, o las estrellas no pueden fabricar los elementos pesados por encima del hierro, o el big crunch tiene lugar demasiado deprisa antes de que pueda empezar la vida, y así sucesivamente. De hecho, un número infinito de estos universos paralelos están muertos, sin leyes físicas que puedan hacer posible la vida tal como la conocemos. En tal universo paralelo (el nuestro), las leyes de la física eran compatibles con la vida tal como la conocemos. La prueba es que nosotros estamos hoy aquí para discutir la cuestión. Si esto es cierto, entonces quizá no haya que invocar a Dios para explicar por qué la vida, por preciosa que sea, es posible en nuestro universo. Sin embargo, esto reabre la posibilidad del principio antrópico débil, es decir, que coexistamos con muchos universos muertos, y que el nuestro sea el único compatible con la vida. La segunda controversia estimulada por la función de onda del universo de Hawking es mucho más profunda y, de hecho, aún está sin resolver. Se denomina el problema del gato de Schrödinger. El gato de Schrödinger, revisado Puesto que la teoría de Hawking de los universos bebé y los agujeros de gusano utiliza el poder de la teoría cuántica, inevitablemente reabre los debates aún no resueltos relativos a sus fundamentos. La función de onda del universo de Hawking no resuelve completamente estas paradojas de la teoría

cuántica; sólo las expresa a una nueva y sorprendente luz. La teoría cuántica, recordémoslo, afirma que para todo objeto existe una función de onda que mide la probabilidad de encontrar dicho objeto en un cierto punto del espacio y del tiempo. La teoría cuántica afirma también que nunca se conoce realmente el estado de una partícula hasta que se haya hecho una observación. Antes de que se haga una medida, la partícula puede estar en uno de entre una diversidad de estados, descritos por la función de onda de Schrödinger. Por consiguiente, antes de que pueda hacerse una observación o medida, no se puede conocer realmente el estado de la partícula. De hecho, la partícula existe en un estado ultramundano, una suma de todos los estados posibles, hasta que se hace una medida. Cuando esta idea fue propuesta por primera vez por Niels Bohr y Werner Heisenberg, Einstein se revolvió contra ella. «¿Existe la Luna sólo porque la mira un ratón?», le gustaba preguntar. Según la interpretación estricta de la teoría cuántica, la Luna, antes de que sea observada, no existe realmente tal como la conocemos. La Luna puede estar, de hecho, en uno cualquiera de entre un número infinito de estados, incluyendo el estado de estar en el cielo, de estar explotando, o de no estar allí en absoluto. Es el proceso de medida que consiste en mirarla el que decide que la Luna está realmente girando alrededor de la Tierra. Einstein tuvo muchas discusiones acaloradas con Niels Bohr desafiando este punto de vista heterodoxo. (En una discusión, Bohr dijo exasperado a Einstein: «¡Tú no estás pensando, simplemente estás siendo lógico!».)[132] Incluso Erwin Schrödinger (que inició la discusión global con su famosa ecuación de onda) protestó contra esta reinterpretación de su ecuación. Una vez se lamentó: «No me gusta, y lamento haber tenido algo que ver con ello».[133] Para desafiar esta interpretación revisionista, los críticos preguntan: «¿Está un gato muerto o vivo antes de que se le mire?». Para demostrar lo absurdo de esta pregunta, Schrödinger colocó un gato imaginario en una caja cerrada. El gato está frente a una pistola, que está conectada a un contador Geiger, que a su vez está conectado a un fragmento de uranio. El átomo de uranio es inestable y sufrirá una desintegración radiactiva. Si se desintegra un núcleo de uranio, será detectado por el contador Geiger que entonces disparará la pistola, cuya bala matará al gato. Para decidir si el gato está muerto o vivo, debemos abrir la caja y observar el gato. Sin embargo, ¿cuál es el estado del gato antes de que abramos la caja? Según la teoría cuántica, sólo podemos afirmar que el gato está descrito por una función de onda que describe la suma de un gato muerto y un gato vivo. Para Schrödinger, la idea de pensar en gatos que no están ni muertos ni vivos era el colmo del absurdo, pero la confirmación experimental de la mecánica cuántica nos lleva inevitablemente a esta conclusión. Hasta el momento, todos los experimentos han verificado la teoría cuántica. La paradoja del gato de Schrödinger es tan extraña que uno recuerda a menudo la reacción de Alicia al ver desaparecer al gato de Cheshire en el cuento de Lewis Carroll: «“Allí me verás”, dijo el Gato, y desapareció. Alicia no se quedó muy sorprendida por esto, pues se estaba acostumbrando a ver suceder cosas extrañas». Durante años, también los físicos se han acostumbrado a ver cosas «extrañas» sucediendo en la mecánica cuántica. Existen al menos tres formas principales de abordar esta dificultad por parte de los físicos. En

primer lugar, podemos suponer que Dios existe. Puesto que todas las «observaciones» implican un observador, entonces debe haber alguna «conciencia» en el universo. Algunos físicos, como el premio Nobel Eugene Wigner, han insistido en que la teoría cuántica prueba la existencia de algún tipo de conciencia cósmica universal. La segunda forma de tratar la paradoja es la preferida por la gran mayoría de físicos en activo: ignorar el problema. La mayoría de los físicos, señalando que una cámara sin ninguna conciencia también puede hacer medidas, simplemente desean que este problema peliagudo, pero inevitable, desaparezca. El físico Richard Feynman dijo en cierta ocasión: «Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿Pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado. Nadie sabe cómo puede ser eso».[134] De hecho, a menudo se ha dicho que de todas las teorías propuestas en este siglo, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría cuántica tiene a su favor, de hecho, es que es indudablemente correcta. Sin embargo, existe una tercera forma de tratar esta paradoja, denominada la teoría de los muchos universos. Esta teoría (como el principio antrópico) no gozó de mucho favor en las últimas décadas, pero está siendo revitalizada por la función de onda del universo de Hawking. Muchos universos En 1957, el físico Hugh Everett planteó la posibilidad de que durante la evolución del universo, éste se «dividía» continuamente en dos, como una bifurcación en una carretera. En un universo, el átomo de uranio no se desintegraba y el gato no moría. En el otro, el átomo de uranio se desintegraba y el gato moría. Si Everett tiene razón, existe un infinito número de universos. Cada universo está ligado a otro a través de la red de bifurcaciones en la carretera. O, como escribió el escritor argentino Jorge Luis Borges en El jardín de senderos que se bifurcan, «el tiempo se bifurca continuamente hacia incontables futuros». El físico Bryce DeWitt, uno de los proponentes de la teoría de los muchos universos, describe el impacto duradero que causó en él: «Cada transición cuántica que tiene lugar en cada estrella, en cada galaxia, en cada rincón remoto del universo está desdoblando nuestro universo local en la Tierra en miríadas de copias de sí mismo. Aún recuerdo vivamente la conmoción que experimenté al encontrar por primera vez este concepto de multiuniverso».[135] La teoría de los muchos universos postula que todos los universos cuánticos posibles existen. En algunos universos, los seres humanos existen como forma de vida dominante en la Tierra. En otros universos, tuvieron lugar sucesos subatómicos que impidieron la evolución de los seres humanos en este planeta. Como apuntó el físico Frank Wilczek: Se dice que la historia del mundo sería totalmente distinta si Helena de Troya hubiera tenido una verruga en la punta de su nariz. Bien, las verrugas pueden aparecer por mutaciones en simples células, a menudo provocadas por la exposición a los rayos ultravioleta del Sol. Conclusión: existen muchos, muchos universos en los que Helena de Troya tuvo una verruga en la punta de su nariz.[136]

Realmente, la idea de que pueden existir universos múltiples es una vieja idea. El filósofo san Alberto Magno escribió: «¿Existen muchos mundos, o sólo hay un mundo? Ésta es una de las

cuestiones más nobles y excelsas en el estudio de la Naturaleza». Sin embargo, el nuevo giro en esta antigua idea es que estos muchos universos resuelven la paradoja del gato de Schrödinger. En un universo, el gato puede estar muerto; en otro, el gato está vivo. Por extraña que pueda parecer la teoría de los muchos universos de Everett, es posible demostrar que es matemáticamente equivalente a la interpretación usual de la teoría cuántica. Pero tradicionalmente, la teoría de los muchos universos de Everett no ha sido popular entre los físicos. Aunque no puede ser descartada, la idea de un número infinito de universos igualmente válidos, cada uno de ellos dividiéndose en dos a cada instante de tiempo, plantea una pesadilla filosófica para los físicos, que aman la simplicidad. Existe un principio de la física denominado navaja de Occam, que afirma que siempre deberíamos tomar el camino más sencillo posible e ignorar las alternativas más complicadas, especialmente si las alternativas no pueden medirse nunca. (Por consiguiente, la navaja de Occam rechaza la vieja teoría del «éter», que afirmaba que un misterioso gas impregnaba el universo entero. La teoría del éter proporcionaba una respuesta conveniente a una pregunta embarazosa: si la luz es una onda, y la luz puede viajar en el vacío, entonces ¿qué es lo que está ondulando? La respuesta era que el éter, como un fluido, estaba vibrando incluso en el vacío. Einstein demostró que el éter era innecesario. Sin embargo, nunca dijo que el éter no existiera. Simplemente dijo que era irrelevante. Por consiguiente, por la navaja de Occam, los físicos ya no se refieren más al éter.) Se puede demostrar que la comunicación entre los muchos universos de Everett no es posible. Por consiguiente, cada universo desconoce la existencia de los demás. Si los experimentos no pueden verificar la existencia de estos universos, deberíamos eliminarlos por la navaja de Occam. En una línea parecida, los físicos no afirman categóricamente que los ángeles y los milagros no puedan existir. Quizá existan. Pero los milagros, casi por definición, no son repetibles, y por lo tanto no son experimentalmente medibles. Por consiguiente, por la navaja de Occam debemos desecharlos (a menos, por supuesto, de que podamos encontrar un milagro o un ángel medible o reproducible). Uno de los físicos que desarrolló la teoría de los muchos universos, el mentor de Everett, John Wheeler, la rechazó de mala gana porque «requería llevar demasiado equipaje metafísico».[137] La impopularidad de la teoría de los muchos universos, sin embargo, puede disminuir a medida que la función de onda del universo de Hawking gana adeptos. La teoría de Everett se basaba en partículas simples sin ninguna posibilidad de comunicación entre universos diferentes cuando éstos se dividían. Sin embargo, la teoría de Hawking, aunque relacionada, va mucho más lejos: se basa en un número infinito de universos autocontenidos (y no sólo partículas) y postula la posibilidad de pasar de uno a otro (vía agujeros de gusano). Hawking ha emprendido incluso la terrible tarea de calcular la solución de la función de onda del universo. Confía en que este enfoque es parcialmente correcto porque la teoría está bien definida (si, como mencionamos, la teoría se define finalmente en diez dimensiones). Su objetivo es demostrar que la función de onda del universo toma un valor muy alto cerca de un universo que se parezca al nuestro. Así pues, nuestro universo es el universo más probable, pero ciertamente no es el único. Hasta el momento, se han celebrado varias conferencias internacionales sobre la función de onda del universo. Sin embargo, como antes, las matemáticas implicadas en la función de onda del universo están más allá de la capacidad de cálculo de cualquier ser humano en este planeta, y

podríamos tener que esperar años antes de que un individuo emprendedor pudiera encontrar una solución rigurosa a las ecuaciones de Hawking. Universos paralelos Una diferencia importante entre la teoría de los muchos universos de Everett y la función de onda del universo de Hawking es que éste coloca agujeros de gusano que conectan estos universos paralelos en el centro de su teoría. Sin embargo, no hay necesidad de preguntar si usted saldrá algún día del trabajo, abrirá la puerta, entrará en un universo paralelo y descubrirá que su familia nunca oyó hablar de usted. En lugar de correr a su encuentro después de un duro día de trabajo, su familia es presa del pánico, le considera un intruso y usted va a la cárcel por allanamiento de morada. Este tipo de escena sucede sólo en la televisión o en las películas. Es cierto que, en el enfoque de Hawking, los agujeros de gusano sí conectan constantemente nuestro universo con millones y millones de universos paralelos, pero el tamaño de estos agujeros de gusano es, en promedio, extraordinariamente pequeño, más o menos del tamaño de la longitud de Planck (unos cien trillones de veces más pequeño que un protón, demasiado pequeño para el viaje de un ser humano). Además, puesto que son infrecuentes las grandes transiciones cuánticas entre dichos universos, podríamos tener que esperar un tiempo muy largo, más largo que la vida del universo, antes de que tuviera lugar un suceso semejante. Así pues, es perfectamente consistente con las leyes de la física (aunque altamente improbable) que alguien pueda entrar en un universo gemelo que sea exactamente igual que el nuestro excepto en alguna pequeña diferencia crucial, creado en algún instante en el tiempo cuando los dos universos se separan. Este tipo de universo paralelo fue explorado por John Wyndham en la historia «Búsqueda al azar». Colin Trafford, un físico nuclear británico, está a punto de morir en 1954 cuando explota un experimento nuclear. En lugar de encontrarse en el hospital, él se despierta, solo e ileso, en un barrio remoto de Londres. Se siente aliviado porque todo parece normal, pero pronto descubre que algo anda mal. Todos los titulares de los periódicos son absurdos. La segunda guerra mundial no ocurrió nunca. Ni nunca se descubrió la bomba atómica. La historia del mundo ha sido cambiada. Además, mira en un escaparate y advierte su propio nombre, con su fotografía, como autor de un libro de gran éxito de ventas. Queda conmocionado. ¡Una réplica exacta de sí mismo existe en este universo paralelo como escritor en lugar de como físico nuclear! ¿Está soñando todo esto? Hace años pensó en hacerse escritor, pero en su lugar decidió convertirse en físico nuclear. Aparentemente, en este universo paralelo, se hicieron diferentes elecciones en el pasado. Trafford busca en la guía telefónica de Londres y descubre su nombre, pero la dirección está equivocada. Temblando, decide visitar «su» hogar. Al entrar en «su» apartamento, queda conmocionado al encontrar a «su» esposa —alguien a quien nunca ha visto antes—, una bella mujer que está amargada y furiosa por «sus» numerosos líos con otras mujeres. Ella «le» riñe por sus indiscreciones extramaritales, pero nota que su marido parece confuso. Su réplica, descubre Trafford, es un sinvergüenza y un mujeriego. Sin embargo, encuentra

difícil discutir con una bella desconocida a la que nunca ha visto antes, incluso si resulta ser «su» esposa. Aparentemente, él y su réplica tienen universos cambiados. Poco a poco descubre que se está enamorando de «su» propia esposa. No puede comprender cómo su réplica pudo tratar a su amada esposa de una manera tan despectiva. Las siguientes semanas que pasan juntos son las mejores de sus vidas. Él decide reparar todo el daño que infligió su réplica a su esposa durante años. Entonces, precisamente cuando ambos se están redescubriendo mutuamente, él es devuelto de repente a su propio universo, dejando atrás a «su» amor. Arrojado de nuevo a su propio universo contra su voluntad, empieza una búsqueda frenética para encontrar a «su» esposa. Ha descubierto que la mayoría de las personas, pero no todas, en su universo tienen una réplica en el otro. Seguramente, razona él, «su» esposa debe tener una réplica en su propio universo. Llega a obsesionarse, rastreando todas las claves que recuerda de su universo gemelo. Utilizando todo su conocimiento de la historia y de la física, concluye que los dos mundos divergieron entre sí debido a algún suceso capital en 1926 o 1927. Un único suceso, razona él, debe haber separado los dos universos. Sigue entonces meticulosamente los registros de nacimientos y muertes de varias familias. Gasta todos los ahorros que le quedan entrevistando a montones de personas hasta que localiza el árbol genealógico de «su» esposa. Con el tiempo, tiene éxito en encontrar la pista de «su» esposa en su propio universo. Finalmente, él se casa con ella. El ataque de los agujeros de gusano gigantes Un físico de Harvard que ha saltado a la palestra en la que se discuten los agujeros de gusano es Sidney Coleman. Con aspecto de un cruce entre Woody Allen y Albert Einstein, él recorre los pasillos de Jefferson Hall tratando de convencer a los escépticos de su última teoría de agujeros de gusano. Con su bigote chaplinesco, su cabello desmelenado como el de Einstein y su enorme camiseta, Coleman destaca en medio de una multitud. Ahora afirma que ha resuelto el famoso problema de la constante cosmológica, que ha intrigado a los físicos durante los últimos ochenta años. Su trabajo fue incluso portada del Discover Magazine, con un artículo titulado «Universos paralelos: la nueva realidad, según el físico más heterodoxo de Harvard». Él es también heterodoxo con respecto a la ciencia ficción. Gran aficionado a la misma, incluso colaboró en la fundación de Advent Publishers, que publicaba libros sobre crítica de ciencia ficción. Actualmente, Coleman combate enérgicamente a los críticos que dicen que los científicos no serán capaces de verificar las teorías de agujeros de gusano en el transcurso de nuestra vida. Si creemos en los agujeros de gusano de Thorne, entonces tenemos que esperar a que alguien descubra una materia exótica o domine el efecto Casimir. Hasta entonces, nuestras máquinas del tiempo no tienen «motor» capaz de lanzarnos hacia el pasado. Análogamente, si creemos en los agujeros de gusano de Hawking, tenemos que movernos en un «tiempo imaginario» para viajar entre agujeros de gusano. En cualquier caso, es un estado de cosas muy triste para el físico teórico medio, que se siente frustrado por la tecnología débil e inadecuada del siglo XX y que sólo puede soñar en dominar la energía de Planck. Aquí es donde entra el trabajo de Coleman. Recientemente hizo la afirmación de que los agujeros

de gusano podrían dar un resultado muy tangible y muy medible en la actualidad, y no en algún futuro distante e imprevisible. Como señalamos anteriormente, las ecuaciones de Einstein afirman que el contenido de materia-energía de un objeto determina la curvatura del espacio-tiempo a su alrededor. Einstein se preguntaba si el puro vacío del espacio podría contener energía. ¿Está el puro vacío desprovisto de energía? Esta energía del vacío se mide por algo denominado la constante cosmológica; en principio, no hay nada que impida que una constante cosmológica aparezca en las ecuaciones. Einstein pensaba que este término era estéticamente feo, pero no pudo descartarlo sobre bases físicas o matemáticas. En los años veinte, cuando Einstein trataba de resolver sus ecuaciones para el universo, descubrió, con mucho pesar, que el universo se estaba expandiendo. Hasta entonces, el saber dominante consistía en que el universo era estático e invariable. Para «amañar» sus ecuaciones para impedir la expansión del universo, Einstein incluyó una constante cosmológica minúscula en su solución, escogida para equilibrar exactamente la expansión y dar lugar a un universo estático por decreto. En 1929, cuando Hubble demostró concluyentemente que el universo está realmente en expansión, Einstein eliminó la constante cosmológica y dijo que había sido el «mayor error de mi vida…». Hoy sabemos que la constante cosmológica tiene un valor muy próximo a cero. Si hubiera una pequeña constante cosmológica negativa, entonces la gravedad sería poderosamente atractiva y todo el universo podría tener, pongamos por caso, sólo unos pocos metros. (Extendiendo su mano, usted podría agarrar a la persona que tiene delante, que resultaría ser usted mismo.) Si hubiera una pequeña constante cosmológica positiva, entonces la gravedad sería repulsiva y todo se estaría alejando de usted tan rápidamente que su luz nunca le llegaría. Puesto que ninguna de estas escenas de pesadilla ocurre, confiamos en que la constante cosmológica es extraordinariamente minúscula o incluso nula. Pero este problema volvió a salir a la superficie en los años setenta, cuando la ruptura de simetría se estaba estudiando intensamente en el Modelo Estándar y en la teoría GUT. Cada vez que se rompe una simetría, se vierte una gran cantidad de energía en el vacío. De hecho, la cantidad de energía que inunda el vacío es 10100 veces mayor que la cantidad experimentalmente observada. Esta discrepancia de 10100 es incuestionablemente la mayor de toda la física. En ningún lugar de la física vemos una divergencia tan enorme entre la teoría (que predice una gran energía del vacío cada vez que se rompe una simetría) y el experimento (que mide una constante cosmológica nula en el universo). Aquí es donde intervienen los agujeros de gusano de Coleman; son necesarios para cancelar las contribuciones indeseadas a la constante cosmológica. Según Hawking, puede haber un número infinito de universos alternativos coexistiendo con el nuestro, todos los cuales están conectados por una madeja infinita de agujeros de gusano. Coleman trató de sumar las contribuciones de esta serie infinita. Después de realizar la suma, encontró un sorprendente resultado: la función de onda del universo prefiere tener constante cosmológica nula, como era deseable. Si la constante cosmológica fuera nula, la función de onda se haría excepcionalmente grande, significando que había una alta probabilidad de encontrar un universo con constante cosmológica nula. Además, la función de onda del universo desaparecía rápidamente si la constante cosmológica se hacía distinta de cero, significando que había una probabilidad cero para dicho universo indeseado. Esto era exactamente lo que se necesitaba para cancelar la constante

cosmológica. En otras palabras, la constante cosmológica era nula porque era el resultado más probable. El único efecto de tener billones y billones de universos paralelos era mantener la constante cosmológica nula en nuestro universo. Puesto que éste era un resultado tan importante, los físicos inmediatamente empezaron a lanzarse a este campo. «Cuando Sidney apareció con este trabajo, todo el mundo saltó», recuerda el físico de Stanford Leonard Susskind.[138] En su típico estilo desenfadado, Coleman publicó este resultado potencialmente importante con una pizca de humor. «Siempre cabe la posibilidad de que, sin ser consciente de ello, yo esté metido hasta el cuello en arenas movedizas y hundiéndome rápidamente», escribió.[139] A Coleman le gusta impresionar vivamente a las audiencias con la importancia de este problema: el hecho de que las probabilidades de cancelar una constante cosmológica hasta una parte en 10100 son fantásticamente pequeñas. «Imaginemos que a lo largo de un periodo de diez años usted gasta millones de dólares sin mirar sus ingresos, y cuando finalmente compara lo que usted ganó con lo que gastó, comprueba que se compensan hasta el último penique», señala.[140] Por esta razón, su cálculo, que demuestra que se puede cancelar la constante cosmológica hasta una parte en 10100, es un resultado nada trivial. Para añadir la guinda al pastel, Coleman resalta que dichos agujeros de gusano resuelven también otro problema: ayudan a determinar los valores de las constantes fundamentales del universo. Coleman añade: «Era un mecanismo completamente diferente de cualquiera que hubiera sido considerado. Era como Batman agitándose en su cuerda».[141] Pero también afloraron las críticas; la más persistente era que él suponía que los agujeros de gusano son pequeños, del orden de la longitud de Planck, y que olvidó sumar los agujeros de gusano grandes. Según los críticos, también los agujeros de gusano grandes tendrían que incluirse en su suma. Pero puesto que nosotros no vemos agujeros de gusano grandes y visibles en ninguna parte, parece que su cálculo tiene un fallo fatal. Sin dejarse amilanar por esta crítica, Coleman contestó en su forma usual: eligiendo títulos escandalosos para sus artículos. Para demostrar que los agujeros de gusano grandes pueden despreciarse en su cálculo, escribió una respuesta a sus críticos con el título «Escapada de la amenaza de los agujeros de gusano gigantes». Cuando se le preguntó sobre sus títulos, contestó: «Si se concediesen premios Nobel por los títulos, yo ya habría obtenido el mío».[142] Si los argumentos puramente matemáticos de Coleman fueran correctos, proporcionarían fuerte evidencia experimental de que los agujeros de gusano son una característica esencial de todos los procesos físicos, y no sólo castillos en el aire. Significaría que los agujeros de gusano que conecten nuestro universo con un número infinito de universos muertos son esenciales para impedir que nuestro universo se arrugue en una bola compacta y minúscula, o que explote a velocidades fantásticas. Significaría que los agujeros de gusano son la característica esencial que hace a nuestro universo relativamente estable. Pero, como sucede con la mayoría de los desarrollos que tienen lugar en la longitud de Planck, la solución final a estas ecuaciones de agujeros de gusano tendrá que esperar a que tengamos una mejor comprensión de la gravedad cuántica. Muchas de las ecuaciones de Coleman requieren un medio de eliminar los infinitos comunes a todas las teorías cuánticas de la gravedad, y esto significa utilizar la teoría de supercuerdas. En concreto, podríamos tener que esperar hasta que podamos calcular con

Habilidad correcciones cuánticas finitas a su teoría. Muchas de estas predicciones extrañas tendrán que esperar hasta que podamos afilar nuestras herramientas de cálculo. Como hemos resaltado, el problema es principalmente teórico. Simplemente no tenemos la potencia mental matemática para desbrozar estos problemas bien definidos. Las ecuaciones nos miran desde la pizarra, pero estamos inermes para encontrar soluciones finitas y rigurosas a las mismas por el momento. Una vez que los físicos tengan una mejor comprensión de la física a la energía de Planck, entonces se abrirá un universo entero de nuevas posibilidades. Cualquier persona, o cualquier civilización, que domine verdaderamente la energía encontrada en la longitud de Planck se convertirá en el amo de todas las fuerzas fundamentales. Éste es el próximo tema que abordaremos. ¿Cuándo podemos esperar convertirnos en señores del hiperespacio?

IV SEÑORES DEL HIPERESPACIO

13 MÁS ALLÁ DEL FUTURO

¿Qué significa para una civilización tener un millón de años? Disponemos de radiotelescopios y naves espaciales sólo desde hace unas décadas; nuestra civilización técnica tiene unos pocos cientos de años … y una civilización avanzada de millones de años está tan por delante de nosotros como nosotros lo estamos de un lemúrido o de un macaco. CARL SAGAN El físico Paul Davies comentó en cierta ocasión lo que cabe esperar una vez que hayamos resuelto los misterios de la unificación de todas las fuerzas en una sola superfuerza. Escribió que podremos cambiar la estructura del espacio y del tiempo, atar nuestros propios nudos en la nada, y dar orden a la materia. Controlar la superfuerza nos permitirá crear y transmutar partículas a voluntad, generando así exóticas formas de materia. Quizá seamos capaces incluso de manipular la dimensionalidad del propio espacio, creando extraños mundos artificiales con propiedades inimaginables. Verdaderamente seremos señores del universo.[143]

¿Cuándo esperamos valemos del poder del hiperespacio? La verificación experimental de la teoría del hiperespacio, al menos indirectamente, puede llegar en el siglo XXI. Sin embargo, la escala de energía necesaria para manipular (y no sólo verificar) el espacio-tiempo decadimensional, para convertirnos en «señores del universo», está muchos siglos por delante de la tecnología actual. Como hemos visto, se necesitan enormes cantidades de materia-energía para ejecutar hazañas casi milagrosas, tales como crear agujeros de gusano y alterar la dirección del tiempo. Para ser dueños de la décima dimensión, o bien encontramos vida inteligente en la galaxia que ya haya dominado estos niveles astronómicos de energía, o bien luchamos durante varios miles de años antes de que alcancemos esta capacidad por nosotros mismos. Por ejemplo, nuestros actuales colisionadores de átomos o aceleradores de partículas pueden elevar la energía de una partícula por encima de un billón de electronvoltios (la energía creada si un electrón fuera acelerado por un billón de voltios). El mayor acelerador está actualmente localizado en Ginebra, Suiza, y depende de un consorcio de catorce países europeos. Pero esta energía palidece ante la energía necesaria para sondear el hiperespacio: 1019 miles de millones de electronvoltios, o mil billones de veces mayor que la energía que podría haber producido el SSC. Mil billones (un 1 con quince ceros detrás) puede parecer un número imposiblemente grande. La tecnología necesaria para explorar esta increíble energía puede requerir colisionadores de átomos de miles de millones de kilómetros de longitud, o una tecnología radicalmente nueva. Incluso si llegáramos a agotar el producto interior bruto total del mundo y construir un colisionador de átomos superpotente, no seríamos capaces de acercarnos a esta energía. A primera vista, parece una tarea

imposible dominar este nivel de energía. Sin embargo, este número no parece tan ridículamente grande si advertimos que la tecnología se expande exponencialmente, algo que es difícil de captar por nuestra mentes. Para comprender lo rápido que es el crecimiento exponencial, imaginemos una bacteria que se divide cada treinta minutos. Si no se ponen obstáculos a este crecimiento, en unas pocas semanas esta simple bacteria dará lugar a una colonia que pesaría tanto como todo el planeta Tierra. Aunque los seres humanos han existido sobre este planeta durante quizá dos millones de años, el rápido auge de la civilización moderna en los últimos doscientos años ha sido posible debido al hecho de que el crecimiento del conocimiento científico es exponencial; es decir, su tasa de expansión es proporcional a lo que ya se conoce. Cuanto más conocemos, más rápidamente podemos conocer más. Por ejemplo, hemos acumulado más conocimiento desde la segunda guerra mundial que todo el conocimiento acumulado en dos millones de años de evolución sobre este planeta. De hecho, la cantidad de conocimiento que adquieren nuestros científicos se duplica aproximadamente cada diez a veinte años. Por ello, es importante analizar nuestro propio desarrollo histórico. Para apreciar cómo puede crecer exponencialmente la tecnología, analicemos nuestra propia evolución, centrándonos estrictamente en la energía disponible para el ser humano medio. Esto ayudará a situar en su correcta perspectiva histórica la energía necesaria para explotar la teoría decadimensional. El crecimiento exponencial de la civilización Hoy, no nos supone ningún problema viajar un domingo por el campo en un automóvil con un motor de doscientos caballos. Pero la energía disponible para un ser humano medio durante la mayor parte de nuestra evolución en este planeta fue considerablemente menor. Durante este periodo, la fuente básica de energía fue la potencia de nuestras propias manos, alrededor de un octavo de caballo de vapor. Los seres humanos se movían por la tierra en pequeñas bandas, cazando y recolectando comida en grupos de forma muy parecida a los animales, utilizando sólo la energía de sus propios músculos. Desde un punto de vista energético, esto sólo cambió en los últimos cien mil años. Con la invención de las herramientas manuales, los seres humanos pudieron extender la potencia de sus miembros. Las lanzas ampliaron el poder de sus brazos, los mazos el poder de sus puños, y los cuchillos el poder de sus mandíbulas. En este periodo, su producto energético se duplicó, hasta llegar a ser de un cuarto de caballo de vapor. En los últimos diez mil años aproximadamente, el producto energético de un ser humano se duplicó otra vez. La razón principal para este cambio fue probablemente el final de la era glaciar, que había retardado el desarrollo humano durante miles de años. La sociedad humana, que durante cientos de miles de años estuvo compuesta por pequeñas bandas de cazadores y recolectores, cambió con el descubrimiento de la agricultura poco después de que el hielo se fundiera. Al no tener ya que vagar por llanuras y selvas, las bandas errantes de seres humanos se establecieron en poblados estables donde podían recogerse cosechas durante el año. Asimismo, con la fusión de la capa de hielo llegó la domesticación de animales tales como caballos y bueyes; la energía disponible para un ser humano creció hasta aproximadamente un caballo de vapor. Con el comienzo de una vida agraria estratificada llegó la división del trabajo, hasta que la

sociedad sufrió un cambio importante: la transición a una sociedad esclavista. Esto significaba que una persona, el propietario de esclavos, podía dirigir la energía de cientos de esclavos. Este incremento repentino en energía hizo posible una brutalidad inhumana; también hizo posibles las primeras auténticas ciudades, donde los reyes podían ordenar a sus esclavos que utilizasen grandes grúas, balanzas y poleas para levantar fortalezas y monumentos a sí mismos. Debido a este incremento de la energía, en los desiertos y selvas surgieron templos, torres, pirámides y ciudades. Desde un punto de vista energético, durante aproximadamente el 99,99 por 100 de la existencia de la humanidad sobre este planeta, el nivel tecnológico de nuestra especie estuvo sólo un paso por delante del de los animales. Sólo ha sido en los últimos cientos de años cuando los seres humanos han tenido más de un caballo de vapor a su disposición. Un cambio decisivo llegó con la Revolución industrial. El descubrimiento de Newton de las leyes de la gravitación universal y del movimiento hizo posible reducir la mecánica a un conjunto de ecuaciones bien definidas. De este modo, la teoría clásica de Newton de la fuerza gravitatoria allanó, en cierto sentido, el camino para la moderna teoría de máquinas. Esto ayudó a hacer posible el uso ampliamente extendido de máquinas de vapor en el siglo XIX; con el vapor, el ser humano medio pudo disponer de decenas a centenares de caballos de vapor. Por ejemplo, los ferrocarriles abrieron continentes enteros al desarrollo, y los barcos de vapor abrieron el comercio internacional moderno. Ambos eran alimentados por la potencia del vapor, calentado por carbón. La humanidad necesitó más de diez mil años para crear la civilización, moderna en Europa. Con máquinas impulsadas por vapor, y posteriormente por petróleo, Estados Unidos se industrializó en un siglo. De este modo, el dominio de sólo una simple fuerza fundamental de la naturaleza incrementó enormemente la energía disponible para un ser humano y cambió la sociedad de forma irrevocable. A finales del siglo XIX, el dominio de Maxwell de la fuerza electromagnética desencadenó una vez más una revolución en la energía. La fuerza electromagnética hizo posible la electrificación de nuestras ciudades y nuestros hogares, incrementando exponencialmente la versatilidad y potencia de nuestras máquinas. Los motores de vapor estaban siendo ahora reemplazados por potentes dinamos. En los últimos cincuenta años, el descubrimiento de la fuerza nuclear ha multiplicado la potencia disponible para un solo ser humano por un factor de un millón. Puesto que la energía de las reacciones químicas se mide en electronvoltios, mientras que la energía de fisión y fusión se mide en millones de electronvoltios, tenemos un incremento de un millón en la potencia a nuestra disposición. La lección del análisis de las necesidades históricas de energía de la humanidad muestra gráficamente que sólo durante el 0,01 por 100 de nuestra existencia hemos manipulado niveles de energía por encima de la de los animales. Pero en sólo algunos siglos, hemos liberado enormes cantidades de energía a través de las fuerzas electromagnética y nuclear. Dejemos ahora el pasado y comencemos una discusión del futuro, utilizando la misma metodología, para comprender en qué momento podremos dominar la superfuerza. Civilizaciones Tipo I, II y III La futurología, o la predicción del futuro a partir de juicios científicos razonables, es una ciencia arriesgada. Algunos ni siquiera la llamarían ciencia en absoluto, sino algo que se parece más a la charlatanería o la brujería. La futurología se ha ganado merecidamente esta mala reputación porque

todas las encuestas «científicas» sobre la próxima década dirigidas por futurólogos han fallado estrepitosamente. Lo que hace de la futurología una ciencia tan primitiva es que nuestros cerebros piensan de forma lineal, mientras que el conocimiento progresa de forma exponencial. Por ejemplo, las predicciones de los futurólogos han demostrado que ellos toman la tecnología conocida y simplemente la duplican o triplican para predecir el futuro. Las predicciones hechas en los años veinte mostraban que los futurólogos predecían que en unas pocas décadas tendríamos enormes flotas de dirigibles transportando pasajeros a través del Atlántico. Pero la ciencia también se desarrolla de formas inesperadas. A corto plazo, cuando se extrapola a unos pocos años, es seguro apostar que la ciencia progresará mediante mejoras cuantitativas continuas de la tecnología existente. Sin embargo, cuando se extrapola a algunas décadas, descubrimos que avances cualitativos en nuevas áreas se convierten en el factor dominante, con nuevas industrias que irrumpen en lugares inesperados. Quizá el más famoso ejemplo de futurología que resultó falsa son las predicciones hechas por John von Neumann, el padre de los modernos ordenadores electrónicos y uno de los grandes matemáticos del siglo. Después de la guerra, hizo dos predicciones: primero, que en el futuro los ordenadores se harían tan monstruosos y caros que sólo los grandes gobiernos serían capaces de permitírselos, y segundo, que los ordenadores serían capaces de predecir la exactitud del tiempo. En realidad, el crecimiento de los ordenadores siguió precisamente la dirección opuesta: nos vemos inundados con ordenadores baratos y tan pequeños que pueden caber en la palma de la mano. Los chips de ordenador se han hecho tan baratos y potentes que son una parte integral de algunos electrodomésticos modernos. Tenemos ya la máquina de escribir «inteligente» (el procesador de textos), y con el tiempo tendremos el aspirador «inteligente», la cocina «inteligente», la televisión «inteligente», y similares. Por otra parte, los ordenadores, por muy potentes que sean, han fracasado en la predicción del tiempo. Aunque, en principio, puede predecirse el movimiento clásico de moléculas individuales, el tiempo meteorológico es tan complejo que incluso alguien que estornude podría crear perturbaciones que crecerían y se amplificarían a lo largo de miles de kilómetros, hasta quizá desencadenar, eventualmente, un huracán. Con todas estas importantes advertencias, tratemos de determinar cuándo puede alcanzar una civilización (sea la nuestra propia o una del espacio exterior) la capacidad de dominar la décima dimensión. El astrónomo Nikolai Kardashev de la antigua Unión Soviética clasificó en cierta ocasión las civilizaciones futuras de la siguiente forma: Una civilización Tipo I es la que controla los recursos energéticos de todo un planeta. Esta civilización puede controlar el clima, impedir los terremotos, explotar las profundidades de la corteza terrestre, y cultivar los océanos. Esta civilización ha completado ya la exploración de su sistema solar. Una civilización Tipo II es la que controla la potencia del propio sol. Esto no significa aprovecharse pasivamente de la energía solar; esta civilización explota el sol. Las necesidades energéticas de esta civilización son tan grandes que consume directamente la potencia del sol para impulsar sus máquinas. Esta civilización empezará la colonización de sistemas estelares locales. Una civilización Tipo III es la que controla la potencia de toda una galaxia. Como fuente de alimentación, aprovecha la potencia de miles de millones de sistemas estelares. Probablemente ha

dominado las ecuaciones de Einstein y puede manipular el espacio-tiempo a voluntad. La base de esta clasificación es bastante simple: cada nivel se establece según la base de la fuente de alimentación que da energía a la civilización. Las civilizaciones Tipo I utilizan la potencia de todo un planeta. Las civilizaciones Tipo II utilizan la potencia de toda una estrella. Las civilizaciones Tipo III utilizan la potencia de toda una galaxia. Esta clasificación ignora cualquier predicción relativa a la naturaleza detallada de las civilizaciones futuras (que están expuestas a resultar falsas) y en su lugar se centra en aspectos que pueden ser razonablemente comprendidos mediante las leyes de la física, tales como el suministro de energía. Nuestra civilización, por el contrario, puede ser clasificada como una civilización Tipo 0, una civilización que simplemente está empezando a aprovechar recursos planetarios, pero que no tiene la tecnología y los recursos para controlarlos. Una civilización Tipo 0 como la nuestra extrae su energía de combustibles fósiles como el petróleo y el carbón y, en gran parte del Tercer Mundo, de la fuerza bruta humana. Nuestros mayores ordenadores ni siquiera pueden predecir el tiempo, y mucho menos controlarlo. Visto desde esta perspectiva más amplia, nosotros como civilización somos un recién nacido. Aunque se podría conjeturar que la lenta marcha desde una civilización Tipo 0 a una civilización Tipo III podría durar millones de años, lo extraordinario de este esquema clasificatorio es que este ascenso es exponencial y por lo tanto procede mucho más rápidamente que cualquier cosa que estemos dispuestos a concebir. Con todas estas matizaciones, aún podemos hacer conjeturas fundadas sobre cuándo alcanzará nuestra civilización estos hitos. Dado el ritmo al que está creciendo nuestra civilización, cabría esperar que alcanzáramos el estatus Tipo I en unos pocos siglos. Por ejemplo, la mayor fuente de energía disponible para nuestra civilización Tipo 0 es la bomba de hidrógeno. Nuestra tecnología es tan primitiva que sólo podemos liberar la potencia de la fusión del hidrógeno mediante la detonación de una bomba, en lugar de controlarla en un generador de potencia. Sin embargo, un simple huracán genera la potencia de cientos de bombas de hidrógeno. De este modo, el control del clima, que es una característica de las civilizaciones Tipo I, está al menos un siglo por delante de la tecnología actual. Análogamente, una civilización Tipo I ha colonizado ya la mayor parte de su sistema solar. Por el contrario, los hitos del desarrollo actual del viaje espacial se miden trabajosamente en la escala de décadas, y por consiguiente saltos cualitativos tales como una colonización espacial deben medirse en siglos. Por ejemplo, la fecha más próxima para un aterrizaje humano de la NASA en el planeta Marte es el 2020. Así pues, la colonización de Marte podría tener lugar entre 40 a 50 años a partir de entonces, y la colonización del sistema solar en un siglo. Por el contrario, la transición desde una civilización Tipo I a una Tipo II podría necesitar sólo 1.000 años. Dado el crecimiento exponencial de la civilización, podríamos esperar que en 1.000 años las necesidades energéticas de una civilización se hagan tan grandes que deba empezar a explotar el Sol para alimentar sus máquinas. Un ejemplo típico de civilización Tipo II es la Federación de Planetas retratada en la serie Star Trek. Esta civilización acaba de empezar a dominar la fuerza gravitatoria —es decir, el arte de distorsionar el espacio-tiempo vía agujeros de gusano— y así, por primera vez, tiene la capacidad de

alcanzar estrellas próximas. Ha evitado el límite impuesto por la velocidad de la luz mediante el dominio de la teoría de la relatividad general de Einstein. Se han establecido pequeñas colonias en algunos de estos sistemas, que la nave espacial Enterprise ha jurado proteger. Las naves espaciales de la civilización están impulsadas por la colisión de materia y antimateria. La capacidad de crear grandes concentraciones de antimateria apropiada para el viaje espacial coloca a dicha civilización varios siglos o un milenio por delante de la nuestra. Pasar a una civilización Tipo III puede llevar varios miles de años o más. Ésta es, de hecho, la escala de tiempo predicha por Isaac Asimov en su clásica serie de la Fundación, que describe el auge, caída y resurgimiento de una civilización galáctica. La escala de tiempo involucrada en cada una de estas transiciones implica miles de años. Esta civilización ha dominado la fuente energética contenida dentro de la propia galaxia. Para ella, el impulso mediante distorsión no es una forma exótica de viaje a las estrellas próximas, sino que es el medio normal de intercambio y comercio entre sectores de la galaxia. De este modo, aunque se necesitaron dos millones de años para que nuestra especie dejara la seguridad de los bosques y construyese una civilización moderna, pueden necesitarse sólo miles de años para dejar la seguridad de nuestro sistema solar y construir una civilización galáctica. Una opción abierta a una civilización Tipo III es la de aprovechar la potencia de supernovas o agujeros negros. Sus naves espaciales pueden ser incluso capaces de explorar el núcleo galáctico, que es quizá la más misteriosa de todas las fuentes de energía. Los astrofísicos han teorizado que, debido al enorme tamaño del núcleo galáctico, el centro de nuestra galaxia podría contener millones de agujeros negros. Si esto fuera cierto, podría proporcionar cantidades virtualmente ilimitadas de energía. En este punto, sería posible manipular energías mil billones de veces mayores que las energías actuales. Así pues, para una civilización Tipo III, con el producto energético de innumerables sistemas solares y quizá el núcleo galáctico a su disposición, el dominio de la décima dimensión sería una posibilidad real. El Astropollo Una vez comí con el físico Freeman Dyson del Instituto para Estudio Avanzado. Dyson es una veterana figura en el mundo de la física que ha abordado algunas de las cuestiones más desafiantes e intrigantes a las que se enfrenta la humanidad, tales como las nuevas direcciones en la exploración espacial, la naturaleza de la vida extraterrestre y el futuro de la civilización. A diferencia de otros físicos que trabajan casi exclusivamente en áreas restringidas y bien definidas de especialización, la fértil imaginación de Dyson ha volado por la galaxia. «Yo no puedo, como hacían Bohr y Feynman, estar varios años con toda mi mente concentrada en una cuestión profunda. Me interesan demasiadas direcciones diferentes», confesaba.[144] Delgado, notablemente activo, con la seria expresión de un profesor de Oxford y hablando con una huella de su acento británico, se embarcó en una larga y variada conversación de sobremesa conmigo, hablando sobre muchas de las ideas que le han fascinado a lo largo de los años. Con respecto a la transición de nuestra civilización al estatus Tipo I, Dyson piensa que nuestro primitivo programa espacial está mal orientado. Actualmente hay una tendencia hacia naves más pesadas y lanzamientos espaciales más separados en el tiempo, lo que está retardando gravemente la

exploración del espacio. En sus escritos, él ha propuesto un cambio radical de esta tendencia, basado en lo que llama el Astropollo. Pequeño, ligero de peso e inteligente, el Astropollo es una sonda espacial versátil con una ventaja evidente sobre las voluminosas y exorbitantemente caras misiones espaciales del pasado que han sido un cuello de botella para la exploración espacial. «El Astropollo pesaría un kilogramo en lugar de la tonelada de peso del Voyager», dice él. «El Astropollo no se construiría, se criaría», añade. «El Astropollo podría ser tan ágil como un colibrí con un cerebro que no pesaría más de un gramo.»[145] Sería en parte máquina y en parte animal, utilizando los desarrollos más avanzados en bioingeniería. Sería pequeño pero suficientemente potente para explorar los planetas exteriores, tales como Urano y Neptuno. No necesitaría enormes cantidades de combustible; sería criado y programado para «comer» el hielo y los hidrocarburos presentes en los anillos que rodean a los planetas exteriores. Su estómago, obra de ingeniería genética, digeriría entonces estos materiales para transformarlos en combustible químico. Una vez saciado su apetito, se dirigiría a la siguiente luna o planeta. El Astropollo depende de desarrollos tecnológicos cruciales en ingeniería genética, inteligencia artificial y propulsión eléctrico-solar. Dado el notable progreso en estas áreas, Dyson espera que las diversas tecnologías necesarias para el Astropollo estén disponibles hacia el año 2016. Desde una perspectiva amplia del desarrollo de la civilización, Dyson cree también que, al ritmo actual de desarrollo, podríamos alcanzar el estatus del Tipo I en unos pocos siglos. Él no cree que sea muy difícil la transición entre los diversos tipos de civilizaciones. Estima que la diferencia en tamaño y potencia que separa los diversos tipos de civilizaciones es aproximadamente un factor de diez mil millones. Aunque esto pueda parecer un número alto, una civilización que crezca al ritmo lento de un 1 por 100 anual podría hacer la transición entre las diversas civilizaciones en 2.500 años. Por consiguiente, está casi garantizado que una civilización puede progresar continuamente hacia el estatus del Tipo III. Dyson ha escrito: «Una sociedad con un fuerte impulso expansionista extenderá su hábitat desde un solo planeta (Tipo I) hasta una biosfera que explota toda una estrella (Tipo II) en algunos miles de años, y desde una sola estrella a una galaxia entera (Tipo III) en algunos millones de años. Una especie que haya superado el estatus Tipo II es invulnerable a la extinción incluso por la peor catástrofe natural o artificial imaginable».[146] Sin embargo, existe un problema. Dyson ha llegado a la conclusión de que la transición de una civilización Tipo II a una Tipo III puede plantear dificultades físicas formidables, debido principalmente a la limitación impuesta por la velocidad de la luz. La expansión de una civilización Tipo II necesariamente avanzará a velocidad menor que la velocidad de la luz, lo que él piensa que supone una grave restricción a su desarrollo. ¿Romperá una civilización Tipo II la barrera de la luz y los límites de la relatividad especial al explorar la potencia del hiperespacio? Dyson no está seguro. Nada puede descartarse, pero la longitud de Planck, me recordó, es una distancia fantásticamente pequeña, y las energías requeridas para sondear en esa distancia son inimaginables. Quizá, cavilaba él, la longitud de Planck sea una barrera natural frente a todas las civilizaciones. Civilizaciones Tipo III en el espacio exterior

Si el largo viaje hasta alcanzar el estatus Tipo III parece lejano para nuestra propia civilización, quizá un día encontremos una civilización extraterrestre que ya haya dominado el hiperespacio para sus necesidades y esté dispuesta a compartir su tecnología con nosotros. El enigma al que nos enfrentamos, sin embargo, es que no vemos signos en los cielos de ninguna civilización avanzada, al menos no en nuestro sistema solar y ni siquiera en nuestra pequeña región de la galaxia. Nuestras sondas espaciales, especialmente la Vikingo que aterrizó en Marte en los años setenta y las misiones Voyager a Júpiter, Saturno, Urano y Neptuno en los años ochenta, han transmitido información desalentadora acerca de la naturaleza árida y sin vida de nuestro sistema solar. Los dos planetas más prometedores, Venus y Marte, no han dado señales de vida, ni mucho menos de civilizaciones avanzadas. Venus, que debe su nombre a la diosa del amor, fue en otro tiempo imaginado como un planeta fértil y tropical tanto por astrónomos como por novelistas. Lejos de ello, nuestras sondas espaciales han encontrado un planeta áspero y yermo, con una sofocante atmósfera de dióxido de carbono, con temperaturas abrasadoras por encima de los 425 °C y lluvias tóxicas de ácido sulfúrico. Marte, el centro de especulación incluso antes de que Orson Welles provocase el pánico nacional en 1938 durante la Depresión con su emisión radiofónica sobre una invasión procedente de dicho planeta, ha sido igualmente decepcionante. Sabemos que es un planeta desierto y desolado sin trazas de agua superficial. Antiguos lechos fluviales y océanos hace tiempo desaparecidos han dejado su marca característica en la superficie de Marte, pero no vemos ruinas o indicios de civilización. Yendo más allá de nuestro sistema solar, los científicos han analizado las emisiones de radio procedentes de estrellas próximas con resultados igualmente estériles. Dyson ha resaltado que cualquier civilización avanzada debe generar necesariamente, por la segunda ley de la termodinámica, grandes cantidades de calor residual. Su consumo de energía sería enorme, y una pequeña fracción de dicho calor residual sería fácilmente detectable por nuestros instrumentos. Así pues, afirma Dyson, explorando las estrellas próximas, nuestros instrumentos deberían ser capaces de encontrar la mencionada huella de calor residual generada por una civilización avanzada. Pero no importa en qué parte de los cielos exploremos, no vemos huellas de calor residual o comunicaciones de radio procedentes de civilizaciones de Tipo I, II o III. En nuestra propia Tierra, por ejemplo, hemos dominado el arte de la radio y la televisión en los cincuenta últimos años. Por lo tanto, nuestro planeta está rodeado de una esfera de radioondas en expansión, de aproximadamente cincuenta añosluz de radio. Cualquier vida inteligente en una estrella situada a menos de cincuenta años-luz de la Tierra, debería ser capaz de detectar nuestra presencia. Análogamente, cualquier civilización de Tipo II o III debería estar emitiendo continuamente copiosas cantidades de radiación electromagnética durante los últimos miles de años, de modo que cualquier vida inteligente a menos de varios miles de años-luz del planeta de dicha civilización debería ser capaz de detectar su presencia. En 1978, el astrónomo Paul Horowitz sondeó todos los sistemas estelares semejantes a nuestro Sol (185 en total) y situados a menos de 80 años-luz de nuestro sistema solar, y no encontró huellas de radioemisiones de vida inteligente. Los astrónomos Donald Goldsmith y Tobius Owen informaron en 1979 sobre una investigación de más de 600 sistemas estelares, también con resultados negativos. Esta búsqueda, llamada SETI (iniciales de search for extraterrestrial intelligence o búsqueda de inteligencia extraterrestre), ha resultado un fracaso. (En tono alentador, en una rara muestra de

generosidad científica, el Congreso asignó en 1992 cien millones de dólares para ser gastados en un periodo de 10 años en la High Resolution Microwave Survey [Exploración con Microondas de Alta Resolución], que explorará las estrellas vecinas en busca de vida inteligente. Estos fondos harán posible que el radiotelescopio fijo gigante de 305 metros en Arecibo, Puerto Rico, explore sistemáticamente estrellas seleccionadas dentro de un radio de 100 años-luz de la Tierra. Esto será complementado por la radioantena móvil de 34 metros en Goldstone, California, que barrerá amplias porciones del cielo nocturno. Tras años de resultados negativos, el astrónomo Frank Drake de la Universidad de California en Santa Cruz es cautamente optimista sobre la posibilidad de encontrar algunas señales positivas de vida inteligente. Él comenta: «Muchas sociedades humanas desarrollaron la ciencia independientemente a partir de una combinación de curiosidad e intentos de crear una vida mejor, y pienso que las mismas motivaciones existirán en otras criaturas».) El enigma se hace más profundo cuando nos damos cuenta de que la probabilidad de que emerja vida inteligente en nuestra galaxia es sorprendentemente grande. Drake llegó incluso a derivar una ecuación sencilla para calcular el número de planetas en la galaxia con formas de vida inteligente. Nuestra galaxia, por ejemplo, contiene alrededor de doscientos mil millones de estrellas. Para obtener una cifra aproximada del número de estrellas con formas de vida inteligente, podemos hacer la siguiente estimación muy cruda. Podemos ser conservadores y decir que el 10 por 100 de estas estrellas son estrellas amarillas muy parecidas al Sol, que el 10 por 100 de éstas tienen planetas que orbitan a su alrededor, que el 10 por 100 de éstas tienen planetas similares a la Tierra con atmósferas compatibles con la vida, que el 10 por 100 tienen atmósferas similares a la de la Tierra con formas de vida creciendo en ellos, y que el 10 por 100 de éstos tienen formas de vida inteligente. Esto significa que una millonésima de los doscientos mil millones de estrellas en la galaxia tendrán probablemente alguna forma de vida inteligente, lo que implica que unas doscientas mil estrellas tendrían planetas albergando alguna forma de vida inteligente. Un conjunto de valores ligeramente más optimista para la ecuación de Drake muestra que la vida inteligente podría estar, en promedio, a una distancia tan próxima como 15 años-luz de nuestro Sol. Con las técnicas de ordenador recientemente desarrolladas, los científicos han sido capaces de refinar el sencillo cálculo original de Drake. Por ejemplo, George W. Wetherill, de la Carnegie Institution de Washington, ha realizado simulaciones mediante ordenador de la primitiva evolución de nuestro sistema solar, empezando con un gran disco turbulento de gas y polvo alrededor del Sol. Él deja que el ordenador haga evolucionar el disco hasta que empiezan a formarse pequeñas masas rocosas a partir del polvo. Para su grata sorpresa, descubrió que era fácil que planetas del tamaño aproximado de la Tierra evolucionaran a partir de estos núcleos rocosos. La mayor parte de las veces, de hecho, se formaban espontáneamente planetas del tamaño de la Tierra a distancias entre un 80 y un 130 por 100 de la distancia de la Tierra al Sol. (Curiosamente, él descubrió también que la formación de planetas del tamaño de Júpiter lejos del Sol era importante para la evolución de los planetas del tamaño de la Tierra. Los planetas del tamaño de Júpiter eran esenciales para barrer enjambres de cometas y residuos que podrían eventualmente golpear al planeta similar a la Tierra y extinguir cualquier forma de vida primitiva que pudiese haber en el mismo. Las simulaciones mediante ordenador de Wetherill demuestran que sin un planeta como Júpiter para desviar estos cometas con su gigantesca atracción gravitatoria, estos cometas incidirían sobre el planeta similar a

la Tierra con una frecuencia alrededor de mil veces mayor de lo que lo hacen en realidad, causando un impacto destructor de vida cada 100.000 años aproximadamente.) Así pues, existe una conclusión convincente (aunque ciertamente no rigurosa) de que las leyes de la probabilidad favorecen la presencia de otra inteligencia dentro de la galaxia. El hecho de que nuestra galaxia tiene quizá 10.000 millones de años significa que ha habido mucho tiempo para que dentro de ella hayan florecido montones de formas de vida inteligente. Las civilizaciones de Tipo II y III, emitiendo durante varios cientos a varios miles de años, estarían enviando una esfera de radiación electromagnética fácilmente detectable que tendría un diámetro entre varios cientos y varios miles de años-luz. Pero aun así no vemos señales de formas de vida inteligente en los cielos. ¿Por qué? Se han propuesto varias teorías especulativas para explicar por qué no hemos sido capaces de detectar señales de vida inteligente hasta 100 años-luz de nuestro planeta. Ninguna de ellas es especialmente satisfactoria, y la verdad final puede ser una combinación de todas ellas. Una teoría sostiene que la ecuación de Drake puede darnos probabilidades estimadas de cuántos planetas contienen vida inteligente, pero no nos dice nada sobre cuándo alcanzan dichos planetas este nivel de desarrollo. Dadas las escalas astronómicas de tiempo involucradas, quizá la ecuación de Drake predice formas de vida inteligente que existieron millones de años antes de nosotros, o existirán millones de años después de nosotros. Por ejemplo, nuestro sistema solar tiene aproximadamente 4.500 millones de años. La vida comenzó en la Tierra hace aproximadamente tres o cuatro millones de años, pero sólo en el último millón de años se ha desarrollado vida inteligente en el planeta (y sólo en las últimas décadas ha construido esta civilización estaciones de radio capaces de enviar señales al espacio exterior). Sin embargo, un millón de años es, en una escala de tiempo de miles de millones de años, tan sólo un breve instante de tiempo. Es razonable suponer que pudieron existir miles de civilizaciones avanzadas antes de que nuestros lejanos ancestros dejaran los bosques, y que dichas civilizaciones ya han perecido, o que mil civilizaciones más se desarrollarán mucho después de que la nuestra haya muerto. En cualquier caso, no seríamos capaces de detectarlas mediante nuestros instrumentos. La segunda teoría sostiene que en la galaxia abundan, de hecho, formas avanzadas de civilización, pero que son suficientemente avanzadas para ocultar su existencia a nuestros instrumentos de espionaje. No significaríamos nada para ellos porque están muchos millones de años por delante de nosotros. Por ejemplo, si tropezamos con una colonia de hormigas cuando caminamos por el campo, nuestro primer impulso no es ciertamente entrar en contacto con las hormigas, querer ver a su líder, agitar baratijas ante sus ojos y ofrecerles una prosperidad sin paralelo y los frutos de nuestra tecnología avanzada. Es más probable que nuestra primera tentación sea ignorarlas (o quizá incluso pisotear algunas de ellas). Intrigado por estas viejas preguntas, inquirí a Dyson si él pensaba que pronto entraríamos en contacto con formas de vida extraterrestre. Su respuesta me sorprendió bastante. Dijo: «Espero que no». Pensé que era extraño que alguien que ha pasado décadas especulando sobre civilizaciones inteligentes en el espacio exterior tuviese reservas sobre la posibilidad de encontrarlas realmente. Conociendo la historia británica, sin embargo, debe haber tenido buenas razones para no correr a abrazar otras civilizaciones. La civilización británica sólo estaba probablemente varios cientos de

años más avanzada que muchas de las civilizaciones, tales como la india y la africana, conquistadas por el ejército y la marina británicos. Aunque la mayoría de los escritores de ciencia ficción deploran las limitaciones de la exploración espacial impuestas por la velocidad de la luz, Dyson adopta el punto de vista heterodoxo de que quizá ésta sea una buena cosa. Viendo la historia a menudo sangrienta del colonialismo a lo largo de nuestra propia historia mundial, quizá sea una bendición enmascarada, cavila él, que diversas civilizaciones Tipo II estén separadas por grandes distancias y que la energía de Planck sea inaccesible. Mirándolo por el lado positivo, bromea: «Al menos, uno puede evitar al recaudador de impuestos». Desgraciadamente, el encuentro de dos civilizaciones desiguales ha tenido a menudo consecuencias catastróficas para la más débil. Por ejemplo, la civilización azteca había crecido durante miles de años hasta alcanzar una gran relevancia en México central. En algunas áreas, su dominio de la ciencia, el arte y la tecnología rivalizaban con los logros de Europa. Sin embargo, en lo que respecta a la pólvora y los barcos de guerra, los aztecas estaban quizá varios siglos por detrás de los españoles. El choque repentino entre una pequeña y harapienta banda de 400 conquistadores y la avanzada civilización azteca terminó en tragedia en 1521. En un breve periodo de tiempo, el pueblo azteca, con una población que alcanzaba millones de personas, fue sistemáticamente aplastado y esclavizado para trabajar en las minas. Sus tesoros fueron saqueados, su historia fue borrada e incluso el más tenue recuerdo de las grandes civilizaciones aztecas fue dejado en el olvido por oleadas de misioneros. Cuando pensamos en cómo podríamos reaccionar frente a los visitantes del espacio exterior, resulta instructivo leer cómo reaccionaron los aztecas frente a los visitantes que procedían de España: «Cogían el oro como si fueran monos, con sus rostros encendidos. Pues evidentemente, su sed de oro era insaciable; ellos se morían por él; lo codiciaban; querían atiborrarse de él como si fueran cerdos. De modo que lo manoseaban, tomaban montones de oro, los movían de un lado para otro, lo cogían para sí mismos, farfullando y diciéndose galimatías».[147] A una escala cósmica, las interacciones repentinas entre civilizaciones podrían ser incluso más espectaculares. Puesto que estamos hablando de escalas de tiempo astronómicas, es probable que una civilización que esté un millón de años por delante de nosotros nos encuentre totalmente carentes de interés. Además, hay probablemente pocas cosas en nuestro planeta que ofrecer a estos alienígenas en términos de recursos naturales que no estén disponibles al mismo tiempo en otros muchos sistemas estelares. En la serie «Star Trek», sin embargo, la Federación de Planetas encuentra otras civilizaciones hostiles, los Klingons y los Romulans, que están exactamente en el mismo estado de desarrollo tecnológico que la Federación. Esto puede aumentar el dramatismo y la tensión de la serie, pero la improbabilidad de que esto suceda es realmente astronómica. Lo más probable es que cuando nos aventuremos en la galaxia en naves espaciales encontraremos civilizaciones en niveles de desarrollo tecnológico con enormes diferencias, algunas quizá millones de años por delante de nosotros. El ascenso y caída de las civilizaciones Además de las posibilidades de que no hayamos coincidido en el tiempo con otras civilizaciones por

millones de años y que otras civilizaciones no se hayan dignado en reparar en nosotros, una tercera teoría, que es la más interesante, sostiene que del enjambre surgieron miles de formas de vida inteligente, pero fueron incapaces de superar una serie de catástrofes, tanto naturales como autoprovocadas. Si esta teoría es correcta, quizá algún día nuestras naves espaciales encontrarán las ruinas de antiguas civilizaciones en planetas muy lejanos o, más probablemente, nuestra propia civilización se enfrentará a estas catástrofes. En lugar de llegar a ser «señores del universo», quizá sigamos el camino hacia la autodestrucción. De este modo, la pregunta que planteamos es: ¿cuál es el destino de las civilizaciones avanzadas? ¿Sobreviviremos (sobrevivirán) el tiempo suficiente para dominar la física de la décima dimensión? El ascenso de las civilizaciones no está marcado por un crecimiento continuo y seguro en tecnología y conocimiento. La historia nos muestra que las civilizaciones crecen, maduran y luego desaparecen, a veces sin dejar rastro. En el futuro, quizá la humanidad liberará una caja de Pandora de horrores tecnológicos que amenacen nuestra propia existencia, desde bombas atómicas a dióxido de carbono. Lejos de anunciar la llegada de la Era de Acuario, algunos futurólogos predicen que quizá nos estemos enfrentando a un colapso tecnológico y ecológico. Para el futuro, ellos conjuran la imagen estremecedora de la humanidad reducida a un Scrooge patético y aterrorizado en el cuento de Charles Dickens, arañando la tierra de su propia tumba y pidiendo una segunda oportunidad. Por desgracia, el grueso de la humanidad sigue básicamente despreocupado, o inconsciente, acerca de los desastres potenciales a los que nos enfrentamos. Algunos científicos han argumentado que quizá la humanidad, considerada como una sola entidad, pueda ser comparada a un adolescente dando bandazos fuera de control. Por ejemplo, los psicólogos nos dicen que los adolescentes actúan como si fueran invulnerables. Sus hábitos de conducir, beber y tomar drogas son prueba gráfica, dicen, de la despreocupada temeridad que impregna su estilo de vida y conducta. La principal causa de muerte entre los adolescentes en este país ya no es la enfermedad, sino los accidentes, causados probablemente por el hecho de que piensan que van a vivir para siempre. Si esto es cierto, entonces estamos abusando de la tecnología y del medio ambiente como si fuéramos a vivir para siempre, inconscientes de las catástrofes que aguardan en el futuro. La sociedad como un todo puede tener un «complejo de Peter Pan», sin querer crecer nunca y enfrentarse a las consecuencias de su propia responsabilidad. Para concretar nuestra discusión, utilizando el conocimiento a nuestra disposición podemos identificar varios obstáculos importantes que tendremos que superar durante los próximos eones antes de que podamos convertirnos en señores de la décima dimensión: la barrera del uranio, el colapso ecológico, una nueva edad glacial, aproximaciones astronómicas, Némesis y extinción, y la muerte del Sol y de la Vía Láctea. La barrera del uranio Jonathan Schell, en su libro fundamental El destino de la Tierra, señala lo peligrosamente próximos que estamos de llegar a una aniquilación mutua. Aunque el colapso reciente de la Unión Soviética ha hecho posible reducciones de armamento, quedan aún cerca de 50.000 armas nucleares, tanto tácticas como estratégicas, en el mundo actual, así como misiles con precisión mortal para transportarlas. La humanidad ha alcanzado finalmente la posibilidad de una aniquilación total.

Aun en el caso en que los misiles no destruyan a todas las personas en los lanzamientos iniciales de una guerra nuclear, debemos prevenir la muerte agonizante causada por el invierno nuclear, durante el cual el hollín y las cenizas de las ciudades incendiadas bloquearán lentamente la luz solar que nos da la vida. Estudios mediante ordenador han demostrado que tan sólo 100 megatones de explosivos pueden generar suficientes tormentas de fuego en las ciudades para provocar un oscurecimiento importante de la atmósfera. Cuando desciendan las temperaturas, se pierdan las cosechas y se hielen las ciudades, los últimos vestigios de la civilización se extinguirán como una vela. Finalmente, existe el peligro creciente de proliferación nuclear. Los servicios de inteligencia de Estados Unidos estiman que la India, que hizo explotar su primera bomba en 1974, tiene ahora un arsenal de aproximadamente veinte bombas atómicas. Su enemigo arquetípico, Pakistán, afirman estas fuentes, ha construido cuatro bombas atómicas, una de las cuales no pesa más de 200 kilogramos, en su instalación nuclear secreta de Kahuta. Un trabajador atómico en la instalación nuclear Dimona de Israel en el desierto Negev afirmó que vio allí material suficiente para construir doscientas bombas atómicas. Y Suráfrica admitió que había construido siete bombas atómicas y aparentemente había ensayado dos bombas atómicas a finales de los setenta en las proximidades de su costa. El satélite espía Vela de Estados Unidos captó la «huella» de la bomba atómica, un doble destello inequívoco y característico, en dos ocasiones cerca de la costa de Suráfrica en presencia de barcos de guerra israelíes. Naciones como Corea del Norte, Corea del Sur y Taiwán están a punto de convertirse en potencias nucleares. A la luz de los recientes levantamientos de secretos de los servicios de inteligencia de Estados Unidos, es altamente probable que veinte naciones posean la bomba hacia el año 2000. La bomba habrá proliferado en los puntos más calientes del globo, incluido Oriente Medio. Esta situación es altamente inestable, y lo será más a medida que las naciones compitan por los recursos menguantes y las esferas de influencia. No sólo nuestra sociedad, sino cualquier civilización inteligente en la galaxia que desarrolle una sociedad industrial, descubrirá el elemento 92 (uranio) y, con él, la capacidad de destrucción masiva. El elemento 92 tiene la curiosa propiedad de sostener una reacción en cadena y liberar la enorme cantidad de energía almacenada dentro de su núcleo. Con la capacidad para dominar el elemento 92 viene la capacidad para o bien liberar a nuestra especie de la escasez, la ignorancia y el hambre, o bien de consumir el planeta en fuego nuclear. Sin embargo, la potencia del elemento 92 sólo puede ser liberada cuando una especie inteligente alcanza un cierto punto de desarrollo como civilización Tipo 0. Depende del tamaño de su unidad social cohesionada y su estado de desarrollo industrial. El fuego, por ejemplo, puede ser dominado por grupos aislados de individuos inteligentes (tales como una tribu). La fundición y la metalurgia primitiva, necesarias para la fabricación de armas, requieren una unidad social mayor, que puede llegar a miles de personas (como los habitantes de un pequeño pueblo). El desarrollo del motor de combustión interna (por ejemplo, un motor de automóvil) requiere el desarrollo de una compleja base química e industrial, que sólo puede ser lograda por una unidad social cohesionada que llegue a millones de personas (por ejemplo, un estado-nación). El descubrimiento del elemento 92 altera este equilibrio entre el lento y continuo ascenso de la

unidad social cohesionada y su desarrollo tecnológico. La liberación de energía nuclear supera a los explosivos químicos en un factor de un millón, pero el mismo estado-nación que puede dominar el motor de combustión interna puede también refinar el elemento 92. De este modo, se produce un grave desajuste, especialmente cuando el desarrollo social de esta civilización hipotética está aún bloqueado en la forma de estados-nación hostiles. Con el descubrimiento del elemento 92, la tecnología para la mutilación y la destrucción sobrepasa bruscamente al lento desarrollo de las relaciones sociales. Resulta natural concluir, por consiguiente, que civilizaciones Tipo 0 surgieron en numerosas ocasiones en los últimos cinco a diez mil millones de años de historia de nuestra galaxia, pero que todas llegaron finalmente a descubrir el elemento 92. Si la capacidad tecnológica de una civilización superó a su desarrollo social, entonces, con el ascenso de estados-nación hostiles, existía una gran probabilidad de que la civilización se destruyese a sí misma hace tiempo en una guerra atómica.[148] Lamentablemente, si vivimos lo suficiente para alcanzar estrellas lejanas en nuestro sector de la galaxia, quizá podamos ver las cenizas de numerosas civilizaciones muertas que dirimieron las pasiones nacionales, los celos personales y los odios raciales con bombas nucleares. Como ha dicho Heinz Pagels: El desafío que para nuestra civilización se deriva de nuestro conocimiento de las energías cósmicas que alimentan las estrellas, el movimiento de la luz y los electrones a través de la materia, o el intrincado orden molecular que es la base biológica de la vida, debe ser afrontado mediante la creación de un orden político y moral que acomode estas fuerzas o, de lo contrario, seremos destruidos. Pondrá a prueba nuestros recursos más profundos de razón y compasión.[149]

Parece probable, por lo tanto, que civilizaciones avanzadas brotaron en numerosas ocasiones dentro de nuestra galaxia y que pocas de ellas superaron la barrera del uranio, especialmente si su tecnología sobrepasó a su desarrollo social. Si representamos, por ejemplo, el ascenso de la radiotecnología en un gráfico, vemos que nuestro planeta evolucionó durante cinco mil millones de años antes de que una especie inteligente descubriera la forma de manipular las fuerzas electromagnética y nuclear. Sin embargo, si nos aniquilamos en una guerra nuclear, entonces esta curva alcanzará un pico y volverá a cero. Así pues, para comunicar con una civilización avanzada, debemos explorar exactamente en la época correcta, con un margen de aproximación de unas pocas décadas, antes de que la civilización explote. Existe una pequeñísima «ventana» temporal a Fig ura 13.1. ¿Por qué no vemos otra vida inteligente en la través de la que podemos entrar en contacto con galaxia? Quizá formas de vida inteligente que pudieran construir otra civilización viva, antes de que se destruya. En radiotelescopios florecieron millones de años atrás, pero perecieron en una guerra nuclear. Nuestra galaxia podría haber la figura 13.1, vemos el ascenso de civilizaciones albergado muchísimas de esas formas, pero quizá la mayoría extraterrestres en la galaxia representado como han muerto. ¿Será diferente nuestra civilización? una serie de picos, cada uno de ellos mostrando el

rápido ascenso de una civilización y la caída incluso más rápida debida a una guerra nuclear. Explorar los cielos en busca de vida inteligente puede ser, por lo tanto, una tarea difícil. Quizá haya habido muchos miles de picos en los últimos miles de millones de años, con miles de planetas que han dominado brevemente la radiotecnología antes de explotar. Desgraciadamente, cada breve pico tiene lugar en tiempos cósmicos diferentes. Colapso ecológico Suponiendo que una civilización Tipo 0 pueda dominar el uranio sin destruirse en una guerra nuclear, la próxima barrera es la posibilidad del colapso ecológico. Recordemos el ejemplo anterior de una simple bacteria que se divide con tanta frecuencia que con el tiempo llega a superar el peso del planeta Tierra. Sin embargo, en realidad no vemos masas gigantescas de bacterias en la Tierra; de hecho, las colonias bacterianas normalmente ni siquiera crecen hasta alcanzar el tamaño de una moneda. Las bacterias de laboratorio colocadas en un disco lleno de nutrientes crecerán en realidad exponencialmente, pero luego morirán porque producen demasiados residuos y agotan el suministro de alimento. Estas colonias bacterianas se sofocan esencialmente en sus propios productos residuales. Al igual que colonias bacterianas, también podemos estar agotando nuestras reservas mientras nos ahogamos en los productos residuales que producimos sin descanso. Nuestros océanos y la atmósfera no son ilimitados, sino películas ultrafinas en la superficie de la Tierra. La población de una civilización Tipo 0, antes de que alcance el estatus Tipo I, puede llegar a los miles de millones, creando una tensión en los recursos y exacerbando los problemas de contaminación. Uno de los peligros más inmediatos es el envenenamiento de la atmósfera, en forma de dióxido de carbono, que atrapa los rayos del Sol y eleva la temperatura media del planeta, iniciando posiblemente un efecto invernadero incontrolado. Desde 1958, las concentraciones de dióxido de carbono en el aire se han incrementado en un 25 por 100, procedente principalmente de la combustión de petróleo y carbón (el 45 por 100 del dióxido de carbono procede de Estados Unidos y la antigua Unión Soviética). Esto, a su vez, puede haber acelerado el crecimiento de la temperatura media de la Tierra. Llevó casi un siglo, desde 1880, elevar 2 °C la temperatura media del planeta. Sin embargo, la temperatura media está creciendo ahora casi 1 °C por década. Para el año 2050, esto se traduce en una elevación de las aguas costeras entre 30 y 120 centímetros, que podría anegar naciones como Bangladesh e inundar áreas como Los Ángeles y Manhattan. Más grave incluso sería una devastación de los graneros estadounidenses en el Medio Oeste, la aceleración de la desertización y la destrucción de los bosques tropicales húmedos que, a su vez, acelera el efecto invernadero. El hambre y la ruina económica se extenderían a una escala global. El fallo está en una política planetaria descoordinada. La contaminación se origina en millones de factorías individuales en todo el planeta, pero el poder para frenar esta contaminación desenfrenada reside en una política planetaria que es difícil de aplicar, si no imposible, si la unidad social cohesionada dominante es el estado-nación, que sólo se mide en cientos de millones de personas. A corto plazo, esto puede significar políticas de emergencia y la reducción drástica del motor de combustión interna y el uso de carbón y petróleo. El nivel de vida también podría caer. Significa penalidades adicionales en el desarrollo de las naciones, que necesitan acceso a fuentes baratas de

energía. A largo plazo, sin embargo, nuestra sociedad puede verse obligada a recurrir a una de las tres soluciones posibles que no producen dióxido de carbono y son esencialmente inagotables: energía solar, plantas de fusión y reactores nucleares. De éstos, la energía solar y la fusión parecen los más prometedores. La energía de fusión (que fusiona los átomos de hidrógeno que se encuentran en el agua del mar) y la energía solar están aún a varias décadas, pero proporcionarían amplios suministros de energía en los próximos siglos, hasta que la sociedad haga la transición a una civilización Tipo I. El fallo está una vez más en el hecho de que la tecnología ha sobrepasado al desarrollo social. En tanto que la contaminación está producida por estados-nación individuales, mientras que las medidas necesarias para corregirla son planetarias, habrá un desajuste fatal que invita al desastre. La barrera del uranio y el colapso ecológico existirán como potenciales desastres que amenazan la vida de las civilizaciones Tipo 0 hasta que este desajuste se solucione. No obstante, una vez que una civilización pasa del estatus Tipo 0, hay mucho más lugar para el optimismo. Alcanzar el estatus Tipo I requiere un grado notable de cooperación social a escala planetaria. Son necesarios agregados del orden de decenas a centenares de millones de individuos para explotar los recursos de uranio, combustión interna y elementos químicos. Sin embargo, se necesitan probablemente agregados del orden de miles de millones para dominar los recursos planetarios. Así pues, la organización social de una civilización Tipo I debe ser muy compleja y muy avanzada, o de otro modo no puede desarrollarse la tecnología. Por definición, una civilización Tipo I requiere una unidad social cohesionada que es la población total del planeta. Una civilización Tipo I debe ser, por su propia naturaleza, una civilización planetaria. No puede funcionar a menor escala. Esto puede compararse, en algún sentido, al nacimiento de un niño. El periodo más peligroso para un niño son los primeros meses de vida, cuando la transición a un ambiente externo y potencialmente hostil supone tensiones biológicas enormes para el bebé. Tras el primer año de vida, la tasa de mortalidad disminuye drásticamente. Análogamente, el período más peligroso para una civilización son los primeros siglos a partir de que haya alcanzado la capacidad nuclear. Puede suceder que, una vez que la civilización ha conseguido un sistema político planetario, lo peor haya pasado. Una nueva era glaciar Nadie sabe qué es lo que produce una era glaciar, que tiene una duración que se mide en decenas a centenares de miles de años. Una teoría es que está causada por variaciones mínimas en la rotación de la Tierra, que son demasiado pequeñas para ser advertidas incluso sobre un periodo de siglos. Estos efectos minúsculos se acumulan aparentemente a lo largo de centenares de miles de años para provocar pequeños cambios en las corrientes de chorro de los polos. Con el tiempo, las corrientes de chorro se desvían, enviando masas de frío aire polar cada vez más hacia el sur, lo que hace que las temperaturas desciendan bruscamente en el globo, hasta que comienza una era glaciar. Las glaciaciones ocasionaron daños considerables en la ecología de la Tierra, eliminando muchas formas de vida mamífera y quizá aislando bandas de seres humanos en continentes diferentes, quizá dando lugar incluso a las diversas razas, que es un fenómeno relativamente reciente.

Por desgracia, nuestros ordenadores son demasiado primitivos incluso para predecir el tiempo de mañana, y mucho menos cuándo va a golpearnos la próxima era glaciar. Por ejemplo, los ordenadores están entrando ahora en su quinta generación. A veces olvidamos que, por muy grandes o complejos que sean los ordenadores de la cuarta generación, sólo pueden sumar dos números a un tiempo. Éste es un gran cuello de botella que está empezando a resolverse con los ordenadores de la quinta generación, provistos de procesadores paralelos que pueden ejecutar varias operaciones simultáneamente. Es altamente probable que nuestra civilización (si supera con éxito la barrera del uranio y el colapso ecológico) alcance el estatus Tipo I, y con él la capacidad de controlar el clima, en algunos cientos de años. Si la humanidad alcanza el estatus Tipo I u otro superior antes de que ocurra la próxima era glaciar, entonces hay grandes razones para creer que una era glaciar no destruirá la humanidad. O bien los seres humanos cambiarán el clima e impedirán la era glaciar, o bien abandonarán la Tierra. Aproximaciones astronómicas A una escala de tiempo de varios miles a varios millones de años, las civilizaciones Tipo 0 y Tipo I tienen que preocuparse por las colisiones de asteroides y por las supernovas cercanas. Sólo en este siglo, con medidas astronómicas refinadas, se ha hecho evidente que la órbita de la Tierra cruza las órbitas de muchos asteroides, haciendo preocupantemente grande la posibilidad de residuos próximos. (Una forma de que una civilización Tipo 0 o Tipo I impida una colisión directa consiste en enviar misiles con bombas de hidrógeno para interceptar y desviar el asteroide mientras está aún a decenas de millones de kilómetros de la Tierra. Este método ha sido propuesto, de hecho, por organismos internacionales de científicos.) Estas aproximaciones son más frecuentes de lo que piensa la mayoría de la gente. La última tuvo lugar el 3 de enero de 1993, y fue realmente fotografiada utilizando el radar por los astrónomos de la NASA. Las fotos del asteroide Toutatis muestran que consta de dos núcleos rocosos, cada uno de ellos de unos tres kilómetros de diámetro. Pasó a menos de cuatro millones de kilómetros del planeta Tierra. El 23 de marzo de 1989, un asteroide de aproximadamente un kilómetro de diámetro pasó incluso más cerca de la Tierra, a alrededor de 1,2 millones de kilómetros (aproximadamente tres veces la distancia de la Tierra a la Luna). De hecho, también se anunció a finales de 1992 que un cometa gigantesco chocaría con la Tierra exactamente el 14 de agosto del 2126, acabando quizá con toda la vida en el planeta. El astrónomo Brian Marsden del Centro de Astrofísica Harvard-Smithsonian estimó las probabilidades de un choque directo como de 1 en 10.000. El corneta Swift-Tuttle (nombre de los dos astrónomos norteamericanos que primero lo descubrieron durante la guerra civil) fue pronto bautizado como la Roca del Juicio Final por los medios de comunicación. Los físicos que trabajan en armamento nuclear y están a punto de quedar en paro argumentan, quizá de manera interesada, que se les debería permitir construir masivas bombas de hidrógeno para explotarlos y hacerlos añicos cuando llegue el momento. Trozos y fragmentos del cometa Swift-Tuttle han hecho impacto ya en la Tierra. Mientras hace una revolución completa alrededor del Sol cada 130 años, desprende una considerable cantidad de

residuos que crean un río de meteoritos y partículas en el espacio exterior. Cuando la Tierra cruza este río, tenemos el chaparrón anual de meteoritos Perseidas que raramente deja de iluminar el cielo con fuegos artificiales celestes. (También deberíamos señalar que la predicción de residuos de cometas cercanos es un asunto arriesgado. Puesto que el calor de la radiación solar hace que la superficie helada del corneta se vaporice de forma irregular y escupa miles de pequeños fuegos artificiales, hay ligeras pero importantes distorsiones en su trayectoria. No es sorprendente que Marsden se retractara de su predicción unas pocas semanas después. «Estamos a salvo hasta el próximo milenio», admitió Marsden.) Un comité de la NASA estimó en enero de 1991 que existen entre 1.000 y 4.000 asteroides que cruzan la órbita de la Tierra y tienen más de medio kilómetro de diámetro, suficiente para plantear una amenaza a la civilización humana. Sin embargo, sólo unos 150 de estos grandes asteroides han sido adecuadamente detectados por el radar. Además, se ha estimado que hay alrededor de 300.000 asteroides que cruzan la órbita de la Tierra y que tienen al menos un kilómetro de diámetro. Por desgracia, los científicos apenas conocen las órbitas de cualquiera de estos asteroides más pequeños. Mi propia aproximación personal a un objeto extraterrestre tuvo lugar cuando yo era un estudiante veterano en Harvard en el invierno de 1967. Un íntimo amigo con el que compartía el dormitorio, que tenía un empleo a tiempo parcial en el observatorio de la universidad, me contó un secreto celosamente guardado: los astrónomos del observatorio habían detectado un asteroide gigantesco, de varios kilómetros de diámetro, que se dirigía directamente hacia el planeta Tierra. Además, aunque era demasiado pronto para decirlo, él me informó que sus ordenadores calculaban que podría chocar con la Tierra en junio de 1968, hacia la fecha de nuestra graduación. Un objeto de dicho tamaño rompería la corteza de la Tierra, arrojaría miles de millones de toneladas de magma fundido y provocaría grandes terremotos y maremotos en todo el mundo. A medida que pasaban los meses, yo obtenía actualizaciones periódicas sobre el curso del asteroide del Juicio Final. Los astrónomos del observatorio estaban siendo obviamente muy cuidadosos para no provocarnos un pánico indebido con esta información. Veinte años después había olvidado todo sobre el asteroide, hasta que estuve hojeando un artículo sobre rastros próximos de asteroides. Casi con seguridad, el artículo hacía referencia al asteroide de 1968. Aparentemente, el asteroide estuvo a menos de dos millones de kilómetros de un impacto directo con la Tierra. Más extraños, pero más espectaculares que las colisiones de asteroides, son los estallidos de supernova en la vecindad de la Tierra. Una supernova libera enormes cantidades de energía, mayores que el producto de cientos de miles de millones de estrellas, hasta que eventualmente brilla más que toda la galaxia. Crea una ráfaga de rayos X que sería suficiente para provocar perturbaciones graves en cualquier sistema estelar próximo. Como mínimo, una supernova cercana crearía un EMP (pulso electromagnético) gigantesco, similar al que hubiera liberado una bomba de hidrógeno detonada en el espacio exterior. La ráfaga de rayos X podría incidir sobre nuestra atmósfera, expulsando a los electrones de los átomos; los electrones describirían entonces trayectorias espirales en el campo magnético de la Tierra, creando campos eléctricos enormes. Estos campos son suficientes para neutralizar todos los dispositivos eléctricos y de comunicación en cientos de kilómetros, creando la confusión y el pánico. En una guerra nuclear a gran escala, el EMP sería suficiente para destruir o

dañar cualquier forma de electrónica en un área amplia de la población de la Tierra. En el peor de los casos, de hecho, un estallido de supernova en la vecindad de un sistema estelar podría ser suficiente para destruir toda la vida. El astrónomo Cari Sagan especula que un suceso semejante pudo haber acabado con los dinosaurios: Si por azar hubiera habido una supernova en un radio de diez o veinte años luz del sistema solar hace aproximadamente sesenta y cinco millones de años, habría derramado un flujo intenso de rayos cósmicos en el espacio, y algunos de éstos, al entrar en la atmósfera de la Tierra, habrían quemado el nitrógeno atmosférico. Los óxidos de nitrógeno así generados habrían eliminado la capa de ozono protectora de la atmósfera, incrementando el flujo de radiación solar ultravioleta en la superficie y quemando y mutando los principales organismos protegidos imperfectamente contra la intensa luz ultravioleta.

Por desgracia, la supernova daría poco aviso de su explosión. Una erupción de supernova tiene lugar muy rápidamente, y su radiación viaja a la velocidad de la luz, de modo que una civilización Tipo I tendría que organizar una escapatoria rápida al espacio exterior. La única precaución que puede tomar una civilización es vigilar cuidadosamente aquellas estrellas próximas que están a punto de convertirse en supernovas. El factor de extinción Némesis En 1980, el finado Luis Álvarez, su hijo Walter, Frank Asaro y Helen Michel, de la Universidad de California en Berkeley, propusieron que un cometa o un asteroide chocó contra la Tierra hace sesenta y cinco millones de años, iniciando así enormes perturbaciones atmosféricas que llevaron a la repentina extinción de los dinosaurios. Examinando los estratos sedimentados en lechos de ríos hace sesenta y cinco millones de años, pudieron determinar la presencia de cantidades anormalmente altas de iridio, que escasea en la Tierra pero se encuentra normalmente en objetos extraterrestres, como los meteoritos. La teoría es bastante plausible, puesto que un cometa de diez kilómetros de diámetro que incidiese sobre la Tierra a aproximadamente treinta kilómetros por segundo (diez veces más rápido que una bala a gran velocidad) tendría la fuerza de cien millones de megatones de TNT (o 10.000 veces el arsenal nuclear total del mundo). Produciría un cráter de cien kilómetros de diámetro y treinta kilómetros de profundidad, desprendiendo residuos suficientes para interceptar toda la luz del Sol durante un extenso periodo de tiempo. Al descender drásticamente la temperatura, la gran mayoría de las especies de este planeta serían aniquiladas o seriamente mermadas. De hecho, se anunció en 1992 que había sido identificado un serio candidato para el cometa o asteroide que acabó con los dinosaurios. Ya se sabía que existe un gran cráter de 180 kilómetros de diámetro en Yucatán, México, cerca del pueblo de Chicxulub Puerto. En 1981, geofísicos de la compañía nacional de petróleo de México, Pemex, informaron a los geólogos que habían captado anomalías gravitacionales y magnéticas de formas circulares en dicho lugar. Sin embargo, sólo después de que se hiciera popular la teoría de Álvarez los geólogos analizaron activamente los residuos del impacto cataclísmico. Métodos de datación radiactiva utilizando argon-39 han mostrado que el cráter de Yucatán tiene 64,98 + 0,05 millones de años. Y lo que es todavía más impresionante, se demostró que México, Haití e incluso Florida, están cubiertos con pequeños residuos cristalinos llamados tektitas, que son probablemente silicatos que fueron cristalizados por el impacto de este gran asteroide o cometa. Estas tektitas cristalinas pueden encontrarse en sedimentos que se formaron

entre los periodos Terciario y Cretácico. Análisis de cinco muestras de tektitas diferentes dan una edad promedio de 65,07 + 0,10 millones de años. Dada la precisión de estas medidas independientes, los geólogos tienen ahora la «pistola humeante» del asteroide o cometa que acabó con los dinosaurios. Pero una de las características sorprendentes de la vida sobre la Tierra es que la extinción de los dinosaurios sólo es una de las varias extinciones en masa bien documentadas. Otras extinciones en masa fueron mucho peores que la que cerró el periodo Cretácico hace sesenta y cinco millones de años. La extinción en masa que cerró el periodo Pérmico, por ejemplo, destruyó completamente el 96 por 100 de todas las plantas y las especies animales hace 250 millones de años. Los trilobites, que gobernaban los océanos como una de las formas de vida dominantes en la Tierra, perecieron misteriosa y abruptamente durante esta gran extinción en masa. De hecho, ha habido cinco extinciones en masa de la vida vegetal y animal. Si se incluyen extinciones en masa que están peor documentadas, se hace manifiesta una pauta: cada veintiséis millones de años aproximadamente, hay una extinción de este tipo. Los paleontólogos David Raup y John Sepkoski han demostrado que si representamos el número de especies conocidas en la Tierra en cualquier momento dado, entonces el gráfico muestra una abrupta caída en el número de formas de vida en la Tierra cada veintiséis millones de años, como un reloj. Puede mostrarse que esta pauta se extiende durante diez ciclos que se remontan hasta 260 millones de años (excluyendo dos ciclos). En un ciclo de extinción, al final del periodo Cretácico, hace sesenta y cinco millones de años, fueron aniquilados la mayoría de los dinosaurios. En otro ciclo de extinción, al final del periodo Eoceno, hace treinta y cinco millones de años, se extinguieron muchas especies de mamíferos terrestres. Pero el enigma central de esto es: ¿qué cosa hay en los cielos con un ciclo de veintiséis millones de años? Una búsqueda a través de datos biológicos, geológicos o incluso astronómicos sugiere que nada tiene un ciclo con un periodo de veintiséis millones de años. Richard Muller de Berkeley ha propuesto la teoría de que nuestro Sol forma en realidad parte de un sistema de estrellas dobles, y que nuestra estrella hermana (llamada Némesis o la Estrella de la Muerte) es responsable de las extinciones periódicas de vida en la Tierra. La conjetura es que nuestro Sol tiene una compañera masiva e invisible que completa una órbita cada veintiséis millones de años. Cada vez que atraviesa la nube de Oort (una nube de cometas que supuestamente existe más allá de la órbita de Plutón), arrastra con ella una indeseable avalancha de cometas, algunos de los cuales chocan con la Tierra, dando lugar a tantos residuos que impiden que la luz del Sol alcance la superficie terrestre. La evidencia experimental para esta teoría inusual procede del hecho de que los estratos geológicos del pasado, correspondientes al final de cada ciclo de extinción, contienen cantidades anormalmente grandes del elemento iridio. Puesto que el iridio se encuentra naturalmente en meteoritos extraterrestres, es posible que estas trazas de iridio sean remanentes de los cometas enviados por Némesis. Actualmente estamos a mitad de un ciclo de extinción, lo que quiere decir que Némesis, si existe, está en el punto más alejado de su órbita (probablemente a varios años-luz de distancia). Esto nos daría más de diez millones de años hasta su siguiente llegada.[150] Afortunadamente, en la época en que los cometas de la nube de Oort pudieran chocar de nuevo con el sistema solar, habríamos alcanzado el estatus Tipo III, que significa que habremos conquistado

no sólo las estrellas cercanas, sino también que habremos viajado a través del espacio-tiempo. La muerte del Sol Los científicos se preguntan a veces qué sucederá eventualmente a los átomos de nuestros cuerpos mucho tiempo después de que hayamos muerto. La posibilidad más probable es que nuestras moléculas vuelvan al Sol. Nuestro Sol es una estrella de mediana edad. Tiene aproximadamente cinco mil millones de años y probablemente seguirá siendo una estrella amarilla durante otros cinco mil millones de años. Cuando nuestro Sol agote su suministro de hidrógeno, no obstante, quemará helio y se hinchará enormemente: se hará un gigante rojo. Su atmósfera se expandirá rápidamente, extendiéndose hasta más allá de la órbita de Marte, y la órbita de la Tierra quedará completamente dentro de la atmósfera del Sol, de modo que la Tierra se calcinará por las enormes temperaturas. Las moléculas que constituyen nuestros cuerpos, y de hecho la propia Tierra, serán consumidas por la atmósfera solar. Sagan pinta el cuadro siguiente: Dentro de miles de millones de años a partir de ahora, habrá un último día perfecto en la Tierra … Las capas de hielo Ártica y Antártica se fundirán, inundando las costas del mundo. Las altas temperaturas oceánicas liberarán más vapor de agua al aire, incrementando la nubosidad y protegiendo a la Tierra de la luz del Sol y retrasando un poco el final. Pero la evolución solar es inexorable. Finalmente los océanos hervirán, la atmósfera se evaporará en el espacio y nuestro planeta será destruido por una catástrofe de las proporciones más inmensas imaginables.[151]

De este modo, para aquellos que desean saber si la Tierra se consumirá en hielo o en fuego, la física da realmente una respuesta precisa. Se consumirá en el fuego. Sin embargo, es altamente probable que los seres humanos, si hemos sobrevivido tanto, hace tiempo que habremos salido del sistema solar. A diferencia de una supernova, existe un largo aviso de la muerte de nuestro Sol. La muerte de la galaxia En una escala de tiempo de varios miles de millones de años, debemos enfrentarnos al hecho de que la Vía Láctea, en la que vivimos, morirá. Más exactamente, vivimos en el brazo espiral Orión de la Vía Láctea. Cuando miramos al cielo nocturno y nos sentimos empequeñecidos por la inmensidad de las luces celestes que puntúan el cielo, estamos mirando realmente una minúscula porción de las estrellas localizadas en el brazo Orión. Los millones de estrellas que han inspirado a amantes y poetas durante generaciones ocupan solamente una minúscula parte del brazo Orión. El resto de los 200.000 millones de estrellas de la Vía Láctea están tan lejanas que apenas pueden ser vistas como una cinta lechosa que cruza el cielo nocturno. Aproximadamente a dos millones de años-luz de la Vía Láctea está nuestra galaxia vecina más cercana, la gran galaxia Andrómeda, que es dos o tres veces mayor que nuestra galaxia. Las dos galaxias se están aproximando a 125 kilómetros por segundo, y chocarán en un periodo de 5 a 10.000 millones de años. Como ha dicho el astrónomo Lars Hernquist de la Universidad de California en Santa Cruz, esta colisión será «parecida a un asalto. Nuestra galaxia será consumida y destruida».[152] Vista desde el espacio exterior, la galaxia Andrómeda parecerá colisionar y luego absorber lentamente la Vía Láctea. Las simulaciones por ordenador de galaxias en colisión demuestran que la

atracción gravitatoria de la galaxia mayor superará lentamente a la gravedad de la galaxia más pequeña y, tras varias rotaciones, esta última será devorada. Pero puesto que las estrellas de la Vía Láctea están tan ampliamente separadas por el vacío del espacio, el número de colisiones entre estrellas será muy pequeño, del orden de varias colisiones por siglo. De este modo nuestro Sol puede evitar una colisión directa durante un extenso periodo de tiempo. Finalmente, en esta escala de tiempo de miles de millones de años, tenemos un destino mucho más mortal: la muerte de nuestro propio universo. Astutas formas de vida inteligente podrán encontrar maneras de construir arcas espaciales para sobrevivir a la mayoría de las catástrofes naturales, pero ¿cómo podemos evitar la muerte del universo, cuando el propio espacio es nuestro peor enemigo? Los aztecas creían que el fin del mundo llegaría cuando el Sol cayese un día del cielo. Ellos predecían que esto sucedería «cuando la Tierra se haya cansado …, cuando la semilla de la Tierra se haya agotado». Las estrellas serían sacudidas de los cielos. Quizá ellos estuvieran cerca de la verdad. Cabe esperar que para la época en que nuestro Sol empiece a parpadear, hará tiempo que la humanidad habrá dejado el sistema solar y partido hacia las estrellas. (De hecho, en la serie de la Fundación de Asimov, el lugar de nuestro sistema solar original se ha perdido después de miles de años.) Sin embargo, inevitablemente, todas las estrellas en los cielos empezarán a parpadear a medida que se agote su combustible nuclear. En una escala de decenas a cientos de miles de millones de años, nos enfrentamos a la muerte del propio universo. O bien el universo está abierto, en cuyo caso se expandirá para siempre hasta que las temperaturas se aproximen gradualmente al cero absoluto, o bien el universo es cerrado, en cuyo caso la expansión se invertirá y el universo morirá en un violento big crunch. Incluso para una civilización Tipo III, ésta es una terrible amenaza a su existencia. ¿Puede el dominio del hiperespacio salvar a la civilización de su catástrofe final, la muerte del universo?

14 EL DESTINO DEL UNIVERSO

Unos dicen que el mundo acabará en fuego. Otros dicen que en hielo. Por lo que he saboreado del deseo me pongo a favor del fuego.[153] ROBERT FROST Nada acaba hasta que ha terminado. YOGI BERRA El que una civilización, ya sea en la Tierra o en el espacio exterior, pueda llegar a un punto en su desarrollo tecnológico que le permita valerse de la potencia del hiperespacio depende en parte, como hemos visto, de que pueda capear una serie de desastres típicos de las civilizaciones Tipo 0. El periodo peligroso son los primeros cientos de años tras los albores de la era nuclear, cuando el desarrollo tecnológico de una civilización ha superado ampliamente su madurez social y política para manejar conflictos regionales. Para el tiempo en que una civilización haya alcanzado el estatus Tipo III, habrá conseguido una estructura social planetaria suficientemente avanzada para evitar la autoaniquilación y una tecnología suficientemente poderosa para evitar un desastre ecológico o natural, tal como una era glaciar o un colapso solar. Sin embargo, incluso una civilización Tipo III tendrá dificultades para evitar la catástrofe final: la muerte del propio universo. Incluso las naves espaciales de la más poderosa y perfeccionada de las civilizaciones de Tipo III serán incapaces de escapar al destino final del universo. Que el propio universo debe morir era conocido para los científicos del siglo XIX. Charles Darwin, en su Autobiografía escribía de su angustia cuando se daba cuenta de este hecho profundo pero deprimente: «Creyendo como yo lo hago que el hombre será, en un futuro lejano, una criatura mucho más perfecta de lo que es ahora, resulta intolerable la idea de que él y otros seres sensibles están condenados a una completa aniquilación al cabo de un progreso lento y continuado».[154] El matemático y filósofo Bertrand Russell escribió que la extinción final de la humanidad es causa de una «desesperación inquebrantable». En lo que probablemente es uno de los pasajes más deprimentes nunca escrito por un científico, Russell advirtió: Que el hombre es el producto de causas que no previeron el fin que estaban alcanzando; que su origen, su crecimiento, sus esperanzas y sus temores, sus amores y sus creencias, no son sino el resultado de una disposición accidental de átomos; que ningún ardor, ningún heroísmo, ninguna intensidad de pensamiento o sentimiento, puede preservar una vida más allá de la tumba; que todos los trabajos, toda la devoción, toda la inspiración, todo el brillo del genio humano, están destinados a la extinción en la vasta muerte del sistema solar; y que el templo entero de la culminación del Hombre debe quedar

enterrado inevitablemente bajo los restos de un universo en ruinas. Todas estas cosas, si no están totalmente fuera de discusión, son casi tan seguras que ninguna filosofía que las rechace puede esperar mantenerse en pie. Sólo dentro del andamiaje de estas verdades, sólo sobre la base firme de una desesperación inquebrantable, puede construirse una segura morada del alma.[155]

Russell escribió este pasaje en 1923, décadas antes de la llegada del viaje espacial. La muerte del sistema solar se perfilaba en su mente como una conclusión rigurosa de las leyes de la física. Dentro de los márgenes de la limitada tecnología de su tiempo, esta deprimente conclusión parecía inevitable. Desde entonces, hemos aprendido bastante sobre la evolución estelar para saber que nuestro Sol se convertirá con el tiempo en un gigante rojo y consumirá la Tierra en fuego nuclear. Sin embargo, también comprendemos las ideas básicas del viaje espacial. En la época de Russell, la idea misma de grandes naves capaces de colocar seres humanos en la Luna o en los planetas era considerada universalmente como el pensamiento de un loco. Sin embargo, con el crecimiento exponencial de la tecnología, la perspectiva de la muerte del sistema solar no es un suceso tan temible para la humanidad, como hemos visto. Para el tiempo en que nuestro Sol se convierta en un gigante rojo, la humanidad o bien habrá perecido hace tiempo en el polvo nuclear o, esperanzadoramente, habrá encontrado su lugar correcto entre las estrellas. Con todo, resulta sencillo generalizar la «desesperación inquebrantable» de Russell desde la muerte de nuestro sistema solar a la muerte del universo entero. En dicha eventualidad, parece que ningún arca espacial podría transportar a la humanidad sacándola del camino del desastre. La conclusión parece irrefutable; la física predice que todas las formas de vida inteligente, no importa lo avanzadas que estén, perecerán cuando el propio universo muera. Según la teoría de la relatividad general de Einstein, el universo o bien seguirá expandiéndose para siempre en un quejido cósmico, en cuyo caso el universo llegará a temperaturas próximas al cero absoluto, o bien se contraerá en un furioso colapso, el big crunch. El universo morirá bien en «hielo», con un universo abierto, o bien en «fuego», con un universo cerrado. En cualquier caso, una civilización Tipo III está condenada porque las temperaturas se aproximarán o bien al cero absoluto o bien al infinito. Para decir qué destino nos espera, los cosmólogos utilizan las ecuaciones de Einstein para calcular la cantidad total de materia-energía en el universo. Puesto que la materia en las ecuaciones de Einstein determina la cantidad de curvatura espaciotemporal, debemos saber la densidad media de materia del universo para determinar si existe materia y energía suficiente para que la gravitación invierta la expansión cósmica del big bang original. Un valor crítico para la densidad media de materia determina el destino final del universo y, con él, de toda la vida inteligente. Si la densidad media del universo es menor que 1029 gramos por centímetro cúbico, lo que equivale a 10 miligramos de materia extendida sobre un volumen similar al de la Tierra, entonces el universo seguirá expandiéndose para siempre, hasta que se convierta en un espacio sin vida y uniformemente frío. Sin embargo, si la densidad media es mayor que dicho valor, entonces existe materia suficiente para que la fuerza gravitatoria del universo invierta el big bang, y provoque las enormes temperaturas del big crunch. Por el momento, la situación experimental es confusa. Los astrónomos tienen varias maneras de medir la masa de una galaxia y, por consiguiente, la masa del universo. La primera es contar el número de estrellas en una galaxia, y multiplicar dicho número por la masa media de cada estrella.

Cálculos realizados de esta manera tediosa muestran que la densidad media es menor que el valor crítico, y que el universo seguirá expandiéndose para siempre. El problema de este cálculo es que omite la materia que no es luminosa (por ejemplo, nubes de polvo, agujeros negros, estrellas enanas frías). Existe también una segunda manera de realizar este cálculo, que consiste en utilizar las leyes de Newton. Calculando el tiempo que tardan las estrellas en completar una revolución en una galaxia, los astrónomos pueden utilizar las leyes de Newton para estimar la masa total de la galaxia, de la misma forma que Newton utilizó el tiempo que tardaba la Luna en completar una revolución en torno a la Tierra para estimar las masas de la Luna y de la Tierra. El problema está en el desajuste entre estos dos cálculos. De hecho, los astrónomos saben que hasta un 90 por 100 de la masa de una galaxia está en forma de «masa perdida» o «materia oscura» indetectable y oculta, que no es luminosa pero tiene masa. Incluso si tenemos en cuenta un valor aproximado para la masa del gas interestelar no luminoso, las leyes de Newton predicen que la galaxia es mucho más pesada que el valor calculado contando estrellas. Hasta que los astrónomos resuelvan la cuestión de esta masa perdida o materia oscura, no podemos resolver la cuestión de si el universo se contraerá y colapsará en una bola ardiente o se expandirá para siempre. Muerte entrópica Supongamos, por el momento, que la densidad media del universo es menor que el valor crítico. Puesto que el contenido de materia-energía determina la curvatura del espacio-tiempo, encontramos que no existe materia-energía suficiente para hacer que el universo vuelva a colapsar. Se expandirá entonces ilimitadamente hasta que su temperatura llegue casi al cero absoluto. Esto incrementa la entropía (que mide la cantidad total de caos o aleatoriedad en el universo). Finalmente, el universo muere en una muerte entrópica. El físico y astrónomo inglés sir James Jeans escribió sobre la muerte final del universo, que él denominó «muerte térmica», ya a comienzos de nuestro siglo: «La segunda ley de la termodinámica predice que sólo puede haber un final para el universo —una “muerte térmica” en la que la temperatura es tan baja que hace la vida imposible».[156] Para comprender cómo ocurre la muerte entrópica, es importante comprender la tres leyes de la termodinámica que gobiernan todos los procesos químicos y nucleares en la Tierra y en las estrellas. El científico y escritor británico C. P. Snow tenía una forma elegante de recordar las tres leyes: 1. Usted no puede ganar (es decir, usted no puede obtener algo a cambio de nada, porque la materia y la energía se conservan). 2. Usted ni siquiera puede plantarse (usted no puede volver al mismo estado energético, porque siempre hay un incremento en el desorden; la entropía siempre crece). 3. Usted no puede salirse del juego (porque el cero absoluto es inalcanzable). Para la muerte del universo, la más importante es la segunda ley, que afirma que cualquier proceso crea un incremento neto en la cantidad de desorden (entropía) del universo. La segunda ley

es en realidad una parte integrante de nuestras vidas cotidianas. Por ejemplo, supongamos que echamos leche en una taza de café. El orden (tazas separadas de leche y café) se ha transformado de forma natural en desorden (una mezcla aleatoria de leche y café). Sin embargo, invertir la entropía, extrayendo orden del desorden, es extremadamente difícil. «Desmezclar» el líquido en tazas separadas de leche y café es imposible sin un buen laboratorio químico. Asimismo, un cigarrillo encendido puede llenar una habitación vacía con nubes de humo, incrementando la entropía de dicha habitación. El orden (tabaco y papel) se ha convertido una vez más en desorden (humo y alquitrán). Invertir la entropía —es decir, obligar al humo a que vuelva al cigarrillo y convertir el alquitrán de nuevo en tabaco sin quemar— es imposible incluso con el mejor laboratorio de química del planeta. Análogamente, todo el mundo sabe que es más fácil destruir que construir. Se puede necesitar años para construir una casa, pero sólo una hora para destruirla en un incendio. Se necesitaron casi 5.000 años para transformar las bandas errantes de cazadores en la gran civilización azteca, que floreció en México y en América Central y construyó imponentes monumentos a sus dioses. Sin embargo, sólo se necesitaron algunos meses para que Cortés y los conquistadores demoliesen esa civilización. La entropía está aumentando incesantemente en las estrellas tanto como en nuestro planeta. Esto significa que, con el tiempo, las estrellas agotarán su combustible nuclear y morirán, convirtiéndose en masas muertas de materia nuclear. El universo se oscurecerá a medida que las estrellas, una a una, dejen de centellear. A partir de nuestra comprensión de la evolución estelar, podemos pintar un cuadro bastante lúgubre de cómo morirá el universo. Todas las estrellas se convertirán en agujeros negros, estrellas de neutrones o estrellas enanas frías (dependiendo de su masa) en menos de 1024 años a medida que sus hornos nucleares se apaguen. La entropía aumenta a medida que las estrellas se deslizan hacia abajo por la curva de energía de enlace, hasta que no puede extraerse más energía fusionando su combustible nuclear. En menos de 1032 años, todos los protones y neutrones del universo probablemente se desintegrarán. Según las GUT, los protones y los neutrones son inestables en una gran escala de tiempo. Esto significa que, con el tiempo, toda la materia tal como la conocemos, incluyendo la Tierra y el sistema solar, se disolverá en partículas más pequeñas, tales como electrones y neutrinos. De este modo, los seres inteligentes tendrán que enfrentarse a la desagradable posibilidad de que los protones y neutrones de sus cuerpos se desintegren. Los cuerpos de los organismos inteligentes ya no estarán hechos de los cien elementos químicos familiares, que son inestables sobre ese inmenso periodo de tiempo. La vida inteligente tendrá que encontrar maneras de crear nuevos cuerpos hechos de energía, electrones y neutrinos. Después de un fantástico periodo de 10100 años (un gugol), la temperatura del universo se aproximará al cero absoluto. La vida inteligente en este lóbrego futuro se enfrentará a la perspectiva de la extinción. Incapaz de apiñarse cerca de las estrellas, se congelará hasta la muerte. Pero incluso en un universo desolado y frío, a temperaturas próximas al cero absoluto, existe una última fuente remanente de energía: los agujeros negros. Según el cosmólogo Stephen Hawking, los agujeros negros no son completamente negros, sino que dejan escapar energía lentamente al espacio exterior durante un extenso periodo de tiempo. En este futuro distante, los agujeros negros podrían convertirse en «presentadores de vida»

porque evaporarían energía lentamente. La vida inteligente se concentraría necesariamente cerca de estos agujeros negros y extraería energía de ellos para mantener sus máquinas en funcionamiento. Las civilizaciones inteligentes, como ateridas personas sin hogar acurrucadas cerca de un débil fuego, se reducirían a patéticos y míseros puestos fronterizos agarrándose a un agujero negro.[157] Pero ¿qué sucede, podríamos preguntar, al cabo de 10100 años, cuando los agujeros negros en evaporación hayan agotado la mayor parte de su propia energía? Los astrónomos John D. Barrow de la Universidad de Sussex y Joseph Silk de la Universidad de California en Berkeley advierten que esta cuestión puede carecer en definitiva de sentido con el conocimiento actual. En esa escala de tiempo, la teoría cuántica, por ejemplo, deja abierta la posibilidad de que nuestro universo pueda pasar por «efecto túnel» a otro universo. Las probabilidades para este tipo de sucesos son extraordinariamente pequeñas; habría que esperar un intervalo de tiempo mayor que la vida de nuestro universo actual, de modo que no tendríamos que preocuparnos de que la realidad colapse repentinamente durante nuestra vida, trayendo consigo un nuevo conjunto de leyes físicas. Sin embargo, en la escala de 10100 años, ya no puede descartarse este tipo de raros sucesos cuánticos cósmicos. Barrow y Silk añaden: «Donde hay teoría cuántica hay esperanza. Nunca podemos estar completamente seguros de que esta muerte térmica tendrá lugar porque nunca podemos predecir con completa certeza el futuro de un universo mecanocuántico; pues en un futuro cuántico infinito todo lo que puede suceder, llegará a suceder».[158] Escape a través de una dimensión más alta El quejido cósmico es en verdad un destino lúgubre que nos espera si la densidad media del universo es demasiado pequeña. Supongamos ahora que la densidad media es mayor que el valor crítico. Esto significa que el proceso de expansión se contraerá en decenas de miles de millones de años, y el universo terminará en fuego, no en hielo. En este escenario, existe materia suficiente y, por lo tanto, una atracción gravitatoria suficientemente fuerte en el universo para detener la expansión, y luego el universo empezará a contraerse lentamente, acercando de nuevo las galaxias distantes. La luz estelar estará «desplazada hacia el azul» en lugar de desplazada hacia el rojo, indicando que las estrellas se están acercando rápidamente. Las temperaturas aumentarán de nuevo hasta límites astronómicos. Con el tiempo, el calor se hará suficientemente intenso para vaporizar toda la materia en gas. Los seres inteligentes descubrirán que los océanos de sus planetas han hervido y que sus atmósferas se han convertido en un horno. Conforme sus planetas empiecen a desintegrarse, ellos se verán obligados a huir al espacio exterior en misiles gigantescos. Incluso el santuario del espacio exterior puede mostrarse inhóspito, no obstante. Las temperaturas llegarán a crecer por encima del punto en el que los átomos son estables, y los electrones serán arrancados de sus núcleos, creando un plasma (como el que se encuentra en nuestro Sol). En este momento, quizá la vida inteligente tendrá que construir pantallas protectoras gigantescas alrededor de sus naves y utilizar todo su aporte de energía para evitar que sus pantallas se desintegren por el calor intenso. Conforme las temperaturas siguen creciendo, los protones y los neutrones del núcleo se separan.

Más adelante, los propios protones y neutrones serán desgajados en quarks. Como en un agujero negro, el big crunch lo devora todo. Nada le sobrevive. Por lo tanto, parece imposible que la materia ordinaria, y mucho menos la vida inteligente, pueda sobrevivir a la violenta ruptura. Existe, sin embargo, un posible escape. Si todo el espacio-tiempo colapsa en un tremendo cataclismo, la única forma de escapar del big crunch es abandonar el espacio y el tiempo: escapar a través del hiperespacio. Esto puede no ser tan extravagante como suena. Cálculos mediante ordenador realizados con las teoría de Kaluza-Klein y de supercuerdas han demostrado que, instantes después de la Creación, el universo tetradimensional se expandió a expensas del universo hexadimensional. Por lo tanto, los destinos últimos de los universos de cuatro y de seis dimensiones están ligados. Suponiendo que esta imagen básica sea correcta, nuestro universo gemelo hexadimensional puede expandirse gradualmente a medida que nuestro propio universo tetradimensional colapsa. Instantes antes de que nuestro universo se contraiga hasta la nada, la vida inteligente puede advertir que el universo hexadimensional se está abriendo, y encontrar un medio de explotar este hecho. El viaje interdimensional es hoy imposible porque nuestro universo hermano se ha contraído hasta la escala de Planck. Sin embargo, en las etapas finales de un colapso, el universo hermano puede abrirse, haciendo otra vez posible el viaje dimensional. Si el universo hermano se expande lo suficiente, la materia y la energía pueden escapar hacia él, proporcionando una portezuela de escape para cualesquiera seres inteligentes suficientemente sabios para calcular la dinámica del espaciotiempo. El finado físico Gerald Feinberg de la Universidad de Columbia especuló sobre esta jugada de escapar a la compresión final del universo a través de dimensiones extra: En el momento actual, esto no es más que una trama de ciencia ficción. Sin embargo, si existen otras dimensiones además de las que ya conocemos, o espacio-tiempos de cuatro dimensiones además del que habitamos, creo que sería muy probable que existan fenómenos físicos que sirvan de conexión entre ellos. Parece plausible que si la inteligencia perdura en el universo, en un lapso muy inferior a los muchos miles de millones de años que faltan para el big crunch logrará descubrir qué base tiene esta hipótesis y cómo sacarle partido.[159]

Colonizar el universo Casi todos los científicos que han investigado la muerte del universo, desde Bertrand Russell a los cosmólogos actuales, han supuesto que la vida inteligente estará casi desvalida ante los inevitables estertores de la muerte final del universo. Incluso la teoría de que los seres inteligentes pueden pasar por efecto túnel al hiperespacio y evitar el big crunch supone que estos seres son víctimas pasivas hasta los instantes finales del colapso. Sin embargo, los físicos John D. Barrow de la Universidad de Sussex, y Frank J. Tipler de la Tulane University, en su libro The Anthropic Cosmological Principle, se han apartado del saber convencional y concluyen precisamente lo contrario: que la vida inteligente, a lo largo de miles de millones de años de evolución, jugará un papel activo en los instantes finales de nuestro universo. Ellos adoptan el punto de vista bastante heterodoxo de que la tecnología continuará creciendo exponencialmente durante miles de millones de años, acelerándose constantemente en proporción a la tecnología existente. Cuantos más sistemas estelares hayan colonizado los seres inteligentes, más sistemas estelares pueden colonizar. Barrow y Tipler argumentan que al cabo de miles de millones de años, los seres inteligentes habrán colonizado completamente vastas porciones del universo visible.

Pero ellos son conservadores; no suponen que la vida inteligente haya dominado el arte del viaje en el hiperespacio. Sólo suponen que sus misiles viajarán a velocidades próximas a la de la luz. Esta exposición debería tomarse en serio por varias razones. En primer lugar, los misiles que viajen a velocidades próximas a la de la luz (impulsados, por ejemplo, por motores fotónicos que utilizan la potencia de grandes haces láser) pueden necesitar cientos de años para llegar a sistemas estelares lejanos. Pero Barrow y Tipler creen que los seres inteligentes prosperarán durante miles de millones de años, que es un tiempo suficiente para colonizar su propia galaxia y las vecinas incluso con misiles a velocidad sublumínica. Sin dar por hecho el viaje en el hiperespacio, Barrow y Tipler argumentan que los seres inteligentes enviarán a la galaxia millones de pequeñas «sondas de Von Neumann» con velocidades próximas a la de la luz para descubrir sistemas solares apropiados para su colonización. John von Neumann, el genio matemático que desarrolló el primer ordenador electrónico en la Universidad de Princeton durante la segunda guerra mundial, demostró rigurosamente que podrían construirse robots o autómatas con capacidad de autoprogramarse, autorepararse e incluso crear copias de sí mismos. Por consiguiente, Barrow y Tipler sugieren que las sondas de Von Neumann funcionarían con amplia independencia de sus creadores. Estas pequeñas sondas serían muy diferentes de la generación actual de sondas Viking y Pioneer, que son poco más que máquinas pasivas y reprogramadas que obedecen órdenes de sus dueños humanos. Las sondas de Von Neumann serán similares al Astropollo de Dyson, sólo que mucho más potentes e inteligentes. Entrarían en nuevos sistemas estelares, aterrizarían en los planetas y excavarían el suelo en busca de metales y elementos químicos apropiados. A continuación crearían un pequeño complejo industrial capaz de manufacturar numerosas copias robóticas de sí mismas. Desde estas bases, serían lanzadas más sondas de Von Neumann para explorar más sistemas estelares. Al ser autómatas autoprogramados, estas sondas no necesitarían instrucciones de su planeta paterno; explorarían millones de sistemas estelares con su propia autonomía, descansando sólo para transmitir periódicamente por radio sus hallazgos. Con millones de estas sondas de Von Neumann dispersas por toda la galaxia, creando millones de copias de sí mismas a medida que «comen» y «digieren» los compuestos químicos de cada planeta, una civilización inteligente sería capaz de ahorrar el tiempo desperdiciado en explorar sistemas estelares sin interés. (Barrow y Tipler consideran incluso la posibilidad de que sondas de Von Neumann procedentes de civilizaciones lejanas hayan entrado ya en nuestro propio sistema solar. Quizá el monolito tan misteriosamente caracterizado en 2001: una odisea del espacio fuera una sonda de Von Neumann.) En la serie «Star Trek», por ejemplo, la exploración de otros sistemas estelares por la Federación es bastante primitiva. El proceso de exploración depende por completo de las habilidades de los seres humanos a bordo de un pequeño número de naves estelares. Aunque este escenario puede servir para la intriga de dramas de interés humano, es un método muy poco eficaz de exploración estelar dado el gran número de sistemas planetarios que son probablemente inapropiados para la vida. Las sondas de Von Neumann, aunque no puedan tener las interesantes aventuras del capitán Kirk o el capitán Picard y sus tripulaciones, serían más apropiadas para la exploración galáctica. Barrow y Tipler hacen una segunda hipótesis que es crucial para su argumento: la expansión del universo se frenará en algún momento y luego se invertirá durante decenas de miles de millones de

años. Durante la fase de contracción del universo, la distancia entre galaxias disminuirá, haciendo mucho más fácil que los seres inteligentes continúen la colonización de las galaxias. Conforme se acelere la contracción del universo, también se acelerará el ritmo de colonización de galaxias vecinas, hasta que el universo entero sea eventualmente colonizado. Incluso aunque Barrow y Tipler suponen que la vida inteligente poblará todo el universo, aún les queda por explicar cómo cualquier forma de vida será capaz de soportar las temperaturas y presiones increíblemente grandes creadas por el colapso final del universo. Ellos admiten que el calor provocado por la fase de contracción será suficientemente intenso para vaporizar a cualquier ser vivo, pero quizá los robots que ellos hayan creado serán suficientemente resistentes al calor para aguantar los momentos finales del colapso. Recrear el big bang En esta línea, Isaac Asimov ha conjeturado cómo podrían reaccionar los seres inteligentes a la muerte final del universo. En «La última pregunta», Asimov plantea la vieja cuestión de si el universo debe morir inevitablemente, y lo que sucederá a cualquier vida inteligente cuando lleguemos al Día del Juicio Final. Asimov supone, no obstante, que el universo morirá en hielo, más que en fuego, a medida que las estrellas dejen de quemar hidrógeno y las temperaturas se hundan hasta el cero absoluto. La historia comienza en el año 2061, cuando un colosal ordenador ha resuelto los problemas energéticos de la Tierra diseñando un enorme satélite solar en el espacio que puede enviar la energía del Sol a la Tierra. El AC (ordenador analógico) es tan grande y avanzado que sus técnicos sólo tienen una idea muy vaga de cómo funciona. Por una apuesta de cinco dólares, dos técnicos borrachos preguntan al ordenador si puede evitarse la muerte final del Sol o, lo que es lo mismo, si el universo debe morir inevitablemente. Después de meditar tranquilamente sobre esta pregunta, el AC responde: datos insuficientes para una respuesta SIGNIFICATIVA. Algunos siglos después, el AC ha resuelto el problema del viaje en el hiperespacio, y los seres humanos empiezan a colonizar miles de sistemas estelares. El AC es tan grande que ocupa varios cientos de kilómetros cuadrados en cada planeta, y tan complejo que se automantiene y autorrepara. Una familia joven es lanzada a través del hiperespacio, guiada infaliblemente por el AC, en busca de un nuevo sistema estelar que colonizar. Cuando el padre menciona accidentalmente que las estrellas deben morir con el tiempo, los hijos se ponen histéricos. «Que no mueran las estrellas», piden los niños. Para calmar a los niños, el padre pregunta al AC si la entropía puede invertirse. «Mirad», tranquiliza el padre, leyendo la respuesta del AC, el AC puede resolver cualquier cosa. Les anima diciendo: «Él se ocupará de todo cuando llegue el momento, así que no os preocupéis». Lo que el padre no dice a los niños es que el AC ha impreso en realidad: datos insuficientes para una respuesta significativa. Miles de años después, la galaxia entera ha sido colonizada. El AC ha resuelto el problema de la inmortalidad y controla la energía de la galaxia, pero debe encontrar nuevas galaxias que colonizar. El AC es tan complejo que ha superado hace tiempo el punto en el que nadie comprende cómo funciona. Rediseña y mejora continuamente sus propios circuitos. Dos miembros del Consejo Galáctico, cada uno de ellos con cientos de año§ de edad, debaten la cuestión urgente de encontrar

nuevas fuentes de energía galácticas, y se preguntan si el propio universo se está agotando. ¿Puede invertirse la entropía?, preguntan. El AC responde: DATOS INSUFICIENTES PARA UNA RESPUESTA SIGNIFICATIVA. Después de millones de años, la humanidad se ha extendido por las innumerables galaxias del universo. El AC ha resuelto el problema de liberar la mente del cuerpo, y las mentes humanas son libres de explorar la vastedad de millones de galaxias, dejando a salvo sus cuerpos en algún planeta hace tiempo olvidado. Dos mentes se encuentran accidentalmente en el espacio exterior, y casualmente se preguntan en cuál de las innumerables galaxias se originaron los seres humanos. El AC, que ahora es tan grande que la mayor parte de él tiene que alojarse en el hiperespacio, responde transportándolos instantáneamente a una oscura galaxia. Ellos quedan decepcionados. La galaxia es tan ordinaria como millones de otras galaxias, y la estrella original hace tiempo que murió. Las dos mentes se angustian porque miles de millones de estrellas en los cielos están encontrando lentamente el mismo destino. Las dos mentes preguntan: ¿puede evitarse la muerte del propio universo? Desde el hiperespacio, el AC responde: datos insuficientes para una respuesta SIGNIFICATIVA. Miles de millones de años después, la humanidad consta de un billón de billones de billones de cuerpos inmortales, cada uno de ellos servido por autómatas. La mente colectiva de la humanidad, que está libre para volar a cualquier parte del universo a voluntad, se fusiona finalmente en una sola mente, que a su vez se fusiona con el propio AC. Ya no tiene sentido preguntar de qué está hecho el AC, o dónde está realmente en el hiperespacio. «El universo está muriendo», piensa el hombre colectivamente. A medida que las estrellas y las galaxias dejan de generar energía, las temperaturas en todo el universo se aproximan al cero absoluto. El hombre pregunta desesperadamente si el frío y la oscuridad que rodean a las galaxias significa su muerte final. Desde el hiperespacio, el AC responde: datos insuficientes para UNA RESPUESTA SIGNIFICATIVA. Cuando el hombre pide al AC que reúna los datos necesarios, éste responde: así lo haré, lo he estado haciendo DURANTE CIEN MIL MILLONES DE AÑOS. A MIS PREDECESORES LES HAN PLANTEADO ESTA PREGUNTA MUCHAS VECES. TODOS LOS DATOS QUE TENGO SIGUEN SIENDO INSUFICIENTES. Transcurre un intervalo intemporal, y el universo ha llegado finalmente a su muerte definitiva. Desde el hiperespacio, el AC pasa una eternidad reuniendo datos y considerando la pregunta final. Al fin, el AC descubre la solución, aunque ya no queda nadie a quien dar la respuesta. El AC formula cuidadosamente un programa y entonces comienza el proceso de invertir el Caos. Recoge gas interestelar frío, lo acumula en estrellas muertas hasta que se crea una bola gigantesca. Entonces, cuando su labor está hecha, desde el hiperespacio el AC truena: ¡hágase la luz! Y la luz se hizo. Y al séptimo día, Él descansó.

15 CONCLUSIÓN

Lo conocido es finito, lo desconocido infinito; intelectualmente permanecemos en una isla en medio de un inabarcable océano de inexplicabilidad. Nuestra ocupación en cada generación es reclamar un poco más de tierra. T HOMAS H. HUXLEY Quizá el descubrimiento más profundo en física en el siglo pasado haya sido la comprensión de que la naturaleza, en su nivel más fundamental, es más simple de lo que cualquiera piensa. Aunque la complejidad matemática de la teoría decadimensional ha alcanzado alturas sorprendentes, abriendo en el proceso áreas nuevas de la matemática, los conceptos básicos que impulsan la unificación, tales como el espacio multidimensional y las cuerdas, son básicamente geométricos y simples. Aunque es demasiado pronto para decirlo, cuando los futuros historiadores de la ciencia vuelvan la vista al tumultuoso siglo XX, podrán ver que una de las grandes revoluciones conceptuales es la introducción de las teorías de espacio-tiempos multidimensionales, tales como las teorías de supercuerdas y las de tipo Kaluza-Klein. Igual que Copérnico simplificó el sistema solar con su serie de círculos concéntricos y destronó a la Tierra de su lugar central en los cielos, la teoría decadimensional promete simplificar enormemente las leyes de la naturaleza y destronar al mundo familiar de tres dimensiones. Como hemos visto, la comprensión crucial es que una descripción tridimensional del mundo, tal como el Modelo Estándar, es «demasiado pequeña» para unir todas las fuerzas fundamentales de la naturaleza en una teoría global. Comprimir las cuatro fuerzas fundamentales en una teoría tridimensional da lugar a una fea, forzada y en última instancia incorrecta descripción de la naturaleza. Así pues, la corriente principal que ha dominado la física teórica en la última década ha sido la comprensión de que las leyes fundamentales de la física resultan más simples en dimensiones más altas, y que todas las leyes de la física parecen unificarse en diez dimensiones. Estas teorías nos permiten reducir una enorme cantidad de información a una forma concisa y elegante que une las dos teorías más grandes del siglo XX: la teoría cuántica y la de la relatividad general. Quizá es tiempo de explorar algunas de las implicaciones principales que tiene la teoría decadimensional para el futuro de la física y de la ciencia, el debate entre el reduccionismo y el holismo en la naturaleza, y la relación estética entre física, matemáticas, religión y filosofía. Diez dimensiones y experimento Cuando captamos la excitación y agitación que acompaña al nacimiento de cualquier gran teoría, existe una tendencia a olvidar que en última instancia todas las teorías deben ser puestas a prueba frente a la base firme del experimento. Por muy elegante o bella que pueda parecer una teoría, está

condenada si no concuerda con la realidad. Goethe escribió en cierta ocasión: «Gris es el dogma, pero verde es el árbol de la vida». La historia ha corroborado repetidamente la corrección de esta acida observación. Existen muchos ejemplos de teorías viejas e incorrectas que persistieron tercamente durante años, sostenidas sólo por el prestigio de científicos necios pero bien relacionados. En ocasiones, llegó a ser políticamente arriesgado oponerse al poder de los científicos veteranos osificados. Muchas de estas teorías han desaparecido sólo cuando algún experimento decisivo puso de manifiesto su incorrección. Por ejemplo, debido a la fama y considerable influencia de Hermann von Helmholtz en la Alemania del siglo XIX, su teoría del electromagnetismo fue mucho más popular entre los científicos que la relativamente oscura teoría de Maxwell. Pero por muy conocido que fuese Helmholtz, el experimento confirmó finalmente la teoría de Maxwell y relegó a la oscuridad la teoría de Helmholtz.[160] Análogamente, cuando Einstein propuso su teoría de la relatividad, muchos científicos políticamente poderosos en la Alemania nazi, como el premio Nobel Philip Lenard, le atacaron hasta que fue expulsado de Berlín en 1933. Así pues, el trabajo de caballería en cualquier ciencia, y especialmente en física, es hecho por los experimentadores, que deben seguir a los teóricos honestos. Victor Weisskopf, un físico teórico del MIT, resumió en cierta ocasión la relación entre la ciencia teórica y la experimental cuando observó que existen tres tipos de físicos: los constructores de máquinas (que construyen los colisionadores de átomos que hacen posible los experimentos), los experimentales (que planean y ejecutan el experimento), y los teóricos (que imaginan la teoría que explique el experimento). A continuación, él hacía una comparación con el viaje de Colón a América. Observó que los constructores de máquinas corresponden a los capitanes y constructores de barcos que realmente desarrollaban las técnicas en esa época. Los físicos experimentales eran aquellos tripulantes de los barcos que viajaron al otro lado del mundo y luego desembarcaron en las nuevas islas y describieron lo que veían. Los físicos teóricos son aquellas personas que permanecieron en Madrid y dijeron a Colón que él iba a desembarcar en la India.[161]

Sin embargo, si las leyes de la física se unen en diez dimensiones sólo a energías mucho más allá de cualquiera disponible con nuestra tecnología actual, entonces el futuro de la física experimental está amenazado. Hasta ahora, cada nueva generación de colisionadores de átomos ha provocado una nueva generación de teorías. Este periodo puede estar llegando a su fin. Aunque todo el mundo esperaba nuevas sorpresas si el SSC hubiera estado operativo hacia el año 2000, algunos apostaban a que simplemente reconfirmaría la corrección de nuestro Modelo Estándar actual. Más probablemente, los experimentos decisivos que demuestren o refuten la corrección de la teoría decadimensional no podrán realizarse en un futuro próximo. Podemos estar entrando en un largo periodo de sequía en el que la investigación en teorías decadimensionales se convertirá en un ejercicio de puras matemáticas. Todas las teorías derivan su poder y fuerza del experimento, que es como el suelo fértil que puede nutrir y sostener un campo de plantas florecientes una vez que hayan echado raíces. Si el suelo se hace árido y seco, entonces las plantas se marchitarán con él. David Gross, uno de los creadores de la teoría de cuerdas heteróticas, ha comparado el desarrollo de la física con la relación entre dos escaladores: Suele suceder que cuando estamos escalando la montaña de la naturaleza, el experimental dirige la marcha. Nosotros,

teóricos perezosos, nos quedamos atrás. De vez en cuando, ellos dejan caer una piedra experimental que rebota en nuestras cabezas. Eventualmente se nos ocurrirá la idea y seguiremos el camino que fue abierto por los experimentales … Pero ahora, nosotros los teóricos podríamos tener que tomar el mando. Ésta es una empresa mucho más solitaria. En el pasado sabíamos siempre dónde estaban los experimentales y, por ello, a dónde deberíamos dirigirnos. Ahora no tenemos idea de la altitud de la montaña, ni dónde está la cumbre.

Aunque los experimentales han tomado tradicionalmente la delantera a la hora de abrir nuevo territorio, la próxima era en física puede ser una era excepcionalmente difícil, obligando a los teóricos a tomar el mando, como apunta Gross. El SSC hubiera encontrado probablemente nuevas partículas. Podría haber sido descubierta la partícula de Higgs, o podrían haberse manifestado «súper» compañeros de los quarks, o podría haberse revelado quizá un subestrato por debajo de los quarks. Sin embargo, las fuerzas básicas que mantienen unidas estas partículas serían, si la teoría se mantiene, las mismas. Podríamos haber visto gluones y campos de Yang-Mills más complejos saliendo del SSC, pero estos campos podrían representar sólo grupos de simetría cada vez mayores, fragmentos de la simetría incluso más alta E(8) x E(8) que procede de la teoría de cuerdas. En cierto sentido, los orígenes de esta incómoda relación entre teoría y experimento están en el hecho de que esta teoría representa, como Witten ha apuntado, «física del siglo XXI que cayó accidentalmente en el siglo XX».[162] Puesto que la dialéctica natural entre teoría y experimento fue interrumpida por el descubrimiento accidental de la teoría en 1968, quizá tendremos que esperar hasta el siglo XXI, durante el que confiamos que lleguen nuevas tecnologías que previsiblemente abran una nueva generación de colisionadores de átomos, contadores de rayos cósmicos y sondas del espacio profundo. Quizá este sea el precio que debemos pagar por haber echado una «mirada indiscreta» prohibida a la física del próximo siglo. Quizá para entonces, a través de medios indirectos, podamos ver experimentalmente la luz de la décima dimensión en nuestros laboratorios. Diez dimensiones y filosofía: reduccionismo frente a holismo Cualquier gran teoría tiene asimismo grandes repercusiones sobre la tecnología y los fundamentos de la filosofía. El nacimiento de la relatividad general abrió nuevas áreas de investigación en astronomía y creó prácticamente la ciencia de la cosmología. Las implicaciones filosóficas del big bang han tenido eco en las comunidades filosófica y teológica. Hace unos pocos años, esto llevó incluso a cosmólogos destacados a tener una audiencia especial con el Papa en el Vaticano para discutir las implicaciones de la teoría del big bang sobre la Biblia y el Génesis. Análogamente, la teoría cuántica dio nacimiento a la ciencia de las partículas subatómicas y ayudó a alimentar la revolución actual en electrónica. El transistor —el elemento vital de la moderna sociedad tecnológica— es un dispositivo puramente mecanocuántico. Igualmente profundo fue el impacto que ha tenido el principio de incertidumbre de Heisenberg en el debate sobre el libre albedrío y el determinismo, que afecta al dogma religioso sobre el papel del pecado y la redención para la Iglesia. Tanto la Iglesia católica como la presbiteriana, con una gran apuesta ideológica en el resultado de su controversia sobre la predestinación, han sido afectadas por este debate sobre la mecánica cuántica. Aunque las implicaciones de la teoría decadimensional todavía no están claras, esperamos en última instancia que la revolución que ahora está germinando en el mundo de la física

tendrá un impacto similar de largo alcance una vez que la teoría se haga accesible al individuo medio. En general, sin embargo, la mayoría de los físicos se sienten incómodos al hablar de filosofía. Son pragmatistas supremos. Ellos dieron con las leyes físicas no por planificación o ideología, sino fundamentalmente por ensayo y error y sagaces conjeturas. Los físicos más jóvenes, que constituyen la parte del león de la investigación, están demasiado ocupados descubriendo nuevas teorías para perder el tiempo filosofando. Los físicos más jóvenes, de hecho, miran con desconfianza a los físicos mayores si éstos pierden demasiado tiempo sentados en distinguidos comités políticos o pontificando sobre la filosofía de la ciencia. La mayoría de los físicos sienten que, fuera de las vagas nociones de «verdad» y «belleza», la filosofía no tiene nada que hacer introduciéndose en su dominio privado. En general, argumentan, la realidad se ha mostrado siempre mucho más compleja y sutil que cualquier filosofía preconcebida. Ellos nos recuerdan algunas figuras bien conocidas de la ciencia que, en sus años de decadencia, adoptaron de forma embarazosa excéntricas ideas filosóficas que condujeron a callejones sin salida. Cuando se enfrentan a cuestiones filosóficas peliagudas, tales como el papel de la «conciencia» en la realización de una medida cuántica, la mayoría de los físicos se encogen de hombros. Mientras puedan calcular el resultado de un experimento, no se preocupan realmente por sus implicaciones filosóficas. De hecho, Richard Feynman hizo casi una profesión de exponer las pretensiones pomposas de ciertos filósofos. Cuanto mayor era su retórica hueca y su vocabulario erudito, pensaba él, más débil era el fundamento científico de sus argumentos. (Al debatir los méritos relativos de física y filosofía, recuerdo a veces la nota escrita por un anónimo rector de universidad que analizaba sus diferencias. Él escribió: «¿Por qué ustedes los físicos siempre necesitan un equipamiento tan caro? El Departamento de Matemáticas sólo necesita dinero para papel, lápices y papeleras y el Departamento de Filosofía es aún mejor: ni siquiera pide papeleras».)[163] De todas formas, aunque el físico medio no se molesta por cuestiones filosóficas, los más grandes sí lo hacen. Einstein, Heisenberg y Bohr pasaron largas horas en acaloradas discusiones, bregando hasta altas horas de la noche con el significado de la medida, los problemas de la conciencia y el significado de la probabilidad en su trabajo. Por consiguiente, es legítimo preguntar cómo se reflejan las teorías multidimensionales en este conflicto filosófico, especialmente en lo concerniente al debate entre «reduccionismo» y «holismo». Heinz Pagels dijo en cierta ocasión: «Somos apasionados sobre nuestra experiencia de la realidad, y la mayoría de nosotros proyectamos nuestras esperanzas y temores en el universo».[164] Por ello, es inevitable que cuestiones filosóficas, incluso cuestiones personales, se entrometan en la discusión sobre las teorías multidimensionales. Inevitablemente, la revitalización de las dimensiones más altas en física avivará de nuevo el debate entre «reduccionismo» y «holismo» que ha resplandecido, intermitentemente, en la última década. El Webster’s Collegiate Dictionary define el reduccionismo como un «procedimiento o teoría que reduce los datos o fenómenos complejos a términos simples». Ésta ha sido una de las filosofías que han guiado la física subatómica: reducir átomos y núcleos a sus componentes básicos. Por ejemplo, el extraordinario éxito experimental del Modelo Estándar al explorar las propiedades de cientos de partículas subatómicas demuestra que vale la pena buscar los ladrillos de la materia. El Webster’s Collegiate Dictionary define el holismo como la «teoría según la cual factores

determinantes especialmente en la naturaleza viviente son totalidades irreducibles». Esta filosofía sostiene que la filosofía occidental de descomponer las cosas en sus componentes es demasiado simplista, que uno pasa por alto la imagen mayor, que puede contener información de importancia vital. Por ejemplo, pensemos en una colonia de hormigas que contiene miles de hormigas que obedecen complejas reglas dinámicas de comportamiento social. La pregunta es: ¿cuál es el mejor modo de comprender el comportamiento de una colonia de hormigas? El reduccionista descompondrá las hormigas en sus constituyentes: moléculas orgánicas. Sin embargo, uno puede pasar cientos de años diseccionando hormigas y analizando su constitución molecular sin encontrar las claves más sencillas de cómo se comporta una colonia de hormigas. La manera obvia consiste en analizar el comportamiento de una colonia de hormigas como un todo integral, sin descomponerlo. Análogamente, este debate ha provocado considerable controversia dentro del área de la investigación cerebral y la inteligencia artificial. El enfoque reduccionista consiste en reducir el cerebro a sus unidades últimas, las células cerebrales, y tratar de recomponer el cerebro a partir de ellas. Toda una escuela de investigación en inteligencia artificial sostiene que creando circuitos digitales elementales podríamos construir circuitos de complejidad creciente hasta que creásemos inteligencia artificial. Aunque esta escuela de pensamiento tuvo un éxito inicial en los años cincuenta modelando «inteligencia» según las líneas de los ordenadores digitales modernos, se mostró decepcionante porque no podía imitar siquiera la más simple de las funciones cerebrales, tales como reconocer figuras en una fotografía. La segunda escuela de pensamiento ha tratado de adoptar un enfoque más holístico hacia el cerebro. Intenta definir las funciones del cerebro y crea modelos que tratan el cerebro como un todo. Aunque esto se ha manifestado más difícil en el comienzo, es muy prometedor porque ciertas funciones cerebrales que damos por garantizadas (por ejemplo, tolerancia del error, sopesar la incertidumbre, y hacer asociaciones creativas entre objetos diferentes) están incorporadas en el sistema desde el principio. La teoría de las redes neurales, por ejemplo, utiliza aspectos de este enfoque orgánico. Cada bando de este debate reduccionismo-holismo tiene una pobre visión del otro. En sus vigorosos intentos por desprestigiar al contrario, a veces sólo consiguen rebajarse a sí mismos. A menudo hablan del otro con ligereza, sin abordar los puntos principales. El giro más reciente en el debate es que, en los últimos años, los reduccionistas han proclamado su victoria sobre el holismo. Recientemente, se ha producido una racha de afirmaciones de los reduccionistas en la prensa popular acerca de que los éxitos del Modelo Estándar y la teoría GUT justifican la reducción de la naturaleza a constituyentes más pequeños y más básicos. Sondeando en los quarks elementales, leptones y campos de Yang-Mills, los físicos han aislado finalmente los constituyentes básicos de toda la materia. Por ejemplo, el físico James S. Trefil de la Universidad de Virginia da un golpe al holismo cuando escribe sobre el «Triunfo del reduccionismo»: Durante los años sesenta y setenta, cuando la complejidad del mundo de las partículas se ponía de manifiesto en un experimento tras otro, algunos físicos dejaron de tener fe en la filosofía reduccionista y empezaron a buscar una guía fuera de la tradición occidental. En su libro El tao de la física, por ejemplo, Fritjhof Capra argumentaba que la filosofía del reduccionismo había fracasado y que era tiempo de adoptar una visión más holística y mística de la naturaleza … Puede considerarse [sin embargo] que la década de los setenta ha sido el periodo en el que se han vindicado plenamente las grandes tradiciones del pensamiento científico occidental, que parecían amenazadas por los avances de la ciencia del siglo XX. Es presumible que esta comprensión tarde algún tiempo en difundirse desde un pequeño grupo de físicos teóricos y se

incorpore a nuestra visión general del mundo.[165]

Los discípulos del holismo, sin embargo, dan la vuelta a este debate. Ellos afirman que la idea de unificación, quizá el tema mayor de toda la física, es holística, no reduccionista. Señalan cómo los reduccionistas solían hacer gestos a espaldas de Einstein en los últimos años de su vida, diciendo que se estaba haciendo senil tratando de unir todas las fuerzas del mundo. El descubrimiento de pautas unificadoras en la física fue una idea avanzada por Einstein, y no por los reduccionistas. Además, la incapacidad de los reduccionistas para ofrecer una resolución convincente de la paradoja del gato de Schrödinger demuestra que ellos simplemente habían preferido ignorar las cuestiones más profundas y filosóficas. Los reduccionistas pueden haber tenido un gran éxito con la teoría cuántica de campos y el Modelo Estándar, pero finalmente dicho éxito está construido sobre la arena, porque la teoría cuántica, en el análisis final, es una teoría incompleta. Ambos bandos, por supuesto, tienen sus méritos. Cada bando está abordando simplemente diferentes aspectos de un problema difícil. Sin embargo, llevado al extremo, este debate degenera a veces en una batalla entre lo que yo llamo ciencia beligerante frente a ciencia ignorante. La ciencia beligerante asocia a la oposición con una visión pesada y rígida de la ciencia que más que persuadir, aliena. La ciencia beligerante trata de ganar puntos en un debate, más que ganarse a la audiencia. En lugar de apelar a los mejores instintos de la audiencia lega, presentándose a sí misma como la defensora de la razón ilustrada y el experimento correcto, se presenta como una nueva Inquisición española. La ciencia beligerante es ciencia con resentimiento. Sus científicos acusan a los holistas de ser tontos, de hacer su física confusa, de arrojar palabrería pseudocientífica para cubrir su ignorancia. Por consiguiente, la ciencia beligerante puede estar ganando las batallas individuales, pero está finalmente perdiendo la guerra. En cada escaramuza cuerpo a cuerpo, la ciencia beligerante puede apabullar a la oposición haciendo desfilar montañas de datos y tesis doctorales. Sin embargo, a la larga, la arrogancia y la vanidad pueden fracasar finalmente alienando a la misma audiencia que está tratando de persuadir. La ciencia ignorante llega al extremo opuesto, rechazando el experimento y abrazando cualquier caprichosa filosofía que surja. La ciencia ignorante ve los hechos desagradables como simples detalles, y la filosofía global como un todo. Si los hechos no parecen encajar en la filosofía, entonces obviamente algo está mal en los hechos. La ciencia ignorante viene con una agenda predeterminada, basada en la satisfacción personal más que en la observación objetiva, y trata de ajustarse a la ciencia como una cuestión secundaria. La escisión entre estas dos facciones apareció por primera vez durante la guerra de Vietnam, cuando la generación de las flores quedó horrorizada por el uso masivo y excesivo de una tecnología mortal contra una nación campesina. Pero quizá el área en la que más recientemente se ha encendido este debate legítimo es la de la salud personal. Por ejemplo, agentes de lobby bien pagados por la poderosa industria de alimentación y los negocios agrícolas en los años cincuenta y sesenta ejercieron considerable influencia sobre el Congreso y el sistema médico, impidiendo un completo examen de los efectos nocivos del colesterol, tabaco, grasas animales, pesticidas y ciertos aditivos sobre las enfermedades del corazón y el cáncer, que ahora han sido completamente documentados. Un reciente ejemplo es el revuelo que rodeó al escándalo sobre el pesticida Alar en las manzanas. Cuando los especialistas medioambientales del Consejo de Defensa de los Recursos Nacionales

anunciaron que los niveles actuales de pesticidas en manzanas podían matar hasta cinco mil niños, despertaron el interés entre los consumidores y la indignación dentro de la industria alimentaria, que los denunció como alarmistas. Luego se reveló que el informe utilizaba cifras y datos procedentes del gobierno federal para llegar a estas conclusiones. Esto, a su vez, implicaba que la Food and Drug Administration[166] estaba sacrificando cinco mil niños a los intereses de un «riesgo aceptable». Además, las revelaciones sobre la extendida contaminación posible de nuestra agua potable por cloro, que puede causar graves problemas neurológicos en niños, sólo sirvió para degradar el prestigio de la ciencia en las mentes de muchos norteamericanos. La profesión médica, la industria alimentaria y la industria química han empezado a ganarse la desconfianza de amplias capas de la sociedad. Éstos y otros escándalos han contribuido también a la erupción nacional de dietas de salud caprichosas, muchas de las cuales son bienintencionadas, pero algunas de ellas no son científicamente válidas. Síntesis superior en dimensiones superiores Estos dos puntos de vista filosóficos, aparentemente irreconciliables, deben verse desde una perspectiva más amplia. Son antagónicos sólo cuando se ven en su forma extrema. Quizá una síntesis superior de ambos puntos de vista está en las dimensiones superiores. La geometría, casi por definición, no puede encajar en el modo reduccionista normal. Estudiando una minúscula hebra, posiblemente no podamos comprender un tapiz entero. Análogamente, aislando una región microscópica de una superficie, no podemos determinar la estructura global de la superficie. Las dimensiones superiores, por definición, implican que debemos tomar el punto de vista global y más amplio. Análogamente, la geometría tampoco es puramente holística. El observar simplemente que una superficie de dimensiones más altas es esférica no proporciona la información necesaria para calcular las propiedades de los quarks contenidos en ella. La forma precisa en que una dimensión se enrolla en una bola determina la naturaleza de las simetrías de los quarks y gluones que residen en la superficie. Así pues, el holismo por sí mismo no nos da los datos necesarios para convertir la teoría decadimensional en una teoría físicamente relevante. La geometría de dimensiones más altas, en cierto sentido, nos obliga a tomar conciencia de la unidad entre los enfoques holístico y reduccionista. Son simplemente dos maneras de enfocar la misma cosa: la geometría. Son dos lados de la misma moneda. Desde la posición de la geometría, no supone diferencia el que lo enfoquemos desde el punto de vista reduccionista (reuniendo quarks y gluones en un espacio de Kaluza-Klein) o según el enfoque holístico (tomando una superficie de Kaluza-Klein y descubriendo las simetrías de los quarks y gluones). Podemos preferir un enfoque al otro, pero esto es sólo para propósitos históricos o pedagógicos. Por razones históricas, podemos reforzar las raíces reduccionistas de la física subatómica, resaltando cómo, durante un periodo de cuarenta años, los físicos de partículas empalmaron tres de las fuerzas fundamentales descomponiendo los átomos, o podemos adoptar un enfoque más holístico y afirmar que la unificación final de las fuerzas cuánticas con la gravedad implica una comprensión profunda de la geometría. Esto nos lleva a enfocar la física de partículas a través de las teorías de cuerdas y de Kaluza-Klein y a ver el Modelo Estándar como una consecuencia de enrollar el espacio

multidimensional. Los dos enfoques son igualmente válidos. En nuestro libro Beyond Einstein: The Cosmic Quest for the Theory of the Universe, Jennifer Trainer y yo adoptamos un enfoque más reduccionista y describimos de qué forma los descubrimientos de los fenómenos en el universo visible conducían finalmente a una descripción geométrica de la materia. En este libro se adopta el enfoque opuesto, comenzando con el universo invisible y tomando como tema básico la idea de que las leyes de la naturaleza se simplifican en dimensiones más altas. Sin embargo, ambos enfoques dan el mismo resultado. Podemos discutir, por analogía, la controversia sobre el cerebro «izquierdo» y el cerebro «derecho». Los neurólogos que originalmente hicieron el descubrimiento experimental de que los hemisferios izquierdo y derecho de nuestro cerebro ejecutan diferentes funciones distintivas de cada uno, se sintieron desolados cuando sus datos fueron groseramente falseados en la prensa popular. Experimentalmente, ellos encontraron que cuando a alguien se le muestra un cuadro, el ojo izquierdo (o cerebro derecho) presta más atención a detalles particulares, mientras que el ojo derecho (o cerebro izquierdo) capta más fácilmente la foto global. Sin embargo, se molestaron cuando los divulgadores empezaron a decir que el cerebro izquierdo era el «cerebro holístico» y el cerebro derecho era el «cerebro reduccionista». Esto sacaba de contexto la distinción entre los dos cerebros, dando muchas interpretaciones extrañas de cómo debería uno organizar sus ideas en la vida diaria. Ellos descubrieron que un enfoque más correcto de la función cerebral consistía en que el cerebro utiliza necesariamente ambas mitades en sincronía, que la dialéctica entre ambas mitades del cerebro es más importante que la función específica de cada mitad por separado. La dinámica verdaderamente interesante tiene lugar cuando ambas mitades del cerebro interaccionan en armonía. Análogamente, cualquiera que vea la victoria de una filosofía sobre otra en los recientes avances en física está quizá leyendo más de lo que hay en los datos experimentales. Quizá la conclusión más justa que podemos sacar es que la ciencia se beneficia mucho de la intensa interacción entre estas dos filosofías. Veamos concretamente cómo tiene lugar esto, analizando cómo la teoría de dimensiones más altas nos da una resolución entre filosofías diametralmente opuestas, utilizando dos ejemplos, el gato de Schrödinger y la teoría de la matriz S. El gato de Schrödinger Los discípulos del holismo atacan a veces al reduccionismo atacando la teoría cuántica en su punto más débil, en la cuestión del gato de Schrödinger. Los reduccionistas no pueden dar una explicación razonable de las paradojas de la mecánica cuántica. Recordemos que la característica más embarazosa de la teoría cuántica es que es necesario un observador para hacer una medida. Por consiguiente, antes de que la medida se haga, los gatos pueden estar o muertos o vivos y la Luna puede o no puede estar en el cielo. Normalmente, esto se consideraría una locura, pero la mecánica cuántica ha sido verificada repetidamente en el laboratorio. Puesto que el proceso de hacer una observación requiere un observador, y puesto que un observador requiere consciencia, los discípulos del holismo afirman que debe existir una consciencia cósmica para explicar la existencia de cualquier objeto.

Las teorías multidimensionales no resuelven completamente esta difícil cuestión, pero ciertamente arrojan una nueva luz. El problema está en la distinción entre el observador y lo observado. Sin embargo, en gravedad cuántica escribimos la función de onda de todo el universo. Ya no hay distinción entre el observador y lo observado; la gravedad cuántica permite la existencia única de la función de onda de todo. En el pasado, tales enunciados eran absurdos porque la gravedad cuántica no existía realmente como teoría. Las divergencias surgían cada vez que alguien quería hacer un cálculo físicamente relevante. De este modo, el concepto de una función de onda de todo el universo, aunque atractivo, era absurdo. Sin embargo, con la llegada de la teoría decadimensional, el significado de la función de onda del universo entero volvió a ser un concepto relevante. Los cálculos con la función de onda del universo pueden apelar al hecho de que la teoría es en definitiva una teoría decadimensional, y por lo tanto es renormalizable. Esta solución parcial a la cuestión de la observación toma una vez más lo mejor de ambas filosofías. Por un lado, esta imagen es reduccionista porque se ciñe estrechamente a la explicación mecanocuántica estándar de la realidad, sin recurso a la conciencia. Por otro lado, es también holística porque empieza con la función de onda del universo entero, ¡que es la expresión holística definitiva! Esta imagen no hace distinción entre el observador y lo observado. En esta imagen, todo, incluyendo todos los objetos y sus observadores, está incluido en la función de onda. Ésta es aún sólo una solución parcial porque la propia función de onda cósmica, que describe el universo entero, no vive en ningún estado definido, sino que realmente es un compuesto de todos los universos posibles. Por consiguiente, el problema de la indeterminación, descubierto inicialmente por Heisenberg, se extiende ahora al universo entero. La más pequeña unidad que uno puede manipular en estas teorías es el propio universo, y la más pequeña unidad que uno puede cuantizar es el espacio de todos los posibles universos, que incluye tanto gatos muertos como gatos vivos. Así pues, en un universo el gato está en realidad muerto; pero en el otro, el gato está vivo. Sin embargo, ambos universos residen en el mismo hogar: la función de onda del universo. Un hijo de la teoría de la matriz S Irónicamente, en los años sesenta, el enfoque reduccionista parecía un fracaso; la teoría cuántica de campos estaba desesperadamente plagada de divergencias encontradas en el desarrollo perturbativo. Con la física cuántica en desorden, una rama de la física denominada teoría de la matriz S (matriz de Scattering o dispersión) se separó de la corriente principal y empezó a germinar. Fundada originalmente por Heisenberg, fue desarrollada posteriormente por Geoffrey Chew de la Universidad de California en Berkeley. La teoría de la matriz S, a diferencia del reduccionismo, trataba de considerar la colisión de partículas como un todo irreducible e inseparable. En principio, si conocemos la matriz S, conocemos todo sobre interacciones entre partículas y cómo se dispersan. En este enfoque, el cómo chocan las partículas entre sí lo es todo; la partícula individual no es nada. La teoría de la matriz S decía que la coherencia de la matriz de dispersión, y sólo la coherencia, era suficiente para determinar la matriz S. Por consiguiente, las partículas fundamentales y los campos eran desterrados para siempre del Edén de la teoría de la matriz S. En el

análisis final, sólo la matriz S tenía significado físico. Como analogía, supongamos que se nos da una máquina compleja y de aspecto extraño y se nos pide que expliquemos lo que hace. El reduccionista tomará inmediatamente un destornillador y desarmará la máquina. Descomponiendo la máquina en miles de piezas pequeñas, el reduccionista espera descubrir cómo funciona. Sin embargo, si la máquina es demasiado complicada, dividirla sólo empeora las cosas. Los holistas, sin embargo, no quieren desarmar la máquina por varias razones. Primero, el analizar miles de engranajes y tornillos quizá no nos dé la más mínima idea de lo que hace la máquina completa. Segundo, tratar de explicar cómo funciona cada minúsculo engranaje puede llevarnos a una caza de pato salvaje. La forma correcta, creen ellos, es considerar la máquina como un todo. Conectan la máquina y preguntan cómo se mueven las partes y cómo interaccionan entre sí. En lenguaje moderno, esta máquina es la matriz S, y esta filosofía se convierte en la teoría de la matriz S. En 1971, sin embargo, la marea cambió espectacularmente en favor del reduccionismo con el descubrimiento de Gerard ’t Hooft de que el campo de Yang-Mills podía proporcionar una teoría coherente de las fuerzas subatómicas. Repentinamente, cada una de las interacciones entre partículas se venía abajo como árboles enormes en un bosque. El campo de Yang-Mills daba un misterioso acuerdo con los datos experimentales procedentes de los colisionadores de átomos, conduciendo al establecimiento del Modelo Estándar, mientras la matriz S se enredaba cada vez más en oscuras matemáticas. A finales de los años setenta, daba la impresión de una victoria total e irreversible del reduccionismo sobre el holismo y la teoría de la matriz S. Los reduccionistas empezaron a proclamar la victoria sobre el cuerpo postrado de los holistas y la matriz S. La marea, sin embargo, cambió una vez más en los años ochenta. Con el fracaso de las GUT para proporcionar cualquier luz sobre la gravitación o proporcionar resultados verificables experimentalmente, los físicos comenzaron a buscar nuevas vías de investigación. Esta separación de las GUT comenzó con una nueva teoría, que debe su existencia a la teoría de la matriz S. En 1968, cuando la teoría de la matriz S estaba en su apogeo, Veneziano y Suzuki estaban profundamente influidos por la filosofía de determinar dicha matriz en su totalidad. Ellos dieron con la función beta de Euler porque estaban buscando una representación matemática de toda la matriz S. Si hubiesen buscado diagramas de Feynman reduccionistas, nunca habrían topado con uno de los grandes descubrimientos de las últimas décadas. Veinte años después, vemos el florecimiento de la semilla plantada por la teoría de la matriz S. La teoría de Veneziano-Suzuki dio nacimiento a la teoría de cuerdas, que a su vez ha sido reinterpretada vía Kaluza-Klein como una teoría decadimensional del universo. Por lo tanto, vemos que la teoría decadimensional une ambas tradiciones. Nació como una hija de la teoría holística de la matriz S, pero contiene las teorías reduccionistas de Yang-Mills y de quarks. En esencia, ha madurado lo suficiente para absorber ambas filosofías. Diez dimensiones y matemáticas Una de las características intrigantes de la teoría de supercuerdas es el nivel que han alcanzado las matemáticas. Ninguna otra teoría conocida en la ciencia utiliza unas matemáticas tan potentes en un

nivel tan fundamental. Intuitivamente, esto es necesariamente así porque cualquier teoría de campo unificado debe incorporar en primer lugar la geometría riemanniana de la teoría de Einstein y los grupos de Lie procedentes de la teoría cuántica de campos, y luego debe incorporar una matemática superior incluso para hacerlas compatibles. Esta nueva matemática, responsable de la fusión de estas dos teorías, es la topología, y es también responsable de conseguir la tarea aparentemente imposible de acabar con los infinitos de una teoría cuántica de la gravedad. La abrupta introducción de matemáticas avanzadas en la física vía la teoría de cuerdas ha pillado a muchos físicos con la guardia baja. Más de un físico ha ido secretamente a la biblioteca a estudiar enormes volúmenes de literatura matemática para comprender la teoría decadimensional. El físico del CERN John Ellis admite: «Me encontré deambulando por las bibliotecas tratando de encontrar enciclopedias de matemáticas para poder entender todos esos conceptos matemáticos como homología y topología y todas esas cosas ¡que yo nunca me había molestado antes en aprender!».[167] Para aquellos que siempre se han preocupado por la división cada vez más amplia entre matemáticas y física en este siglo, esto es un suceso histórico gratificante en sí mismo. Tradicionalmente, las matemáticas y la física han sido inseparables desde la época de los griegos. Newton y sus contemporáneos no hicieron nunca una neta distinción entre matemáticas y física; ellos se denominaban filósofos naturales, y se sentían cómodos en los mundos dispares de las matemáticas, la física y la filosofía. Gauss, Riemann y Poincaré consideraban que la física era de la mayor importancia como fuente de nuevas matemáticas. A lo largo de los siglos XVIII y XIX hubo una amplia fecundación mutua entre matemáticas y física. Pero tras Einstein y Poincaré, el desarrollo de las matemáticas y la física dio un giro brusco. Durante los últimos setenta años ha habido poca, si la ha habido, comunicación real entre matemáticos y físicos. Los matemáticos exploraron la topología del espacio N-dimensional, desarrollando disciplinas nuevas como la topología algebraica. Continuando el trabajo de Gauss, Riemann y Poincaré, los matemáticos del siglo pasado desarrollaron un arsenal de teoremas y corolarios abstractos que no tienen conexión con las fuerzas débil o fuerte. La física, sin embargo, empezó a sondear el dominio de la fuerza nuclear, utilizando matemáticas tridimensionales conocidas en el siglo XIX. Todo esto cambió con la introducción de la décima dimensión. De forma más bien abrupta, el arsenal del siglo pasado en matemáticas se ha incorporado al mundo de la física. Teoremas enormemente potentes de las matemáticas, durante mucho tiempo apreciados sólo por los matemáticos, cobran ahora importancia física. Al final, parece como si la brecha que dividía las matemáticas y la física vaya a cerrarse. De hecho, incluso los matemáticos han quedado sorprendidos por el diluvio de nuevas matemáticas que ha introducido la teoría. Algunos matemáticos distinguidos, tales como Isadore A. Singer del MIT, han afirmado que quizá la teoría de supercuerdas debería tratarse como una rama de las matemáticas, independientemente de si es físicamente relevante. Nadie tiene la más mínima idea de por qué las matemáticas y la física están tan entretejidas. El físico Paul A. M. Dirac, uno de los fundadores de la teoría cuántica, afirmó que «las matemáticas pueden llevarnos en una dirección que no hubiéramos tomado si sólo siguiéramos ideas físicas en sí mismas».[168] Alfred North Whitehead, uno de los más grandes matemáticos del siglo pasado, dijo en cierta

ocasión que las matemáticas, en su nivel más profundo, son inseparables de la física en su nivel más profundo. Sin embargo, la razón exacta para la convergencia milagrosa parece totalmente oscura. Nadie tiene siquiera una teoría razonable para explicar por qué las dos disciplinas tendrían que compartir conceptos. Se ha dicho a menudo que «la matemática es el lenguaje de la física». Por ejemplo, Galileo dijo en cierta ocasión: «Nadie podrá leer el gran libro del universo si no entiende su lenguaje, que es el de las matemáticas».[169] Pero esto supone una petición de principio. Además, los matemáticos se sentirían insultados pensando que su disciplina entera está siendo reducida a mera semántica. Einstein, advirtiendo esta relación, comentó que las matemáticas puras podrían ser un camino para resolver los misterios de la física: «Mi convicción es que la pura construcción matemática nos capacita para descubrir los conceptos y las leyes que los unen, que nos da la clave para la comprensión de la naturaleza … En cierto sentido, por lo tanto, yo mantengo que es cierto que el puro pensamiento puede captar la realidad, como soñaron los antiguos».[170] Heisenberg se hacía eco de esta creencia: «Si la naturaleza nos lleva a formas matemáticas de gran simplicidad y belleza … que nadie ha encontrado previamente, no podemos dejar de pensar que son “verdaderas”, que revelan una característica genuina de la naturaleza». El premio Nobel Eugene Wigner incluso escribió en cierta ocasión un ensayo con el franco título «La irrazonable efectividad de las matemáticas en las ciencias naturales». Principios físicos frente a estructuras lógicas Durante años, he observado que las matemáticas y la física han obedecido a una cierta relación dialéctica. La física no es sólo una secuencia de diagramas de Feynman y simetrías aleatorios y sin propósito, ni las matemáticas son sólo un conjunto de ecuaciones mezcladas, sino que más bien la física y las matemáticas obedecen a una relación simbiótica precisa. La física, en mi opinión, se basa en última instancia en un pequeño conjunto de principios físicos. Estos principios pueden expresarse normalmente en lenguaje llano sin referencia a las matemáticas. Desde la teoría de Copérnico a las leyes del movimiento de Newton, e incluso a la relatividad de Einstein, los principios físicos básicos pueden expresarse en tan sólo algunas sentencias, básicamente independientes de cualquier matemática. Notablemente, sólo un puñado de principios físicos fundamentales son suficientes para resumir buena parte de la física moderna. Las matemáticas, por el contrario, son el conjunto de todas las posibles estructuras autoconsistentes, y existen muchísimas más estructuras lógicas que principios físicos. El sello de cualquier sistema matemático (por ejemplo, la aritmética, el álgebra o la geometría) es que sus axiomas y teoremas son mutuamente consistentes. Los matemáticos están interesados principalmente en que nunca resulte una contradicción de estos sistemas, y están menos interesados en discutir los méritos relativos de un sistema sobre otro. Cualquier estructura autoconsistente, de las que existen muchas, es digna de estudio. Como resultado, los matemáticos están mucho más fragmentados que los físicos; los matemáticos en un área trabajan normalmente aislados de los matemáticos en otras áreas. La relación entre física (basada en principios físicos) y matemáticas (basada en estructuras autoconsistentes) es ahora evidente: para resolver un principio físico, los físicos pueden necesitar

muchas estructuras autoconsistentes. Por consiguiente, la física une automáticamente muchas ramas diferentes de las matemáticas. Vista a esta luz, podemos comprender cómo evolucionaron las grandes ideas en física teórica. Por ejemplo, tanto matemáticos como físicos proclaman a Isaac Newton como uno de los gigantes de sus respectivas profesiones. Sin embargo, Newton no empezó el estudio de la gravitación partiendo de las matemáticas. Al analizar el movimiento de los cuerpos en caída, fue llevado a creer que la Luna estaba cayendo continuamente hacia la Tierra, pero que nunca chocaría con ella porque la Tierra se curvaba bajo ella; la curvatura de la Tierra compensaba la caída de la Luna. Fue llevado así a postular un principio físico: la ley de la gravitación universal. Sin embargo, puesto que tenía que resolver las ecuaciones para la gravedad, Newton empezó una búsqueda de treinta años para construir a partir de cero unas matemáticas suficientemente potentes para calcularlas. En el proceso, descubrió muchas teorías autoconsistentes, que son denominadas colectivamente como cálculo infinitesimal. Desde este punto de vista, el principio físico llegó primero (ley de gravitación), y luego llegó la construcción de diversas estructuras autoconsistentes necesarias para resolverlo (tales como la geometría analítica, las ecuaciones diferenciales, las derivadas y las integrales). En el proceso, el principio físico unió estas diferentes estructuras autoconsistentes en un cuerpo coherente de matemáticas (el cálculo). La misma relación se aplica a la teoría de la relatividad de Einstein. Einstein empezó con principios físicos (tales como la constancia de la velocidad de la luz y el principio de equivalencia para la gravitación) y luego, buscando en la literatura matemática, encontró las estructuras autoconsistentes (grupos de Lie, cálculo tensorial de Riemann, geometría diferencial) que le permitieron resolver estos principios. En el proceso, Einstein descubrió cómo unir estas ramas de las matemáticas en una imagen coherente. La teoría de cuerdas también muestra esta pauta, pero de una forma sorprendentemente diferente. Debido a su complejidad matemática, la teoría de cuerdas ha unido ramas enormemente diferentes de las matemáticas (tales como las superficies de Riemann, álgebras de Kac-Moody, superálgebras de Lie, grupos finitos, funciones modulares y topología algebraica) de una forma que ha sorprendido a los matemáticos. Como sucede con otras teorías físicas, revela automáticamente la relación entre muchas estructuras autoconsistentes diferentes. Sin embargo, el principio físico subyacente bajo la teoría de cuerdas es desconocido. Los físicos esperan que, una vez que este principio se revele, se descubrirán nuevas ramas de las matemáticas. En otras palabras, la razón por la que la teoría de cuerdas no puede ser resuelta es que todavía no se han descubierto las matemáticas del siglo XXI. Una consecuencia de esta formulación es que un principio físico que une muchas teorías físicas menores debe automáticamente unir muchas ramas aparentemente no relacionadas de las matemáticas. Esto es precisamente lo que consigue la teoría de cuerdas. De hecho, de todas las teorías físicas, la teoría de cuerdas es la que une el mayor número de ramas de las matemáticas en una sola imagen coherente. Quizá uno de los productos derivados de la búsqueda de la unificación por los físicos será también la unificación de las matemáticas. Por supuesto, el conjunto de estructuras matemáticas lógicamente consistentes es muchas veces mayor que el conjunto de principios físicos. Por consiguiente, algunas estructuras matemáticas, tales como la teoría de números (que algunos matemáticos proclaman la rama más pura de las matemáticas), nunca han sido incorporadas en ninguna teoría física. Algunos argumentan que esta

situación puede durar siempre: quizá la mente humana será siempre capaz de concebir estructuras lógicamente consistentes que no puedan expresarse mediante ningún principio físico. Sin embargo, hay indicios de que la teoría de cuerdas puede pronto incorporar también la teoría de números en su estructura. Ciencia y religión Puesto que la teoría del hiperespacio ha establecido lazos nuevos y profundos entre la física y las matemáticas abstractas, algunas personas han acusado a los científicos de crear una nueva teología basada en las matemáticas; es decir, hemos rechazado la mitología de la religión sólo para abrazar una religión aún más extraña basada en el espacio-tiempo curvo, las simetrías de partículas y las expansiones cósmicas. Mientras que los sacerdotes pueden hacer invocaciones en latín que apenas nadie entiende, los físicos formulan arcanas ecuaciones de supercuerdas que comprenden aún menos personas. La «fe» en un Dios todopoderoso es reemplazada ahora por la «fe» en la teoría cuántica y la relatividad general. Cuando los científicos protestan de que nuestras invocaciones matemáticas pueden ser comprobadas en el laboratorio, la respuesta es que la Creación no puede medirse en el laboratorio, y por lo tanto estas teorías abstractas como la teoría de supercuerdas nunca pueden ser puestas a prueba. Este debate no es nuevo. Históricamente, a los científicos se les ha pedido con frecuencia que debatan las leyes de la naturaleza con los teólogos. Por ejemplo, el gran biólogo británico Thomas Huxley fue el primer defensor de la teoría de la selección natural de Darwin contra las críticas de la Iglesia a finales del siglo XIX. Análogamente, los físicos cuánticos han aparecido en debates radiofónicos con representantes de la Iglesia católica acerca de si el principio de incertidumbre de Heisenberg niega el libre albedrío, una cuestión que puede determinar el que nuestras almas entren en el cielo o en el infierno. Pero normalmente los científicos son reacios a comprometerse en debates teológicos sobre Dios y la Creación. Un problema, que yo he advertido, es que «Dios» significa muchas cosas para muchas personas, y el uso de palabras cargadas de simbolismo tácito y oculto sólo enturbia la cuestión. Para clarificar algo este problema, he encontrado útil distinguir cuidadosamente entre dos tipos de significados para la palabra Dios. A veces es útil distinguir entre el Dios de los Milagros y el Dios del Orden. Cuando los científicos utilizan la palabra Dios, normalmente se refieren al Dios del Orden. Por ejemplo, una de las revelaciones más importantes en la primera infancia de Einstein tuvo lugar cuando leyó sus primeros libros sobre ciencia. Inmediatamente comprendió que la mayor parte de lo que le habían enseñado sobre religión no podía ser verdad. A lo largo de su carrera, sin embargo, él se aferró a la creencia de que un misterioso Orden divino existía en el universo. La vocación de su vida, llegaría a decir, era indagar en Sus pensamientos para determinar si Él había tenido alguna elección al crear el universo. Einstein se refería repetidamente a este Dios en sus escritos, llamándole afectuosamente «el Viejo». Cuando chocaba con un problema matemático intratable, él solía decir: «Dios es sutil, pero no malicioso». La mayoría de los científicos, justo es decirlo, creen que existe alguna forma de Orden cósmico en el universo. Sin embargo, para el no científico la palabra Dios se refiere casi universalmente al Dios de los Milagros, y ésta es la fuente de la falta de comunicación

que existe entre científicos y no científicos. El Dios de los Milagros interviene en nuestros asuntos, realiza milagros, destruye ciudades impías, aplasta a los ejércitos enemigos, ahoga a las tropas del Faraón y venga lo puro y lo noble. Si los científicos y los no científicos fracasan en la comunicación mutua acerca de cuestiones religiosas, se debe a que hablan de cosas distintas, haciendo referencia a dioses completamente diferentes. Esto se debe a que el fundamento de la ciencia consiste en la observación de sucesos reproducibles, pero los milagros, por definición, no son reproducibles. Ocurren sólo una vez en la vida, si es que ocurren. Por lo tanto, el Dios de los Milagros está, en cierto sentido, más allá de lo que conocemos como ciencia. Esto no quiere decir que los milagros no puedan suceder; sólo quiere decir que están fuera de lo que se denomina ciencia. El biólogo Edward O. Wilson de la Universidad de Harvard ha indagado sobre esta cuestión y preguntado si existe alguna razón científica por la que los seres humanos se aferran tan enérgicamente a su religión. Incluso los científicos avezados, descubrió él, que de ordinario son completamente racionales en su especialización científica, caen en argumentos irracionales para defender su religión. Además, observa, la religión ha sido utilizada históricamente como pretexto para emprender guerras horribles y realizar atrocidades inenarrables contra infieles y paganos. La tremenda ferocidad de las guerras religiosas o santas rivaliza, de hecho, con el peor crimen que cualquier ser humano haya podido cometer contra otro. La religión, apunta Wilson, se encuentra universalmente en toda cultura humana estudiada en la Tierra. Los antropólogos han encontrado que todas las tribus primitivas tienen un mito de «origen» que explica de dónde vienen. Además, esta mitología separa netamente a «nosotros» de «ellos», proporciona una fuerza de cohesión (a menudo irracional) que preserva la tribu, e impide la crítica secesionista del líder. Esto no es una aberración, sino la norma de la sociedad humana. La religión, teoriza Wilson, es tan prevalente porque proporcionaba una ventaja evolutiva precisa para aquellos primitivos seres humanos que la adoptaron. Wilson señala que los animales que cazan en grupo obedecen al líder porque se ha establecido un orden basado en la fuerza y la dominación. Pero hace aproximadamente un millón de años, cuando nuestros ancestros simios se hicieron poco a poco más inteligentes, los individuos pudieron empezar a cuestionarse racionalmente el poder de su líder. La inteligencia, por su propia naturaleza, cuestiona la autoridad mediante la razón, y por consiguiente podría ser una fuerza desestabilizadora y peligrosa en la tribu. A menos que hubiera una fuerza para contrarrestar este caos disgregador, los individuos inteligentes dejarían la tribu, la tribu se dividiría y todos los individuos morirían. Por consiguiente, según Wilson, se ejerció una presión de selección sobre los monos inteligentes para poner en suspenso la razón y obedecer ciegamente al líder y a sus mitos, puesto que hacer lo contrario desafiaría la cohesión tribal. La supervivencia favorecía al mono inteligente que pudiera razonar sobre las herramientas y la recogida de alimento, pero también favorecía al que pudiera poner en suspenso la razón cuando ésta amenazaba a la integridad de la tribu. Era necesaria una mitología para definir y preservar la tribu. Para Wilson, la religión fue una fuerza muy poderosa y preservadora de la vida para los monos que poco a poco se hacían más inteligentes, y formó un «pegamento» que los mantuvo unidos. Si es correcta, esta teoría explicaría por qué tantas religiones descansan en la «fe» por encima del sentido

común, y por qué a la grey se le pide que deje la razón aparte. También ayudaría a explicar la ferocidad inhumana de las guerras de religión, y por qué el Dios de los Milagros siempre parece favorecer al vencedor en una guerra sangrienta. El Dios de los Milagros tiene una ventaja poderosa sobre el Dios del Orden. El Dios de los Milagros explica la mitología de nuestro propósito en el universo; el Dios del Orden permanece silencioso sobre esta cuestión. Nuestro papel en la naturaleza Aunque el Dios del Orden no puede dar a la humanidad un destino o propósito compartido, lo que yo personalmente encuentro más sorprendente sobre esta discusión es que nosotros los seres humanos, que acabamos de iniciar nuestra ascensión en la escala tecnológica, fuéramos capaces de hacer afirmaciones tan audaces respecto al origen y destino del universo. Tecnológicamente, sólo estamos empezando a dejar la atracción gravitatoria de la Tierra; sólo hemos empezado a enviar sondas primitivas a los planetas exteriores. No obstante, encerrados en nuestro pequeño planeta, con sólo nuestras mentes y unos pocos instrumentos, hemos sido capaces de descifrar las leyes que gobiernan la materia a miles de millones de años-luz. Con recursos infinitesimalmente pequeños, sin siquiera dejar el sistema solar, hemos sido capaces de determinar lo que sucede en el interior profundo de los hornos nucleares de una estrella o dentro del propio núcleo. Según la evolución, somos monos inteligentes que sólo recientemente hemos dejado los árboles, viviendo en el tercer planeta de una estrella menor, en un brazo espiral menor de una galaxia menor, en un grupo menor de galaxias cerca del supercúmulo de Virgo. Si la teoría de la inflación es correcta, entonces todo nuestro universo visible no es sino una burbuja infinitesimal en un cosmos mucho mayor. Incluso entonces, dado el papel casi insignificante que jugamos en el universo mayor, parece sorprendente que fuéramos capaces de proclamar haber descubierto la teoría de todo. En cierta ocasión le preguntaron al premio Nobel Isidor I. Rabi qué suceso de su vida le puso por primera vez en el largo camino hacia el descubrimiento de los secretos de la naturaleza. Él contestó que fue cuando examinó algunos libros sobre los planetas en la biblioteca. Lo que le fascinó era que la mente humana fuera capaz de conocer tales verdades cósmicas. Los planetas y las estrellas son mucho mayores que la Tierra, y mucho más lejanos que cualquier cosa jamás visitada por los seres humanos, pero aun así la mente humana es capaz de comprenderlos. El físico Heinz Pagels contaba su experiencia crucial cuando, siendo niño, visitó el Haydem Planetarium de Nueva York. Recordaba: El espectáculo y el poder del universo dinámico me abrumaron. Aprendí que simples galaxias contienen más estrellas que todos los seres humanos que hayan vivido jamás … La realidad de la inmensidad y duración del universo me provocó una especie de «choque existencial» que conmovió los cimientos de mi ser. Todo lo que yo había experimentado o conocido parecía insignificante dentro de este vasto océano de existencia.[171]

En lugar de sentirse abrumado por el universo, yo creo que quizá una de las experiencias más intensas que puede tener un científico, casi próxima a un despertar religioso, es el entender que somos hijos de las estrellas y que nuestras mentes son capaces de comprender las leyes universales a que ellas obedecen. Los átomos de nuestros cuerpos fueron forjados en el yunque de la nucleosíntesis dentro de una estrella en explosión eones antes del nacimiento del sistema solar. Nuestros átomos son más viejos que las montañas. Estamos hechos literalmente de polvo de estrellas. Ahora estos átomos

se han unido, a su vez, para formar seres inteligentes capaces de comprender las leyes universales que gobiernan dicho suceso. Lo que yo encuentro fascinante es que las leyes de la física que hemos descubierto en nuestro minúsculo e insignificante planeta son las mismas que las leyes descubiertas en cualquier parte del universo, pero que dichas leyes fueron descubiertas sin siquiera haber dejado la Tierra. Sin potentes naves espaciales o ventanas dimensionales, hemos sido capaces de determinar la naturaleza química de las estrellas y descifrar los procesos nucleares que tienen lugar en sus núcleos profundos. Finalmente, si la teoría de supercuerdas decadimensional es correcta, entonces una civilización que more en la estrella más lejana descubrirá precisamente la misma verdad acerca de nuestro universo. También se preguntará sobre la relación entre el mármol y la madera, y llegará a la conclusión de que el mundo tridimensional tradicional es «demasiado pequeño» para acomodar las fuerzas conocidas en su mundo. Nuestra curiosidad es parte del orden natural. Quizá nosotros como seres humanos queremos comprender el universo de la misma forma que un pájaro quiere cantar. Como dijo una vez el gran astrónomo del siglo xvii Johannes Kepler, «Nosotros no preguntamos qué propósito útil siguen los pájaros al cantar, pues el canto es su placer ya que fueron creados para cantar. Análogamente, no deberíamos preguntar por qué la mente humana se molesta en imaginar los secretos de los cielos». O, como dijo el biólogo Thomas H. Huxley en 1863, «La pregunta de todas las preguntas para la Humanidad, el problema que está detrás de todos los demás y es más interesante que cualquiera de ellos es el de la determinación del lugar del hombre en la Naturaleza y su relación con el Cosmos». El cosmólogo Stephen Hawking, quien ha hablado de resolver el problema de la unificación dentro de este siglo, ha escrito elocuentemente sobre la necesidad de explicar a una audiencia lo más amplia posible la imagen física esencial que subyace en la física: Si descubrimos una teoría completa, con el tiempo debería ser comprensible en sus principios generales para todo el mundo, no sólo para unos pocos científicos. Entonces todos nosotros, filósofos, científicos y simples personas normales, deberíamos ser capaces de tomar parte en la discusión acerca de la cuestión de por qué nosotros y el universo existimos. Si encontráramos la respuesta a ello, sería el triunfo final de la razón humana —pues entonces conoceríamos la mente de Dios.[172]

En una escala cósmica, aún estamos despertando al mundo mayor que nos rodea. Pero aun así, la potencia de incluso nuestro limitado intelecto es tal que podemos abstraer los secretos más profundos de la naturaleza. ¿Da esto un significado o propósito a la vida? Algunas personas buscan un significado a la vida a través del beneficio personal, a través de las relaciones personales, o a través de experiencias propias. Sin embargo, creo que el estar bendecido con el intelecto para adivinar los últimos secretos de la naturaleza da significado suficiente a la vida.

BIBLIOGRAFÍA Y LECTURAS COMPLEMENTARIAS Abbot, E. A., Flatland: A Romance of Many Dimensions, New American Library, Nueva York, 1984 (hay trad. cast.: Planilandia, Guadarrama, Madrid, 1976). Barrow, J. D., y F. J. Tipler, The Anthropic Cosmological Principie, Oxford University Press, Oxford, 1986. Bell, E. T., Men of Mathematics, Simón and Schuster, Nueva York, 1937. Calder, N., The Key to the Universe, Penguin, Nueva York, 1977. Chester, M., Particles, Macmillan, Nueva York, 1978. Crease, R., y C. Mann, The Second Creation, Macmillan, Nueva York, 1986. Davies, P., The Forces of Nature, Cambridge University Press, Cambridge, 1979. —, Superforce: The Search for a Grand Unified Theory of Nature, Simón and Schuster, Nueva York, 1984 (hay trad. cast.: Superfuerza, Biblioteca Científica Salvat, Salvat Editores S. A., Barcelona, 1985). —, y J. Brown, eds., Superstrings: A Theory of Everything?, Cambridge University Press, Cambridge, 1988 (hay trad. cast.: Supercuerdas ¿una teoría de todo?, Alianza Editorial, Madrid, 1988). Dyson, F., Disturbing the Universe, Harper & Row, Nueva York, 1979 (hay trad. cast.: Trastornando el Universo, Fondo de Cultura Económica, México, 1984). —, Infinite in All Directions, Harper & Row, Nueva York, 1988 (hay trad. cast.: El Infinito en todas direcciones, Tusquets, Colección Metatemas, Barcelona, 1993). Feinberg, G., Solid Clues, Simón and Schuster, Nueva York, 1985 (hay trad. cast.: Claves ciertas, Biblioteca Científica Salvat, Salvat Editores S. A., Barcelona, 1986). —, What is the World Made Of?, Doubleday, Nueva York, 1977. French, A. P., Einstein: A Centenary Volume, Harvard University Press, Cambridge, Mass., 1979. Gamow, G., The Birth and Death of Our Sun, Viking, Nueva York, 1952. Glashow, S. L., Interactions, Warner, Nueva York, 1988 (hay trad. cast.: Interacciones. Una visión del mundo desde el «encanto» de los átomos, Tusquets, Colección Metatemas, Barcelona, 1994). Gribbin, J., In Search of Schrödinger’s Cat, Bantam, Nueva York, 1984 (hay trad. cast.: En busca del gato de Schrödinger, Biblioteca Científica Salvat, Salvat Editores S. A., Barcelona, 1986). Hawking, S. W., A Brief History of Time, Bantam, Nueva York, 1988 (hay trad. cast.: Historia del tiempo, Crítica, Barcelona, 1988).

Heisenberg, W., Physics and Beyond, Harper Torch-books, Nueva York, 1971 (hay trad. cast.: Diálogos sobre Física Atómica, Biblioteca de Autores Cristianos, Madrid, 1972). Henderson, L. D., The Fourth Dimension and Non-Euclidean Geometry in Modern Art, Princeton University Press, Princeton, N. J., 1983. Kaku, M., Introduction to Superstrings, Springer-Verlag, Nueva York, 1988. —, y J. Trainer, Beyond Einstein: The Cosmic Quest for the Theory of the Universe, Bantam, Nueva York, 1987. Kaufmann, W. J., Black Holes and Warped Space-Time, Freeman, San Francisco, 1979. Lenin, V., Materialism and Empiro-Criticism. En K. Marx, E Engels, y V. Lenin, On Dialectical Materialism, Progress, Moscú, 1977 (hay trad. cast.: Materialismo y Empirocriticismo, Akal, Madrid, 1976). Pagels, H., The Cosmic Code, Bantam, Nueva York, 1982 (hay trad. cast.: El Código del Universo, Pirámide, Madrid, 1990). —, Perfect Symmetry: The Search of the Beginning of Time, Bantam, Nueva York, 1985 (hay trad. cast.: La búsqueda del principio del tiempo, Antoni Bosch, Barcelona, 1988). Pais, A., Subtle Is the Lord: The Science and the Life of Albert Einstein, Oxford University Press, Oxford, 1982 (hay trad. cast.: El Señor es sutil. La ciencia y la vida de Albert Einstein, Ariel, Barcelona, 1984). Penrose, R., The Emperor’s New Mind, Oxford University Press, Oxford, 1989 (hay trad. cast.: La nueva mente del Emperador, Mondadori España S. A., Madrid, 1991). Polkinghorne, J. C, The Quantum World, Princeton University Press, Princeton, N. J., 1984. Rucker, R., Geometry, Relativity, and the Fourth Dimension, Dover, Nueva York, 1977. —, The Fourth Dimension, Houghton Mifflin, Boston, 1984 (hay trad. cast.: La cuarta dimensión, Biblioteca Científica Salvat, Salvat Editores S. A., Barcelona, 1986). Sagan, C, Cosmos, Random House, Nueva York, 1980 (hay trad. cast.: Cosmos, Planeta, Barcelona, 1982). Silk, J., The Big Bang: The Creation and Evolution of the Universe, 2.a ed., Freeman, San Francisco, 1988. Trefil, J. S., From Atoms to Quarks, Scribner, Nueva York, 1980 (hay trad. cast.: De los átomos a los quarks, Biblioteca Científica Salvat, Salvat Editores S. A., Barcelona, 1986). —, The Moment of Creation, Macmillan, Nueva York, 1983 (hay trad. cast.: El momento de la Creación, Biblioteca Científica Salvat, Salvat Editores S. A., Barcelona, 1986). Weinberg, S., The First Three Minutes: A Modern View of the Origin of the Universe, Basic Books, Nueva York, 1988 (hay trad. cast.: Los tres primeros minutos del universo, Alianza Editorial, Madrid, 1978). Wilczek, F., y B. Devine, Longing for the Harmonies, Norton, Nueva York, 1988. Zee, A., Fearful Symmetry, Macmillan, Nueva York, 1986.

MICHIO KAKU. (1947), profesor de física teórica en la City University de Nueva York, es uno de los especialistas más destacados en teoría de supercuerdas. Entre sus obras destacan Beyond Einstein. The Cosmic Quest for the Theory of the Universe, con Jennifer Trainer y Quantum Field Theory: A Modern Introduction e Introduction to Superstrings.

Notas

[1] El tema es tan nuevo que todavía no existe un término utilizado por los físicos teóricos para

referirse a teorías de dimensiones superiores que tenga aceptación universal. Técnicamente hablando, cuando los físicos mencionan la teoría, se refieren a una teoría concreta, tal como la teoría de Kaluza-Klein, la supergravedad o las supercuerdas, aunque hiperespacio es el término utilizado popularmente al referirse a dimensiones superiores, e hiper es el prefijo científicamente correcto para objetos geométricos de dimensiones superiores. Yo me he ceñido a la costumbre popular y utilizo la palabra hiperespacio para referirme a dimensiones superiores.
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF