35566886

October 27, 2019 | Author: Anonymous | Category: Fotón, Mecánica cuántica, Polarización (Ondas), Física y matemáticas, Física
Share Embed Donate


Short Description

Download 35566886...

Description

Edición española de Scientific American

EPISTEMOLOGÍA

FUNDAMENTOS

RETOS EXPERIMENTALES

RETOS TEÓRICOS

La noción cuántica de realidad

Teoría cuántica e información

Efectos cuánticos macroscópicos

Nuevas ideas en gravedad cuántica

6,90 EUROS

InvestigacionyCiencia.es

TEMAS 86

TEMAS 86 FRONTERAS DE LA FÍSICA

CUÁNTICA

86

9 7 7 841 1 3 55668

00086

4.o TRIMESTRE 2016

FRONTERAS DE LA FÍSICA CUÁNTICA

Panorama contemporáneo de una teoría fundamental

El mejor regalo para estas fiestas en investigacionyciencia.es/regalos ¿Quieres compartir tu pasión por la ciencia, la innovación y el conocimiento?

ÌCompra a través de la web y ahórrate un 10 % (hasta el 6 de enero). ÌElige tu regalo (suscripciones, revistas, libros...). ÌPersonaliza tu mensaje de felicitación. nos encargamos de que el destinatario reciba ÌNosotros puntualmente tu obsequio y la tarjeta de felicitación a su nombre. 1

2 3

4

Presentación

Del átomo al qubit: la mecánica cuántica en el siglo xxi

INSTITUTO MAX PLANCK DE ÓPTICA CUÁNTICA

E

n diciembre de 1926, hace ahora justo 90 años, la revista Zeit­schrift für Physik publicaba una contribución de Max Born titulada «Sobre la mecánica cuántica de los procesos de colisión». En ella, el físico alemán enunciaba —en una nota a pie de página añadida durante el proceso de corrección de pruebas— la regla que hoy lleva su nombre y que años más tarde le valdría el premio Nobel de física, otorgado «por su interpretación estadística de la función de onda». Aquel resultado coronaba el formalismo matemático que ese año y el precedente habían desarrollado varios de los fundadores de la teoría cuántica (Born incluido) y establecía cómo calcular, a partir de él, la probabilidad de obtener un resultado u otro en un experimento. La regla de Born apuntalaba así el carácter intrínsecamente probabilístico del mundo cuántico y sentaba las bases de una nueva forma de entender la realidad física: una realidad que solo se define si le hacemos preguntas. Había nacido la mecánica cuántica moderna. Noventa años después, los fundamentos de la teoría siguen intactos, pero su apariencia se ha metamorfoseado de manera considerable. Originalmente desarrollada para explicar las propiedades de los átomos y la luz, hoy la teoría cuántica es vista a menudo como un formalismo estrechamente relacionado con un concepto mucho más abstracto y universal: el de información. Desde finales del siglo pasado, este enfoque ha dado lugar a una inusitada avalancha de publicaciones sobre el significado último de la teoría, sus posibilidades computacionales, su relación con el mundo macroscópico y su vínculo con las interacciones fundamentales de la naturaleza. El presente monográfico ofrece una pincelada del estado contemporáneo de las cuatro fronteras que acabamos de mencionar. De la mano de 17 expertos, buena parte de los cuales se encuentran entre los más citados del mundo en sus

respectivos ámbitos de investigación, los artículos recopilados aquí exploran qué podemos decir sobre la naturaleza de la realidad física a la luz de algunos avances recientes en física cuántica (págs. 4-26), en qué se basan y qué persiguen las nuevas técnicas de tratamiento cuántico de la información (págs. 28-56) y cuál es el estado actual de los dos mayores retos a los que siempre se ha enfrentado la teoría: lograr una descripción precisa del límite clásico (págs. 58-71) y resolver su encaje con la gravedad (págs. 72-87). El número concluye con un artículo que aborda lo que podríamos calificar como el reto definitivo: demostrar la unicidad de la teoría cuántica

a partir de un enfoque basado exclusivamente en la información (pág. 88). Esa travesía conceptual de los átomos a los qubits no supone ningún giro radical con respecto a la teoría que nació hace 90 años; a fin de cuentas, fue la interpretación probabilística lo que condujo a Niels Bohr a defender que la tarea de la física no consiste en averiguar cómo es la naturaleza, sino qué podemos decir sobre ella. Sin embargo, ese renovado énfasis en la información sí se ha revelado como una perspectiva extraordinariamente fructífera para explorar las fronteras del mundo cuántico. Bienvenidos al siglo xxi. —La redacción

ÁTOMOS en estados de Rydberg en una simulación cuántica (pág. 56).

TEMAS 86 4o trimestre 2016

Fronteras de la física cuántica

La redacción TEORÍA CUÁNTICA Y REALIDAD

4 La realidad de los cuantos Anton Zeilinger

12 Más allá del horizonte cuántico David Deutsch y Artur Ekert

18 Bayesianismo cuántico Hans Christian von Baeyer

24 El cuanto no cuántico David Tong

46 Objetivos y oportunidades de la simulación cuántica J. Ignacio Cirac y Peter Zoller

50 Mundos cuánticos simulados Oliver Morsch e Immanuel Bloch RETOS CUÁNTICOS

58 Vivir en un mundo cuántico Vlatko Vedral

64 Efectos cuánticos macroscópicos Markus Aspelmeyer y Markus Arndt

72 Agujeros negros y muros de fuego Joseph Polchinski

TEORÍA CUÁNTICA E INFORMACIÓN

28 Procesamiento cuántico de la información Antonio Acín

38 Los límites físicos de la privacidad Artur Ekert y Renato Renner

2 Temas 63

77 ¿Fuego en el horizonte? Roberto Emparan

80 Geometría y entrelazamiento cuántico Juan Martín Maldacena

88 Teorías supracuánticas Miguel Navascués

EN PORTADA La mecánica cuántica nació hace 90 años para explicar las propieda­des de los átomos y la luz. Hoy, sin embargo, la teoría es ampliamente vista como un formalismo relacionado con un concepto mucho más abstracto y universal: el de información. La imagen evoca una esfera de Poincaré, la figura empleada habitualmente por los físicos para representar el qubit, la unidad básica de información en física cuántica. Ilustración de liuzishan/iStock; diseño de Investigación y Ciencia.

ISTOCK

1 Del átomo al qubit: la mecánica cuántica en el siglo xxi

ISTOCK/ LIUZISHAN; MODIFICADO POR INVESTIGACIÓN Y CIENCIA

Teoría cuántica y realidad

ISTOCK/ LIUZISHAN; MODIFICADO POR INVESTIGACIÓN Y CIENCIA

Teoría cuántica e información

ISTOCK/ LIUZISHAN; MODIFICADO POR INVESTIGACIÓN Y CIENCIA

Retos cuánticos

TEMAS 86 4o trimestre 2016

Fronteras de la física cuántica

La redacción TEORÍA CUÁNTICA Y REALIDAD

4 La realidad de los cuantos Anton Zeilinger

12 Más allá del horizonte cuántico David Deutsch y Artur Ekert

18 Bayesianismo cuántico Hans Christian von Baeyer

24 El cuanto no cuántico David Tong

46 Objetivos y oportunidades de la simulación cuántica J. Ignacio Cirac y Peter Zoller

50 Mundos cuánticos simulados Oliver Morsch e Immanuel Bloch RETOS CUÁNTICOS

58 Vivir en un mundo cuántico Vlatko Vedral

64 Efectos cuánticos macroscópicos Markus Aspelmeyer y Markus Arndt

72 Agujeros negros y muros de fuego Joseph Polchinski

TEORÍA CUÁNTICA E INFORMACIÓN

28 Procesamiento cuántico de la información Antonio Acín

38 Los límites físicos de la privacidad Artur Ekert y Renato Renner

2 Temas 63

77 ¿Fuego en el horizonte? Roberto Emparan

80 Geometría y entrelazamiento cuántico Juan Martín Maldacena

88 Teorías supracuánticas Miguel Navascués

EN PORTADA La mecánica cuántica nació hace 90 años para explicar las propieda­des de los átomos y la luz. Hoy, sin embargo, la teoría es ampliamente vista como un formalismo relacionado con un concepto mucho más abstracto y universal: el de información. La imagen evoca una esfera de Poincaré, la figura empleada habitualmente por los físicos para representar el qubit, la unidad básica de información en física cuántica. Ilustración de liuzishan/iStock; diseño de Investigación y Ciencia.

ISTOCK

1 Del átomo al qubit: la mecánica cuántica en el siglo xxi

ISTOCK/ LIUZISHAN; MODIFICADO POR INVESTIGACIÓN Y CIENCIA

Teoría cuántica y realidad

TEORÍ A CUÁNTIC A Y RE ALIDAD

La realidad de los cuantos

La mecánica cuántica es desde hace casi un siglo uno de los pilares más firmes de la física, aunque su interpretación se ha movido en un debate permanente. Experimentos cada vez más refinados demuestran que el concepto de información posee un significado fundamental en el mundo cuántico, algo que también es de vital importancia para futuras aplicaciones técnicas Anton Zeilinger antemano (cerrando, por ejemplo, la rendija inferior) o si no se ha efectuado una medición que la determine. Hoy sabemos que las interferencias aparecen si —y solo si— no existe ninguna información acerca del camino seguido por cada partícula. Desde los años setenta es posible responder con experimentos a la cuestión de si los patrones de interferencia aparecen o no con partículas individuales. El experimento de la doble rendija ha sido llevado a cabo por el autor y su equipo con distintos tipos de partículas con masa; primero con neutrones y después con fullerenos, moléculas formadas por sesenta átomos de carbono (C60). ¿A QUÉ TAMA ÑO LLEGA EL MUNDO CUÁNTICO?

Cabe preguntarse si todo esto es válido únicamente para partículas microscópicas. ¿Qué tamaño puede tener un sistema para que todavía resulte posible observar en él fenómenos de interferencia cuántica? En busca de una respuesta, Erwin Schrödinger concibió en 1935 su famoso gato. En sus propias palabras: Se pueden idear casos completamente disparatados. Enciérrese a un gato en una cámara de acero junto con la siguiente máquina infernal (la cual debe protegerse contra toda intervención directa por parte del gato): un contador Geiger contiene una pequeña cantidad de material radiactivo, tan pequeña que, en el transcurso de una hora, quizá

EN SÍNTESIS

El entrelazamiento constituye un fenómeno cuántico fundamental que no se ajusta a la noción de realidad a la que estamos acostumbrados.

4  TEMAS 86

Los objetos cuánticosentrelazados contradicen la noción de realismo local: antes de una medida, sus propiedades no están definidas de manera unívoca; después, permanecen fuertemente correlacionadas. Clásicamente, esto solo sería explicable a partir de algún tipo de interacción entre dichos objetos.

Futuros desarrollostécnicos muy prometedores se basarán en el entrelazamiento cuántico; en particular la criptografía, la comunicación y la computación cuánticas.

SPEKTRUM DER WISSENSCHAFT/EMDE-GRAFIK

C

uando, en 1925-26, fue creada la mecánica cuántica moderna, se originó inmediatamente una discusión acerca de su significado. En un famoso debate, Albert Einstein y Niels Bohr abordaron la siguiente cuestión: ¿proporciona la mecánica cuántica una descripción exhaustiva de la realidad física? Dado que por aquel entonces era imposible llevar a cabo experimentos con sistemas cuánticos individuales, un papel central en la controversia lo desempeñaron los experimentos mentales. Einstein argumentó con una versión cuántica del experimento de la doble rendija, famoso en óptica: un rayo de luz entra desde la izquierda por un orificio e ilumina una pantalla a través de dos rendijas, una de las cuales puede cerrarse a voluntad. Cuando ambas ranuras se encuentran abiertas, se observa en la pantalla un patrón de interferencia, como corresponde a la naturaleza ondulatoria de la luz. Sin embargo, al cerrar una de las rendijas, las franjas no aparecen. Sabemos, por otro lado, que la luz se compone de partículas (fotones). Einstein se preguntó por el camino seguido por un único fotón. ¿Aparece el patrón de interferencia, tal y como predice la física cuántica, también cuando son fotones individuales los que atraviesan uno tras otro la doble rendija? La respuesta de Bohr rezaba así: no tiene sentido hablar de la trayectoria de una sola partícula si esta no ha sido fijada de

LA FÍSICA CUÁNTICApredice la existencia de correlaciones entre objetos distantes que contradicen la noción de una realidad independiente del observador y separable en ámbitos locales. Las partículas entrelazadas se comportan a la manera de dados que, tras cada lanzamiento, ofreciesen un resultado aleatorio, aunque siempre el mismo en cada dado.

Fronteras de la física cuántica  5

se desintegre un átomo, pero con la misma probabilidad tal vez no lo haga ninguno; si sucede, se disparará el contador, que, por medio de un relé, accionará un pequeño martillo que hará añicos un frasco con ácido cianhídrico. Si el sistema completo se deja a su aire durante una hora, se diría que el gato aún estará vivo si, hasta entonces, no se ha desintegrado ningún átomo. La primera desintegración atómica lo habría envenenado. La función-psi del sistema completo pondría de manifiesto este hecho incorporando el gato vivo y el gato muerto (permítaseme la expresión) mezclados o emborronados a partes iguales. Lo típico en estos casos es que una incertidumbre originalmente restringida al dominio atómico se convierte en una incertidumbre macroscópica, la cual puede resolverse mediante observación directa. El ejemplo del gato de Schrödinger parece querer decir que no tiene sentido concebir estados cuánticos en sistemas demasiado grandes o complejos. Sin embargo, debemos recordar que

las interferencias cuánticas aparecen solo si no hay ninguna información disponible acerca del camino tomado por la partícula. No se trata de que un observador posea realmente o no dicha información, sino de si es posible, en principio, averiguar el camino. Para poder observar interferencias no le debe ser permitido a nadie (dondequiera que se encuentre y con independencia de lo avanzada que sea su tecnología) averiguar cuál de los dos caminos ha tomado la partícula. Por otro lado, el sistema ha de estar lo suficientemente aislado, ya que, en caso contrario, la partícula puede informar al entorno acerca del camino tomado (por ejemplo, mediante emisión electromagnética), en cuyo caso el patrón de interferencia desaparece. Es una gran dificultad para el experimentador asegurarse de que no se produce tal fenómeno, denominado decoherencia. Con todo, nuestro grupo de investigación ha conseguido generar interferencias cuánticas con moléculas de C60, y no hay razón por la que no pueda haberlas en sistemas mucho mayores. Ignoramos si llegará el día en que puedan observarse efectos de interferencia en sistemas vivos, como en el ejemplo de Schrödinger. Para ello habría que separar al ser vivo del entorno a fin de evitar la decoherencia, algo que quizá podría lograrse con nanobacterias. La posibilidad de llevarlo a cabo con sistemas mayores sigue 5000 siendo una interesante cuestión para el futuro. En paralelo a los experimentos de interferencia, en los últi4000 mos años se ha desarrollado una nueva línea de investigación que persigue imponer estados cuánticos a pequeños osciladores 3000 mecánicos, con un tamaño del orden de algunos micrómetros

Intensidad (neutrones cada 125 minutos)

BOCETO DE NIELS BOHR del experimento de la doble rendija para sus conversaciones con Albert Einstein.

2000

D E L M U N D O S U B AT Ó M I C O A L A S M O L É C U L A S

1000

3000 2000 1000 0 –400 –300 –200 –100 0 100 200 300 Posición de la rendija (micrómetros)

400

lsaciones cada 100 segundos)

Experimento de doble rendijacon neutrones realizado en 1988 en el Instituto Laue-Langevin, en Grenoble, por un equipo liderado por el autor. La 400 del haz era tan baja que los neutrones pasaban uno a uno por intensidad la doble rendija. 350 300 250

6  TEMAS 86

200

Intensidad (pulsaciones cada 100 segundos)

Intensidad (neutrones cada 125 minutos)

–400 –300 –200 –100 0 100 200 300 400 No hay ninguna razónpara pensar que los fenómenos de superposición e interferencia cuánticas deban restringirse al mundo Posición de la rendija (micrómetros) microscópico. En los últimos años, varios experimentos han conseguido observar tales procesos en sistemas cada vez más masivos, como neutrones (izquierda) o fullerenos, moléculas formadas por 60 átomos de carbono (derecha). C60 400 5000 350 4000 300 250 200 150 100 0 –200

100 –100 0 Posición del detector (micrómetros)

200

Intensidad de lasmoléculas de C60 tras ser difractadas en una red de absorción con una constante de red de 100 nanómetros. También en este experimento, realizado en 1999, cada molécula interfiere únicamente consigo misma.

NIELS BOHR (boceto de la doble rendija); INSTITUTO ATÓMICO DE LAS UNIVERSIDADES AUSTRIACAS, UNIVERSIDAD TÉCNICA DE VIENA (difracción de neutrones); FACULTAD DE FÍSICA, UNIVERSIDAD DE VIENA (difracción de fullerenos)

Interferencia con partículas de gran masa 0

Láser ultravioleta

D1 Cristal óptico

Doble rendija EN ESTE EXPERIMENTOde doble rendija con fotones entrelazados (violeta), el detector D2 solo registra interferencias cuando el fotón detectado en D1 no puede aportar ninguna información sobre el camino seguido por su compañero. Esto último puede conseguirse por medio de la interposición de una lente.

(milésimas de milímetro). Ello supone un salto enorme en lo que se refiere a la masa y la complejidad del sistema. Como hemos mencionado, todo depende de que exista o no información sobre la rendija por la que ha pasado la partícula. ¿Cómo podemos garantizar que no hay ninguna posibilidad, ni siquiera en principio, de determinar su trayectoria, y que, por tanto, aparecerán patrones de interferencia? Dicha posibilidad se manifiesta en cierta variante del experimento de la doble rendija efectuada con pares de fotones estrechamente vinculados entre sí.

SPEKTRUM DER WISSENSCHAFT/EMDE-GRAFIK, SEGUN A. ZEILINGER

PARES DE FOTONES: ¿ONDAS O PARTÍCULAS?

En esta sorprendente variante del experimento de la doble rendija, un cristal óptico no lineal genera pares de fotones estrechamente correlacionados: un fenómeno que Schrödinger denominó «entrelazamiento». Antes de llevar a cabo una medida, ninguno de los dos fotones posee un momento bien definido. No obstante, tras medir el momento de cada uno de ellos, la suma debe igualar exactamente al momento del fotón a partir del cual se originó el par. Ello permite determinar, a partir del primer fotón, por qué rendija ha pasado el segundo. Sin embargo, eso deja de ser posible cuando la medición efectuada sobre el primer fotón se lleva a cabo de tal modo que no permite llegar a ninguna conclusión acerca de la trayectoria tomada por el segundo. ¿Cómo se consigue esto? El primer fotón queda registrado en un detector colocado en el plano focal de una lente. Dicho montaje implica una misma proyección del momento para todos los fotones, lo que quiere decir que no existe ninguna información sobre la posición. Solo en este caso, cuando se ha «borrado» la información relativa a las posiciones, aparecen los patrones de interferencia. La interferencia se produce únicamente cuando, debido a la medida efectuada sobre el primer fotón, no persiste ninguna información sobre la trayectoria tomada por el fotón hermano al pasar por la doble rendija. Si no se procede a registrar el primer fotón, las interferencias no aparecen, pues entonces sí se podría utilizar ese primer fotón para conseguir información acerca del camino tomado por el segundo. El experimento pone de manifiesto que no puede hablarse de las propiedades de un fotón sin haber llevado a cabo previamente el experimento necesario para determinarlas. Aquí la cuestión no solo depende de haber registrado el fotón que ha atravesado la doble rendija, sino de llevar a cabo el experimento completo; es decir, de registrar también el primer fotón. La clase

Lente

D2

Detector

Contador de coincidencias

Detector

de medida efectuada determina si el segundo fotón se comporta como una partícula y pasa por una de las dos rendijas, o si, por el contrario, se comporta como una onda y da lugar a un patrón de interferencia. Vemos, en consecuencia, que no tiene sentido —como le hubiera gustado a Einstein— hablar de ondas o partículas como propiedades objetivas e independientes del tipo de experimento llevado a cabo. El entrelazamiento entre ambos fotones desempeña una función clave en el experimento que acabamos de describir. Este fenómeno fue introducido en 1935 por Albert Einstein, Boris Podolsky y Nathan Rosen en su examen de la mecánica cuántica. Curiosamente, durante treinta años su trabajo no recibió más que una cita anual; hoy es citado más de doscientas veces al año. Quien no tardó en reparar en las ideas de Einstein, Podolsky y Rosen fue Schrödinger, quien opinaba que el fenómeno nos obligaba a despojarnos de nuestras ideas preconcebidas sobre la constitución del mundo. Para analizar el fenómeno del entrelazamiento, atendamos al experimento siguiente. Una fuente genera un par de fotones entrelazados y envía cada miembro del par a sendos observadores distantes, a quienes llamaremos Alicia y Benito. Lo que se mide en este caso es la correlación entre las polarizaciones de ambos fotones. Alicia y Benito pueden rotar sus polarizadores, lo que les permite medir las polarizaciones lineales de los fotones a lo largo de una dirección escogida a voluntad. Los experimentos revelan que, cuando los dos polarizadores presentan la misma orientación, el resultado obtenido es idéntico en ambos casos. Sin embargo, cuando un polarizador queda fijo y el otro se rota, las coincidencias varían con el doble del ángulo de rotación. En 1964, John Bell demostró que tales resultados no pueden explicarse a partir de ninguna teoría local y realista. Una teoría local y realista es una descripción de la naturaleza que incorpora dos premisas sencillas. El supuesto de localidad

El tipo de medida llevada a cabo determina si el fotón pasa como una partícula a través de una sola rendija o si, por el contrario, se comporta como una onda y genera interferencias Fronteras de la física cuántica  7

significa que los resultados de una medida efectuados en cierto sitio, digamos en el laboratorio de Alicia, no pueden depender de lo que haga Benito con su detector (qué orientación escoge para su polarizador, o ni siquiera de si realiza o no medida alguna sobre su fotón). El supuesto de realidad implica que el resultado de una medida refleja la existencia de propiedades intrínsecas de las partículas; esto es, propiedades que ya existirían antes de efectuar la medida, donde incluso cabría incluir propiedades del aparato de medición. Una explicación local y realista parece muy plausible. Efectivamente, cuando los dos polarizadores presentan la misma orientación, se observa siempre el mismo resultado: ambos fotones se encuentran horizontal o verticalmente polarizados. Así pues, ¿qué sería más sencillo que suponer que ambos fotones han sido creados con dichas polarizaciones? O, al menos, que ambos fotones tendrían que «saber» de antemano qué polarización mostrar una vez que se efectúe la medición. Admitido esto, y aceptado que el resultado de la medida efectuada sobre un fotón es independiente de lo que le pase en ese momento al segundo, llegamos a la idea de realismo local. ADIÓS AL REALISMO LOCAL

Bell demostró que las predicciones estadísticas derivadas de tales suposiciones eran irreconciliables con la física cuántica. Desde los años setenta, los experimentos han confirmado con creciente precisión las predicciones de la física cuántica, refutando con ello la imagen local y realista del mundo. La contradicción entre realismo local y mecánica cuántica se hace extrema en el caso del entrelazamiento entre tres o más partículas, como de forma

teórica descubrió el autor de este artículo junto con Daniel M. Greenberger y Michael A. Horne, y como más tarde demostró experimentalmente nuestro grupo de investigación. A pesar de todo, uno podría suponer la existencia de alguna escapatoria que permitiese salvar la hipótesis del realismo local. ¿Cabría la posibilidad de que el resultado de la media efectuada en un sitio influyese sobre la medición que se lleva a cabo en otro? ¿Podría ocurrir que el tipo de medida realizado en un lugar se transmitiese, mediante algún mecanismo hasta ahora desconocido, hasta una ubicación distante? Semejante explicación puede descartarse. En un experimento realizado en 1998 en la Universidad de Innsbruck, Gregor Weihs y otros miembros de nuestro grupo de investigación cambiaron la orientación de los polarizadores en el último momento: tan deprisa que ni siquiera una señal que se propagase a la velocidad de la luz habría podido llegar al otro lado antes de llevar a cabo la medida sobre el segundo fotón. Una vez más, las predicciones de la física cuántica se vieron confirmadas en detalle. En consecuencia, la pregunta es: ¿cuál de las dos suposiciones que incorpora el realismo local es falsa? ¿Lo son ambas? Si la premisa de localidad no es válida, tendrían que existir propiedades de los objetos que se relacionasen entre sí de forma instantánea (esto es, sin ningún retraso temporal) a través de largas distancias. ¿O es falsa la premisa de realismo, la idea de que el resultado de una medida nos informa sobre propiedades que las partículas ya poseen con anterioridad al experimento y con independencia de este? Para responder a esta cuestión, Anthony Leggett propuso en 2003 un modelo en el que los fotones se generan con po-

T E O R Í A C UÁ N T I C A Y R E A L I S M O L O C A L

Del entrelazamiento de pares al estado de Greenberger-Horne-Zeilinger

8  TEMAS 86

A

B

Fuente

H

V 1

3 V

H

Fuente

2 H

V

UNIVERSIDAD DE VIENA

Para detectar el entrelazamientoentre dos fotones, Alicia (A) y Benito (B) miden las polarizaciones de sus respectivos fotones y comparan los resultados (arriba). Ambos polarizadores pueden ser rotados a voluntad en torno al eje del haz. Los estados GHZ, así llamados en honor a Daniel Greenberger, Michael Horne y Anton Zeilinger, surgen del entrelazamiento de tres partículas (abajo). Para determinadas orientaciones de los polarizadores, es posible, a partir de las medidas realizadas sobre dos fotones, predecir con absoluta certeza la polarización del tercer fotón: vertical (V) u horizontal (H). Las predicciones de la mecánica cuántica son en este caso opuestas a las del realismo local: si la mecánica cuántica exige que un fotón esté polarizado horizontalmente, el realismo local llega a la conclusión de que el mismo fotón ha de poseer la polarización ortogonal, es decir, vertical. Los experimentos confirman de manera inequívoca las predicciones de la mecánica cuántica.

ENTRELAZAMIENTO

¿Cómo se crean fotones entrelazados? Cuando un rayo láser ultravioletaatraviesa un cristal óptico no lineal, se originan haces de luz con nuevas frecuencias, la suma de las cuales resulta igual a la del haz de bombeo. En términos de las partículas de luz, esto quiere decir que un fotón del haz de bombeo puede desintegrarse en dos nuevos fotones cuyas energías han de sumar lo mismo que la del fotón original.

Los fotones del par creado pueden estar entrelazados entre sí con respecto a sus momentos o a sus polarizaciones. Esta figura ilustra la producción de un fotón verticalmente polarizado (en el cono superior) y otro horizontalmente polarizado (en el inferior). En la intersección (azul claro) los fotones tienen sus respectivas polarizaciones entrelazadas.

Sección del haz

Cristal óptico no lineal

Fotón

Haz de bombeo

SPEKTRUM DER WISSENSCHAFT Y LAURIE GRACE (cristal óptico); PAUL KWIAT Y MICHAEL RECK, UNIVERSIDAD DE VIENA (sección del haz)

Fotones entrelazados

larizaciones bien definidas, conforme a la noción de realismo. El modelo de Leggett permite la existencia de interacciones no locales: el resultado de una medición realizada sobre un fotón depende de la orientación del polarizador del segundo fotón, instantáneamente y sin ningún retraso temporal a través de distancias tan grandes como se quiera. Esa premisa de realismo no local implica que, para determinadas mediciones, los resultados contradicen las predicciones de la mecánica cuántica. La comprobación es aquí algo más complicada, ya que han de observarse las correlaciones entre las medidas de la polarización lineal en un fotón y de la polarización elíptica en el otro. En 2007, en un experimento efectuado en la Universidad de Viena, Simon Gröblacher y otros investigadores demostraron que, también en este caso, la mecánica cuántica resultaba correcta. Ni siquiera un realismo del tipo propuesto por Leggett, el cual abandona la hipótesis de localidad, podía salvarse. Una pregunta interesante es hasta qué distancias se mantiene el entrelazamiento. Para averiguarlo, nuestro grupo de investigación ha llevado a cabo una serie de experimentos en las islas de La Palma y Tenerife, las cuales albergan los telescopios que conforman el Observatorio Norte Europeo. En estos experimentos, se crean en La Palma pares de fotones entrelazados para, posteriormente, enviar un fotón de cada par hacia Tenerife. Allí, un telescopio reflector de un metro de diámetro captura los fotones provenientes de La Palma y mide sus polarizaciones, mientras que el fotón complementario de cada par es observado directamente en La Palma. Nuestros resultados han demostrado que el entrelazamiento se preserva a través de los 144 kilómetros que separan ambas islas. Ello parece indicar que este fenómeno cuántico tiene lugar con independencia de la distancia.

Todo lo anterior nos está diciendo lo siguiente: si bien es cierto que las mediciones realizadas sobre fotones entrelazados muestran correlaciones perfectas (con igual orientación de los polarizadores, se mide siempre la misma polarización en ambas partículas), debe desecharse la premisa de que, antes de la medición, los fotones ya poseen una polarización bien definida. Solo como consecuencia de la medida realizada sobre el primer fotón adquiere este una polarización concreta. A partir de ese momento, el segundo fotón posee, con total independencia de cuál sea la distancia entre ambos, una polarización igualmente bien definida. Alguien podría sospechar que semejante conclusión contradice la teoría de la relatividad de Einstein, según la cual ninguna señal puede propagarse a una velocidad mayor que la de la luz. Sin embargo, no ocurre así, ya que el resultado de la medición efectuada sobre cada uno de los dos fotones es completamente aleatorio. En otras palabras, con independencia de la orientación de los polarizadores, en cada uno se observa, con idéntica probabilidad, una polarización horizontal o vertical. De este modo, cuando Alicia y Benito miden la polarización de sus respectivos fotones, no pueden obtener, a partir de sus resultados, ninguna información sobre la orientación del otro polarizador. Este es,

Por tanto, la pregunta es: ¿cuál de las dos suposiciones que incorpora el realismo local es falsa? ¿O quizá no sea cierta ninguna? Fronteras de la física cuántica  9

sin embargo, el único parámetro sobre el cual puede influir el experimentador. Solo cuando Alicia y Benito comparan sus orientaciones y los respectivos resultados de sus mediciones pueden constatar las correlaciones. No podemos, pues, recurrir al entrelazamiento para transmitir información, por más que las medidas revelen que la correlación se da de manera instantánea. A este respecto, el investigador Abner Shimony ha hablado de una coexistencia pacífica entre la física cuántica y la teoría especial de la relatividad. DEL ROMPECABEZAS CUÁNTICO A LA INFORMACIÓN CUÁNTICA

Los experimentos sobre el entrelazamiento, que comenzaron en los años setenta, fueron posibles gracias al desarrollo del láser. Al principio, se excitaba los átomos de manera que devolviesen posteriormente la energía en forma de dos fotones entrelazados. En los experimentos modernos se utiliza la fluorescencia paramétrica espontánea. A principios de este siglo había contados laboratorios especializados en la creación de fotones entrelazados; hoy se trata de una práctica habitual. Los experimentos han mejorado de tal manera que las tasas de producción de un millón de pares de fotones entrelazados por segundo ya no son nada fuera de lo común. En un comienzo, los experimentos se proponían someter a prueba la física cuántica o, al menos, confirmar sus características menos intuitivas. Pero, para sorpresa de todos, hacia los años noventa surgió una línea de investigación completamente nueva: usar el entrelazamiento como una nueva forma de transmisión y procesamiento de la información. Conceptos clave al respecto son la criptografía, la computación y el teletransporte cuánticos. En el caso de la criptografía cuántica, Alicia y Benito pueden establecer, mediante el uso de fotones entrelazados, una clave secreta para comunicarse entre sí. Alicia puede utilizar esa clave para codificar un mensaje que solo Benito podrá descifrar. Esta es, hoy en día, una de las aplicaciones más ampliamente desarrolladas en el ámbito de la tecnología de la información.

La criptografía cuántica constituye el único método conocido que, gracias a las leyes de la naturaleza, evita que un mensaje pueda ser descifrado por terceros [véase «Los límites físicos de la privacidad», por Artur Ekert y Renato Renner, en este mismo número]. En cualquier caso, no cabe duda de que la aplicación más exótica del entrelazamiento es el teletransporte cuántico. Con él resulta posible transmitir, mediante el uso de pares de fotones entrelazados, el estado cuántico de un fotón a otro fotón situado a una distancia arbitrariamente grande [véase «Teletransporte cuántico», por Anton Zeilinger; Investigación y Ciencia, junio de 2000]. El teletransporte es visto como un medio ideal de transmisión de información entre futuros ordenadores cuánticos. Un ordenador cuántico viene a constituir la aplicación definitiva de los principios de la mecánica cuántica. La idea básica es la siguiente: a diferencia de lo que ocurre en un ordenador clásico, la información no se almacena por medio de estados clásicos, sino mediante estados cuánticos; por ejemplo, a partir de estados de átomos o fotones, cuyos distintos estados de excitación se corresponden con los diferentes valores que puede tomar un bit. Ello introduce nuevos principios básicos en lo que respecta al procesamiento de la información [véase «Procesamiento cuántico de la información», por Antonio Acín, en este mismo número]. Un bit clásico solo puede tomar los valores 0 o 1. En cambio, el bit cuántico, o qubit, queda descrito por una superposición de 0 y 1. De manera similar al caso de una partícula que atraviesa una doble rendija, para la cual no está fijada la ranura por la que pasa, puede decirse que un qubit toma simultáneamente los valores 0 y 1. Esto, que a primera vista parece implicar una pérdida de certidumbre, permite alternativas completamente novedosas. Los qubits de un ordenador cuántico, al hallarse entrelazados unos con otros, pueden almacenar a un mismo tiempo contenidos de información muy complejos. Un gran número de laboratorios de todo el mundo participan ya en una intensa

A P L I C AC I O N E S

Criptografía cuántica

10  TEMAS 86

Clave de Alicia

Clave de Benito

Imagen codificada

Imagen descodificada

UNIVERSIDAD DE VIENA

Para transmitir un mensajecodificado, una fuente genera pares de fotones entrelazados y envía cada uno de sus miembros a Alicia y Benito, quienes miden sus polarizaciones. Cuando sus respectivos polarizadores tienen idéntica orientación, ambos obtienen el mismo resultado: los dos fotones están polarizados, bien horizontalmente, bien verticalmente. No obstante, para cada uno de los fotones individuales, el resultado es aleatorio. Tanto Alicia como Benito obtienen así la misma secuencia aleatoria (mosaico de colores), la cual pueOriginal den utilizar a modo de clave para codificar y descodificar un mensaje secreto (imagen). Espiar el mensaje es imposible, ya que la clave usada para cifrarlo es completamente aleatoria. En el primer experimento de criptografía cuántica basado en el entrelazamiento, la imagen de la Venus de Willendorf fue codificada por Alicia y posteriormente descodificada por Benito.

A P L I C AC I O N E S

Teletransporte cuántico Estado teletransportado

En el teletransporte cuántico,Alicia desea transmitir a Benito el estado de un fotón (azul) que ella desconoce. A tal fin, Alicia y Benito reciben primero un par de fotones entrelazados (verde). Alicia efectúa cierta medición conjunta sobre su fotón original y sobre su miembro del par entrelazado, y, después, comunica a Benito el resultado de la medida (mensaje). Con esa información, Benito puede hacer que el estado de su fotón quede fijado de manera unívoca por el estado del fotón original de Alicia. En un experimento realizado en 2004, uno de los dos fotones entrelazados fue enviado desde uno de los márgenes del Danubio hasta el otro (abajo).

De: Alicia A: Benito Asunto: Fotón Mensaje: Utiliza el número 3

B E N I TO 1

2

3

4

A LICIA

1

2

3

4

Danubio

Cable de fibra óptica 600 m

carrera con el fin de desarrollar tales dispositivos. Los bits cuánticos pueden realizarse de diferentes maneras: como átomos o iones retenidos en campos electromagnéticos, como los estados cuánticos de un sólido o incluso mediante fotones. Al aprovechar el entrelazamiento y su particular capacidad de almacenamiento de datos, los ordenadores cuánticos pueden resolver problemas con una velocidad inusitada. En un ordenador clásico, ciertas tareas, como descomponer un número entero muy grande en sus factores primos, necesitarían un tiempo mayor que la edad del universo. Un ordenador cuántico, por el contrario, podría realizar tales tareas con gran rapidez.

Fotón original

Fuente de partículas entrelazadas

to cotidiano del mundo con dificultades que no se limitan al mundo atómico. Como toda teoría, la mecánica cuántica podría ser reemplazada algún día por otra más profunda [véase «Teorías supracuánticas», por Miguel Navascués, en este mismo número]. Hoy, los experimentos sobre el mundo cuántico preparan el camino. Artículo publicado en Investigación y Ciencia, junio de 2009

EL AUTOR

LAURIE GRACE (esquema Danubio); UNIVERSIDAD DE VIENA (protocolo de teletransporte)

MÁS ALLÁ DE LA FÍSICA CUÁNTICA

Los experimentos sobre computación cuántica han impulsado nuestro dominio sobre los estados cuánticos de sistemas complejos. Hasta hoy, las investigaciones llevadas a cabo sobre cuestiones básicas han tenido que conformarse con el uso de unos pocos qubits; a menudo, solo dos. Sin embargo, ya existen nuevos métodos experimentales que abren la puerta al uso de sistemas de varias partículas, lo que habrá de llevarnos hacia nuevos resultados fundamentales. Los futuros experimentos arrojarán luz sobre la existencia o no de una realidad física completamente independiente del experimento. Aunque el gato de Schrödinger pueda todavía seguir sintiéndose a salvo de convertirse en un objeto de experimentación cuántica, en un futuro próximo la frontera de los fenómenos cuánticos se extenderá a sistemas cada vez más masivos [véase «Experimentos cuánticos macroscópicos», por Markus Aspelmeyer y Markus Arndt, en este mismo número]. Es patente que la teoría cuántica desafía nuestro entendimien-

Anton Zeilingeres catedrático de física de la Universidad de Viena y director de investigación en el Instituto de Óptica Cuántica e Información Cuántica (IQOQI), en la misma ciudad. Es mundialmente conocido por sus investigaciones pioneras en información cuántica y por sus trabajos sobre los fundamentos de la teoría cuántica. PARA SABER MÁS

Wave-particle duality of C60 molecules.Markus Arndt et al. en Nature, vol. 401, págs. 680-682, octubre de 1999. Quantum teleportation across the Danube.Rupert Ursin et al. en Nature, vol. 430, pág. 849, agosto de 2004. Einsteins Schleier.Anton Zeilinger. Goldmann, 2005. An experimental test of non-local realism.Simon Gröblacher et al. en Nature, vol. 446, págs. 871-875, abril de 2007. Einsteins Spuk.A. Zeilinger. Goldmann, 2007. EN NUESTRO ARCHIVO

Teoría cuántica y realidad.Bernard D’Espagnat en IyC, enero de 1980. Realidad del mundo cuántico.Abner Shimony en IyC, marzo de 2008.

Fronteras de la física cuántica  11

TEORÍ A CUÁNTIC A Y RE ALIDAD

Más allá del horizonte cuántico Antaño considerada indicadora de los límites de acceso a la realidad, la teoría cuántica está ampliando el potencial de la computación y las perspectivas del conocimiento David Deutsch y Artur Ekert

A

finales del siglo xix, un artista anó­  imo realizó un grabado que mostraba­ n a un viajero cruzando el horizonte, la frontera entre la tierra y el cielo. Arrodi­ llado en un estilizado paisaje cotidiano, el hombre asoma su cabeza hacia el firma­ mento, donde se hallan los engranajes del mundo. La imagen, conocida como grabado de Flammarion, ilustra la búsqueda del saber. Las interpretaciones posibles de esta metáfora visual nos conducen a dos nociones muy diferen­ tes del conocimiento. La divisoria que aparece en la imagen puede entenderse como una frontera ficticia que, en realidad, la ciencia siempre acaba cruzando. Pero puede también interpretarse como una barrera real, solo franqueable por medio de la imaginación. A la luz de esta última interpretación, el artista estaría sugiriendo que nos hallamos atrapados en una burbuja cerrada, de objetos y sucesos conocidos. Podemos aspirar a comprender el mundo de la ex­ periencia directa, pero el infinito que yace más allá resultaría inaccesible a la exploración y al entendimiento. ¿Trasciende la ciencia lo cotidiano y nos revela nuevos horizontes o, más bien, nos muestra los límites de nuestra prisión, en una lección de conocimiento limitado e infinita humildad? La teoría cuántica se ha propuesto a menudo como argu­ mento definitivo en favor del segundo punto de vista. En sus comienzos, los físicos asentaron la tradición de enseñar a sus es­ tudiantes una teoría cargada de una deliberada irracionalidad: «Si usted cree que ha entendido la teoría cuántica, entonces es que no ha entendido nada»; «No podemos preguntarnos tales cosas»; «La teoría es inescrutable y, como tal, también el mun­

do»; «Las cosas ocurren sin razón o explicación». Al menos, así lo han proclamado los libros de texto y numerosas explicaciones de carácter divulgativo. Sin embargo, los avances logrados durante las últimas dos décadas contradicen esa imagen. A lo largo de la historia de esta disciplina, los físicos han dado por sentado que las limitaciones que impone la teoría cuántica nos impedirían dominar la natura­ leza con el rigor al que la física clásica nos tenía acostumbrados. No obstante, ninguna de esas limitaciones se ha materializado. Antes bien, la mecánica cuántica ha supuesto una liberación. Desde un punto de vista fundamental, las propiedades cuánti­ cas de la materia (como la superposición, el entrelazamiento o la aleatoriedad) han demostrado ser más un recurso que una limitación. Gracias a ellas hemos conseguido diseñar todo tipo de objetos milagrosos, como láseres y microcircuitos. Pero eso no ha supuesto más que el comienzo. Ahora estamos empezando a usar los fenómenos cuánticos para diseñar nuevos métodos de comunicación y sistemas de computación cuya po­ tencia de cálculo se antojaba imposible desde una perspectiva clásica. Estamos descubriendo nuevas formas de controlar la naturaleza y acceder al conocimiento. MÁS ALLÁ DE LA INCERTIDUMBRE

Gordon Moore, cofundador de Intel, vaticinó en 1995 que el número de transistores de un microprocesador se multiplicaría por dos cada dos años, aproximadamente. La predicción, hoy conocida como ley de Moore, se ha venido cumpliendo durante más de medio siglo. Sin embargo, desde el principio desató se­ ñales de alarma: si se proyecta sin más hacia el futuro, la ley de Moore implica que llegará un momento en el que los transistores

La mecánica cuántica se ha presentado históricamente como una teoría de límites, que impone una incertidumbre inherente a nuestras observaciones.

12  TEMAS 86

Tales prejuicios encuentran su origen en doctrinas filosóficas como el positivismo lógico, muy en boga durante la época en la que se gestó la mecánica cuántica.

En realidad,la teoría cuántica no impone límites estrictos. Su riqueza es tal que permite desarrollar nuevas técnicas y adquirir nuevos conocimientos.

GO Ñ I MONTES

EN SÍNTESIS

Fronteras de la física cuántica  13

tendrán el tamaño de un átomo. ¿Y entonces? Los ingenieros habrían de adentrarse en los dominios de lo desconocido. Desde una perspectiva tradicional, el principio de incertidum­ bre impone un límite que ningún progreso técnico podrá fran­ quear jamás: cuanto más sepamos acerca de algunas propiedades de las partículas, como su posición, menos podremos conocer otras, como su velocidad. Y aquello que ignoramos resulta im­ posible de controlar. La manipulación de objetos microscópicos se enfrenta así con un azar desenfrenado, con correlaciones im­ posibles desde un punto de vista clásico y con el colapso de la relación entre causa y efecto. Se sigue una conclusión ineludible: nos hallamos ante el fin inminente del progreso técnico. Hoy, sin embargo, los físicos controlan el mundo cuántico con gran precisión sin toparse con esta barrera. Codificamos infor­ mación en un solo átomo o en partículas elementales y, a pesar del principio de incertidumbre, la procesamos con suma preci­ sión, lo que en ocasiones da lugar a modos de funcionamiento imposibles de lograr con otros medios. Pero ¿cómo? Consideremos con detenimiento la unidad básica de infor­ mación tal y como suele concebirse: el bit. Para un físico, un bit es un sistema que puede prepararse en uno de dos estados diferentes, los cuales representan los valores lógicos «sí» y «no», «verdadero» y «falso», 0 y 1. En un ordenador digital, la pre­ sencia o ausencia de carga entre las placas de un condensador puede usarse a modo de bit. En un átomo, podemos emplear dos de los estados de un electrón: el 0 queda representado por el estado de energía mínima, o fundamental, y el 1, por algún estado excitado, de mayor energía. Para manipular esa información, el átomo se bombardea con pulsos de luz. Un pulso con la frecuencia, amplitud y duración correctos, denominado pulso p, cambia el estado del sistema de 0 a 1, y viceversa. Las frecuencias pueden ajustarse para manipular dos átomos en interacción, de forma que uno de ellos controle el comportamiento del otro. Ello nos proporciona todos los elementos que necesitamos para construir las puertas lógicas que actúan sobre uno y dos bits, los ladrillos básicos de los ordenadores clásicos, sin tener que vérnoslas con el principio de incertidumbre. Para entender qué ha hecho posible semejante hazaña en la carrera hacia la miniaturización, primero debemos acotar con claridad lo que el principio de incertidumbre dice y lo que no dice. En todo instante, el átomo —o cualquier otro sistema— posee ciertas propiedades, denominadas observables, que bajo ciertas circunstancias pueden ser «nítidas»; es decir, que pueden tomar un valor único y bien definido. El principio de incertidumbre no prohíbe la existencia de observables nítidos; se limita a afirmar que no todos los observables pueden ser nítidos a la vez. En el ejemplo del átomo, el observable bien definido es la energía: tanto en el estado 0 como en el 1, el electrón posee una energía carente de toda ambigüedad. Otros observables, como la posición o la ve­ locidad, no se encuentran bien definidos: el electrón se encuentra deslocalizado y su velocidad comprende un abanico de valores diferentes al mismo tiempo. Si intentásemos almacenar informa­ ción empleando la posición y la velocidad, nos toparíamos con un límite cuántico. Pero si, en vez de sumirnos en la desesperación, elegimos con cuidado los observables que vamos a usar como bits, hallaremos una salida. La situación recuerda al chiste en el que un paciente le dice al doctor: «Me duele cuando hago esto», y el médico responde «Pues no lo haga». Si algunas propiedades de las partículas no pueden determinarse con precisión, la solución consiste en no usarlas para guardar información y, en su lugar, emplear otras.

14  TEMAS 86

MÁS ALLÁ DE LOS BITS

Si nuestro objetivo consiste en construir un ordenador clásico, pero con átomos en vez de con transistores, todo lo que necesi­ tamos son unos observables nítidos. Pero la mecánica cuántica nos brinda más posibilidades: nos permite también usar aquellos observables que no se encuentran bien definidos. La posibilidad de que un observable pueda tomar más de un valor en un mo­ mento dado nos abre nuevos caminos. La energía, por ejemplo, suele corresponder a un observable nítido. Sin embargo, podemos convertirlo en uno que no lo sea. Además de encontrarse en el estado fundamental o en el exci­ tado, un átomo puede hallarse en una superposición de ambos, en los dos estados a la vez. El estado del electrón sigue estando perfectamente definido. Pero, en vez de corresponder a un 0 o a un 1, representa un 0 y un 1. Cualquier objeto físico exhibe esa propiedad, pero uno cu­ yos estados puedan prepararse, manipularse y medirse recibe el nombre de bit cuántico, o qubit. Los pulsos de luz pueden usarse no solo para provocar la transición de un valor definido de la energía a otro, sino para cambiar el valor de la energía de bien definido a no definido, y viceversa. Mientras que un pulso p intercambia los estados 0 y 1, un pulso de la misma frecuencia pero con la mitad de amplitud o duración, conocido como pulso p/2, convierte el estado del electrón en una super­ posición de 0 y 1. Si decidimos medir la energía del electrón en dicho estado, obtendremos, bien la energía del estado fundamental, o bien la del estado excitado, ambas con idéntica probabilidad. En tal caso, chocaremos con el azar. Pero, una vez más, podemos salvar el obstáculo y, al hacerlo, estaremos creando una nueva función. En lugar de medir la energía del electrón en esa superposición, dejaremos que permanezca en ese estado. Si, por ejemplo, co­ menzamos con un electrón en el estado 0, podemos enviar un pulso p/2 y, después, un segundo pulso p/2. Si ahora medimos la energía del electrón, comprobaremos que este se encuentra en el estado 1 en el cien por cien de los casos. El observable se torna nítido de nuevo. Para apreciar la relevancia del proceso descrito, considere­ mos la puerta lógica más básica que existe: un inversor, o puerta not. La información de salida es la negación de la de entrada: un 0 se convierte en un 1, y viceversa. Imagine que alguien le encarga la tarea de diseñar la «raíz cuadrada» de una puerta not: una que, al actuar dos veces sobre una entrada, la niegue. Por más que se afane, encontrará que dicho objetivo resulta inalcanzable en un mundo clásico. Sin embargo, dos pulsos p/2 ejercen exactamente dicho efecto. Los físicos experimentales han construido esta y otras puertas lógicas imposibles de lograr con medios clásicos empleando qubits formados por fotones, iones en trampas, átomos y espines nucleares [véase «Compu­ tación cuántica con iones», por Christopher R. Monroe y David J. Wineland; Investigación y Ciencia, octubre de 2008]. Estos constituyen los ladrillos básicos de los ordenadores cuánticos. MÁS ALLÁ DE LA COMPUTACIÓN CLÁSICA

Para resolver un problema, un ordenador —clásico o cuántico— procede de acuerdo con un algoritmo: un conjunto preciso de instrucciones. La eficiencia de un algoritmo se cuantifica según el ritmo al que aumenta el tiempo necesario para resolver el problema a medida que crece el tamaño de los datos de entrada. Con el algoritmo para multiplicar que todos aprendemos en la escuela, el tiempo que lleva multiplicar dos números de n cifras resulta proporcional al cuadrado del número de dígitos, n2. Sin

JEN CHRISTIANSEN

embargo, el algoritmo más rápido que co­ nocemos para realizar la operación contra­ ria (descomponer un número de n cifras en sus factores primos) exige un tiempo que aumenta de manera exponencial con el número de dígitos: aproximadamente, como 2n. Esto último se considera muy ineficiente. Gracias a las nuevas puertas lógicas, la mecánica cuántica ha posibilitado la apa­ rición de nuevos algoritmos. Uno de los ejemplos más impactantes nos lo propor­ ciona la factorización en números primos. En 1994, Peter Shor, de los Laboratorios Bell, halló un conjunto de instrucciones que permitían factorizar un número de n dígitos en un tiempo que solo crecía como n2. Para otros problemas, como el de bus­ car un elemento entre una larga lista de ellos, los algoritmos cuánticos superan también a los clásicos, aunque no de ma­ nera tan rotunda. En general, no todos los algoritmos cuánticos se muestran tan efi­ cientes; algunos, de hecho, no son más rá­ pidos que sus equivalentes clásicos [véase «Los límites de la computación cuántica», por Scott Aaronson; Investigación y Cien­ cia, mayo de 2008]. En todo caso, la primera aplicación práctica de un ordenador cuántico pro­ bablemente no consista en factorizar un número, sino en simular el compor­ tamiento de otros sistemas cuánticos, una tarea que un ordenador clásico solo puede llevar a cabo en un tiempo exponencial. En los próximos años tal vez veamos cómo las simulaciones cuánticas revolucionan varias líneas de investigación, desde el de­ sarrollo de medicamentos hasta el diseño de nuevos materiales [véase «Objetivos y oportunidades de la simulación cuán­ tica», por J. Ignacio Cirac y Peter Zoller, y «Mundos cuánticos simulados», por Oliver Morsch e Immanuel Bloch, en este mismo número]. Los escépticos de la computación cuántica hablan con frecuencia del arduo problema que supone encadenar puertas lógicas cuánticas. Aparte de las dificulta­ des de trabajar con un solo átomo o fotón, el obstáculo principal consiste en evitar que las correlaciones cuánticas se disipen a través de su interacción con el ambiente, lo que echa a perder el cálculo. Este pro­ ceso, conocido como decoherencia, suele considerarse un límite fundamental de la computación cuántica. No lo es. La misma teoría cuántica nos brinda métodos para corregir los errores provocados por la decoherencia. Si las fuentes de error satis­ facen ciertas condiciones que, de hecho, podrían lograrse con diseños ingeniosos

SOLUCIONES

Supuestos límites en computación cuántica En el pasadose ha señalado a la mecánica cuántica como el principal obstáculo en la progresiva miniaturización de la electrónica. Sin embargo, es en el límite cuántico donde los ordenadores logran una velocidad de cálculo inalcanzable en computación clásica. Aunque la construcción de un ordenador cuántico aún se halla plagada de sutilezas, hasta ahora ningún obstáculo se ha mostrado verdaderamente insalvable.

Principio de incertidumbre

Decoherencia

PROBLEMA: El principio de incertidumbre de Heisenberg limita la precisión de ciertas mediciones. Si conocemos con total exactitud la posición de una partícula, su velocidad tomará un abanico de valores; si determinamos su momento, la posición se tornará borrosa. Dichas variables no proporcionan un buen método para almacenar información.

PROBLEMA: Las partículas de un ordenador cuántico tienden a interaccionar con el entorno y disipar la información, lo que echa a perder el proceso de cálculo. Las interacciones disipan la información del sistema 0

Posición bien definida

1 01

Velocidad borrosa

00 10

10

11 Posición borrosa

Velocidad bien definida

SOLUCIÓN: Algunas mediciones cuánticas no se hallan sujetas a tales restricciones. Cuando la posición y la velocidad son inciertas, otras propiedades, como la energía, pueden estar bien definidas. Cuando la energía también adolece de indeterminaciones, otras variables pueden resultar adecuadas. Un electrón en un orbital atómico posee una energía bien definida

SOLUCIÓN: Existen procedimientos de corrección de errores que pueden compensar los efectos de la decoherencia durante el tiempo requerido para llevar un cálculo a término. La información puede repartirse entre varias partículas  a o codificarse en una configuración geométrica que resulte inmune al ruido  b . El almace-

a namiento

1

distribuido resiste la pérdida de datos

0 01

01 01

01 10

00 10

11

b El almace-

namiento geométrico preserva los datos

Fronteras de la física cuántica  15

L Ó G I C A C UÁ N T I C A

operaciones lógicas (como not) nos permi­ tan implementar las leyes de la física. Desde un punto de vista físico, tales operaciones deben ser tan simples que nos permitan Un ordenador clásicono solo puede efectuar tareas imposibles para uno clásico, saber, sin necesidad de una demostración, qué significa llevarlas a cabo. Y este último sino también llevar a cabo operaciones que trascienden la lógica clásica. En este juicio radica en nuestra comprensión del ejemplo, dos estados de un electrón en un átomo representan el 0 y el 1 de un bit. mundo físico. Al expandir nuestro abanico En ninguno de ellos posee el electrón una posición o una velocidad bien definidas: de procesos elementales con nuevas puertas su posición se esparce sobre una región esférica u ovalada, el orbital, en la que la lógicas, como la raíz cuadrada de not, la velocidad toma varios valores a la vez. Sin embargo, cada estado posee una energía física cuántica permite a los matemáticos diferente cuyo valor determina el estado del bit. asomarse a una frontera que antes creíamos confinada al mundo abstracto de las demos­ Puerta not ordinaria traciones. Ello les permitirá ver y demostrar Para realizar la operación lógica más sencilla, la negación (invertir el valor del bit de verdades que, de otro modo, permanecerían entrada), se envían al átomo pulsos de luz con la intensidad, frecuencia y duración adecuadas («pulsos p»). Si el electrón comienza en el estado 1, acabará en el 0, y viceversa. ocultas para siempre. Imaginemos que la solución a cierto problema matemático requiere conocer los factores primos de un número enorme, N. Hablamos de un número tan grande que, aunque empleásemos toda la materia del universo para construir un ordenador clási­ co y este calculase durante un tiempo igual π π 0 1 0 a la edad del cosmos, ello no bastaría para factorizarlo. Sin embargo, un ordenador cuántico podría resolver el problema con Raíz cuadrada de una puerta not rapidez. Cuando los matemáticos publica­ La computación cuántica permite fabricar una puerta lógica aparentemente imposible: la sen la solución del problema, tendrían que «raíz cuadrada» de la negación, una puerta que devuelve el estado contrario tras ser aplilimitarse a hacer constar los factores pri­ cada dos veces. Un pulso p/2, de menor duración o intensidad que un pulso p, hace que mos como si saliesen de la nada: «He aquí el electrón pase del estado 0 a una superposición de 0 y 1. Después, un segundo pulso los dos enteros cuyo producto es N», ya que devuelve el electrón al estado contrario al de partida. ninguna cantidad de papel en el universo bastaría para escribir los pasos que hicieron posible dar con dichos factores. En el ejemplo anterior, es un ordenador cuántico lo que proporciona la clave para resolver el problema. Sin esa factorización, que ningún procedimiento clásico realista π π 1 0 podría proporcionar jamás, el problema se­ 0/1 2 2 guiría sin resolver. Hoy, algunos matemáti­ cos consideran su trabajo como una ciencia empírica, donde los resultados proceden no solo del razonamiento puro, sino también (si los errores aleatorios apareciesen de forma independiente de experimentos realizados con sumo cuidado [véase «La muerte en cada qubit, o si las puertas lógicas gozasen de la precisión de la demostración», por John Horgan; Investigación y Ciencia, requerida), conseguiremos construir ordenadores cuánticos a diciembre de 1993]. La mecánica cuántica no solo supone un prueba de errores. Ello nos permitiría confiar en sus cálculos salto cualitativo en esta estrategia, sino que la hace obligatoria. durante períodos de tiempo tan largos como fuese necesario.

¿Puertas lógicas imposibles?

El ejemplo de las puertas lógicas «imposibles» ilustra algo sor­ prendente en la historia de la computación: al aumentar nuestro conocimiento de la realidad física, también mejora nuestra com­ prensión del mundo abstracto de la lógica y las matemáticas. Con toda seguridad, la mecánica cuántica transformará estas áreas, al igual que ha ocurrido ya con la física y la ingeniería. Ello se debe a que, aunque las verdades matemáticas son independientes de la física, nosotros cobramos conocimiento de ellas por medio de procesos físicos; por ello, cuáles de ellas po­ damos conocer dependerá de las leyes físicas. Una demostración matemática consta de un conjunto de operaciones lógicas. Por tanto, la demostrabilidad de un enunciado dependerá de qué

16  TEMAS 86

Si la mecánica cuántica nos abre las puertas a una nueva com­ putación, ¿por qué los físicos se preocupan de los límites que la teoría impone al progreso científico? La respuesta se encuentra en los orígenes de la teoría cuántica misma. Erwin Schrödinger, descubridor de una de las ecuaciones definitorias de la teoría, advirtió en cierta ocasión a su audiencia de que lo que iba a decir podría ser tomado como una locura. Comenzó a explicar que las distintas posibilidades que predice su famosa ecuación no son «alternativas, sino que todas ellas suceden a la vez». No faltan en la historia de la ciencia ejemplos de eminencias que, un buen día, perdieron el contacto con la realidad. Pero, en esta ocasión, lo que hizo nuestro premio nóbel de 1933 no debería considerarse como más que una modesta

JEN CHRISTIANSEN

MÁS ALLÁ DE LA MALA FILOSOFÍA MÁS ALLÁ DEL CONOCIMIENTO MATEMÁTICO

DOMINIO PÚBLICO

GRABADO DE FLAMMARION:Esta ilustración anónima, publicada por primera vez a finales del siglo xix en un texto sobre meteorología de Camille Flammarion, ilustra el deseo humano por el conocimiento. ¿Es posible traspasar la frontera de lo cotidiano y acceder a los engranajes del mundo?

reivindicación: que la ecuación que hubo de merecerle el premio proporcionaba una des­ cripción correcta de los hechos. Schrödinger sintió la necesidad de defenderse no por haber interpretado su ecuación de manera irracional, sino justo por lo contrario. ¿Cómo puede una afirmación tan inocente convertirse en algo descabellado? Simplemen­ te porque la mayor parte de la física había sucumbido a los encantos de la mala filosofía, a doctrinas que entorpecían la adquisición de nuevos conocimientos. La filosofía y la física fundamental se encuentran tan íntimamente relacionadas —a pesar del buen número de proclamas en contra por parte de ambos bandos— que, cuando la corriente filosófica de moda se desmoronó a principios del siglo xx, arrastró consigo a parte de la física teórica. Los culpables fueron doctrinas como el positivismo lógico («si no puede confirmarse mediante un experimento, carece de sentido»), el instrumentalismo («si las predicciones funcionan, ¿por qué preocuparnos de lo que nos ha llevado hasta ellas?») y el relativismo («no hay afirmaciones objetivamente ciertas o falsas, solo legitimadas o deslegitimadas por una determinada cultura»). El daño provino de lo que dichas doctrinas tenían en común: la negación del realismo, la postura filosófica de sentido común que afirma que existe un mundo físico y que el método científico permite extraer conocimiento de él. Fue en esa atmósfera en la que Niels Bohr desarrolló una in­ terpretación influyente de la mecánica cuántica, la cual negaba la posibilidad de dotar a los fenómenos de existencia objeti­ va. No estaba permitido hablar de los valores de una variable cuántica cuando no se la observaba (como, por ejemplo, en mitad de un cálculo cuántico). Los físicos que, en virtud de la naturaleza de su profesión, no podían contener sus deseos de preguntar, intentaron hacerlo lo menos posible. Y la mayoría de ellos instruyó a sus estudiantes para que se abstuvieran de formular ese tipo de cuestiones. La teoría más avanzada del área más fundamental de la ciencia fue interpretada como una estridente negación de los conceptos de verdad, explicación y realidad física. No toda la filosofía abandonó el realismo. Bertrand Russell y Karl Popper fueron dos notables excepciones. Tampoco to­ dos los físicos cejaron en su empeño. Albert Einstein y David Bohm resistieron la embestida. Hugh Everett propuso que las cantidades físicas tomaban de veras más de un valor al mismo tiempo (el mismo punto de vista que nosotros adoptamos). En su conjunto, sin embargo, los filósofos no mostraron interés por la realidad. Y aunque los físicos continuaron aplicando la teoría cuántica a otras áreas, la investigación acerca de la naturaleza de los procesos cuánticos en sí mismos perdió fuelle. La situación ha mejorado poco a poco durante las últimas décadas. Esta vez, ha sido la física la que ha ido encauzando a

la filosofía. El ser humano desea comprender la realidad con in­ dependencia de con cuánta vehemencia se niegue su existencia. Por fin, estamos cruzando los supuestos límites ante los que la mala filosofía de antaño nos enseñó a resignarnos. ¿Que sucedería si la teoría fuese rebatida, si alguna limitación aún más profunda frustrase nuestros intentos de construir un ordenador cuántico cada vez mayor? Nos encantaría ver algo así; sin duda, es la posibilidad más interesante de todas. En tal caso, no solo deberíamos revisar los cimientos de la física moderna, sino que nos hallaríamos ante las puertas de un tipo de computa­ ción aún más fascinante. Si algo detiene algún día a la mecánica cuántica, tendremos a nuestra disposición una teoría más allá de la física cuántica, a la que seguirán ordenadores más allá de los ordenadores cuánticos. De una forma o de otra, el progreso y el conocimiento jamás conocerán límites. Artículo publicado en Investigación y Ciencia, noviembre de 2012

LOS AUTORES

David Deutsch,catedrático de física de la Universidad de Oxford, es uno de los padres de la teoría cuántica de la computación. Fue el primero en concebir una máquina cuántica universal, una versión cuántica de la máquina universal de Turing. Artur Ekertes catedrático de física cuántica de la Universidad de Oxford y director del Centro de Tecnologías Cuánticas de la Universidad Nacional de Singapur. Ha destacado por sus investigaciones pioneras en criptografía cuántica. PARA SABER MÁS

The physics of quantum information: Quantum cryptography, quantum teleportation, quantum computation.Dirk Bouwmeester, Arthur Ekert y Anton Zeilinger. Springer, 2000. La estructura de la realidad.David Deutsch. Anagrama, 2002. Quanta ciphers and computers.Arthur Ekert en The New Physics, dirigido por Gordon Fraser. Cambridge University Press, 2006. El comienzo del infinito: Explicaciones que transforman el mundo.David Deutsch. Ediciones de Intervención Cultural, 2012. The emergent multiverse: Quantum theory according to the Everett interpretation.David Wallace. Oxford University Press, 2012.

Fronteras de la física cuántica  17

TEORÍ A CUÁNTIC A Y RE ALIDAD

Bayesianismo cuántico Una nueva interpretación de la teoría cuántica aspira a eliminar las paradojas que parecen plagar el mundo microscópico. ¿El precio? Admitir que la información cuántica solo existe en nuestra imaginación Hans Christian von Baeyer

L

a mecánica cuántica predice a la perfec­ ción el comportamiento de la materia a múltiples escalas. Tanto que, de hecho, bien puede considerarse la teoría física más exitosa de todos los tiempos. Sin em­ bargo, es también la más extraña. En el mundo cuántico, las partículas aparentan encontrarse en dos sitios a la vez, la información parece viajar más rápido que la luz y hay gatos que están vivos y muertos al mismo tiempo. Los físicos han luchado contra estas presuntas paradojas durante más de nueve décadas. Al contrario de lo que ocurre con la teoría de la evolución o con la cosmología, cuyas tesis principales han permeado en el bagaje intelectual de la población, la teoría cuántica es considerada una extraña anomalía: un poderoso libro de recetas para construir todo tipo de artilugios, pero poco más. La profunda confusión que envuelve al significado de la mecánica cuántica continúa alimentando la sensación de que, a pesar de todas las lecciones que la teoría parece querer enseñarnos sobre el mundo, estas carecen de relevancia para la vida diaria y resultan demasiado estrambóticas como para darles importancia.

18  TEMAS 86

Fronteras de la física cuántica  19

EL CUANTO IRREAL

La idea de que la función de onda no es real se remonta a los años treinta del siglo pasado y a los escritos de Niels Bohr. El físico danés la consideraba parte del formalismo «puramente simbó­ lico» de la mecánica cuántica: una herramienta para calcular, pero nada más. El bayesianismo cuántico constituye el primer modelo que proporciona un armazón matemático a la asevera­ ción de Bohr. Para ello se sirve de la estadística bayesiana, una disciplina de más de 200 años que define la probabilidad en términos de grados de creencia subjetiva. La estadística bayesia­ na también nos provee de reglas matemáticas formales para ir actualizando dichos grados de creencia a medida que adquirimos nueva información. Los partidarios del bayesianismo cuántico sostienen que, si interpretamos la función de onda en términos

de creencias subjetivas que se van actualizando de acuerdo con las reglas de la inferencia bayesiana, las misteriosas paradojas de la mecánica cuántica desaparecen. Consideremos de nuevo un electrón. Cada vez que efectua­ mos un experimento para detectarlo, lo encontramos en un lugar concreto. Sin embargo, cuando no lo miramos, la función de onda del electrón se esparce, lo que parece indicar que el electrón está en varios sitios a la vez. Pero si, algo más tarde volvemos a medir su posición, lo hallaremos de nuevo en un lugar preciso. La interpretación usual de la mecánica cuántica nos dice que la observación provoca que la función de onda «colapse» hacia un solo estado (el asociado al resultado del experimento). Debido a que el colapso de la función de onda ocurre de manera simultánea en todos los puntos, parece violar el prin­ cipio de localidad, la idea según la cual todos los cambios que experimenta un objeto deben proceder de la interacción entre dicho objeto y su entorno más inmediato. De hecho, lo anterior nos lleva a algunos de los famosos rompecabezas que Einstein calificó de «espeluznante acción a distancia». Desde el nacimien­ to de la mecánica cuántica, los físicos han advertido en el colapso de la función de onda una propiedad paradójica y alarmante. Sus incómodas implicaciones han llevado a proponer todo tipo de versiones alternativas, con resultados muy diversos. El bayesianismo cuántico nos dice que tales paradojas no existen. El colapso de la función de onda solo reflejaría lo que ocurre cuando un observador, de manera súbita y discontinua, actualiza las probabilidades que asigna a los diferentes sucesos. Algo muy similar a lo que hace un oncólogo que reconsidera su diagnóstico tras estudiar un nuevo TAC. El sistema cuántico no ha sufrido modificación alguna. Lo que ha cambiado es la función de onda elegida por el observador para dar cuenta de sus expectativas. Podemos aplicar el mismo razonamiento a la famosa parado­ ja concebida por Erwin Schrödinger en 1935. Imaginemos una caja sellada herméticamente, en cuyo interior hay un gato vivo, un átomo radiactivo y un vial lleno de gas venenoso. Dicho áto­ mo es tal que, según las reglas de la mecánica cuántica, cuenta con una probabilidad del 50 por ciento de desintegrarse en el plazo de una hora. Si eso ocurre, la desintegración activará un martillo, el cual romperá la botella, liberará el veneno y matará al gato. En caso contrario, el animal sobrevivirá. Supongamos ahora que realizamos el experimento, pero sin mirar dentro de la caja. La teoría cuántica tradicional nos dice que, pasada una hora, la función de onda del átomo describe una superposición de dos estados, desintegrado y no desinte­ grado. Pero, al no haber observado lo que ocurre en la caja, esa superposición de estados va más allá: afecta al martillo y al vial con el veneno. Y, lo que es aún más grotesco, también el gato se encuentra en una superposición de dos estados, vivo y muerto al mismo tiempo. El bayesianismo cuántico resuelve la cuestión al postular que la función de onda describe una propiedad subjetiva del

EN SÍNTESIS

La interpretación de la teoría cuánticasigue suscitando debates. Una propuesta reciente, el bayesianismo cuántico, combina la mecánica cuántica con el enfoque bayesiano de la teoría de la probabilidad.

20  TEMAS 86

El bayesianismo cuánticoreinterpreta uno de los objetos fundamentales de la teoría cuántica: la función de onda. Esta entidad matemática es la que permite calcular la probabilidad de obtener un resultado u otro en un experimento.

La nueva propuestasostiene que la función de onda no se halla asociada a ninguna realidad objetiva. En su lugar, reflejaría el estado mental subjetivo del observador, o sus expectativas sobre el mundo.

PÁGINA ANTERIOR: CALEB CHARLAND

En 2001, un grupo de investigadores comenzó a desarrollar un modelo que, o bien elimina las paradojas cuánticas, o bien les da una forma menos preocupante. Dicha propuesta, conocida como bayesianismo cuántico (o QBism, a partir de sus iniciales en inglés), se basa en reinterpretar por completo la entidad matemática de la que parten todas las excentricidades cuánticas: la función de onda. Según el punto de vista habitual, un objeto como el electrón queda caracterizado por su función de onda, una expresión matemática que codifica todas las propiedades medibles de la partícula. Si deseamos predecir su comportamiento, deberemos calcular cómo evoluciona dicha función de onda en el tiempo. El resultado del cálculo servirá para determinar la probabilidad de que, el realizar un experimento, observemos una propiedad u otra del electrón; por ejemplo, que se encuentre en cierto lu­ gar. Pero, si damos por sentado que la función de onda es real, comenzarán a aparecer problemas. El bayesianismo cuántico combina la mecánica cuántica con la teoría de la probabilidad. Postula que la función de onda no está asociada a una realidad objetiva; en su lugar, debe inter­ pretarse como un «manual de instrucciones» que nos ayuda a tomar decisiones inteligentes sobre el mundo que nos rodea. En concreto, un observador empleará la función de onda para asig­ nar un valor a su creencia personal de que un sistema cuántico posea una propiedad u otra; en el proceso, deberá reconocer que sus propias acciones afectarán al sistema de un modo inhe­ rentemente incierto. Otro observador usará una función de onda que describirá el mundo tal y como él lo ve, por lo que podrá llegar a conclusiones completamente distintas sobre el mismo sistema cuántico. Un sistema (un suceso) puede tener tantas funciones de onda como observadores. Una vez que estos se hayan comunicado entre sí y hayan modificado sus respectivas funciones de onda para incorporar la información adquirida, emergerá una visión coherente del mundo. Vista así, la función de onda bien podría considerarse «la abstracción más poderosa jamás concebida», en palabras de N. David Mermin, físico teórico de la Universidad Cornell y uno de los recientes conversos al bayesianismo cuántico.

observador, no el estado del gato. La teo­ ría nos dice que, por supuesto, el gato está vivo o muerto, no las dos cosas a la vez. Es cierto que la función de onda nos habla de una superposición de dos estados, pero estos solo se refieren a las expectativas del observador. Afirmar que el gato está vivo y muerto a la vez vendría a ser como decir que nuestro equipo de fútbol favorito se halla en una superposi­ ción de «ganando» y «perdiendo» hasta que decidimos mirar el marcador. Sería un sinsentido, un delirio megalómano, pensar que nuestro estado mental da forma al mundo. Los proponentes del bayesianismo cuántico esperan que, al eliminar todas esas paradojas, los físicos puedan cen­ trarse en las propiedades verdaderamen­ te fundamentales de la teoría cuántica ­—­sean­estas las que sean—. En opinión de Mermin, ello evitaría que perdiesen el tiempo «haciéndose preguntas absurdas sobre problemas imaginarios».

E S TA D O S C UÁ N T I C O S Y C O N O C I M I E N T O

¿Qué describe la función de onda? Para analizar las diferenciasentre el bayesianismo cuántico y la interpretación tradicional, conviene considerar el famoso experimento mental del gato de Schrödinger. En el interior de una caja hay un gato y una ampolla con veneno. Cierto suceso cuántico puede ocurrir (o no) con una probabilidad del 50 por ciento, en cuyo caso matará (o no) al animal. Según la interpretación usual, mientras no se observe el interior de la caja, el gato se hallará en una superposición de los estados «vivo» (aquí representado por el símbolo (|) y «muerto» (|). El bayesianismo cuántico, en cambio, nos dice que la función de onda no refleja más que el estado mental del observador: el gato está vivo o muerto; la superposición solo existe en la mente del experimentador durante el tiempo en que este desconoce el estado del animal.

Bayesianismo cuántico: La función de onda solo describe el estado mental del observador. El gato se encuentra, o bien vivo, o bien muerto.

ANNA-KAISA JORMANAINEN

EL ALBOROTADOR

Interpretación El bayesianismo cuántico nació en un ar­ estándar: tículo corto publicado en enero de 2002 La función de que llevaba por título «Probabilidades onda describe cuánticas como probabilidades bayesia­ un gato vivo nas». Fue escrito por los expertos en in­ y muerto a la vez. formación cuántica Carlton M. Caves, de la Universidad de Nuevo México, Christo­ pher A. Fuchs, por entonces en los La­ boratorios Bell, y Rüdiger Schack, de la Universidad de Londres. La diversidad de sus afiliaciones académicas (un departa­ mento de física, otro de matemáticas y un laboratorio industrial) refleja el carácter interdisciplinar de su trabajo. Desde entonces, Fuchs se ha trasladado al Instituto Perimeter, en Canadá, y ha asumido el cargo de portavoz del bayesianismo cuántico. Caracterizado por un irreverente sentido del humor, quienes le conocen no se sorprenden al ver que un artículo suyo comienza con las palabras: «En este artículo trato de causar algunos problemas cordiales». Su estilo se basa en la convicción de que la ciencia es una actividad comunal y de que los avances solo llegan tras enérgicos debates intelectuales. Muy activo, viaja con frecuencia por todo el mundo organizando conferencias, presidiendo comités e impartiendo clases. Ese espíritu le ha convertido en pionero de un nuevo estilo de literatura científica. En 2011, Cambridge University Press publicó su correspondencia con científicos de todo el mundo en un tomo de más de 600 páginas titulado Coming of age with quantum information («Llegar a la mayoría de edad con la información cuántica»). Al tiempo que relata los orígenes del bayesianismo cuántico, el libro deja entrever que los físicos teóricos son per­ sonas reales y de fuerte carácter, muy distintas de las criaturas bidimensionales que nos muestra Wikipedia. La obra también documenta que, al contrario de lo que ocurre con la mayoría de los científicos, Fuchs se halla convencido de la importancia de la filosofía. No solo por la manera en que esta influye en la

física, sino también por el modo en que evoluciona —o debería— gracias a los conceptos físicos. PROBABILIDADES POSIBLES

Ese vínculo con la filosofía se hace patente cuando advertimos que el bayesianismo cuántico nos obliga a reconsiderar la noción de probabilidad. En cierto sentido, la probabilidad se parece al tiempo: sabemos lo que es, hasta que se nos pide que lo defina­ mos. Al arrojar una moneda al aire, nadie ignora que la expre­ sión «una probabilidad del 50 por ciento de obtener una cara» guarda alguna relación con lo que ocurrirá cuando efectuemos 100 lanzamientos. Sin embargo, no queda muy claro de cuánto nos sirve dicha intuición a la hora de definir el significado de una proposición como «la probabilidad de que llueva esta tarde es del 60 por ciento», o el hecho de que, antes de la operación contra Bin Laden, Barack Obama estimase las probabilidades de éxito frente a las de fracaso en un 55/45. A lo largo de los últimos tres siglos se han desarrollado dos no­ ciones de probabilidad, cada una de ellas con numerosas varian­ tes. La opción moderna y ortodoxa, la probabilidad frecuentista, define la probabilidad de un suceso como su frecuencia relativa en una serie de situaciones idénticas. Ese número pretende ser objetivo, verificable y aplicable a los experimentos científicos. El

Fronteras de la física cuántica  21

F I L O S O F Í A C UÁ N T I C A

Cuatro interpretaciones de la mecánica cuántica ¿Qué sucede realmente en el mundo cuántico?Con el paso de los años, los físicos han propuesto más de una docena de interpretaciones muy distintas del formalismo matemático que rige la mecánica cuántica. Estas cuatro se encuentran entre las más populares. INTERPRETACIÓN DE COPENHAGUE: Desarro-

MUCHOS MUNDOS: La forma más directa de evi-

llada principalmente por Werner Heisenberg y Niels Bohr, proporciona la interpretación ortodoxa de la mecánica cuántica. Las propiedades medibles de un sistema quedan codificadas en su estado cuántico. Matemáticamente, este puede representarse con una matriz o bien mediante una función de onda (un «mapa de posibilidades»). La conexión con el experimento llega de la mano de la regla de Born, la cual prescribe cómo obtener probabilidades medibles a partir del estado cuántico. Cuando se produce una medida, la teoría postula que el estado cuántico «colapsa» hacia un nuevo estado (uno asociado con el resultado obtenido en el experimento). Un colapso instantáneo, sin embargo, parece indicar que ciertos efectos se propagarían más rápido que la luz.

tar el problema asociado al colapso de la función de onda consiste en eliminarlo. La interpretación de muchos mundos postula que el estado cuántico del universo se desdobla una y otra vez de forma suave y predecible. Cuando se realiza un experimento para averiguar qué camino ha tomado un electrón, por ejemplo, ese estado cuántico no «colapsa» hacia una de las múltiples posibilidades; en su lugar, el mundo se dividiría en varias ramas. Nosotros nos encontraríamos en una de ellas y seríamos completamente ignorantes de las demás. Los principales escollos de esta interpretación —aparte del descomunal esfuerzo imaginativo que exige— residen en su fracaso a la hora de decidir qué «mediciones» provocan esas ramificaciones, así como en las dificultades para justificar la regla de Born.

ONDA GUÍA: Varios físicos —incluido Albert

Einstein durante unos años— se han propuesto reescribir el aparato matemático de la mecánica cuántica para que incluya un campo físico real que guiaría el movimiento de la partícula. Sin embargo, este formalismo se torna problemático cuando intenta describir la dinámica de varias partículas. Su principal dificultad reside en el hecho de que la onda-guía ejerce una acción a distancia, lo que implica que los efectos físicos se transmiten de forma instantánea a regiones muy alejadas.

ejemplo típico nos lo proporciona el lanzamiento de una moneda. Si lo repetimos un gran número de veces, en casi la mitad de ellas saldrá cara, por lo que la probabilidad de obtener una cara será aproximadamente igual a 1/2. (Para evitar la ambigüedad que conllevan las expresiones como «un gran número de veces», «casi» o «aproximadamente», la definición se asocia al límite en el que realizamos un número infinito de lanzamientos, en cuyo caso la probabilidad toma exactamente el valor 1/2. Por desgracia, dicho valor resulta inverificable, con lo que pierde su pretensión de objetividad.) Al aplicar la misma definición al pronóstico me­ teorológico, tal vez podamos contar sucesos climáticos, sean estos reales o simulados. Pero, en el caso de la corazonada de Obama, la interpretación frecuentista es inútil: la operación contra Bin Laden solo podía ejecutarse una vez. El punto de vista más antiguo, la probabilidad bayesiana, debe su nombre a Thomas Bayes, clérigo del siglo xviii cu­ yas ideas serían más tarde perfeccionadas por Pierre-Simon Laplace. Al contrario que la interpretación frecuentista, la probabilidad bayesiana es subjetiva por definición: propor­ ciona una medida del grado de confianza que depositamos en un suceso. Puede entenderse como una medida numérica de cuánto estaríamos dispuestos a apostar a que dicho suceso tendrá lugar. En casos sencillos, como el lanzamiento de una moneda, las probabilidades frecuentista y bayesiana coinci­ den. Sin embargo, cuando se trata de predecir el tiempo o el

22  TEMAS 86

COLAPSO ESPONTÁNEO: En lugar de eliminarlo,

estas teorías postulan que el colapso de la función de onda sucede de manera natural. Aunque puede afectar de manera espontánea a cualquier sistema cuántico, su efecto resulta más notorio en la interacción con los objetos macroscópicos. Sin embargo, la teoría necesita incorporar un mecanismo nuevo que dé cuenta del colapso de la función de onda. Y, mientras no pueda verificarse experimentalmente, dicho mecanismo constituye un axioma adicional tan misterioso como el del colapso inducido por el observador.

resultado de una operación militar, el enfoque bayesiano per­ mite combinar la información estadística cuantitativa con las estimaciones intuitivas basadas en nuestra experiencia previa [véase «Thomas Bayes y las sutilezas de la estadística», por Marc Dressler; Investigación y Ciencia, julio de 2013]. La interpretación bayesiana puede manejar con facilidad los sucesos que solo ocurren una vez (sobre los cuales la definición frecuentista no puede decir nada) y evita las dificultades de los infinitos. Sin embargo, su verdadero poder es otro. En ella, la asignación de probabilidades puede cambiar, ya que un grado de confianza no es algo fijo. Un meteorólogo frecuentista no tendrá problemas en predecir el tiempo en una región cuyo clima ha permanecido estable durante años. Sin embargo, si sobreviniese un cambio brusco, como una sequía inusitada, un meteorólogo bayesiano se encontraría mejor equipado para dar cuenta de la nueva información y del estado del tiempo. El enfoque bayesiano descansa sobre una fórmula, la regla de Bayes, la cual nos permite calcular el efecto que ejerce la nueva información en la estimación de las probabilidades. Si, por ejemplo, se sospecha que un paciente tiene cáncer, el oncólogo comenzará por asignar una probabilidad inicial a la enfermedad, llamada probabilidad a priori. Esta se basará en datos como la incidencia de ese tipo de cáncer en la población, el historial clínico del individuo y otros factores. Sin embargo, cuando reciba los resultados de las primeras pruebas, el médico

actualizará dicha probabilidad inicial; para ello, usará el teo­ rema de Bayes. Ese nuevo número reflejará, ni más ni menos, las convicciones personales del facultativo. La mayoría de los físicos optan por el enfoque frecuentis­ ta porque han sido educados para rehuir la subjetividad. Pero cuando se trata de efectuar predicciones, el punto de vista ba­ yesiano es el imperante, explica Marcus Appleby, matemático de la Universidad de Londres. Este investigador concede a Fuchs­ el mérito de haberle convencido de la importancia de las pro­ babilidades bayesianas. Por más que el enfoque frecuentista nos diga que los resulta­ dos pasados no influyen en las probabilidades futuras, Appleby señala que nadie en sus cabales aceptaría jugar a una lotería si se enterarse de que, durante los últimos diez años, el premio ha venido recayendo siempre sobre la misma persona. En la práctica, de hecho, nadie ignoraría los resultados de las últimas semanas. El sentido común nos empuja a usar el punto de vista bayesiano: actualizar nuestras creencias y actuar en consecuen­ cia basándonos en los indicios previos de los que disponemos. REESCRIBIR LAS LEYES CUÁNTICAS

Aunque el bayesianismo cuántico niega la realidad de la función de onda, Schack explica que no se trata de una teoría nihilis­ ta que niegue la realidad: según ella, el sistema cuántico que examina un observador es muy real. Mermin opina que, desde un punto de vista filosófico, el bayesianismo cuántico sugiere una división entre el mundo en el que vive el observador y la experiencia que este tiene de ese mundo. Esta última quedaría descrita por la función de onda. Un hallazgo reciente de Fuchs podría ayudar a cimentar el bayesianismo cuántico como una interpretación válida de la probabilidad y de la mecánica cuántica. El descubrimiento guar­ da relación con la regla de Born, la fórmula empírica que nos dice cómo calcular la probabilidad de un suceso a partir de la función de onda. (En términos técnicos, dicha regla dicta que la probabilidad de encontrar un sistema en el estado X viene dada por el cuadrado del módulo de la función de onda asignada a X.) Fuchs ha demostrado que este principio puede reescribirse casi por completo usando el lenguaje de la teoría de la proba­ bilidad; es decir, sin hacer referencia a la función de onda. La regla de Born constituye el nexo entre la función de onda y los resultados experimentales. Ahora, Fuchs ha demostrado que los resultados de los experimentos pueden predecirse sin usar más que probabilidades. Para Fuchs, la nueva expresión de la regla de Born propor­ ciona otro indicio de que la función de onda no constituye más que una herramienta que permite a un observador calcular sus expectativas, o probabilidades, sobre el mundo cuántico que lo rodea. «Desde este punto de vista, la regla de Born supone una ampliación de la inferencia bayesiana; no en el sentido de proporcionar probabilidades más objetivas, sino en el de aportar reglas adicionales para guiar el comportamiento de un agente cuando interacciona con el mundo físico», explica. La nueva ecuación goza de una simplicidad sorprendente. Excepto por un pequeño detalle, tiene el mismo aspecto que la ley de la probabilidad total: el requerimiento de que la suma de las probabilidades asociadas a todos los resultados posibles sea 1. (En el caso de una moneda, la probabilidad de obtener cara es 1/2 y la de obtener cruz también, de modo que su suma vale 1.) El detalle inusual —y la única referencia a la mecánica cuántica en este formalismo— es que en dicha ecuación apa­ rece la dimensión d del sistema cuántico. Aquí, el concepto no

hace referencia a las dimensiones espaciales, como la longitud o el grosor, sino al número de estados que puede ocupar el sistema cuántico. Por ejemplo, un electrón cuyo espín puede apuntar hacia arriba o hacia abajo constituiría un sistema de dimensión d = 2. Fuchs señala que, del mismo modo en que la masa de un objeto determina sus propiedades gravitatorias e inerciales, la dimensión cuántica d supondría una propiedad intrínseca e irreducible que caracterizaría la «naturaleza cuántica» de un sistema. Aunque d se halla implícito en todos los cálculos de la mecánica cuántica, el hecho de que aparezca de forma explicita en una ecuación fundamental es algo nuevo. Fuchs espera que esta nueva formulación de la regla de Born allane el camino para entender la mecánica cuántica desde otra perspectiva: «Juego con la idea de que la regla de Born constituya el axioma más importante de toda la teoría cuántica», confiesa. UNA NUEVA REALIDAD

Uno de los defectos que se achacan al bayesianismo cuántico es su incapacidad para explicar los fenómenos macroscópicos complejos en términos de otros microscópicos y más primiti­ vos, como hace la mecánica cuántica tradicional. Ese problema podría solucionarse si el bayesianismo cuántico lograse su de­ clarada intención de reconstruir la teoría estándar a partir de una serie de axiomas nuevos y convincentes. Dicha meta está aún por alcanzar. Sin embargo, el bayesia­ nismo cuántico ofrece una nueva imagen de la realidad física. Al interpretar la función de onda en términos de expectativas personales, proporciona un significado matemático preciso a la afirmación de Bohr de que la tarea de la física no consiste en averiguar cómo es la naturaleza, sino en investigar lo que podemos decir sobre ella. Los partidarios del bayesianismo cuán­ tico sostienen que, hasta que no realizamos un experimento, el resultado simplemente no existe. Antes de medir la posición o la velocidad de un electrón, este no posee ninguno de esos atributos. Es el experimento lo que hace emerger dicha propiedad. En palabras de Fuchs: «Con cada medida realizada por un experimentador a su libre albedrío, el mundo se va perfilando poco a poco, pues parti­ cipa en una especie de alumbramiento». De alguna manera, ello nos convierte en agentes activos en la continua creación del universo. Artículo publicado en Investigación y Ciencia, agosto de 2013

EL AUTOR

Hans Christian von Baeyeres físico teórico de partículas y profesor emérito en el Colegio Universitario William and Mary, en Virginia, donde ha enseñado durante 38 años. Autor de seis libros de divulgación, sus obras le han valido varios premios; entre ellos, el del Instituto Americano de Física y el de la Asociación Americana para el Avance de la Ciencia. PARA SABER MÁS

Quantum probabilities as Bayesian probabilities.Carlton M. Caves, Christopher A. Fuchs y Rüdiger Schack en Physical Review A, vol. 65, art. n.o 022305, enero de 2002. QBism, the perimeter of quantum Bayesianism.Christopher A. Fuchs, marzo de 2010. Disponible en arxiv.org/abs/1003.5209 Interview with a quantum Bayesian.Christopher A. Fuchs, julio de 2012. Disponible en arxiv.org/abs/1207.2141 Quantum mechanics: Fixing the shifty split.N. David Mermin en Physics Today, vol. 65, ­n.o 7, pág. 8, julio de 2012.

Fronteras de la física cuántica  23

TE O RÍA C UÁ NTIC A Y R E A LIDA D

El cuanto no cuántico Los físicos sostienen a menudo que la naturaleza presenta un aspecto puntillista a las escalas más pequeñas. Pero una mirada más atenta revela una realidad continua, más analógica que digital David Tong

EN SÍNTESIS

La mecánica cuánticaparece insinuar una versión discreta del mundo. No obstante, sus ecuaciones fundamentales se escriben en términos de cantidades continuas. Las propiedades discretas solo aparecen como una propiedad emergente de dichas ecuaciones.

24  TEMAS 86

Algunos expertos opinan que,si se escrutase con mayor detalle, esa apariencia de continuidad revelaría una estructura discreta subyacente. Pero esta idea parece contradecir al menos un aspecto fundamental de la naturaleza: la quiralidad del modelo estándar.

A

finales del siglo xix, el célebre mate ático alemán Leopold Kronecker prom nunció la siguiente máxima: «Dios creó los enteros, el resto es obra del ser humano». Kronecker se hallaba convencido de que los números enteros cumplían una función clave en matemáticas. Hoy en día la cita adquiere un cariz distinto. Se mezcla con una creencia que, durante las últimas décadas, se ha hecho más y más popular: que la naturaleza, en su nivel más profundo, es discreta; que los ladrillos fundamentales de la materia y el espaciotiempo pueden contarse de uno en uno. Si bien esta idea se remonta a los antiguos atomistas griegos, en la era digital en la que vivimos cobra un peso adicional. Numerosos físicos han llegado a imaginar el mundo como un vasto ordenador, descrito por bits de información y en el que las leyes físicas corresponderían a un algoritmo, como la verde lluvia digital que contemplaba Neo al final de la película Matrix. ¿Operan de ese modo las leyes de la naturaleza? Aunque parezca ir en contra del espíritu de nuestro tiempo, somos muchos quienes pensamos que, en última instancia, la realidad es analógica. Desde este punto de vista, el universo constituiría un verdadero continuum: con independencia de cuántos aumentos empleásemos para observarlo, jamás veríamos ladrillos indivisibles. Las cantidades físicas no vendrían dadas por números enteros, sino reales, con una infinita cantidad de dígitos tras la coma decimal. Muy a pesar de los entusiastas de Matrix, las leyes físicas conocidas exhiben propiedades que nadie sabe cómo simular en un ordenador, no importa de cuánta memoria disponga este. Y, si deseamos formular una teoría unificada de la naturaleza, entender este aspecto de las leyes físicas reviste una importancia fundamental.

KENN BROWN, MONDOLITHIC STUDIOS

UN ANTIGUO ENIGMA

El debate entre digital o analógico data de muy antiguo. Los atomistas griegos concebían una realidad discreta, pero otros filósofos de la Antigüedad, como Aristóteles, la consideraban continua. Entre los siglos xvii y xviii, la época de Isaac Newton, los filósofos naturales deliberaban sobre la teoría corpuscular y la ondulatoria. En tiempos de Kronecker, atomistas de la talla de John Dalton, James Clerck Maxwell y Ludwig Boltzmann contribuyeron a derivar las leyes de la química, la termodinámica y los gases, pero otros seguían sin estar convencidos. Wilhelm Ostwald, receptor del Nobel de química en 1909, subrayó que las leyes de la termodinámica solo se referían a cantidades continuas, como la energía. De igual modo, la teoría de Maxwell describía los campos eléctrico y magnético como entidades continuas. Y, en 1882, Max Planck, uno de los padres de la mecánica cuántica, concluía un artículo con estas palabras: «A pesar de los innumerables éxitos que la teoría atómica ha cosechado hasta ahora, antes o después deberemos abandonarla en favor de la suposición de una materia continua». Por aquel entonces, uno de los argumentos más convincentes en defensa de una naturaleza continua se basaba en la aparente arbitrariedad de las cantidades discretas. ¿Cuántos planetas hay en el sistema solar? En la escuela aprendimos que eran nueve, pero en 2006 los astrónomos excluyeron a Plutón y lo relegaron a la categoría de los planetas enanos. Si incorporásemos todos estos, obtendríamos trece. Por tanto, la única respuesta cabal a la pregunta de cuántos planetas hay en el sistema solar es que depende de cómo elijamos contarlos. El cinturón de Kuiper, más allá de Neptuno, incluye innumerables objetos con tamaños que

abarcan desde un micrómetro hasta varios kilómetros. La única manera de fijar el número de planetas pasa por establecer una distinción arbitraria entre qué consideramos un planeta enano, una roca o un trozo de hielo. Pero la mecánica cuántica transformó ese debate para siempre. Si bien la definición de planeta tal vez sea arbitraria, no ocurre lo mismo con los átomos o las partículas fundamentales. Los números enteros que empleamos para etiquetar los elementos químicos (que, como sabemos hoy, indican la cantidad de protones en el núcleo) no dependen de ningún convenio. No importa qué sorpresas nos depare la física del futuro: siempre estaré dispuesto a apostar que jamás observaremos un elemento con √500 protones que se sitúe entre el titanio y el vanadio. Los números enteros han venido a la física para quedarse. Otro ejemplo lo hallamos en espectroscopía, el análisis de la luz que emite y absorbe la materia. Un átomo de cierta especie solo radia luz de determinados colores, lo cual sirve a modo de huella dactilar para identificar cada elemento. Pero, muy al contrario de lo que sucede con las huellas dactilares de los humanos, las improntas de los elementos atómicos obedecen reglas matemáticas muy estrictas, las cuales se formulan en términos de números enteros. Los primeros intentos de entender la teoría cuántica, en particular los realizados por Niels Bohr, otorgaron a los enteros una posición privilegiada. ENTEROS EMERGENTES

Pero Bohr no pronunció la última palabra. En 1925, Erwin Schrödinger formuló una versión de la teoría basada en ondas. La ecuación que describe la propagación de esas ondas solo posee cantidades continuas, ningún entero. A pesar de ello, cuando resolvemos la ecuación de Schrödinger para un sistema concreto, la magia de las matemáticas hace acto de presencia. En el átomo de hidrógeno, por ejemplo, el electrón orbita alrededor del protón a distancias muy determinadas. Esos orbitales fijos se traducen después en el espectro del átomo de hidrógeno, que de esta manera se asemeja al tubo de un órgano, que solo emite una serie discreta de tonos a pesar de que el movimiento del aire es continuo. Al menos en lo que se refiere a los átomos, la lección no deja lugar a dudas: Dios no creó los números enteros, sino los reales; el resto es obra de la ecuación de Schrödinger. Al contrario de lo que pensaba Bohr, los enteros no constituyen un requisito de la teoría, sino un resultado: nos brindan un buen ejemplo de lo que los físicos llamamos cantidades emergentes. Así visto, el término mecánica cuántica no parece muy apropiado: en lo más profundo, la teoría no es cuántica. En los sistemas como el átomo de hidrógeno, los procesos descritos por la teoría forjan cantidades discretas a partir de una base continua. Pero, más sorprendente aún si cabe, la existencia de átomos o partículas no constituye ningún requisito esencial de nuestras teorías. Los físicos explican de manera rutinaria que los ladrillos fundamentales de la materia se corresponden con ciertas partículas elementales, como electrones o quarks. Eso no es cierto. Los componentes básicos de nuestras teorías no son las partículas, sino los campos: entidades continuas semejantes a un fluido que impregnan todo el espacio. Quizá los campos eléctricos y magnéticos nos resulten más familiares, pero existe también el campo del electrón, el de los quarks, el de la partícula de Higgs y muchos otros. Los objetos que denominamos partículas «fundamentales» no son tales, sino meras excitaciones, o rugosidades, de un campo continuo. Un escéptico podría argumentar que las leyes de la física sí contienen cantidades enteras. A fin de cuentas, describen tres

Fronteras de la física cuántica  25

especies de neutrinos, seis tipos de quarks (cada uno en tres variedades, denominadas «colores») y así sucesivamente. Enteros, enteros por todas partes. Estos ejemplos cuentan el número de especies de partículas que existen en el modelo estándar, una cantidad célebre por la dificultad que entraña definirla con precisión matemática cuando las partículas interaccionan entre sí. Las partículas pueden mutar: cuando un neutrón se desintegra, emite un protón, un electrón y un antineutrino. ¿Debemos contarlo como una partícula, como tres o como cuatro? Las afirmaciones del estilo de «existen tres tipos de neutrinos» o «seis clases de quarks» no constituyen más que un artificio derivado de desechar las interacciones entre partículas. He aquí otro ejemplo de un entero en las leyes de la física: el número de dimensiones espaciales que observamos. Tres... ¿o no? Benoît Mandelbrot nos enseñó que el número de dimensiones no tiene por qué venir dado por un entero. La línea que demarca la costa de Gran Bretaña, por ejemplo, posee una dimensión que asciende aproximadamente a 1,3. Y, en algunas de las teorías propuestas para unificar las interacciones, como la teoría de cuerdas, el número de dimensiones del espacio resulta ambiguo: las dimensiones pueden emerger o disolverse. Me atrevería a afirmar que, en todas las leyes de la física, solo hay un número entero: el que define la dimensión temporal. Solo con una y exactamente una dimensión temporal, las leyes de la física parecen conservar su consistencia interna. IDEAS INDISCRETAS

A pesar de que las teorías actuales se basan en una realidad continua, gran parte de mis colegas de profesión se muestran convencidos de que bajo esa continuidad se esconde una realidad discreta. Argumentan a su favor con ejemplos en los que lo continuo emerge a partir de lo discreto. A la escala macroscópica de nuestra experiencia cotidiana, el agua en un vaso nos parece suave y continua. Solo al explorarla muy de cerca descubrimos sus componentes atómicos. ¿Puede que un mecanismo similar gobierne las leyes fundamentales de la física? Tal vez, si los escrutásemos con mayor detalle, los suaves campos cuánticos del modelo estándar o incluso el espaciotiempo mismo mostrarían una estructura discreta. Ignoramos la respuesta a semejante pregunta. Pero, tras más de cuarenta años intentando simular el modelo estándar en computadoras, contamos con algunas pistas al respecto. Para llevar a cabo dichas simulaciones debemos partir de las ecuaciones de la teoría, las cuales se expresan en términos de cantidades continuas, y hallar una formulación discreta que resulte compatible con los bits que manejan los ordenadores. Sin embargo, a pesar de décadas de esfuerzo, nadie hasta ahora lo ha conseguido. Hoy por hoy —y aunque rara vez se menciona— este constituye uno de los problemas abiertos más importantes de la física teórica. Existe una versión discreta de la teoría cuántica de campos, llamada teoría de campos en el retículo (lattice gauge theory). En ella, el espaciotiempo se sustituye por una colección discreta de puntos. Los ordenadores evalúan varias cantidades en esos puntos para aproximar así los campos continuos. Pero la técnica tiene sus limitaciones. Las dificultades surgen al incluir electrones, quarks y otras partículas llamadas fermiones. Por extraño que parezca, si rotamos un electrón 360 grados, no «veremos» el mismo objeto; para recuperar su forma original, un electrón debe girarse 720 grados. Los fermiones se resisten a ser formulados en un retículo. En los años ochenta, Holger Nielsen, del Instituto Niels Bohr de Copenhague, y Masao Ninomiya, ahora en

26  TEMAS 86

el Instituto Okayama de Física Cuántica, en Japón, demostraron un célebre teorema que establecía la imposibilidad de hallar una formulación discreta del fermión más simple. Pero la conclusión de un teorema solo es válida en la medida que lo sean también sus premisas. En los años noventa, varios físicos teóricos, muy especialmente David Kaplan, ahora en la Universidad de Washington, y Herbert Neuberguer, de la Universidad Rutgers, propusieron varios métodos para formular fermiones en un retículo. En la actualidad conocemos una gran variedad de teorías cuánticas de campos, cada una de las cuales posee fermiones de distintos tipos. Y sabemos cómo formular la gran mayoría de ellas en el retículo. Menos una: por desgracia, el único tipo de teoría cuántica de campos que no sabemos tratar de manera discreta incluye al modelo estándar. Podemos vérnoslas con todo tipo de fermiones hipotéticos, pero no con aquellos que existen en la naturaleza. Los fermiones del modelo estándar exhiben una propiedad muy particular: solo los que rotan en sentido contrario a las agujas del reloj experimentan la interacción débil, pero no así los que giran en sentido horario. Decimos por ello que la teoría es «quiral». Las teorías quirales son extremadamente delicadas. Ciertos efectos sutiles, llamados anomalías, amenazan con arrebatarles su consistencia matemática interna. Hoy por hoy, ignoramos cómo simular tales teorías en un ordenador. Pero la quiralidad no aparece como un fallo del modelo estándar, el cual tal vez podría desaparecer con una formulación más profunda. Se trata de un aspecto fundamental de la teoría. A primera vista, el modelo estándar, basado en tres tipos de interacciones, parece un constructo arbitrario. Solo cuando reparamos en los fermiones quirales muestra toda su belleza. Se trata de un puzzle perfecto en el que las tres piezas que lo componen se ensamblan de la única manera posible. Y esas piezas encajan gracias a la naturaleza quiral de los fermiones. No sabemos qué pensar acerca de nuestra ineptitud para simular el modelo estándar en una computadora. En general, el hecho de no saber resolver un problema no aporta demasiadas pistas. Tal vez solo se trate de una cuestión compleja cuya solución se encuentra a la espera de que demos con la técnica adecuada. Pero otros aspectos apuntan a algo más profundo. Los obstáculos que nos lo impiden guardan estrechas relaciones con la topología y la geometría. Quizá nuestras dificultades a la hora de simular fermiones quirales en un ordenador nos estén anunciando algo importante: que las leyes más profundas de la física no son discretas. Que no vivimos en una simulación informática. Artículo publicado en Investigación y Ciencia, marzo de 2013

EL AUTOR

David Tonges catedrático de física teórica en la Universidad de Cambridge. Sus investigaciones se centran en la teoría cuántica de campos, la teoría de cuerdas, los solitones y la cosmología. PARA SABER MÁS

Quantum field theory in a nutshell. Anthony Zee. Princeton University Press, 2012, segunda edición. Chiral symmetry and lattice fermions.David B. Kaplan en Modern perspectives in lattice QCD: Quantum field theory and high performance computing. Dirigido por Laurent Lellouch et al. Oxford University Press, 2009. Helicity, chirality, mass, and the Higgs.Flip Tanedo en www. quantumdiaries.org/2011/06/19/helicity-chirality-mass-and-the-higgs  community/essay/winners/2011.1

ISTOCK/ LIUZISHAN; MODIFICADO POR INVESTIGACIÓN Y CIENCIA

Teoría cuántica e información

TEÓRIC A CUÁNTIC A E INFOR M ACIÓN

Procesamiento cuántico de la información

La mecánica cuántica ofrece nuevas formas de procesamiento y transmisión de la información. Para implementarlas se debe combatir la decoherencia, el ruido que degrada las propiedades cuánticas de todo sistema Antonio Acín

S

upongamos que se almacena informaciónen el estado de un átomo o de un fotón, partículas cuyo comportamiento se rige por las leyes de la mecánica cuántica. ¿Implica ello algún cambio en el procesamiento y la transmisión de la información? Desde hace unos años, una nueva disciplina científica pretende dar respuesta a esa pregunta: la teoría de la información cuántica. Esta disciplina ha emergido a partir de la combinación de diferentes aspectos de la física teórica y aplicada con las teorías de la información y de la computación. Se propone analizar qué posibilidades ofrecen las leyes de la mecánica cuántica al procesamiento y la transmisión de información. Gracias a este enfoque, se han encontrado espectaculares aplicaciones, como la criptografía o el teletransporte cuánticos, que desafían nuestra comprensión clásica de la realidad. Nuestra intuición está acostumbrada a razonar según dicta el entorno, donde los efectos cuánticos son imperceptibles y la mecánica clásica, o newtoniana, nos ofrece una descripción satisfactoria de los fenómenos que observamos. Por ejemplo, nadie se ha encontrado nunca delante del famoso gato de Schrödinger, vivo y muerto al mismo tiempo. Por ello, una de las primeras recetas que hay que seguir a la hora de afrontar y analizar las nuevas propuestas de la teoría

de la información cuántica consiste en abstenerse de buscarles una explicación clásica. Debemos realizar un esfuerzo intelectual y acostumbrarnos a pensar de un modo cuántico, aceptando e intentando explotar al máximo las nuevas reglas que nos ofrece este formalismo. En mi opinión, si la teoría de la información cuántica parece un campo apasionante y siempre sorprendente es porque nos «obliga» a renunciar a la intuición. Históricamente, la mecánica cuántica fue la respuesta a una serie de problemas que aparecieron a finales del siglo xix y principios del xx, cuando la física experimental permitió la observación de fenómenos a escala atómica. Surgieron entonces nuevas preguntas que requirieron nuevas respuestas, las cuales condujeron de manera más o menos natural a la mecánica cuántica tal y como hoy la concebimos. Hacia finales de los años treinta del pasado siglo, ya se había elaborado la mayor parte de la formulación teórica de la mecánica cuántica. ¿Por qué, pues, tardaron alrededor de medio siglo en aparecer los primeros resultados relativos a la información? Una primera y sencilla razón es que, en aquella época, aún no existía una formulación de la teoría de la información. Los trabajos de Claude Shannon, que establecieron las bases de la dicha teoría, datan de 1949. Esta simple respuesta justifica, en parte, el retraso entre la finalización del desarrollo de la mecánica cuántica y el nacimiento de la teoría de la información cuántica. Sin embargo, no basta para explicar por qué, hasta

Toda informaciónse almacena y manipula por medio de dispositivos físicos. La teoría cuántica de la información investiga las posibilidades que surgen cuando tales dispositivos se rigen por las leyes de la mecánica cuántica.

28  TEMAS 86

La superposicióny el entrelazamiento, fenómenos cuánticos sin análogo clásico, ofrecen métodos de almacenar, procesar y transmitir la información mucho más eficientes que cualquier protocolo clásico.

Tales métodosdeben evitar que la información cuántica se filtre al entorno, un proceso conocido como decoherencia. Varias técnicas desarrolladas en los últimos años han conseguido prometedores avances en esta dirección.

ISTOCK

EN SÍNTESIS

Fronteras de la física cuántica  29

El bit cuántico El bit cuántico, o qubit,constituye la unidad básica de información en mecánica cuántica. A diferencia de un bit clásico, que solo puede tomar uno de dos valores (0 y 1), un bit cuántico puede encontrarse en cualquier superposición de dos estados básicos: 0〉 y 1〉. Ello permite llevar a cabo tareas imposibles en física clásica.

El estado de un qubit puede representarse como un punto sobre una esfera, llamada esfera de Poincaré (derecha). Los polos están asocia0 a los estados 0〉 y 1〉, y sus dos distintas superposiciones corresponden a los diferentes puntos de 1 la esfera (amarillo). Por tanto, el estado de un bit cuántico puede especificarse por medio de dos ángulos: la longitud y la latitud.

0

1

principios de los años ochenta, nadie pensó en aplicar las leyes cuánticas al procesamiento de la información. A partir de entonces, diversos investigadores empezaron a plantearse la siguiente situación: si el proceso de miniaturización de los dispositivos de transmisión y procesamiento de la información prosigue su tendencia, se alcanzará la escala atómica en un tiempo razonablemente breve. Para representar esta evolución se recurre a la ley de Moore. En 1965, Gordon Moore observó un comportamiento exponencial en el cambio a lo largo del tiempo del número de transistores por circuito integrado, y predijo que esa tendencia continuaría. La predicción de Moore ha venido cumpliéndose hasta hoy con sorprendente exactitud. Suponiendo que ese ritmo continúe, la ley de Moore nos dice que la información acabará codificándose en átomos hacia el año 2030. Parecerá demasiado optimista, pero es una indicación razonable de que la técnica alcanzará pronto el mundo microscópico, donde el comportamiento de los dispositivos físicos queda gobernado por las leyes cuánticas. Por tanto, hay que analizar el grado en que estos efectos modificarán la manera de transmitir y procesar la información. Una primera opción habría sido conservadora: evitar que las peculiaridades cuánticas modifiquen los resultados ya establecidos. La opción escogida por los investigadores de la teoría de la información cuántica, sin embargo, fue más ambiciosa: explotar las posibilidades que ofrecerá el futuro entorno cuántico para diseñar nuevas aplicaciones. ¿POR QUÉ DECIMOS QUE LA INFORMACIÓN ES CUÁNTICA O CLÁSICA?

Uno de los resultados teóricos más espectaculares del nuevo campo de la teoría de la información cuántica es el algoritmo de Shor para la factorización en números primos. Dado un número inicial N, ¿podemos encontrar dos números primos tales que su producto sea N? La respuesta no entraña especial dificultad si N consta de un número modesto de dígitos, pero el problema se complica enormemente cuando N es grande. Tanto es así que, en la actualidad, no existe ningún un algoritmo eficiente para resolverlo.

30  TEMAS 86

En 1994, Peter Shor propuso un algoritmo de factorización eficiente que se servía de las nuevas posibilidades ofrecidas por las leyes de la mecánica cuántica. Para hacerse una idea de la diferencia entre los dos modos de calcular, imaginemos que debemos factorizar un número de 300 dígitos. El mejor algoritmo clásico requeriría alrededor de 1024 pasos, mientras que el algoritmo cuántico de Shor necesitaría solo 1010. Pese a la aparente artificialidad del problema de la factorización, sobre él reposan gran parte de los métodos actuales de encriptación de información. Por lo tanto, un espía dotado de un ordenador cuántico —algo impensable con la técnica actual— podría leer muchas de las comunicaciones secretas de hoy en día. Recuerdo que, en una ocasión, Rolf Tarrach, de la Universidad de Barcelona, contó que había impartido un seminario ante matemáticos acerca de este algoritmo. Los presentes reaccionaron con bastante escepticismo: estaban imbuidos de la formulación clásica de la información, donde no existe ningún método de factorización eficiente. He encontrado reacciones similares al intentar explicar la criptografía cuántica a expertos en criptografía clásica. En ocasiones, me ha parecido observar en sus caras la sensación de que yo estuviera haciendo «trampas» al adoptar unas reglas que no se ajustaban a la teoría matemática de la información que ellos conocían. ¡Y, por supuesto, tienen razón! Solemos creer que la teoría de la información es algo abstracto, matemático y firmemente establecido. Sin embargo, al codificar la información en dispositivos físicos distintos, nos encontraremos con diferentes posibilidades y limitaciones. Como dijo Rolf Landauer, de IBM: «La información es física». Hablaremos, pues, de información cuántica o clásica, de bits clásicos o cuánticos, dependiendo de los dispositivos físicos con que se codifique la información. Las reglas de juego, y las posibilidades que ofrecen, cambiarán según la situación. LA COHERENCIA CUÁNTICA: BITS CUÁNTICOS Y ENTRELAZAMIENTO

La unidad básica en la teoría clásica de la información es el bit. Este puede tomar dos valores: 0 y 1. Un pulso de luz o un interruptor codifican de manera sencilla un bit. Por supuesto, existen infinitos modos de codificar un bit clásico mediante un dispositivo físico; pero, desde el punto de vista de la información clásica que almacenan, todas ellas son equivalentes. Supongamos ahora que el bit se codifica en un sistema cuántico que puede adoptar dos estados: 0〉 y 1〉. Un postulado básico de la mecánica cuántica establece que, si un sistema cuántico puede adoptar dos estados distintos, también podrá adoptar cualquier superposición coherente de ellos. Por ejemplo, el sistema podrá hallarse en el estado que resulta de combinar 0〉 y 1〉 con los mismos pesos. Debe resaltarse que esta superposición es coherente: no equivale a declarar que el estado del sistema es igual a 0〉 o 1〉 con probabilidad un medio, sino que es mitad 0〉 y mitad 1〉... ¡al mismo tiempo! Pero esta no es más que una de las posibles superposiciones de 0〉 y 1〉. De hecho, se pueden crear múltiples combinaciones con distintos pesos: el número de estados accesibles es infinito. Por lo tanto, el bit cuántico, o qubit —la unidad básica de información cuántica—, puede ser 0〉, 1〉 o cualquier combinación de tales estados en grados distintos. Para representar gráficamente esta riqueza suele emplearse la «esfera de Poincaré»: en ella, cada bit cuántico se corresponde con un punto de la superficie de la esfera. Se puede entender la sorpresa del lector no acostumbrado al formalismo cuántico ante los estados de superposición. En

TODAS LAS ILUSTRACIONES DE ESTE ARTÍCULO: INVESTIGACIÓN Y CIENCIA, SEGÚN ANTONIO ACÍN

U N I DA D D E I N F O R M AC I Ó N

I N T E R AC C I Ó N C O N E L E N T O R N O

Superposiciones cuánticas y decoherencia La interacción incontroladacon el entorno puede hacer que un sistema pierda sus propiedades cuánticas, un fenómeno conocido como «decoherencia». Este sencillo experimento en tres pasos ilustra el concepto.

Fotón transmitido

¿Uno o dos caminos?

Detector

Cuando un fotón incide sobre un espejo semitransparente (que transmite o refleja la luz con probabilidad 1/2) adopta un estado de «superposición coherente» entre el estado transmitido y el reflejado. Si colocamos un detector al final de cada camino y repetimos el experimento N veces, cada uno de los aparatos detectará el fotón N/2 veces. Sin embargo, este resultado también puede explicarse si suponemos que el fotón se encuentra en una superposición «incoherente» de transmitido o reflejado; es decir, que toma uno —y solo uno— de los caminos el 50 por ciento de las veces, y el otro el 50 por ciento restante.

50 %

Fotón reflejado

Espejo semitransparente 50 %

Espejo

Superposición cuántica

0%

100 % Espejo semitransparente

Supongamos que el fotón se encontrara en una superposición probabilística clásica, o incoherente. En tal caso, al recombinar ambos caminos en un segundo espejo semitransparente, esperaríamos encontrar el fotón en cada uno de los detectores con probabilidad 1/2. Sin embargo, ¡existen configuraciones en las que solo uno de los aparatos detecta el fotón! Ello se debe a que en uno de los detectores siempre tiene lugar una interferencia constructiva, mientras que en el otro es destructiva. Por tanto, el estado del fotón tras atravesar el primer espejo semitransparente no puede corresponder a una mera combinación de ambos caminos con probabilidad 1/2, sino a una genuina superposición coherente de uno y otro.

Pérdida de coherencia Interacción con el entorno

50 % 50 %

nuestro entorno no existen pulsos de luz que se hallen en una superposición de apagado y encendido, o gatos vivos y muertos) Pero debemos hacer un esfuerzo y aceptar las nuevas reglas, verificadas por multitud de experimentos. Físicamente, un bit cuántico puede realizarse con el espín de un átomo o la polarización de un fotón. Como sucede en el caso del bit clásico, todas estas realizaciones son equivalentes desde el punto de vista de la información cuántica que poseen. Consideremos ahora una situación ligeramente más complicada, con dos bits cuánticos. Dos posibles estados del sistema serán 00〉 y 11〉. Pero, del mismo modo que antes, otro estado posible será la superposición coherente de 00〉 y 11〉. En este caso no podremos especificar las propiedades individuales de cada qubit, sino solo las de ambos bits como una entidad global. Los dos bits se encuentran en un estado «entrelazado», en el que las propiedades de uno se ligan, o correlacionan, fuertemente

Si, tras atravesar el primer espejo, el fotón interacciona con el entorno (nubes) y experimenta los efectos de la decoherencia, su estado cuántico se transformará en una superposición incoherente de fotón transmitido o reflejado. Como consecuencia, al repetir el montaje anterior, el fotón podrá aparecer con igual probabilidad en cualquiera de los dos detectores: las interferencias cuánticas desaparecen y es posible explicar el resultado suponiendo que el fotón toma cualquiera de los dos caminos posibles con igual probabilidad.

con las del otro. Este tipo de correlaciones entre partículas cuánticas escapa a cualquier explicación clásica y constituye una de las propiedades clave en la mayoría de las aplicaciones de teoría de la información cuántica. El entrelazamiento (entanglement, en inglés) constituye un recurso básico en información cuántica [véase «La realidad de los cuantos», por Anton Zeilinger, en este mismo número]. Como hemos visto, no es más que una consecuencia de la posibilidad de tener superposiciones coherentes de estados en un sistema de más de una partícula. ¿POR QUÉ NUESTRO ENTORNO NO ES CUÁNTICO?

Hacerse una idea intuitiva de qué significa una superposición coherente de estados resulta complicado. No tenemos nada a nuestro alrededor que presente esas propiedades. Los efectos de este tipo se manifiestan experimentalmente solo cuando se desciende a la escala microscópica. Cabe preguntarse, pues, por

Fronteras de la física cuántica  31

M A N I P U L AC I Ó N D E Q U B I T S

Reglas cuánticas El proceso de medida:La medición (M) puede modificar el estado de un sistema cuántico. Aun habiendo preparado el sistema en un estado conocido, existen situaciones para las cuales la teoría solo predice probabilidades.

M M M M

Si se prepara un qubit en uno de los polos de la esfera de Poincaré y se mide su estado según el eje norte-sur, solo un resultado es posible. La medida no afecta al sistema. Si se prepara el qubit en el ecuador de la esfera y se aplica la misma medida, se tienen dos resultados con igual probabilidad. El estado inicial se ve modificado.

Teorema de no clonación:No puede existir ninguna máquina (C) capaz de clonar a la perfección todos los estados de un bit cuántico.

C CC C C C

Es posible diseñar una máquina que clone de manera perfecta los dos estados correspondientes a los polos de la esfera de Poincaré (arriba). Sin embargo, la misma máquina copiará con errores los estados asociados al ecuador (abajo).

el motivo de que las propiedades cuánticas no aparezcan a escala macroscópica y por la naturaleza de la transición entre las descripciones clásica y cuántica de la realidad. Los sistemas macroscópicos están compuestos por un gran número de partículas. Se produce en ellos una gran cantidad de interacciones. Aislar completamente un sistema dado es difícil: se deben controlar tantos grados de libertad que resulta muy complicado evitar que el sistema interactúe con su entorno [véase «Vivir en un mundo cuántico», por Vlatko Vedral, en este mismo número]. Este proceso indeseado de interacción afecta profundamente a las propiedades cuánticas de un sistema: los estados de superposición se transforman y pierden su coherencia. Como consecuencia, un estado dado por la superposición coherente de 0〉 y 1〉 acabará convirtiéndose en una superposición incoherente de 0〉 y 1〉. En tal caso, recuperamos la descripción del sistema a la que estamos acostumbrados: su estado es 0〉 o 1〉 con probabilidad un medio. Debe tenerse muy en cuenta la irreversibilidad de este proceso. La coherencia solo podría recuperarse a partir del entorno; pero, al no poder controlar la interacción con este, no hay forma de deshacer los cambios y devolver el sistema cuántico a su estado inicial.

32  TEMAS 86

La interacción indeseada con el entorno causa, pues, la decoherencia, o pérdida de coherencia, de un sistema cuántico. En situaciones de alta decoherencia no es posible mantener estados de superposición. Ello implica que el bit cuántico no tendrá a su disposición todas las posibilidades representadas en la esfera de Poincaré, por lo que perderemos toda esa riqueza. Del mismo modo, no habrá estados entrelazados, o superposiciones coherentes de 00〉 y 11〉, de importancia capital en la teoría de la información cuántica. En resumidas cuentas, la decoherencia hace que los dispositivos que almacenan y codifican la información pierdan sus propiedades cuánticas. Se vuelve entonces a la situación habitual hasta hace poco: la descripción de los dispositivos se torna clásica. Toda tarea efectuada con ellos conducirá a los resultados conocidos de la teoría clásica de la información. Ninguna de las nuevas aplicaciones que aporta la teoría de la información cuántica podrá llevarse a cabo en situaciones de fuerte decoherencia. PARADOJAS CUÁNTICAS

Los estados de superposición y el entrelazamiento son fenómenos cuánticos sin análogo clásico. Constituyen un ejemplo de lo que a veces se denominan «paradojas cuánticas»: resultados del formalismo cuántico que escapan a nuestra intuición. Hay otras «paradojas»; por ejemplo, que el proceso de medición de un sistema cuántico modifique el propio sistema, o que, por mucho que se prepare un sistema cuántico de una manera perfectamente controlada, haya situaciones experimentales para las cuales solo se podrá dar una respuesta probabilística (recordemos el «Dios no juega a los dados» de Albert Einstein). Menos conocido, pero fundamental en teoría de la información cuántica, es el «teorema de no clonación». Según este, no existe ninguna operación capaz de producir una copia idéntica de cualquier estado cuántico. Se podría diseñar, por ejemplo, una máquina que clonase los dos polos de la esfera de Poincaré. Pero, entonces, esa misma máquina cometerá errores al copiar de los estados que caen en el ecuador. Hasta hace poco, la actitud común entre los físicos ante estos principios ha sido la de mirar hacia otro lado. Comparados con el enorme éxito de la mecánica cuántica a la hora de predecir los datos experimentales, estos resultados se han presentado con un halo negativo, como algo que hay que aceptar y para lo que, «desgraciadamente», no existe alternativa. El enfoque de la teoría de la información cuántica es el opuesto: no solo hay que aceptar estas paradojas, sino utilizarlas en nuestro provecho. Nos encontramos ante situaciones sin un paralelo clásico. Por tanto, encierran la posibilidad de dar lugar a nuevas formas de procesamiento de la información [véase «Más allá del horizonte cuántico», por David Deutsch y Artur Ekert, en este mismo número]. En opinión de Nicolas Gisin, de la Universidad de Ginebra, un ejemplo claro de ello es la criptografía cuántica. Sabemos que la medición modifica el sistema. Supongamos ahora que un emisor envía a un receptor información codificada en un estado cuántico, y que una tercera persona intenta leerla sin autorización. El efecto que esa operación de lectura ilegítima —una medición— causará en el estado cuántico producirá errores en la transmisión. Las partes autorizadas podrán entonces detectar la presencia del espía y detener la comunicación insegura [véase «Los límites físicos de la privacidad», por Artur Ekert y Renato Renner, en este mismo número]. Esta es la idea general que subyace a cualquier protocolo de criptografía cuántica. Como vemos, no presenta demasiada complejidad una vez se tienen

nociones básicas de mecánica cuántica, pero sí presupone un cambio de enfoque. Así pues, podríamos afirmar que, desde el punto de vista de la información cuántica, «cuanto más cuántico, mejor». Pero los efectos cuánticos de los que estamos hablando aquí se vuelven imperceptibles en situaciones de gran decoherencia. Esta aparece, pues, como el gran enemigo del procesamiento cuántico de la información. Si las condiciones experimentales no permiten una interacción controlada con el entorno, la descripción del sistema se tornará clásica, lo que impedirá obtener mejoras con respecto a la teoría ya conocida. Es evidente que, desde un punto de vista práctico, es imposible disponer de un sistema perfectamente aislado del entorno. El mismo proceso de observación de un sistema, la «lectura» de la información, implica una interacción con el entorno (en este caso, el observador). Por tanto, la única solución consiste en garantizar unos niveles bajos de decoherencia y un grado de control aceptable para, luego, dar con un modo de procesar la información en este tipo de situaciones. Hay que aprender a procesar y transmitir información cuántica en entornos reales y con poca decoherencia. A continuación analizaremos dos posibles soluciones a este problema: la corrección cuántica de errores y la destilación de entrelazamiento. Estas técnicas persiguen proteger la información cuántica del ruido, es decir, de las interacciones no deseadas con el entorno. CORRECCIÓN CUÁNTICA DE ERRORES

Una posible solución para combatir la decoherencia consiste en la corrección cuántica de errores. Si bien cabe ver en este método la traducción a un entorno cuántico de los protocolos clásicos de corrección de errores, estos deben acomodarse a las nuevas propiedades cuánticas. Las soluciones deben ser más imaginativas de lo esperado a priori. Las técnicas de corrección de errores pueden aplicarse a cualquier proceso donde se necesite un procesamiento cuántico de la información que resista bien la decoherencia. Sin embargo, en aras de la simplificación, el análisis que presentaremos aquí se hará para una situación en la que un emisor tiene que enviar información codificada en un estado cuántico a través de un canal con ruido. Supongamos que el emisor codifica un bit cuántico en la polarización de un fotón, el cual envía por una fibra óptica. Al propagarse por la fibra, el fotón interaccionará con las moléculas del material y se producirán efectos de decoherencia. El estado cuántico que el receptor capta es un estado ruidoso que conserva parte de la información enviada por el emisor. ¿Cómo reconstruir la información original sin errores; es decir, con una probabilidad de error tan pequeña como se requiera? En este punto, vale la pena adelantar algunas ideas generales acerca del funcionamiento de los métodos clásicos de corrección de errores. Supongamos que se codifica un bit clásico en un pulso de luz que toma dos valores: 0 y 1. En su propagación a través del canal, el pulso puede sufrir errores y lo que era un 0 convertirse en un 1, y viceversa. Denotaremos por e la probabilidad de tener un error. Siempre podemos tomar e menor que 1/2: si la probabilidad de tener un error fuera mayor que la de no tenerlo, el receptor sabría que bastaría con permutar el símbolo recibido para encontrarse en una situación en la que e < 1/2. Una manera estándar de corregir errores se basa en la redundancia: enviar por el canal ruidoso varios pulsos con la misma información. En este caso, el bit lógico se codifica con más de un pulso de luz. El receptor, tras recibir y leer todos los pulsos, toma el valor más frecuente como bit enviado.

Por ejemplo, supongamos que la probabilidad de error al transmitir un pulso es del 15 por ciento, y que el emisor utiliza cinco pulsos de luz para codificar el bit lógico. Si se produce un error en uno los pulsos, el receptor será capaz de reconstruir la información enviada, puesto que cuatro de los cinco pulsos no habrán sufrido error. En cambio, se tendrá un error en la recepción del mensaje cuando tres, cuatro o los cinco pulsos hayan experimentado un error en la propagación. Puede comprobarse que, si enviamos cinco pulsos, la probabilidad de error al interpretar el mensaje recibido se verá rebajada a aproximadamente un 2,66 por ciento. No cuesta convencerse de que la probabilidad de error final puede hacerse tan pequeña como se quiera —aunque no nula— incrementando el número de pulsos que codifican un mismo bit lógico. Fijado el error final, el número requerido de pulsos dependerá de las propiedades de ruido del canal; es decir, de la tasa de error, e. La redundancia constituye uno de los métodos más simples de corrección de errores en la teoría clásica de la información. Pasemos ahora a analizar la situación en que la información se codifica en sistemas cuánticos. ¿Puede aplicarse el sencillo método de corrección de errores descrito con anterioridad? La respuesta es negativa. Esta nueva situación sirve muy bien para ilustrar de qué modo se ve afectado el procesamiento de información por el cambio de descripción de los dispositivos físicos utilizados para la codificación. Ya sabemos que, en mecánica cuántica, el teorema de la no clonación prohíbe la existencia de un proceso capaz de copiar a la perfección cualquier estado cuántico. Eso excluye el uso de la redundancia para corregir errores. Más en general, parecerá que la perturbación irreversible que todo proceso de medición causa en el estado cuántico de un sistema dificulta que el estado que le llega al receptor pueda ser leído sin que se introduzcan más errores (teniendo además en cuenta que el receptor habrá de compensar los errores producidos durante la transmisión). Han sido varios los investigadores que han planteado serias dudas acerca de la viabilidad de la corrección de errores para estados cuánticos. Sin embargo, en 1995, Andrew Steane y, de manera independiente, Shor, introdujeron los primeros métodos cuánticos de corrección de errores. La solución pasa por saber adecuar los métodos clásicos al nuevo entorno por medio de un recurso intrínsecamente cuántico: el entrelazamiento. La idea consiste en codificar con habilidad cada bit cuántico lógico en un estado entrelazado de siete qubits físicos (en el protocolo propuesto por Steane) o en nueve (en el de Shor). Esta codificación resiste mejor la decoherencia y permite una reconstrucción perfecta del estado cuántico de partida (el bit cuántico lógico) en situaciones en las que se hubiera producido un error en uno de los bits cuánticos físicos. Por tanto, el uso de estos protocolos permite el procesamiento de información cuántica en casos donde la probabilidad de tener dos errores es baja, pues un solo error siempre se corrige. A partir de estos primeros esquemas aparecieron nuevos y más refinados protocolos de corrección de errores. Hoy existe una formulación general del problema. Todos esos protocolos traducen a un entorno cuántico los métodos ya conocidos en la teoría clásica de la información. A grandes rasgos, un esquema de corrección cuántica de errores consta de una etapa de codificación en el emisor, que almacena el qubit lógico en un estado entrelazado de diferentes qubits físicos, y un proceso de descodificación en el receptor, donde se detecta y corrige el error que se haya producido en el canal. Las propiedades de cada protocolo de corrección de

Fronteras de la física cuántica  33

errores vienen descritas por tres números, Qubits [[n , k , d]], donde n corresponde al número EMISOR CANAL RECEPTOR Qubit entrelazados de bits físicos utilizados en la codificación, CORR k al número de bits lógicos almacenados, y d está ligado al número de errores que 0 M se pueden corregir, nE , por medio de la Codificación relación d = 2nE + 1. Por tanto, el esquema 0 M de Steane es [[7 , 1 , 3]], mientras que el de 0 M Shor es [[9 , 1 , 3]]. Para valores de n y k fijados, el mejor código es el que proporciona 0 M el mayor valor de d, equivalente a la mayor cantidad de errores corregibles. Sin entrar en más detalles, ejemplos de códigos conoCORRECCIÓN DE ERRORES:Para transmitir un qubit (esfera) por medio de un canal ruidoso cidos son [[8 , 3 , 3]], [[21 , 6 , 5]], [[23 , 1 , 7]] (nubes), el emisor prepara cuatro estados adicionales y codifica la información en un estado o [[127 , 50 , 15]]. El mínimo código capaz entrelazado de los cinco qubits. Al propagarse, los bits cuánticos sufren decoherencia, lo que se traduce en errores. Sin embargo, el receptor puede realizar ciertas mediciones (M) sobre de corregir un error es el [[5 , 1 , 3]]. cuatro de los qubits, de tal modo que los resultados le informen del error. Ello le permite Más allá de su importancia práctica, los corregir (CORR) el quinto qubit y recuperar el estado de partida. métodos de corrección de errores supusieron un importante avance hacia la consolidación de la teoría de la información cuántica, ya que demostraron que se podía combatir la decoherencia. realizar la corrección de errores antes del envío de la informaRecordemos que importantes investigadores habían expresado ción, transformando el canal ruidoso en uno sin errores. Una vez la posibilidad de que la codificación de información en estados que se ha establecido este canal cuántico, se puede proceder a cuánticos fuera demasiado delicada y sensible a la interacción la transmisión perfecta de la información. En él, un papel clave con el entorno, y que ello supondría una barrera fundamental lo desempeña el teletransporte cuántico. para la aplicación de la información cuántica. Los protocolos de El teletransporte constituye una de las aplicaciones más imcorrección de errores han demostrado que eso no es cierto: de portantes y sorprendentes de la teoría cuántica de la información. modo parecido al caso clásico, si se tiene una cierta tasa de error El emisor recibe una partícula que codifica un qubit (desconocido inicial en el canal cuántico, puede llevarse a cabo una transmi- para él), el cual debe transmitir a un receptor. Una primera opsión con probabilidad de error efectiva arbitrariamente pequeña. ción, trivial, consiste en que el emisor envíe la partícula directaEl problema, pues, deja de residir en el lado teórico (si bien las mente. Sin embargo, quizá esto no resulte posible; por ejemplo, técnicas para mejorar los códigos de corrección de errores siguen porque el canal produzca demasiado ruido. Supongamos ahora siendo objeto de intenso estudio) y se traslada al experimental. que el emisor y el receptor comparten dos bits cuánticos en un Una vez que la tecnología permita un procesamiento cuántico estado máximamente entrelazado. Es decir, uno y otro tienen de la información robusto bajo la decoherencia, se conocerán cada uno una partícula cuántica, y el estado global de ambas métodos que reducirán el nivel de ruido tanto cuanto deseemos. viene dado por una superposición coherente y de pesos iguales de 00〉 y 11〉. Gracias al esquema basado en el teletransporte, el TELETRANSPORTE Y COMUNICACIÓN PERFECTA receptor puede, valiéndose de ese entrelazamiento, y tras recibir Los protocolos de corrección de errores demuestran que es posi- dos bits de información clásica enviados por el emisor, reconstruir ble adecuar una aplicación bien establecida en teoría clásica de a la perfección el bit cuántico original. la información al nuevo entorno cuántico. Hay, sin embargo, un Es importante subrayar el papel que desempeñan los dos método alternativo, intrínsecamente cuántico, de corrección de bits clásicos que el emisor debe comunicar al receptor para errores. Sin análogo clásico, dicho método se basa en explotar que este último sea capaz de reconstruir el estado que se desea las propiedades del entrelazamiento. La idea general radica en teletransportar. Sin estos dos bits, el proceso no puede llevarse a cabo, ya que el receptor no tendrá toda la información necesaria hasta que no los reciba. Qubit original Qubit teletransportado Es decir, el teletransporte no permite la transmisión instanCORR Qubits entrelazados tánea de información. Es más bien un método sorprendente de transmisión de información Comunicación clásica cuántica por medio de un estado entrelazado y de bits clásicos. Alguien podría inferir que el teletransporte implica que un TELETRANSPORTE CUÁNTICO: Para teletransportar un qubit, el emisor y el receptor deben bit cuántico es equivalente a dos compartir un par de bits cuánticos máximamente entrelazados. El emisor realiza cierta medida bits clásicos, pero semejante conjunta (M) sobre el qubit que desea transmitir y sobre el qubit del par entrelazado que obra conclusión es falsa. Si el emien su poder y, después, comunica el resultado al receptor. Este, al recibir la información sor quisiera especificar el bit —clásica— del resultado de la medida, realizará una operación u otra (CORR) sobre su qubit cuántico al receptor por medio del par entrelazado. Gracias a ello obtendrá una copia perfecta del qubit original, sin que este se haya movido de su sitio. Al final del protocolo, el entrelazamiento desaparece. de información clásica, tendría

M

34  TEMAS 86

}

C O M B AT I R E L R U I D O

Destilación de entrelazamiento Para transmitir informaciónpor medio del teletransporte, el emisor y el receptor deben compartir primero un par de partículas máximamente entrelazadas. Cuando el canal por el que dichas partículas deben viajar hasta el emisor y el receptor es ruidoso, los protocolos de destilación de entrelazamiento permiten depurar el estado final.

RECEPTOR RECEPTOR EMISOR RECEPTOREMISOR RECEPTOR EMISOR EMISOR

Al final del proceso,emisor y receptor comparten N < M estados entrelazados perfectos. Dichos estados permiten teletransportar qubits sin errores y, por tanto, enviar información sin fallos.

EMISOR RECEPTOR EMISOR RECEPTOR RECEPTOR EMISOR

RECEPTOR

1

1

1

1

1

2

2

2

2

2

2

N

N

M

M

M

N

Operaciones locales

RECEPTOR EMISOR

1

Operaciones locales Operaciones locales

Operaciones locales

EntrelazamientoEntrelazamientoEntrelazamiento

Operaciones locales

EMISOR

El proceso se repite M veces.Emisor y receptor procesan sus estados de manera local. Estas operaciones pueden ir acompañadas del envío de comunicación clásica en ambos sentidos. En el proceso no se transmite ningún tipo de información cuántica por el canal. El objetivo es «purificar» el entrelazamiento.

Operaciones locales

El emisor y el receptorhan de comunicarse a través de un canal que produce decoherencia. El emisor prepara estados entrelazados de dos qubits y envía uno de ellos al receptor. La transmisión es imperfecta, por lo que ambas partes acaban con un estado entrelazado impuro.

Comunicación clásica Comunicación clásica Comunicación clásica EntrelazamientoEntrelazamientoEntrelazamiento imperfecto imperfecto imperfecto

que especificar un punto en la esfera de Poincaré. Y, para hacerlo con buena precisión, necesitaría un gran número de bits clásicos (infinitos, si desea conseguir una imprecisión nula). Además, en el teletransporte, el emisor no tiene por qué conocer el bit cuántico que envía. El entrelazamiento compartido por uno y otro es el recurso esencial en el que se basa este protocolo de comunicación. Dicho recurso se consume una vez el receptor ha reconstruido el bit cuántico: el entrelazamiento no sobrevive al final del proceso. Debemos retener lo siguiente: si el emisor y el receptor comparten un estado de dos qubits máximamente entrelazado, será posible enviar un qubit sin errores gracias al teletransporte. En consecuencia, podemos considerar que disponemos de un canal cuántico perfecto. Una pregunta surge de modo natural: ¿como consiguen el emisor y el receptor establecer el entrelazamiento inicial requerido para el teletransporte? El emisor puede, en principio, preparar el estado localmente y enviar al receptor uno de los dos qubits. Sin embargo, debe hacerlo a través del canal que poseen, que es ruidoso. Recordemos que se debe crear una superposición coherente de 00〉 y 11〉. Sin embargo, la decoherencia del canal repercutirá en el estado enviado, por lo que emisor y receptor acabarán compartiendo una versión ruidosa del estado que necesitan, lo que impedirá un teletransporte perfecto. DESTILACIÓN DE ENTRELAZAMIENTO

Las técnicas de «destilación» de entrelazamiento permiten transformar, con cierta probabilidad p, estados entrelazados ruidosos en estados máximamente entrelazados. Es decir, consiguen depurar el entrelazamiento impuro del estado que ha sufrido la decoherencia y transformarlo en un entrelazamiento puro, sin errores. Más concretamente, existen secuencias de mediciones entre el emisor y el receptor, asistidas por comunicación clásica, que, con probabilidad p, transforman M copias de un estado entrelazado ruidoso en N copias de un estado puro máximamente

entrelazado. Además, el emisor y el receptor saben de modo exacto si el protocolo de destilación ha sido exitoso. Con estos elementos resulta sencillo entender cómo pueden emplearse estas técnicas para enviar información cuántica a través de un canal ruidoso. El emisor, que ha de enviar N bits cuánticos, prepara un estado máximamente entrelazado y envía uno de los dos bits cuánticos al receptor. A causa de la decoherencia en la propagación, el estado final será impuro. Este proceso se repite M veces, por lo que emisor y receptor acaban con M copias del mismo estado. A continuación, usan un protocolo de destilación cuántica que produce, con probabilidad p, N copias del estado máximamente entrelazado. Recordemos que estos estados son equivalentes a un canal cuántico sin ruido. Por tanto, el emisor puede consumir estos N estados en la transmisión sin errores de los N bits cuánticos por medio del teletransporte, concluyendo así el envío de la información cuántica. ¿Es posible encontrar alguna relación entre la destilación de entrelazamiento y los métodos de corrección de errores? Se ha demostrado que si el flujo de comunicación clásica necesario en el proceso de destilación solo cursa en un sentido —de emisor a receptor, por ejemplo— se puede establecer una analogía entre ese método de destilación y un protocolo de corrección de errores. Sin embargo, esto deja de ser cierto si la destilación utiliza una comunicación en ambos sentidos. Los métodos de destilación con comunicación bidireccional permiten la transmisión sin errores de información cuántica para canales cuyo nivel de ruido sea tal que no se pueda aplicar ningún método cuántico de corrección de errores estándar. En este sentido, los protocolos de destilación de entrelazamiento son más potentes. MÉTODOS TOLERANTES A FALLOS

Aquí hemos presentado algunos métodos diseñados para el procesamiento cuántico de información bajo decoherencia. Por sencillez, hemos considerado una situación de comunicación

Fronteras de la física cuántica  35

COLABORADORES DE ESTE NÚMERO Asesoramiento y traducción: Ernesto Lozano: La realidad de los cuantos; Alberto Ramos: Más allá del horizonte cuántico, Bayesianismo cuántico, El cuanto no cuántico; Carmen Bañuls: Los límites físicos de la privacidad, Objetivos y oportunidades de la simulación cuántica, Mundos cuánticos simulados; Daniel Cremades: Vivir en un mundo cuántico; Tanja Sachse: Efectos cuánticos macroscópicos; Tomás Ortín: Agujeros negros y muros de fuego PORTADA: iStock/liuzishan; modificado por Investigación y Ciencia

INVESTIGACIÓN Y CIENCIA DIRECTORA GENERAL  Pilar Bronchal Garfella DIRECTORA EDITORIAL  Laia Torres Casas EDICIONES  Anna Ferran Cabeza, Ernesto Lozano Tellechea, Yvonne Buchholz, Bruna Espar Gasset PRODUCCIÓN M.a Cruz Iglesias Capón, Albert Marín Garau SECRETARÍA  Purificación Mayoral Martínez ADMINISTRACIÓN  Victoria Andrés Laiglesia SUSCRIPCIONES  Concepción Orenes Delgado, Olga Blanco Romero

EDITA

Prensa Científica, S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Teléfono 934 143 344 Fax 934 145 413 e-mail [email protected] www.investigacionyciencia.es

SCIENTIFIC AMERICAN EDITOR IN CHIEF AND SENIOR VICE PRESIDENT Mariette DiChristina EXECUTIVE EDITOR  Fred Guterl MANAGING EDITOR  Ricki L. Rusting DESIGN DIRECTOR  Michael Mrak SENIOR EDITORS  Mark Fischetti, Josh Fischmann, Seth Fletcher, Christine Gorman, Clara Moskowitz, Gary Stix, Kate Wong ART DIRECTOR  Jason Mischka MANAGING PRODUCTION EDITOR  Richard Hunt

PRESIDENT  Dean Sanderson EXECUTIVE VICE PRESIDENT  Michael Florek PUBLISHER AND VICE PRESIDENT  Jeremy A. Abbate

DISTRIBUCIÓN para España: LOGISTA, S. A. Pol. Ind. Polvoranca - Trigo, 39 - Edificio B 28914 Leganés (Madrid) Tel. 916 657 158 para los restantes países: Prensa Científica, S. A. Muntaner, 339 pral. 1.a 08021 Barcelona

cuántica en la que las partes transmiten la información a través de un canal ruidoso. Sin embargo, las mismas técnicas pueden aplicarse en computación cuántica, donde se realizaría un procesamiento de un gran número de bits cuánticos. Si la operación es complicada y requiere un tiempo considerable, los efectos de decoherencia empiezan a adquirir importancia, ya que el sistema interaccionará más de lo deseado con el entorno. Dicho de forma equivalente: no es posible garantizar que, durante todo el tiempo de ejecución, ninguna parte del sistema habrá sufrido una pérdida de coherencia. Por tanto, habría que alternar fases de computación y fases de corrección de errores basadas en los métodos descritos. A lo largo de esta exposición hemos supuesto que las operaciones que hay que realizar para corregir los errores eran perfectas y no introducían más ruido. Esto no se cumple en una situación real. Resulta obligado, pues, analizar las consecuencias de tener que usar operaciones cuánticas imperfectas en los protocolos de corrección de errores. Sin entrar en más detalles, se ha demostrado que todos los métodos anteriores resisten fallos en las operaciones cuánticas que los componen. Se puede establecer un umbral de imperfección para ellas, de tal modo que aún sea posible realizar una transmisión o computación cuántica casi libre de errores. Todos estos resultados desembocan en los llamados «métodos tolerantes a fallos». En resumen, hemos presentado varias técnicas habituales para corregir errores durante el procesamiento cuántico de información. El factor que debe combatirse es la decoherencia, que destruye la peculiaridad cuántica del sistema: las superposiciones coherentes de estados, fundamento de cualquier protocolo de información cuántica. Hemos visto que las ideas de la teoría clásica de la información pueden trasladarse al formalismo cuántico, acomodándolas a las nuevas reglas de juego. En otras ocasiones nos hemos encontrado ante situaciones intuitivamente difíciles de aceptar, debido a las peculiaridades del formalismo cuántico: estados de superposición, sistemas entrelazados o el teletransporte. Los métodos que hemos presentado aquí constituyen un primer paso, si bien crucial, de cara a explotar el abanico de posibilidades que aparece al codificar la información en estados cuánticos. La mecánica cuántica ofrece multitud de situaciones sorprendentes que desafían nuestra intuición y no tienen un análogo clásico. ¡Aprovechémoslas! Artículo publicado en Investigación y Ciencia, septiembre de 2006

PUBLICIDAD Prensa Científica, S. A. Tel. 934 143 344 [email protected] Copyright © 2016 Scientific American Inc., 1 New York Plaza, New York, NY 10004-1562. Copyright © 2016 Prensa Científica S.A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor de la revista. El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente, son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí. ISSN edición impresa: 1135-5662 Dep. legal: B-32.350-1995

ISSN edición digital: 2385-5673

Imprime Rotocayfo (Impresia Ibérica) Ctra. de Caldes, km 3 08130 Santa Perpètua de Mogoda (Barcelona) Printed in Spain -­­ Impreso en España

36  TEMAS 86

EL AUTOR

Antonio Acín lidera el grupo de teoría cuántica de la información del Instituto de Ciencias Fotónicas (ICFO) de Barcelona. Investiga en óptica cuántica y procesamiento cuántico de la información. PARA SABER MÁS

Introduction to quantum computation and information.Dirigido por H.-K. Lo, S. Popescu y T. Spiller. World Scientific, 1998. Quantum computation and quantum information.M. A. Nielsen e I. L. Chuang. Cambridge University Press, 2000. The physics of quantum information: Quantum cryptography, quantum teleportation, quantum computation.Dirigido por D. Bouwmeester, A. Ekert y A. Zeilinger. Springer, 2000. Initiation à la physique quantique.Valerio Scarani. Vuibert, 2003.

SUSCRÍBETE

a Investigación y Ciencia... Ventajas para los suscriptores: z Envío

puntual a domicilio

z Ahorro

sobre el precio de portada

82,80 € 75 € por un año (12 ejemplares) 165,60 € 140 € por dos años (24 ejemplares) z Acceso

gratuito a la edición digital de los números incluidos en la suscripción (artículos en pdf)

... y recibe gratis 2 números de la colección TEMAS

www.investigacionyciencia.es/suscripciones Teléfono: +34 934 143 344

TEÓRIC A C UÁNTIC A E INFOR M AC IÓN

Los límites físicos de la privacidad

Las leyes cuánticas implican que la criptografía segura es posible bajo supuestos asombrosamente débiles Artur Ekert y Renato Renner

38  TEMAS 86

Fronteras de la física cuántica  39

Montreal, y, en 1991, por uno de nosotros (Ekert). La seguridad de estos protocolos se basa, respectivamente, en el principio de incertidumbre de Heisenberg (existen pares de propiedades físicas tales que conocer una de ellas impide conocer la otra) y en la «monogamia» del entrelazamiento cuántico: el hecho de que ciertas correlaciones cuánticas no pueden ser compartidas por más de dos sistemas. En un principio, la idea de usar fenómenos cuánticos para mejorar la seguridad de las comunicaciones surgió como una mera curiosidad académica. Pero, con el progreso de la tecnología cuántica, atrajo la atención de los físicos experimentales hasta el punto de convertirse en una propuesta comercial viable. Sin embargo, aunque la criptografía cuántica nos ofrece la mejor seguridad disponible hoy en día, no es inmune a los ataques que aprovechen un diseño imperfecto. Los fallos pueden ser accidentales, resultado de la ignorancia o la negligencia de quien, sin mala fe, haya fabricado nuestro sistema criptográfico cuántico. Pero también pueden ser intencionados, introducidos clandestinamente en nuestros aparatos por un adversario. ¿Deberíamos entonces diseccionar nuestros dispositivos criptográficos, analizarlos a fondo y asegurarnos de que hacen justo lo que deben? A pesar de tales precauciones, puede que algunos fallos sean desconocidos para nosotros. ¿Qué tendríamos que buscar exactamente? Durante largo tiempo se pensó que los límites de la privacidad se hallaban aquí. Así las cosas, la ventaja estará de parte de quien posea más recursos tecnológicos, ya sea la NSA, el GCHQ o cualquier otro servicio de inteligencia. Sorprendentemente, no es así. Varias investigaciones recientes han demostrado que la privacidad puede garantizarse bajo supuestos asombrosamente poco restrictivos. Lo único que necesitamos son correlaciones monógamas y algo de «libre albedrío», entendido aquí como la capacidad para tomar ciertas decisiones con independencia de todo lo preexistente y, por tanto, impredecibles. Ello basta para concebir situaciones a primera vista inverosímiles. Por ejemplo, nos permite utilizar con seguridad dispositivos de procedencia dudosa —incluso manufacturados por nuestros enemigos— para generar y distribuir claves seguras. Por supuesto, hay condiciones: los aparatos deben mantenerse bien aislados a fin de evitar que sus datos se filtren, y dichos datos han de ser analizados por una entidad de confianza. Pero, con estas salvedades, una vez que los dispositivos hayan superado cierto test estadístico, podremos emplearlos con garantías y sin necesidad de conocer su funcionamiento interno. Lo anterior constituye un hito verdaderamente reseñable, conocido como «criptografía independiente del dispositivo». Sin duda, demostrar la seguridad de una técnica de cifrado bajo condiciones tan poco restrictivas, con todas sus sutilezas matemáticas, plantea un desafío mucho mayor que hacer lo propio cuando trabajamos con dispositivos de confianza. Con todo, los rápidos avances de los últimos años han servido como acicate y han convertido la criptografía independiente

EN SÍNTESIS

Los métodos criptográficos actualesno son intrínsecamente seguros. Su seguridad se basa en el largo tiempo de cómputo que, con la tecnología actual, llevaría descifrar las claves criptográficas.

40  TEMAS 86

Las leyes cuánticas permiten mejorar los algoritmos de cifrado. Sin embargo, hasta hace poco se pensaba que su seguridad sería vulnerable a manipulaciones malintencionadas de los dispositivos.

Varios avances recientes han demostrado que la privacidad puede garantizarse incluso sin conocer el funcionamiento interno de los aparatos de cifrado. La clave reside en el modo en que las leyes cuánticas tratan la información.

PÁGINAS ANTERIORES: ISTOCKPHOTO/AGSANDREW

E

l escritor estadounidense y criptó rafo aficionado Edgar Allan Poe escrig bió una vez: «Podemos afirmar categóricamente que el ingenio humano no es capaz de inventar ningún código secreto que el propio ingenio humano no pueda descifrar». ¿Es cierto? ¿Estamos condenados a perder nuestra privacidad sin importar con cuánto ahínco tratemos de preservarla? Si nos guiamos por la historia de las comunicaciones secretas, la respuesta debería ser un rotundo sí. Numerosos ejemplos ilustran hasta qué punto los más brillantes esfuerzos para cifrar mensajes han sido igualados por el ingenio de los espías. Incluso hoy, lo mejor que la criptografía moderna puede ofrecernos es una seguridad limitada. Por ejemplo, nos garantiza que romper el sistema RSA, uno de los métodos criptográficos de clave pública más extendidos, resulta al menos tan difícil como factorizar un número entero muy grande. Pero ¿es realmente tan complicado factorizar números enteros? No con un ordenador cuántico. De hecho, tanto el sistema RSA como otros muchos de clave pública se tornarán vulnerables el mismo día en que se construya el primer ordenador cuántico. Probablemente pasarán décadas antes de que eso ocurra, pero ¿quién puede asegurar que sucederá así? Hoy por hoy, la seguridad de nuestros mejores algoritmos de cifrado solo se apoya en la lentitud del progreso tecnológico. Aun así, los requisitos para una comunicación cien por cien segura se conocen desde hace tiempo. Si evitamos la jerga técnica, todo lo que necesitamos para diseñar un cifrado perfecto es una secuencia privada de bits aleatorios. Dicha secuencia, denominada clave criptográfica, solo debe ser conocida por el emisor y el receptor, a quienes llamaremos Alicia y Benito. Una vez que ambos dispongan de la clave, podrán comunicarse en secreto mediante un método muy sencillo conocido como «libreta de un solo uso». En concreto, la clave se convierte en un mensaje con significado cuando Alicia le dice públicamente a Benito cuáles de sus bits han de invertirse [para una introducción breve y muy accesible, véase «Criptografía segura», por Agustín Rayo; Investigación y Ciencia, febrero de 2015]. Si una espía, a la que llamaremos Eva, intercepta la comunicación pública, jamás podrá inferir el contenido del mensaje por más que sepa qué técnica de cifrado han empleado Alicia y Benito. Pero, para que todo funcione, es imprescindible que la clave se componga de bits verdaderamente aleatorios, que estos nunca se reutilicen para cifrar otro mensaje, y que la clave sea transmitida de forma completamente segura a Alicia y a Benito, quienes podrían hallarse a kilómetros de distancia. Aunque tal vez no resulte sencillo, todo esto es posible. Y no deja de ser asombroso lo bien que se presta la física cuántica a la tarea de distribución de claves. La distribución cuántica de claves fue propuesta en 1984 por Charles Bennet, de IBM, y Gilles Brassard, de la Universidad de

del dispositivo en uno de los campos más activos de la información cuántica. Es más, la seguridad de algunos de estos esquemas ni siquiera depende de la validez de la teoría cuántica. Es decir, su privacidad estaría garantizada incluso frente a un adversario que dispusiese de una tecnología más avanzada, o «poscuántica». Un enemigo podría también ejercer cierto control sobre las decisiones que Alicia y Benito han de tomar durante el protocolo de distribución de claves. Siempre que ese control no sea completo, nuestros amigos podrán hacer algo al respecto. Esto último se debe a que el «libre albedrío» (en concreto, la capacidad para efectuar elecciones aleatorias y, por tanto, impredecibles) puede ser amplificado. En los últimos años, la amplificación de la aleatoriedad ha dado lugar a una frenética actividad investigadora que ha culminado en un resultado insólito: todo lo que no sea completamente determinista puede hacerse completamente aleatorio. Como veremos, ello implica que, siempre que algunas de nuestras elecciones sean aleatorias y escapen al control de las autoridades, nuestros secretos podrán permanecer ocultos. EL PODER DE LA LIBRE ELECCIÓN

Si hay un método de cifrado que se acerque a la perfección, ese es el de la libreta de un solo uso. Sin embargo, como avanzábamos al principio, su seguridad depende de forma crítica de que Alicia y Benito dispongan de una misma secuencia de bits aleatorios, la clave criptográfica, que solo ellos deben conocer. Además, cada uno de sus bits solo podrá usarse una vez: una por cada bit del mensaje que deseen cifrar. Por tanto, para mantener una comunicación privada, Alicia y Benito deberán hallar una forma de generar continuamente bits aleatorios y distribuírselos de forma segura. ¿Cómo? Obviemos por un momento los aspectos prácticos y fantaseemos con algo que resolvería el problema. Imaginemos que Alicia y Benito tienen a su disposición dos monedas mágicas. Al lanzarlas, hay una probabilidad del 50 por ciento de obtener una cara o una cruz, por lo que el resultado es aleatorio. Sin embargo, las monedas se encuentran mágicamente ligadas: el resultado de una y otra siempre coinciden. Por tanto, Alicia y Benito podrían lanzar sus respectivas monedas, anotar un 0 cada vez que obtienen una cara, un 1 cuando obtienen una cruz, y las secuencias resultantes serían aleatorias e idénticas. Pero ¿lograrán mantenerlas en secreto? No necesariamente. Si Eva dispusiese de una tecnología lo suficientemente avanzada, podría construir una tercera moneda mágica cuyo resultado coincidiese siempre con los de Alicia y Benito. De esta manera, Eva conocería todos los bits de la clave criptográfica. Parece claro que, para garantizar la privacidad de la comunicación, hemos de permitir que Alicia y Benito hagan algo que quede fuera del control de Eva. Supongamos, pues, que tanto Alicia como Benito son libres de elegir una de dos monedas: Alicia puede lanzar la moneda A1 o la A2, y Benito, la B1 o la B2. En cada ocasión, nuestros amigos han de elegir cuál de ellas van a lanzar; tirar a la vez A1 y A2 o B1 y B2 no está permitido. Ahora imaginemos que las monedas están conectadas mágicamente del siguiente modo: los lanzamientos de Alicia y los de Benito siempre coinciden, salvo cuando Alicia usa A1 y Benito B2, en cuyo caso obtienen resultados opuestos. Tales propiedades pueden resumirse en cuatro ecuaciones: A1 = B1, B1 = A2, A2 = B2, B2 ≠ A1 (véase la figura adjunta). Estas condiciones son claramente incompatibles. Resulta imposible asignar valores a A1, A2, B1 y B2 de forma que se cumplan las cuatro. Recordemos, sin embargo, que Alicia y Benito

Alicia

A1

B1

A2

B2

Benito

CIERTAS CORRELACIONES IDEALIZADASpermitirían generar y compartir una clave criptográfica de forma segura. Alicia y Benito disponen de dos monedas cada uno (A1, A2, B1 y B2). En cada ocasión, eligen una y la lanzan. Las monedas están vinculadas de tal modo que siempre arrojan resultados idénticos (líneas negras) salvo cuando se usan A1 y B2, en cuyo caso se obtienen resultados opuestos (líneas rojas). Si Alicia y Benito son libres de elegir sus tiradas, tales correlaciones no podrán ser compartidas nunca por un tercer participante.

solo pueden lanzar una moneda a la vez, por lo que en cada tanda solo podrán comprobar una de las cuatro condiciones. Los lanzamientos que no se efectúan no tienen resultados, por lo que, si nos atenemos a las reglas, no incurriremos en ninguna contradicción. ¿Que sucedería si Alicia pudiese saltarse las normas y lanzar sus dos monedas al mismo tiempo? En tal caso, Benito quedaría privado de su libertad de elección. Supongamos que Alicia tira primero (las correlaciones no se ven afectadas por el orden de los acontecimientos) y que obtiene A1 = A2. Entonces Benito no tendrá más remedio que lanzar B1, ya que se trata de la única elección compatible con las condiciones enumeradas arriba. De igual modo, si Alicia obtiene A1 ≠ A2, Benito solo podrá lanzar B2. Este sencillo razonamiento implica que nuestras monedas mágicas no pueden ser clonadas. Fabricar un clon de, por ejemplo, A1 (es decir, una moneda Z tal que Z = A1) y ser capaz de lanzarlo a la vez que A2 nos lleva a la misma contradicción que lanzar A1 y A2 a la vez. La existencia del clon privaría a Benito de su libertad de elección. Por tanto, si Alicia y Benito son libres de elegir en todo momento qué moneda van a usar, las correlaciones mágicas han de ser monógamas; es decir, sus monedas no pueden estar correlacionadas con nada más. Esto cambia las cosas para Eva. Ni ella ni nadie podrán construir jamás una moneda que arroje siempre el mismo resultado que alguna de las de Alicia o Benito. Ya tenemos todos los ingredientes necesarios para una distribución de claves segura. DISTRIBUCIÓN DE CLAVES

Para establecer una clave criptográfica, Alicia y Benito lanzan sus respectivas monedas mágicas. En cada ocasión, nuestros amigos seleccionan de manera aleatoria e independiente qué moneda van a utilizar: Alicia elige entre A1 y A2, y Benito, entre B1 y B2. Después de cada tirada, ambos anuncian públicamente qué monedas han empleado, pero no el resultado obtenido. Dichos resultados son secretos, puesto que las monedas no pueden ser clonadas, e idénticos, ya que las monedas están ligadas mágicamente (excepto cuando se lanzan A1 y B2, en cuyo caso uno de los dos habrá de invertir su bit). De esta manera, Alicia y Benito habrán generado un bit secreto. Para obtener una clave más larga, bastará con que repitan el procedimiento tantas veces como sea necesario.

Fronteras de la física cuántica  41

suficientemente «mágicas» para nuestros propósitos. ¡Bienvenidos al mundo cuántico! LA SOLUCIÓN CUÁNTICA

Se cree que la mecánica cuántica gobierna el comportamiento de todos los objetos, grandes y pequeños, pero sus consecuencias se tornan más evidentes cuando consideramos sistemas microscópicos, como átomos o fotones. Tomemos como ejemplo los fotones polarizados. La luz polarizada se compone de millones y millones de ellos. Pero, desde un punto de vista cuántico, la polarización constituye una propiedad intrínseca de cada fotón, correspondiente a su espín. Aunque la polarización de un fotón puede medirse en cualquier dirección, el resultado solo puede arrojar dos valores. Estos indican si la polarización es paralela o perpendicular a la dirección de medida. Para nuestros propósitos, llamaremos a estos resultados 0 y 1. Hay varias técnicas que permiten generar pares de fotones con sus polarizaciones entrelazadas. Tales partículas responden de manera muy coordinada a las medidas que se efectúan sobre ellas, por más que las mediciones tengan lugar en puntos muy distantes del espacio. Supongamos que generamos dos fotones entrelazados y que enviamos uno a Alicia y otro a Benito. Nuestros amigos miden sus respectivas polarizaciones a lo largo de dos direcciones especificadas por los ángulos a y b. Aunque los valores 0 y 1 aparecen con la misma probabilidad, las leyes cuánticas predicen que los resultados de Alicia y Benito coincidirán con una probabilidad dada por cos2(a – b) . Por el momento, esta es toda la física cuántica que necesitamos saber. Reemplacemos ahora los lanzamientos de moneda por medidas de polarización elegidas con cierta astucia. En lugar de lanzar A1 o A2, Alicia medirá la polarización de su fotón a lo largo de las direcciones dadas por los ángulos a1 = 0 o a2 = 2p/8.

ISTOCKPHOTO/DANIL MELEKHIN

Conviene destacar que Alicia y Benito no tienen que hacer ninguna suposición sobre el origen de las monedas. Siempre que estas cumplan las cuatro condiciones que indicábamos arriba, serán válidas con independencia de quién las haya fabricado, adversarios incluidos. Por supuesto, Alicia y Benito deberán verificar que las condiciones mágicas se satisfacen. Para ello, pueden revelar públicamente los resultados de unos cuantos lanzamientos seleccionados de forma aleatoria y comprobar si obedecen o no las ecuaciones. Luego, los resultados que se han hecho públicos se descartan y la clave se genera a partir de los siguientes. Si Alicia y Benito detectan alguna desviación con respecto a las condiciones mágicas, abortan la distribución de claves y lo intentan de nuevo con otro juego de monedas. En todo lo anterior estamos suponiendo de manera tácita que Alicia y Benito pueden comunicarse en público, pero de forma que resulte imposible alterar sus mensajes. A tal fin podrían emplear una emisora de radio, un anuncio en un periódico o algún otro método que evite las suplantaciones. Eva vigila dicha comunicación de forma pasiva, y esa es toda la información que puede obtener durante el proceso de distribución de claves, ya que las monedas se lanzan en lugares bien resguardados y protegidos de toda filtración. Dadas estas condiciones, el secreto de la clave solo depende de la monogamia de las correlaciones mágicas y de una hipótesis inocua pero esencial: que tanto Alicia como Benito pueden elegir libremente qué moneda van a lanzar. Parece que hemos conseguido nuestro objetivo. Sin embargo, el impecable método de distribución de claves que acabamos de proponer adolece de un pequeño problema: las correlaciones mágicas que hemos postulado no existen. Es decir, nadie conoce ningún proceso físico capaz de generarlas. Pero no todo está perdido. Hay correlaciones físicamente admisibles y que son lo

42  TEMAS 86

De igual modo, Benito sustituirá los lanzamientos de B1 y B2 por medidas de polarización con ángulos b1 = p/8 y b2 = 3p/8. Las probabilidades conjuntas de todos los resultados posibles, obtenidas a partir de la fórmula del coseno y los ángulos mencionados, pueden extraerse de la siguiente tabla:

A1 = 0

A1 = 1

A2 = 0

A2 = 1

B1 = 0

1– ε 2

ε 2

1– ε 2

ε 2

B1 = 1

ε 2

1– ε 2

ε 2

1– ε 2

B2 = 0

ε 2

1– ε 2

1– ε 2

ε 2

B2 = 1

1– ε 2

ε 2

ε 2

1– ε 2

Esta tabla proporciona las probabilidades en términos de un parámetro genérico, e, el cual puede entenderse como la probabilidad de desviación con respecto a las correlaciones mágicas. Estas se recuperan de manera exacta cuando e = 0. Los ángulos que acabamos de especificar corresponden al valor e = sen2(p/8) ≈ 0,146. Sea cual sea el valor de e, la tabla describe correlaciones compatibles con el principio de «no señalización»; es decir, correlaciones que no permiten transmitir información de manera instantánea. Alicia, por el mero hecho de elegir entre A1 y A2, no puede enviar ninguna señal a Benito. Y Benito, al escoger entre B1 y B2, tampoco puede comunicarle nada a Alicia. Al analizar la estadística de sus respectivos resultados, ninguno de los dos podrá saber qué está haciendo el otro. Las correlaciones con e ≥ 1/4 se conocen como «clásicas», ya que permiten preasignar valores a A1, A2, B1 y B2. Esto deja de ser posible si e < 1/4. Pero, como acabamos de ver, existen correlaciones físicamente admisibles para las cuales e = sen2(p/8)  0,146. Dicho valor es el mínimo que permiten las leyes cuánticas. Por tanto, aunque las correlaciones mágicas perfectas (e = 0) no existan, las correlaciones cuánticas aún dejan lugar para algo de magia. MENOS REALIDAD, MÁS SEGURIDAD

La imposibilidad de asignar valores numéricos preexistentes (anteriores a la medida) a ciertas cantidades físicas, como las diferentes polarizaciones de un fotón, ha desconcertado a los físicos durante casi un siglo. A fin de cuentas, la mayoría de nosotros hemos crecido dando por supuesto que hay una realidad objetiva y que los sistemas físicos poseen propiedades cuantificables y bien definidas con independencia de que las midamos o no. Pero, por chocante que pueda parecer, el mundo no es así. Un gran número de experimentos muy minuciosos han permitido comprobar que la naturaleza viola las desigualdades estadísticas del estilo de e ≥ 1/4. Esta clase de expresiones, conocidas como «desigualdades de Bell», se derivan de la hipótesis de que las propiedades físicas de un objeto existen y están bien definidas antes de que las midamos. Sin embargo, es un hecho empírico que la naturaleza no respeta tales desigualdades. No nos extenderemos aquí sobre las implicaciones filosóficas de esta peculiaridad del mundo físico. Al respecto se han escrito volúmenes enteros. Simplemente haremos notar que debería ser acogida con entusiasmo por todos aquellos interesados en garantizar la privacidad, ya que lo que no existe no puede espiarse.

Como consecuencia, es mucho más fácil guardar un secreto en un mundo cuántico que en uno clásico. En efecto, dadas las correlaciones parametrizadas por e que reproducíamos arriba, puede demostrarse que la probabilidad de que Eva adivine correctamente cualquiera de los bits obtenidos por Alicia y Benito no puede ser mayor que (1 + 4 e)/2. Este límite no depende de la destreza tecnológica de Eva, ni tampoco —merece la pena subrayarlo— de la validez de la teoría cuántica. Puede derivarse con relativa facilidad a partir de un simple cálculo de probabilidades. Por tanto, si bien Eva puede averiguar algo acerca los resultados de Alicia y Benito (lo que no es deseable), nuestros amigos pueden, tras realizar un test estadístico y estimar e, deducir cuánta información se encuentra al alcance de Eva en el peor de los casos (algo muy positivo). Y, si e es lo suficientemente pequeño, ello les permitirá destilar una clave casi perfecta a partir de sus resultados. Esto último es posible gracias a una técnica conocida como «amplificación de la privacidad». La idea básica tras la amplificación de la privacidad es sencilla. Supongamos que tenemos dos bits y que sabemos que nuestro adversario conoce, como mucho, uno de ellos, pero ignoramos cuál. Si los sumamos, el bit resultante será secreto. Dados más bits, habremos de usar métodos más elaborados para destilar una clave secreta, pero la idea básica es la misma. Por tanto, si Alicia y Benito cuentan con dispositivos que generan resultados correlacionados, podrán ejecutar el protocolo de distribución de claves y complementarlo con un test estadístico «de honestidad» para estimar e. Y, si el valor de este parámetro es lo suficientemente pequeño (como, por ejemplo, e = 0,15), la técnica de amplificación de la privacidad les permitirá obtener una clave criptográfica perfecta. Así pues, parece posible asegurar la privacidad incluso con dispositivos de procedencia dudosa. Pero ¿qué entendemos por dispositivo? Antes de celebrar la consecución del cifrado perfecto, aún deberemos resolver una cuestión: ¿pueden Alicia y Benito confiar en los dispositivos últimos de medida y control? Es decir, ¿pueden confiar en sí mismos? ¿DEBEMOS FIARNOS DE NOSOTROS MISMOS?

Hemos llegado a los límites de la paranoia. ¿Gozamos de libertad de elección, o nos hallamos sujetos a los designios de un poder supremo? En otras palabras, ¿qué ocurre si alguien nos está manipulando? Al principio subrayábamos el poder de la libre elección. Decisiones como qué moneda lanzar o qué polarización medir deben poder tomarse con libertad (o de forma aleatoria) y de manera independiente. Si la referencia al «libre albedrío» del experimentador suena demasiado esotérica, pensemos en los generadores de números aleatorios que, en la práctica, toman tales decisiones en los experimentos. ¿De dónde proviene su aleatoriedad? ¿Qué ocurre si no podemos fiarnos de ellos, tal vez porque han sido fabricados por la misma persona que nos ofrece el kit de distribución de claves? No cabe duda de que sin aleatoriedad no hay privacidad: si todo está predeterminado, y si todas las decisiones que tomemos son predecibles o han sido previamente programadas por nuestros adversarios (ya sea mediante generadores de números aleatorios manipulados o de otro modo), no hay nada en lo que basar nuestra privacidad. ¿O sí? Sí lo hay si la manipulación no es completa y se nos permite un mínimo de libertad en nuestras elecciones. Si alguien en quien confiamos nos asegura que cierto porcentaje de las elecciones que tomamos mediante nuestro generador de números

Fronteras de la física cuántica  43

ASPECTOS TÉCNICOS

La distribución cuántica de claves cuya seguridad puede comprobarse a partir del grado en que se violan las desigualdades de Bell fue propuesta en 1991. Un año después, su viabilidad quedó patente en un experimento realizado en la antigua Agencia de Investigación para la Defensa (hoy Qinetiq) del Reino Unido. Sin embargo, la posibilidad de ejecutar este protocolo con independencia del dispositivo no fue demostrada hasta 2007. Además, no resultó sencillo certificar su seguridad en presencia de ruido experimental. Ha costado más de una década consensuar una definición útil de privacidad, incluso cuando trabajamos con dispositivos fiables. En el camino, ha sido necesario completar una larga serie de resultados sobre todos los recursos cuánticos a los que Eva puede acceder. El caso de aparatos de procedencia dudosa reviste una dificultad mucho mayor, por lo que aún ocupa a muchos de nuestros colegas de profesión.

44  TEMAS 86

ISTOCKPHOTO/DANIL MELEKHIN

aleatorios no pueden ser determinadas por el adversario, la privacidad es aún posible. Ello se debe a que la aleatoriedad local puede ser amplificada, un resultado demostrado en 2012 por Roger Colbeck, ahora en la Universidad de York, y uno de nosotros (Renner). A su vez, la amplificación de la aleatoriedad puede llevarse a cabo mediante protocolos independientes del dispositivo. El método funciona incluso si la fracción inicial de aleatoriedad es arbitrariamente pequeña y si nuestros aparatos sufren ruido estadístico. Todo lo anterior tal vez parezca extraño y demasiado bueno para ser verdad. ¿Una privacidad perfecta frente a adversarios poderosos, que nos proporcionan las herramientas criptográficas y que pueden incluso manipularnos? ¿Es posible algo así? Lo es, pero el diablo se encuentra en los detalles.

Todas las demostraciones formales de la seguridad de tales protocolos se basan en la monogamia de las correlaciones. Pero el verdadero desafío consiste en diseñar procedimientos robustos frente al ruido y las imperfecciones y que puedan aplicarse a claves de longitud finita. Existen también otros problemas. Por ejemplo, aquí hemos dado por supuesto que Alicia y Benito pueden estimar el valor de e a partir de una muestra de datos lo suficientemente grande. Sin embargo, una afirmación de este tipo requiere una versión cuántica de lo que en estadística clásica se conoce como teorema de De Finetti. Este nos garantiza, por ejemplo, que los pares de fotones pueden ser tratados como objetos individuales, dotados de propiedades individuales y sin correlaciones ocultas con otros pares. Este y otros resultados relativos a todo tipo de sutilezas han permitido que, veinte años después de su concepción, el protocolo de distribución de claves basado en el entrelazamiento resulte seguro aunque no podamos confiar por completo en nuestros dispositivos y aunque estos se vean afectados por el ruido experimental. En todo lo anterior, estamos suponiendo que no hay física más allá de la teoría cuántica y que Eva se encuentra sometida a sus leyes. Sin embargo, incluso si Alicia y Benito son tan paranoicos como para pensar que su adversaria dispone de una tecnología «poscuántica» (es decir, de una basada en fenómenos aún desconocidos y no regidos por la mecánica cuántica), todavía podrían recurrir a protocolos que, si bien menos eficientes, no se apoyan en la validez de los postulados cuánticos. En todo caso, hemos de enfatizar que las técnicas independientes del dispositivo y las demostraciones de seguridad correspondientes no han alcanzado el grado de refinamiento del que hoy gozan los esquemas que sí dependen del dispositivo. En particular, aún será necesario trabajar para mejorar la eficiencia de los protocolos de distribución de claves, así como para identificar bajo qué condiciones pueden reutilizarse los aparatos de procedencia dudosa. No obstante, dado que la violación de las desigualdades de Bell constituye un hecho empírico, ¿qué nos impide repetir los experimentos que la demuestran e interpretarlos como un protocolo de distribución de claves independiente del dispositivo? El problema reside en que, por más que resulten muy convincentes, tales experimentos suelen adolecer de varias imperfecciones técnicas, o «lagunas» (loopholes). En principio, cabe la posibilidad de que los fotones detectados por Alicia y Benito no constituyan una muestra representativa de los emitidos por la fuente (laguna de la detección), o bien que entre los distintos aparatos del montaje exista una conexión causal oculta (laguna de la localidad). Varios trabajos recientes han atacado algunos de estos problemas, pero aún no existe un experimento que sortee al mismo tiempo todos los inconvenientes y que demuestre de manera definitiva la violación de las desigualdades de Bell [este artículo fue escrito antes del primer experimento que logró llevar a cabo un test de Bell libre de imperfecciones; véase «Un test de Bell sin escapatorias», por Carlos Abellán, Waldimar Amaya y Morgan Mitchell; Investigación y Ciencia, enero de 2016]. Tales deficiencias no inquietan demasiado a los físicos, ya que la naturaleza tendría que ser muy maliciosa para engañarnos de forma selectiva usando la laguna de la localidad en unos experimentos y la de la detección en otros. De un adversario, en cambio, sí deberíamos esperar malicia. Por esta razón, una demostración experimental de la criptografía independiente del dispositivo requiere una verdadera violación de las desigualdades de Bell. En este contexto, el problema de la detección resulta especialmente escabroso. Imaginemos que Eva programa por anticipado los dis-

positivos de Alicia y Benito suponiendo que estos elegirán cierta secuencia de medidas. Cuando acierte, los aparatos responderán arrojando los resultados programados, y, cuando yerre, uno de ellos simulará un fallo y no responderá. Si Alicia y Benito descartan todas las tandas en las que al menos uno de los dispositivos parece no haber funcionado, Eva podrá engañarlos con facilidad. Resolver el problema de la detección reviste dificultad, ya que prácticamente todos los componentes ópticos adolecen de pérdidas e introducen imperfecciones en el equipo de distribución de claves. Sin embargo, a la vista de los recientes avances en las técnicas de fotodetección, cabe afirmar que solucionarlo se encuentra al alcance de la tecnología actual. Si la distancia no nos preocupa, podremos conseguir una eficiencia de detección casi perfecta utilizando iones entrelazados en lugar de fotones, un método que ya se ha empleado para certificar por primera vez la aleatoriedad independiente del dispositivo [véase «La certeza del azar cuántico», por Antonio Acín; Investigación y Ciencia, enero de 2012]. A falta de una independencia total del dispositivo, cabe también contemplar escenarios intermedios, en los que algunas partes del montaje son de confianza pero otras no. Al respecto, destacan las propuestas que abordan el uso de detectores de procedencia dudosa. Desde un punto de vista experimental, la criptografía independiente del dispositivo no es sencilla en absoluto, pero los recientes progresos técnicos nos permiten ser optimistas. Puede que el día en que no tengamos que sospechar de la buena fe ni de la profesionalidad de nuestro proveedor de servicios criptográficos no esté tan lejos. La criptografía cuántica ha alcanzado la mayoría de edad durante la última década. Con todo, el campo sigue siendo una valiosa fuente de inspiración para la investigación fundamental. Aunque la pregunta sobre los límites físicos de la privacidad continúa aún sin una respuesta concluyente, hoy sabemos

SUSCRÍBETE

que para mantener nuestros secretos a buen recaudo bastan dos condiciones: correlaciones monógamas, sea cual sea su origen, y una cantidad arbitrariamente pequeña de libre elección. Nuestro recurso más valioso es el libre albedrío. A fin de cuentas, sin libre albedrío no tendría ningún sentido tratar de ocultar nada. Artículo publicado en Investigación y Ciencia, enero de 2016. Adaptado de Nature, vol. 507, págs. 443-447, 2014. Con la colaboración de LOS AUTORES

Artur Ekertes catedrático de física cuántica en la Universidad de Oxford y director del Centro de Tecnologías Cuánticas de la Universidad Nacional de Singapur. Ha destacado por sus investigaciones pioneras en criptografía cuántica. Renato Renneres director de investigación en el Instituto de Física Teórica de la Escuela Politécnica de Zúrich. PARA SABER MÁS

Quantum cryptography based on Bell’s theorem.Artur Ekert en Physical Review Letters, vol. 67, págs. 661-663, agosto de 1991. No signaling and quantum key distribution.Jonathan Barrett, Lucien Hardy y Adrian Kent en Physical Review Letters, vol. 95, art. 010503, junio de 2005. Device-independent security of quantum cryptography against collective attacks.Antonio Acín et al. en Physical Review Letters, vol. 98, art. 230501, junio de 2007. Free randomness can be amplified.Roger Colbeck y Renato Renner en Nature Physics, vol. 8, págs. 450-454, mayo de 2012. EN NUESTRO ARCHIVO

Criptografía cuántica.Charles H. Bennett, Gilles Brassard y Artur Ekert en IyC, diciembre de 1992. Criptografía cuántica comercial.Gary Stix en IyC, marzo de 2005. Aleatoriedad y mecánica cuántica.Albert Solé y Carl Hoefer en IyC, septiembre de 2015. La privacidad en la era cuántica. Tim Folger en IyC, julio de 2016.

a la revista TEMAS...

Selecciones temáticas de nuestros mejores artículos Ventajas para los suscriptores:  

Envío puntual a domicilio Ahorro sobre el precio de portada

27,60 € 22 € por un año (4 ejemplares) 

Acceso gratuito a la edición digital (artículos en pdf)

www.investigacionyciencia.es/suscripciones Teléfono +34 934 143 344 Fronteras de la física cuántica  45

TEORÍ A CUÁNTIC A E INFOR M ACIÓN

Objetivos y oportunidades de la simulación cuántica

Los simuladores cuánticos albergan promesas de gran calado, pero el campo precisa objetivos claros a corto plazo J. Ignacio Cirac y Peter Zoller

E

n 1956, durante un encuentro de la Sociedad Americana de Física, Richard Feynman impartió una conferencia que llevaba por título «Hay mucho sitio al fondo». Aquel seminario es hoy ampliamente reconocido como una de las principales fuentes de inspiración en el desarrollo de la nanotecnología. En él, Feynman también anticipó las posibilidades que la mecánica cuántica nos brinda para estudiar el mundo microscópico: «Cuando llegamos al mundo de lo muy, muy pequeño, nos encontramos con todo tipo de fenómenos que representan oportunidades completamente nuevas en lo que se refiere al diseño. A pequeña escala, el comportamiento de los átomos no se parece en nada a lo que observamos a gran escala, pues satisfacen las leyes de la mecánica cuántica. Así, a medida que descendemos y jugueteamos con los átomos, estamos operando con otras leyes, por lo que podemos esperar hacer cosas diferentes». El campo de la información cuántica explora esas nuevas posibilidades e intenta explotar las leyes de la mecánica cuántica, entre las que se incluye el principio de superposición, para

realizar tareas computacionales con una eficiencia mayor que la que exhiben los dispositivos gobernados por la física clásica. El progreso experimental logrado durante las últimas décadas ha sido extraordinario. Nos ha permitido aislar partículas microscópicas una a una, manipular y controlar sus estados cuánticos internos, así como detectarlas con una fidelidad casi perfecta. Pero, a pesar de tales avances, el ordenador cuántico supone aún un objetivo a largo plazo, pues requiere el control total de un sistema cuántico de muchos cuerpos y, en último término, la implementación de refinados protocolos de corrección de errores que aseguren la tolerancia ante los fallos. Pero, aunque un procesador cuántico funcional aún se haga esperar, ¿sería posible aprovechar los avances experimentales conseguidos hasta ahora para construir un dispositivo que, sin llegar al nivel de complejidad de un ordenador cuántico, realice algunas de las tareas que resultan imposibles para un aparato clásico? CUANTO POR CUANTO

La respuesta bien podría hallarse en otra de las conferencias visionarias de Feynman. En su charla de 1981 «Simular la física con ordenadores», el físico subrayaba la dificultad que entraña

EN SÍNTESIS

Calcular las propiedadesde numerosos sistemas cuánticos complejos requiere emplear ordenadores cuánticos. Sin embargo, la construcción de un ordenador cuántico funcional se encuentra aún lejos.

46  TEMAS 86

Una alternativa consiste en emplear simuladores cuánticos: sistemas cuánticos controlables, con un comportamiento formalmente análogo al del sistema que se desea estudiar.

Algunos problemas que se beneficiarían especialmente de este enfoque son el estudio de sistemas de muchos cuerpos o el de aquellos con una cantidad considerable de entrelazamiento.

Dada la gran cantidad de simulaciones posibles, este nuevo campo debería marcarse algunas metas concretas, como conseguir diseñar las interacciones de un sistema o verificar la fiabilidad de una simulación.

MICHAEL VENTURA/ALAMY

GRANDES OPORTUNIDADES:Richard Feynman (aquí durante una clase en 1970) se percató hace ya tiempo de las posibilidades que entrañaba la manipulación de la materia a nivel atómico. En 1981 propuso la idea de simular un sistema cuántico con otro, un proyecto que comienza a convertirse en una realidad experimental.

simular sistemas cuánticos por medio de ordenadores clásicos. La potencia computacional necesaria para siquiera describir un sistema cuántico aumenta de manera exponencial con el número de constituyentes. Para describir el estado cuántico (puro) más general de N partículas de espín 1/2, necesitamos almacenar 2N coeficientes; una tarea que, en la práctica, deviene casi imposible si N es mucho mayor que 50. Más aún: para predecir el valor de una cantidad física, necesitaremos sumar, multiplicar o combinar de una forma u otra todos esos coeficientes, lo que requerirá un tiempo de cómputo que crece también de manera exponencial con N. Feynman defendía que, para superar tales problemas, deberían emplearse «simuladores cuánticos» que operasen según las leyes de la mecánica cuántica. Si dispusiéramos de un sistema compuesto, a su vez, de partículas de espín 1/2 manipulables a voluntad, podríamos diseñar la interacción entre tales partículas de acuerdo con la que queremos simular y, de esa manera, predecir el valor de las cantidades físicas sin más que efectuar las medidas adecuadas en nuestro sistema. Para construir un simulador cuántico, Feynman proponía tratar el espacio y el tiempo como cantidades discretas. El pro-

blema en cuestión queda especificado por un hamiltoniano, H(t) (una cantidad que describe las interacciones —en principio, dependientes del tiempo— entre las partículas en un retículo), un estado inicial, Ψ(0)〉, y un instante final, t. Con estos datos, el objetivo consiste en determinar ciertas propiedades físicas del estado final, Ψ(t)〉. En 1996, Seth Lloyd demostró que la evolución a pequeños «saltos» temporales permitiría simular de manera eficiente cualquier hamiltoniano cuántico de muchos cuerpos que describiese interacciones entre pocas partículas. Aquí eficiente quiere decir que el tiempo necesario para la simulación no crecería de forma exponencial con el número de partículas, sino polinómica. La idea principal consiste en aproximar cada paso de tiempo por una secuencia de operaciones más simples de acuerdo con la llamada descomposición de Trotter, lo que resulta en una sucesión de puertas cuánticas. Cabe destacar que una simulación cuántica nos permitiría determinar no solo el comportamiento dinámico de un sistema cuántico de muchos cuerpos, sino también (mediante algoritmos adiabáticos) propiedades a temperatura cero, correspondientes al estado fundamental de un hamiltoniano dado.

Fronteras de la física cuántica  47

MATERIA REAL

Feynman imaginó que el simulador cuántico sería «una máquina cuántica que podría imitar cualquier sistema cuántico, incluido el mundo físico». Un aparato tan general sería tan difícil de construir como un ordenador cuántico. Sin embargo, si rebajamos nuestras pretensiones y nos conformamos con un dispositivo que imite algunos sistemas físicos de interés, pero que no puedan simularse con ordenadores clásicos, quizás el proyecto se antoje más sencillo. Después de todo, semejante artilugio aún gozaría de enorme importancia científica y técnica. La mayoría de las veces no perseguimos una representación fiel de la función de onda completa de muchos cuerpos, sino que solo nos interesan algunas de sus propiedades físicas, relacionadas por lo general con cantidades intensivas (como densidades, magnetización por sitio de la red o correlaciones de pocos cuerpos) que, a su vez, determinan el diagrama de fases. Además, se espera que un simulador cuántico se muestre más robusto frente a las imperfecciones que un ordenador cuántico, lo que nos permitiría obviar el paso correspondiente a la corrección de errores. En líneas generales, es cierto que si uno de los puntos de la red sufre una perturbación indeseada, los valores esperados de las cantidades intensivas se verán alterados. Sin embargo, siempre que la red sea lo suficientemente grande, dichas perturbaciones no excederán un pequeño porcentaje. De hecho, en una gran cantidad de materiales que nos gustaría imitar con dicho simulador, tales imperfecciones aparecen de manera natural; con todo, las fases se muestran robustas frente a ellas. Aunque la versión de Feynman constituye un simulador cuántico digital con una evolución temporal «estroboscópica», cabe considerar también simulaciones analógicas, en las que el hamiltoniano H(t) se construya directamente con un sistema físico que evolucione de forma continua en el tiempo. Un simulador cuántico digital goza de una versatilidad mayor, puesto que puede simular un abanico más amplio de hamiltonianos (podremos simular directamente interacciones de N cuerpos; o, si el dispositivo es capaz de simular H1 y H2, también reproducirá el sistema descrito por H1 + H2). Por su parte, los simuladores analógicos quizá resulten menos propensos a sufrir errores, ya que sortean aquellos relacionados con la descomposición de Trotter. Además, permitirían considerar simulaciones en un espacio continuo, más allá de las confinadas a una red discreta.

enteras de problemas de muchos cuerpos que no se dejan tratar con tales procedimientos. La primera de ellas incluye sistemas de fermiones o espines frustrados en dos o más dimensiones espaciales (donde, entre otras razones, los métodos de Montecarlo se ven limitados por el «problema del signo»). La segunda es de carácter dinámico y comprende la mayoría de los modelos que carecen de solución exacta para tiempos muy largos, entre los cuales podemos hallar tanto sistemas aislados como abiertos (aquellos que, en contacto con algún tipo de baño térmico con múltiples grados de libertad, exhiben procesos disipativos). Resulta muy difícil, si no imposible, demostrar que un problema dado no puede simularse de manera eficiente con un ordenador clásico —para el que siempre podrían existir algoritmos aún desconocidos—, pero que, en cambio, sí se dejaría tratar con un simulador cuántico. Quienes trabajan en la teoría de la complejidad computacional llevan largo tiempo buscando ese tipo de demostraciones, hasta ahora sin éxito. Desde hace unos años, sin embargo, las investigaciones que intentan conjugar información cuántica, física de la materia condensada y teoría cuántica de campos parecen sugerir que los problemas que más se beneficiarán de un tratamiento cuántico son aquellos con una cantidad considerable de entrelazamiento. Aunque en equilibrio térmico el grado de entrelazamiento no puede ser arbitrariamente elevado (debido a la llamada «ley del área»), esa posibilidad sí existe en problemas dinámicos. De hecho, una situación alejada del equilibrio exhibirá, por lo general, una cantidad considerable de entrelazamiento. En tales casos, un simulador cuántico debería resultar de especial utilidad. Problemas como los mencionados aparecen en una variedad de disciplinas, como física de la materia condensada, mecánica estadística cuántica, física de altas energías, física atómica o química cuántica. Un ejemplo notable nos lo proporciona la superconductividad a altas temperaturas. ¿Qué interacción básica entre los electrones origina el comportamiento superconductor? O, en otras palabras, ¿cuál es el hamiltoniano mínimo que describe la superconductividad a altas temperaturas? Ante semejante pregunta, un simulador cuántico podría investigar varios hamiltonianos posibles y comprobar si aparecen o no las fases relevantes. Un simulador cuántico no solo se convertiría en una herramienta de enorme valor para afrontar problemas concretos en los campos mencionados, sino que se revelaría como un poderoso instrumento para asistir al desarrollo, puesta a prueba y comparación de métodos teóricos. Por ejemplo, existen muy pocas técnicas teóricas que describan la evolución temporal de un sistema de muchos cuerpos tras un cambio súbito de las interacciones, incluso en el caso unidimensional. De hecho, es aún una pregunta abierta si tal sistema alcanzará el equilibrio térmico, en el sentido de si el estado reducido de una pequeña subred conexa podría evolucionar hacia algo semejante al estado reducido de un estado global en equilibrio térmico (en este caso, al tratarse de un sistema cerrado, la red en su conjunto no puede evolucionar hasta alcanzar el equilibrio térmi-

Un simulador cuántico se revelaría como un poderoso instrumento para asistir al desarrollo, puesta a prueba y comparación de métodos teóricos

CON UN OJO EN LA RECOMPENSA

Como hemos subrayado, el objetivo principal de un simulador cuántico consiste en resolver problemas inabordables con un ordenador clásico. Entre ellos se incluyen los sistemas cuánticos de muchos cuerpos, con un gran número de grados de libertad y con entrelazamiento a gran escala. Es cierto que, hoy en día, no pocos de tales problemas pueden resolverse o simularse con ordenadores clásicos gracias a un elenco de métodos computacionales muy potentes (como el método de Montecarlo, el de grupos acoplados —coupled cluster—, la teoría del funcional de densidad, la del campo medio dinámico, o el grupo de renormalización de la matriz densidad). Sin embargo, existen clases

48  TEMAS 86

co). Un simulador cuántico no solo constituiría un paso clave para responder a esta pregunta, sino que, además, debería guiar el desarrollo de nuevas técnicas numéricas para afrontar el problema. Por último, la simulación cuántica nos permitiría crear sistemas con excitaciones exóticas interesantes en sí mismas, como las que la jerga científica ha dado en llamar «cualquierones» (anyons, cuasipartículas cuyo comportamiento varía de manera continua entre el de un bosón y un fermión), las cuales desempeñan un papel central en computación cuántica topológica. EL CAMINO HACIA UN SIMULADOR CUÁNTICO

Llegados a este punto, podemos intentar concretar y extraer un conjunto de requisitos que debería satisfacer un simulador cuántico. Desde luego, dada la enorme variedad de simulaciones posibles, resulta impracticable elaborar una lista concisa que las incluya todas. Pero, ya que nos hemos interesado en aquellas que superen a los dispositivos clásicos, nos centraremos en las aplicables a los sistemas cuánticos de muchos cuerpos. Sistema cuántico. Un simulador cuántico debería poseer un sistema de bosones, fermiones, o ambos, con o sin grados de libertad internos (pseudoespín). Las partículas se encontrarían almacenadas en una red o, al menos, confinadas en una región del espacio. El sistema debería contener un gran número de grados de libertad. Inicialización. Un simulador cuántico debería poder preparar (de manera aproximada) un estado cuántico conocido. En un caso ideal, este sería un estado puro, aunque en determinadas situaciones podría resultar de interés estudiar la dinámica de un estado mezcla (por ejemplo, un estado térmico). Diseño de hamiltonianos. Debería resultar posible diseñar un conjunto de interacciones, con campos externos o entre diferentes partículas, con parámetros ajustables. Tales interacciones pueden ser locales (entre partículas vecinas) o de mayor alcance. Podrían también incorporar un baño térmico cuando se requiriese simular sistemas abiertos. Entre los hamiltonianos (o liouvillianos, en el caso de sistemas abiertos) accesibles debería existir alguno que no pudiese simularse de manera eficiente mediante técnicas clásicas. Detección. Debería resultar posible realizar medidas sobre el sistema. Estas podrían ser individuales, de modo que únicamente afectasen a unos pocos sitios de la red, o colectivas. En un caso ideal, sería posible realizar experimentos «de un único paso» que pudiesen repetirse varias veces. Por ejemplo, al medir la magnetización colectiva en un conjunto de espines a lo largo de una determinada dirección, correspondiente a un observable S, deberíamos poder determinar no solo 〈S〉, sino también 〈f (S)〉, donde f denota una función arbitraria. Verificación. Si el problema en cuestión no puede simularse por medios clásicos, careceremos de un método para comprobar el grado de fiabilidad de la simulación. Sin embargo, deberíamos disponer de algún procedimiento que nos permitiese aumentar nuestra confianza en el resultado. Por ejemplo, el simulador podría evaluarse en primer lugar con problemas de solución conocida. Asimismo, la evolución podría realizarse hacia delante y hacia atrás en el tiempo, a fin de comprobar que finaliza en el estado inicial. Cuando se ejecuta un algoritmo adiabático, la técnica puede utilizarse para ajustar el tiempo de la simulación por medio de variaciones repetidas de los parámetros, de manera que nos acerquemos cada vez más al hamiltoniano que deseamos obtener. También podrían compararse los resultados de las simulaciones correspondientes a varios métodos y sistemas.

Existen diversas propuestas teóricas para construir simuladores cuánticos con un propósito específico en varias clases de sistemas. No nos extenderemos aquí en sus aspectos prácticos. Aparte de los retos experimentales que conlleva su construcción, este campo de investigación emergente alberga no pocas cuestiones teóricas de gran interés. Por ejemplo, hemos argumentado que un simulador cuántico debería mostrar una mayor inmunidad a la decoherencia que un ordenador cuántico, al menos en lo que se refiere a determinados observables, o, más aún, si solo deseamos identificar las fases correspondientes a diferentes valores de los parámetros externos que gobiernan el hamiltoniano. ¿Podemos aventurar una afirmación más rigurosa en este sentido? Lloyd demostró que un sistema cuántico puede simular de manera eficiente la dinámica de otro mediante un cambio «estroboscópico» de los parámetros. Pero ¿cuán propenso a los errores se revela este procedimiento? Los sistemas clásicos caóticos son difíciles de simular —incluso por medios clásicos— debido a su característica sensibilidad exponencial. Podemos plantearnos una cuestión análoga para ciertos sistemas cuánticos no integrables de muchos cuerpos. Otra pregunta de interés concierne a la forma de alcanzar el estado fundamental del hamiltoniano del problema, o un estado térmico. Para el primero, pueden emplearse algoritmos adiabáticos. Estos quizá resulten de utilidad en determinadas situaciones, pero hacen falta nuevas ideas para asegurar e identificar la adiabaticidad. Por otro lado, ¿cómo determinar para qué tipo de hamiltonianos puede hallarse con eficiencia el estado fundamental (es decir, en un tiempo que aumente de manera «suave» con el número de partículas o de nodos en la red)? De hecho, este es justo el tipo de problema que interesa a los teóricos de la computación cuando estudian la complejidad de los problemas cuánticos. La simulación cuántica constituye un campo apasionante que encierra grandes promesas para el futuro. Pero los objetivos a corto plazo deberían quedar definidos con claridad. Como uno de tales objetivos, proponemos encontrar sistemas que satisfagan los criterios expuestos y, en particular, demostrar en el laboratorio la simulación de un sistema cuántico de muchos cuerpos en el que intervenga un entrelazamiento a gran escala (ya demostrado) que no pueda representarse con medios clásicos. Esto convertiría en realidad la idea de Feynman. Artículo publicado en Investigación y Ciencia, noviembre de 2012. Adaptado de Nature Physics, vol. 8, págs. 264-266, abril de 2012. Con la colaboración de

LOS AUTORES

Ignacio Ciraces director de la división de teoría del Instituto Max Planck de Óptica Cuántica de Garching. Peter Zoller es catedrático de física de la Universidad de Innsbruck y director de investigación en el Instituto de Óptica Cuántca e Información Cuántica. Ambos han destacado por sus trabajos pioneros en óptica cuántica y teoría cuántica de la información. PARA SABER MÁS

Simulating physics with computers.Richard Feynman en International Journal of Theoretical Physics, vol. 21, págs. 467-488, junio de 1982. Universal quantum simulators.Seth Lloyd en Science, vol. 273, págs. 1073-1078, agosto de 1996. Quantum simulators.Iulia Buluta y Franco Nori en Science, vol. 326, págs. 108-111, octubre de 2009.

Fronteras de la física cuántica  49

Mundos cuánt TEORÍA C UÁNTIC A E INFOR M AC IÓN

Numerosos sistemas cuánticos resultan demasiado complejos para calcular sus propiedades. La simulación cuántica permite recrear su comportamiento por medio de sistemas formalmente análogos y fáciles de controlar en el laboratorio Oliver Morsch e Immanuel Bloch

50  TEMAS 86

icos simulados

TEATRO CUÁNTICO:En este simulador cuántico del Instituto Max Planck de Óptica Cuántica de Garching, un sinnúmero de espejos, lentes y fibras ópticas controlan la luz de docenas de láseres. Con él los investigadores pueden enfriar átomos, atraparlos y manipularlos a fin de imitar efectos imposibles de estudiar por otros medios.

Fronteras de la física cuántica  51

EL RENACER DE UNA TÉCNICA

Desde hace unos años, sin embargo, los simuladores han experimentado un regreso inesperado bajo una nueva forma. A pesar de la enorme potencia de cálculo de los ordenadores digitales modernos, existen aún problemas que estos no pueden resolver. El más fundamental de ellos fue formulado por Richard Feynman durante una charla impartida en 1981. Dicho problema nos lleva a una pregunta tan simple como profunda: ¿cómo se simula la realidad de la física? En particular, ¿cómo se simula la realidad de la física cuántica? La trascendencia de la cuestión puede verse como consecuencia de uno de los fenómenos centrales del mundo cuántico: la superposición de estados. Para ver por qué, imaginemos una pequeña aguja imantada que puede adoptar una de dos posiciones: su polo norte apunta, o bien hacia arriba, o bien hacia abajo. Un disco duro consta, en esencia, de una cantidad enorme

de tales agujas. Para describir su estado, necesitaremos tantos bits (variables que pueden tomar los valores 0 o 1, «arriba» o «abajo») como agujas. Si añadimos una aguja más, habremos de incorporar un bit adicional. Existe un análogo cuántico de nuestra aguja imantada: el espín del electrón. Sin embargo, la descripción física de un conjunto de espines difiere de manera radical de la de su versión clásica. Además de hacia arriba o hacia abajo, las leyes cuánticas permiten que el espín de una partícula se encuentre en una superposición de ambos estados. Así pues, para caracterizar el espín de un electrón hacen falta dos números, llamados amplitudes de probabilidad. Su cuadrado determina la probabilidad de que, al efectuar una medida, hallemos el espín en un estado u otro. Pero, mientras no realicemos ninguna medición —y en ello radica la peculiaridad de la mecánica cuántica—, el espín del electrón apuntará en ambas direcciones a la vez. La situación se complica cuando consideramos simultáneamente varios espines, ya que el principio de superposición debe aplicarse a todos ellos. Para describir su estado con exactitud, habremos de conocer las amplitudes de probabilidad de todas las combinaciones posibles de dos estados. Así pues, en el caso de dos espines, necesitaremos cuatro números (22), y con tres espines, ocho (23). En general, dar cuenta de un sistema de N espines requiere 2N valores, una cantidad que crece de forma exponencial. Para describir el estado de 40 espines harían falta en torno a un billón de números, una cantidad de información equivalente a varios teraoctetos de datos. Pero, para el caso de 80 espines, necesitaríamos billones de teraoctetos: más información que la acumulada por la humanidad a lo largo de toda su historia. Nuestro ejemplo revela hasta qué punto resulta imposible calcular el comportamiento de un sistema cuántico —incluso uno de tamaño modesto— con un ordenador digital. Feynman lo expresó así: «La naturaleza no es clásica. Y, si deseamos simularla, habremos de asegurarnos de que la simulación es cuántica». Para ello contamos en principio con dos posibilidades: o bien construir un ordenador digital, pero en el que las unidades básicas de información sean cuánticas (bits cuánticos, o «qubits»), o bien desarrollar dispositivos analógicos, similares en espíritu a los antiguos analizadores de redes. Es decir, simuladores cuánticos. Para construir un simulador de tales características se necesitan objetos cuánticos cuyas propiedades sean bien conocidas por los investigadores y que puedan controlarse con facilidad en un laboratorio. Durante los últimos años se han investigado varios sistemas de este tipo, como iones atrapados en campos eléctricos, fotones o dispositivos superconductores. Cada uno de estos enfoques presenta sus ventajas y sus inconvenientes. Los iones se dejan apresar y controlar sin problemas, pero, dado que poseen carga eléctrica, se hallan sujetos a las perturbaciones electromagnéticas. Además, no resulta sencillo trabajar de forma simultánea con más de una docena de ellos. Los componentes superconductores pueden fabricarse a medida según las necesi-

EN SÍNTESIS

Describir el estadode un sistema cuántico de muchos cuerpos, como un sólido, requiere manejar ingentes cantidades de información. Calcular sus propiedades resulta impracticable incluso con los mejores superordenadores del mundo.

52  TEMAS 86

Una manera alternativade estudiar tales sistemas consiste en simular su comportamiento por medio de un número reducido de objetos cuánticos controlables, como átomos ultrafríos atrapados en redes ópticas.

Gracias a las técnicas de simulación cuántica, los físicos pueden estudiar en condiciones controladas todo tipo de fenómenos, como las transiciones de fase cuánticas o las propiedades electrónicas de materiales exóticos.

PÁGINAS ANTERIORES: AXEL GRIESCH

H

acia finales del siglo xix, la construcciónde las primeras redes eléctricas de gran tamaño supuso un verdadero problema para ingenieros e inversores. Nadie era capaz de predecir el comportamiento de aquellos sistemas, que por vez primera surcaban cientos de kilómetros para transportar corriente alterna hasta los rincones más remotos de América y Europa. Las sobretensiones debidas a cortocircuitos u otras adversidades amenazaban con destruir cables e incluso instalaciones industriales enteras. Y aunque, en principio, el comportamiento de una red eléctrica podía describirse por medios matemáticos, las complejas ecuaciones diferenciales resultantes eran en la práctica imposibles de resolver a mano. Ello aumentaba sobremanera los riesgos técnicos y económicos asociados a los grandes proyectos eléctricos. Azuzados por la necesidad, los ingenieros dieron con una brillante idea: si no eran capaces de calcular el comportamiento de una red eléctrica, tal vez pudieran simularlo. Ello implicaba fabricar sistemas reducidos y manejables en un laboratorio, que, combinados, presentasen propiedades análogas a las de una línea de transmisión de cientos de kilómetros de longitud. Un simulador de tales características fue construido hacia 1930 por Vannevar Bush, del Instituto de Tecnología de Massachusetts. Bautizado como «analizador diferencial», su dispositivo permitía reproducir en el laboratorio el comportamiento de una red eléctrica y, con ello, resolver las ecuaciones que la describían. De hecho, tales analizadores no eran ni más ni menos que computadoras, solo que analógicas en vez de digitales. Hasta principios de los años sesenta, numerosas compañías eléctricas recurrieron a los analizadores de redes. Pero, poco después, estos comenzaron a verse reemplazados por ordenadores digitales, los cuales podían obtener los mismos resultados mejor y más rápido. Con ello, la era de las computadoras analógicas parecía haber llegado a su fin.

Sistema clásico (imanes)

Sistema cuántico (espines)

1 objeto

2 posibilidades

2 objetos

4 posibilidades

N objetos

2N posibilidades

dades de los investigadores, pero también en este caso se hace difícil combinar un gran número de ellos. Una posibilidad más prometedora consiste en enfriar átomos neutros a temperaturas muy bajas y atraparlos después en una «red óptica» formada por haces de luz láser. Por un lado, los átomos neutros permanecen relativamente inmunes a las perturbaciones electromagnéticas; por otro, los investigadores pueden atrapar con facilidad millones de ellos y manipularlos prácticamente a su antojo. Así pues, estos sistemas ofrecen propiedades óptimas para construir simuladores cuánticos.

MIKE BECKERS/SPEKTRUM DER WISSENSCHAFT

TRANSICIONES CUÁNTICAS

Son varios los escenarios que pueden recrearse con ayuda de átomos neutros en redes ópticas. Un sólido consta de un enorme número de partículas, lo que dificulta predecir el comportamiento de metales, semiconductores o superconductores a partir de las propiedades de los átomos que los componen. Hoy por hoy, aún no existe una teoría que explique por completo por qué algunos materiales se tornan superconductores a temperaturas inesperadamente elevadas. Los simuladores cuánticos podrían ayudar a entender tales fenómenos y, tal vez, incluso a desarrollar nuevos materiales con propiedades diseñadas a medida. En 2002, un grupo de investigadores de la Universidad Ludwig Maximilian de Múnich construyó un simulador cuántico sencillo, gracias al cual logró reproducir un fenómeno que los físicos de estado sólido habían predicho veinte años atrás. Este versaba sobre el comportamiento de partículas cuánticas sometidas a un potencial periódico (como el creado por una red cristalina) y que, además, se repelen cuando se encuentran. Las leyes cuánticas tienden a facilitar el movimiento de tales partículas, ya que, gracias al efecto túnel, existe una probabilidad de que una que se halla en un pozo de potencial alcance el pozo vecino incluso si carece de la energía necesaria para superar la barrera. A partir de consideraciones teóricas, los investigadores sabían que, a temperaturas muy bajas, cuando la fuerza de repulsión en­ tre las partículas y la profundidad de los pozos satisficiesen una proporción determinada, debía producirse una transición de fase

INCALCULABLE: Al contrario de lo que ocurre con un imán clásico (izquierda), el espín de una partícula cuántica puede hallarse en una superposición de sus dos estados fundamentales (derecha). Como consecuencia, describir por completo el estado colectivo de un conjunto de espines requiere una cantidad de información que crece de manera exponencial con el número de partículas. Para dar cuenta del estado de 80 espines, se necesitarían billones de teraoctetos: más información que la acumulada por la humanidad a lo largo de toda su historia.

cuántica; es decir, una metamorfosis entre dos estados fundamentalmente distintos, como ocurre cuando el agua líquida se calienta, hierve y se transforma en vapor. En el caso de partículas cuánticas en un retículo cristalino, la causa de la transición de fase es otra, ya que cerca del cero absoluto toda agitación térmica se interrumpe y lo único que puede desencadenar tales procesos es una especie de «ruido cuántico». Con todo, hay una explicación muy gráfica de lo que sucede. Cuando las fuerzas que reinan en el seno del cristal revisten poca intensidad, las partículas gozan de cierta libertad de movimiento, ya que pueden pasar por efecto túnel de un pozo de potencial a otro. Podemos decir que conforman un estado «superfluido», en el que la interacción entre dos partículas que coinciden en un mismo sitio apenas desempeña ningún papel. En cambio, si los pozos de potencial son profundos, las partículas se mantendrán relativamente fijas en sus posiciones. Debido a su repulsión mutua, que una de ellas pase a una posición de la red ya ocupada por otra partícula resultará muy desfavorable energéticamente. Ello provocará que las partículas dejen de circular por la red; un fenómeno que da lugar a un estado conocido como «aislante de Mott» [véase «¿Aislante o metal?», por Arantzazu Mascaraque y Antonio Tejeda; Investigación y Ciencia, marzo de 2011]. Aunque en un sólido nadie había conseguido observar de manera directa la transición a aislante de Mott, para el equipo de Múnich fue relativamente sencillo hacerlo en un simulador cuántico. Para ello partieron de un condensado de Bose-Einstein, una fase exótica de la materia en la que un gran número de partículas enfriadas a temperaturas muy bajas adoptan el mismo estado cuántico. Al atrapar dicho condensado en una red óptica tridimensional, generaron un sistema análogo a un sólido. A continuación, ajustaron los láseres que conformaban la red para que los pozos de potencial fuesen poco profundos y los átomos pudieran moverse con facilidad de uno a otro. Para comprobarlo, los físicos dejaron caer los átomos de la red apagando los láseres. Dado que toda partícula tiene asociada una onda de materia, cuando estas se superponen generan un patrón

Fronteras de la física cuántica  53

ÁT O M O S E N R E D E S Ó P T I C A S

Congelados y atrapados

de interferencia característico. Al detectarlo, los investigadores dedujeron que los átomos se encontraban en un estado análogo al superfluido. Después, al repetir el experimento aumentando poco a poco la profundidad de los pozos de potencial, observaron que, en cierto momento, el patrón de interferencia desaparecía: un signo de que los átomos ya no vagaban con libertad, sino que permanecían atrapados en posiciones fijas en la red. El superfluido había dado paso a un aislante de Mott. PARTÍCULAS INDIVIDUALES

A la hora de estudiar un sólido, los investigadores han de recurrir a vías indirectas, como aplicar una diferencia de potencial y medir la corriente que fluye, o exponer el material a campos eléctricos o magnéticos. Sin embargo, resulta imposible observar de manera directa el movimiento de cada uno de los electrones del material. La situación cambia cuando simulamos un sistema por medio de redes ópticas. Hacer visible cada uno de los átomos que toman parte en la simulación no resulta tarea sencilla, ya que la distancia entre los pozos de la red se corresponde aproximadamente con la longitud de onda de la luz, la cual limita a su vez la resolución de cualquier microscopio. A pesar de todo, tal objetivo fue logrado por investigadores de Harvard y del Instituto Max Planck de Óptica Cuántica de Garching. Para ello, acoplaron con habilidad un microscopio de alta resolución a las instalaciones de vacío y los láseres necesarios para los experimentos con átomos fríos. La recompensa fue una mirada excepcional a la vida interior de un sistema cuántico de muchos cuerpos. Los físicos lograron hacer visibles cada uno de los átomos y comprobaron que, en efecto, en un aislante de Mott, cada sitio de la red se encuentra ocupado por una sola partícula. La posibilidad de observar átomos individuales ha abierto perspectivas completamente nuevas. Gracias a esta técnica, el

54  TEMAS 86

Enfriamiento por láser

Enfriamiento por evaporación

Red óptica

Una vez enfriados, los átomos se atrapan en una red óptica formada por láseres (derecha). Esta se basa en la fuerza dipolar que la propia luz láser ejerce sobre el átomo, la cual lo atrae hacia el punto de mayor intensidad luminosa. Para generar una red, los investigadores superponen varios haces láser, lo que genera franjas de interferencia en las que se alternan zonas de mayor y menor intensidad luminosa. Este método permite crear un entramado de pozos de potencial distribuidos prácticamente a voluntad, en cada uno de los cuales puede quedar retenido un único átomo.

grupo de Harvard consiguió reproducir la creación de un imán cuántico; un proceso que, al igual que ocurre con la formación de un aislante de Mott, también ocurre por medio de una transición de fase. Pensemos en una cadena formada por pequeños imanes. A partir de consideraciones clásicas, resulta sencillo ver que cada imán tenderá a orientarse en el mismo sentido que su vecino. Si agitamos la configuración, llegará un momento en que esa alineación se perderá. Tendrá lugar entonces una transición de fase de un estado magnetizado a uno carente de magnetización. Algo parecido ocurre con un conjunto de imanes cuánticos. Para comprobarlo, los investigadores simularon una cadena de espines por medio de átomos atrapados en una red óptica. Dichos átomos no eran magnéticos, por lo que, como cualidad análoga a la orientación de los espines, fue necesario emplear otra propiedad característica del sistema. Gracias a un ingenioso montaje experimental, los físicos pudieron usar como equivalente el número de partículas situadas en cada sitio de la red: cuando cada nodo se encontraba ocupado exactamente por un átomo, el sistema podía reinterpretarse como una cadena de espines apuntando hacia arriba. Para simular la transición de fase magnética, los físicos emplearon un campo externo cuyo efecto equivalía a «inclinar» la red. Cuando el campo alcanzaba una intensidad determinada, la diferencia de altura entre dos posiciones vecinas correspondía a la barrera energética resultante de la repulsión entre átomos. De esta manera, algunos de ellos podían pasar por efecto túnel a sitios ya ocupados, dejando tras de sí una posición libre. Como resultado, el experimento consiguió recrear las condiciones de un estado antiferromagnético, en el que espines vecinos apuntan en sentidos opuestos. Y, a medida que inclinaban la red, los investigadores pudieron observar la transición de fase al estado antiferromagnético.

MIKE BECKERS/SPEKTRUM DER WISSENSCHAFT

Numerosas simulaciones cuánticasconsisten en manipular átomos en redes ópticas. Para ello, los átomos deben primero enfriarse a temperaturas muy próximas al cero absoluto. El enfriamiento por láser (izquierda) se basa en el retroceso que experimenta un átomo (verde) cuando absorbe un fotón. La longitud de onda del láser se aumenta ligeramente con respecto a la que corresponde a la frecuencia de resonancia del átomo (aquella para la que la absorción es máxima). Debido al efecto Doppler, un átomo que se mueva hacia el láser «verá» una frecuencia más próxima a la de resonancia, por lo que absorberá más fotones que otros que ya estén en reposo. Si los haces láser provienen de las tres direcciones del espacio, los átomos irán perdiendo poco a poco su energía cinética. Esta técnica permite enfriar las partículas hasta pocas millonésimas de grado Kelvin. Con trampas magnéticas u ópticas (centro) pueden lograrse temperaturas aún menores. Para ello se emplea el «enfriamiento por evaporación», una técnica que imita el proceso que tiene lugar cuando soplamos para enfriar una bebida. Dichas trampas generan un pozo de potencial, de modo que los átomos más energéticos escapan de él y los que permanecen en su interior alcanzan un estado de equilibrio térmico a temperaturas ultrabajas.

MIKE BECKERS/SPEKTRUM DER WISSENSCHAFT (redes ópticas); STEFAN KUHR E IMMANUEL BLOCH/INSTITUTO MAX PLANCK DE ÓPTICA CUÁNTICA (átomos individuales)

DEL GRAFENO A LOS ESTADOS DE HIGGS

Los simuladores cuánticos están permitiendo estudiar fenómenos cada vez más complejos. En la actualidad resulta posible incluso alterar la geometría de la red a voluntad. En 2011, un grupo de investigadores del Instituto Politécnico de Zúrich (ETH) consiguió recrear una red hexagonal. Gracias a ello pudieron simular el comportamiento electrónico del grafeno, un material muy estudiado por su potencial para revolucionar la industria de los componentes electrónicos. El grafeno consta de capas bidimensionales (de un único átomo de espesor) de átomos de carbono dispuestos en forma de panal. Dicha estructura es la responsable de las excepcionales propiedades de este material en lo que respecta a su conductividad térmica y eléctrica. Entre otras razones, ello se debe a la peculiar estructura de sus niveles de energía. En los materiales comunes, los niveles de energía que pueden ocupar los electrones forman bandas separadas. En el grafeno, en cambio, dichas bandas se tocan en ciertos puntos, llamados «puntos de Dirac». Ello modifica de manera radical las propiedades electrónicas del material, ya que los electrones se comportan de modo análogo a las partículas relativistas que se desplazan a velocidades próximas a la de la luz (si bien su velocidad real es mucho menor) [véase «Grafeno», por A. K. Geim y P. Kim; Investigación y Ciencia, junio de 2008, y «Electrónica del grafeno», por J. González Carmona, F. Guinea y M. A. H. Vozmediano; Investigación y Ciencia, septiembre de 2010]. Los investigadores del ETH emplearon una red hexagonal de rayos láser para atrapar átomos de potasio, los cuales pasaron a comportarse como los electrones en el grafeno. De esta manera, bajo condiciones controlables, estudiaron procesos que hubieran sido imposibles de analizar en una muestra de grafeno real. Entre ellos, modificar la forma de la red, desplazar los puntos de Dirac y fusionarlos entre sí. Hoy resulta posible incluso recrear campos magnéticos artificiales en redes ópticas, un requisito imprescindible para simular ciertas situaciones en las que intervienen partículas dotadas de carga eléctrica. Cuando estas se hallan inmersas en un campo magnético, actúa sobre ellas una fuerza perpendicular a la dirección de su movimiento. La situación se torna especialmente interesante cuando las partículas se ven obligadas a desplazarse en dos dimensiones; es decir, sobre una superficie. Uno de los fenómenos de este tipo más estudiados es el efecto Hall cuántico, cuyo descubrimiento valió a su autor el premio Nobel de física en 1985. Dicho efecto tiene lugar cuando un sistema

Mayor intensidad del láser

Menor intensidad del láser

Superfluido

Aislante de Mott

TRANSICIÓN CONTROLADA:Los átomos atrapados en redes ópticas permiten simular las fases cuánticas de la materia. Cuando la intensidad de los láseres es débil (izquierda), los átomos pueden moverse con libertad, lo que reproduce las condiciones de un superfluido. Al aumentar su potencia, los pozos de potencial se vuelven más profundos y las partículas quedan paralizadas; una fase conocida como aislante de Mott.

bidimensional de electrones se somete a un campo magnético externo muy intenso. En simulaciones cuánticas con átomos fríos, resulta sencillo generar estructuras bidimensionales. Y cabe pensar que, en un futuro, será posible generar campos magnéticos artificiales lo bastante intensos para estudiar en detalle el comportamiento de los electrones en tales condiciones. En principio, tales campos sintéticos podrían ser hasta miles de veces mayores que los que hoy consiguen generar los mejores imanes del mundo. Nadie sabe a ciencia cierta cuáles podrían ser sus efectos, por lo que los investigadores no descartan encontrar sorpresas. Pero los electrones de un sólido no solo experimentan los efectos de los campos externos, sino también los que generan otras partículas en el seno del material. De hecho, algunas propiedades de gran interés de numerosos sistemas cuánticos se deben a las interacciones entre sus propios componentes, ya sean estas atractivas o repulsivas. Sin embargo, la mayoría de las simulaciones cuánticas realizadas hasta ahora solo han logrado recrear las interacciones «de contacto»; es decir, aquellas que aparecen cuando dos o más átomos coinciden en el mismo pozo de potencial.

FASES BAJO EL MICROSCOPIO:Las técnicas de simulación cuántica permiten visualizar átomos individuales. Esta reconstrucción muestra las posiciones atómicas de un condensado desordenado (izquierda) y de su transición a aislante de Mott (centro y derecha).

Fronteras de la física cuántica  55

Los investigadores de Garching estudiaron con detalle el comportamiento de un gas frío durante la transición a aislante de Mott. En primer lugar, crearon un condensado de Bose-Einstein en una red bidimensional. A continuación variaron de forma periódica la intensidad de los láseres —y, con ello, la profundidad de la red— durante algunos milisegundos. Al medir con precisión los cambios de temperatura del gas inducidos por dicha perturbación, lograron determinar la manera en que reaccionaba el gas cuántico. En la proximidad de la transición de fase, el sistema resultó comportarse tal y como se esperaba que lo hiciera en presencia de una excitación de Higgs. LA PROMESA DE FEYNMAN

Con ayuda de pulsos láser, una interacción a distancias mayores puede conseguirse excitando los átomos hasta los llamados «estados de Rydberg», aquellos en los que el electrón más externo se sitúa a una distancia del núcleo miles de veces superior a la normal, lo que aumenta sobremanera la sensibilidad del átomo a campos eléctricos externos. Si dos átomos excitados de esta manera se acercan, el movimiento de cada electrón crea en el otro un campo eléctrico de corta duración, lo que genera una fuerza de varios micrómetros de alcance y cuya intensidad puede regularse con precisión. Hoy en día ya resulta posible recrear estructuras cristalinas con átomos de Rydberg. En el futuro, los expertos confían en emplear esta técnica para simular sistemas de todo tipo, como algunos complejos moleculares importantes para la fotosíntesis. Las posibilidades de los simuladores cuánticos no se acaban en el estudio de los sólidos. Los átomos atrapados en redes ópticas permiten reproducir fenómenos que normalmente asociamos a los grandes aceleradores de partículas, como el Gran Colisionador de Hadrones (LHC) del CERN, en Ginebra. En 2012, un grupo de investigadores del Instituto Max Planck de Óptica Cuántica de Garching logró identificar las llamadas «excitaciones de Higgs», estados colectivos que se comportan de manera análoga al célebre bosón de Higgs del modelo estándar de las partículas elementales, descubierto aquel mismo año en el LHC. De hecho, aunque el mecanismo de Higgs es hoy conocido en el ámbito de la física de partículas, sus orígenes se remontan a la física del estado sólido [véase «De la superconductividad al bosón de Higgs», por Miguel Ángel Vázquez-Mozo; Investigación y Ciencia, julio de 2014].

56  TEMAS 86

Artículo publicado en Investigación y Ciencia, mayo de 2015

LOS AUTORES

Oliver Morschdesarrolla su investigación sobre átomos en redes ópticas en la Universidad de Pisa. Immanuel Bloches director científico en el Instituto Max Planck de Óptica Cuántica de Garching, donde lidera el grupo de investigación de sistemas cuánticos de muchos cuerpos. PARA SABER MÁS

Quantum simulations with ultracold quantum gases.Immanuel Bloch, Jean Dalibard y Sylvain Nascimbène en Nature Physics, vol. 8, págs. 267-276, abril de 2012. EN NUESTRO ARCHIVO

Campos electromagnéticos artificiales.Karina Jiménez García en IyC, febrero de 2012. Simulación cuántica de dimensiones suplementarias.José Ignacio Latorre en IyC, julio de 2013.

IMMANUEL BLOCH/INSTITUTO MAX PLANCK DE ÓPTICA CUÁNTICA

INTERACCIONES SINTÉTICAS:A fin de recrear las interacciones a larga distancia que experimentan las partículas de un sólido, los átomos de una simulación pueden excitarse hasta alcanzar los estados de Rydberg, configuraciones en las que la nube electrónica se encuentra mucho más expandida de lo usual (imagen). Como consecuencia, los átomos se tornan sensibles a efectos generados en puntos distantes de la red.

Como hemos visto, la simulación cuántica permite reproducir en el laboratorio fenómenos propios de los más diversos campos de la física. Una posibilidad de particular interés reside en la modelización de materiales y sistemas completamente nuevos, carentes de análogo en la naturaleza. Tales experimentos podrían iluminar aplicaciones hoy inimaginables. Algo muy parecido sucedió hace un siglo con los analizadores de redes. Pronto se descubrió que, además de predecir el comportamiento de las grandes redes de distribución eléctrica, dichos dispositivos ofrecían la posibilidad de afrontar cálculos muy diversos. Las ecuaciones diferenciales que, gracias a sus incontables componentes, los analizadores resolvían de forma analógica resultaron describir otros fenómenos físicos, como la deformación de algunos materiales o incluso ciertos procesos regidos por la ecuación de Schrödinger, una de las bases de la mecánica cuántica. Sin duda, todos esperamos ver algún día el objetivo que adelantó Feynman en su charla: un ordenador cuántico universal que pueda programarse a voluntad y que permita calcular el comportamiento de cualquier sistema cuántico. Hace años que los investigadores se afanan por desarrollar uno. Por el momento, sin embargo, los mejores prototipos no logran combinar más que unos pocos qubits, por lo que aún no pueden aplicarse a ningún cálculo útil. Mientras tanto, los simuladores cuánticos seguirán siendo indispensables para entender mejor todo tipo de procesos. Cabe augurar que aún disfrutaremos de su potencial durante años, en el ámbito de la física cuántica y más allá.

ISTOCK/ LIUZISHAN; MODIFICADO POR INVESTIGACIÓN Y CIENCIA

Retos cuánticos

RE TOS CUÁNTICOS

Vivir en un mundo cuántico

La mecánica cuántica no solo describe el comportamiento del mundo microscópico. Su influencia llega a todas las escalas: pájaros, plantas y, quizás, el ser humano Vlatko Vedral Pero esa división es un mito. A día de hoy, muy pocos otorgan a la física clásica un rango equiparable al de la mecánica cuántica; en realidad, aquella no representa más que una aproximación útil a un mundo que se rige por leyes cuánticas a todas las escalas. Puede que los efectos cuánticos resulten difíciles de observar en el mundo macroscópico, pero la razón no tiene que ver con el tamaño en sí, sino con la manera en que los sistemas cuánticos interaccionan unos con otros. Hasta principios de este siglo no se había confirmado de manera experimental la persistencia del comportamiento cuántico a escalas macroscópicas, pero hoy se hace de manera rutinaria. Tales efectos son mucho más penetrantes de lo que nunca nadie había sospechado. Podrían afectar incluso a las células de nuestro cuerpo. Incluso a quienes nos dedicamos a estudiar tales fenómenos nos cuesta asimilar lo que estos nos enseñan sobre la naturaleza. El comportamiento cuántico elude la visualización y el sentido común; nos fuerza a reconsiderar nuestra concepción del universo y a aceptar una imagen insólita de nuestro mundo.

EN SÍNTESIS

La mecánica cuánticaha sido considerada tradicionalmente la teoría del mundo microscópico: la física de las moléculas, los átomos y las partículas subatómicas.

58  TEMAS 86

No obstante,se cree que su aplicabilidad es universal. La razón por la que sus extrañas propiedades se desvanecen en sistemas de gran tamaño no obedecería a una simple cuestión de escala.

Durante los últimos años,los experimentos han demostrado la aparición de efectos cuánticos en un número cada vez mayor de sistemas macroscópicos.

El efecto cuánticopor antonomasia, el entrelazamiento, puede tener lugar tanto a temperaturas elevadas como en sistemas de gran tamaño, incluidos los seres vivos.

JUSTIN VAN GENDEREN

L

os libros de texto suelen presentar la mecánica cuántica como la teoría del mundo microscópico. Esta explica el comportamiento de las partículas, los átomos y las moléculas, pero deja paso a la física clásica cuando llegamos a la escala de las frutas, las personas o los planetas. En algún punto entre las moléculas y la fruta se hallaría la frontera donde cesa el comportamiento cuántico y comienza la familiaridad de lo clásico. La impresión de que la mecánica cuántica se limita al mundo microscópico se extiende incluso al ámbito científico. Brian Greene, de la Universidad de Columbia, escribe en la primera página de su renombrado —y, por lo demás, excelente— libro El universo elegante que la mecánica cuántica «proporciona una herramienta teórica para entender el universo a las escalas más diminutas». La física clásica, que comprende cualquier teoría que no sea cuántica, incluida la relatividad de Einstein, se ocupa de las escalas mayores.

Fronteras de la física cuántica  59

FÍSICA DEMENTE

Para un físico cuántico, las leyes clásicas describen una versión en blanco y negro de un mundo que en realidad brilla en tecnicolor: las categorías clásicas fallan a la hora de capturar todos sus matices. En los libros de texto tradicionales, las ricas tonalidades de lo cuántico se van difuminando a medida que aumenta el tamaño del sistema. Una a una, las partículas son cuánticas; en conjunto, se tornan clásicas. El primer indicio de que el tamaño no supone el factor determinante se remonta a uno de los experimentos mentales más famosos de la historia: el del gato de Schrödinger. El físico austriaco propuso su macabra paradoja para ilustrar la imposibilidad de trazar fronteras entre los mundos microscópico y macroscópico. Según la mecánica cuántica, un átomo radiactivo puede haberse desintegrado y, al mismo tiempo, no haberlo hecho. Si el átomo se conecta a una ampolla de veneno de tal manera que, en caso de desintegrarse, el veneno se libera y mata al gato, el animal pasa a formar parte del mismo limbo cuántico en el que se encuentra el átomo. La rareza de uno contagia al

otro. La verdadera pregunta es por qué los amos solo ven a sus mascotas vivas o muertas. El punto de vista moderno sostiene que el mundo adopta una apariencia clásica como consecuencia de las complejas interacciones entre un objeto y su entorno, las cuales conspiran para esconder los efectos cuánticos. La información sobre el estado de salud del gato se filtra con rapidez al entorno en forma de fotones e intercambio de calor. Un estado cuántico puede describirse como una combinación de varios estados clásicos (por ejemplo, «vivo» y «muerto»), pero dichas combinaciones tienden a disiparse. La información que acaba llegándonos se expresa en condiciones clásicas bien definidas, como «vivo» o «muerto». Esa filtración de la información constituye la base de un proceso conocido como decoherencia [véase «Cien años de misterios cuánticos», por Max Tegmark y John Archibald Wheeler; Investigación y Ciencia, abril de 2001]. La sensibilidad de un objeto a la decoherencia aumenta con su tamaño, lo que explica por qué la mayoría de las veces funciona considerar la mecánica cuántica como la teoría de lo micros-

U N A PA R A D O JA C UÁ N T I C A

Observar al observador La idea de que la mecánica cuántica se aplica a todos los objetos, humanos incluidos, implica extrañas conclusiones. Consideremos esta variante del famoso experimento del gato de Schrödinger que Eugene P. Wigner propuso en 1961 y que David Deutsch, de la Universidad de Oxford, desarrolló en 1986. Supongamos que una física experimental muy cualificada, Alicia, encierra a su amigo Benito en un cuarto junto a un gato, un átomo radiactivo y una ampolla con veneno para gatos. Tal y como ocurría en el experimento original, el veneno se libera cuando el átomo se desintegra. La diferencia crucial reside en que ahora hay un humano con quien nos podemos comunicar. Desde el punto de vista de Alicia, el átomo se halla en una superposición de estados, desintegrado y no desintegrado al mismo tiempo, por lo que también el gato se encuentra vivo y muerto a la vez. Benito, sin embargo, puede observar al gato y lo ve en un estado o en otro. Alicia pasa un papel por debajo de la puerta en el que pregunta a Benito si el gato se halla en un estado definido. Benito responde «sí». Obsérvese que Alicia no ha preguntado si el gato estaba vivo o muerto, pues ello habría forzado un resultado (o, como se dice en términos técnicos, habría «colapsado» el estado). A ella le basta

60  TEMAS 86

con saber que Benito ve el gato vivo o muerto, pero no le pregunta cómo lo ve. Pero, dado que Alicia ha evitado colapsar el estado, la teoría cuántica nos dice que pasar el papel por debajo de la puerta es un proceso reversible. En principio, Alicia podría desandar todos los pasos que ha dado. Y si para Benito el gato había muerto, ahora podría estar vivo, el veneno se hallaría en la botella, la partícula no se habría desintegrado y Benito no recordaría haber visto ningún gato muerto. Pero queda una traza: la hoja de papel. Alicia tiene la posibilidad de deshacer la observación de tal manera que el papel quede intacto. Y en la nota queda escrita la palabra «sí», que demuestra que Benito había visto el gato vivo o muerto. Lo anterior conduce a una conclusión extraordinaria. Alicia fue capaz de dar la vuelta a la observación porque, por su parte, evitó colapsar el estado: para ella, Benito se hallaba en un estado tan indeterminado como el gato. Pero Benito creyó que el estado había colapsado, pues él sí vio un resultado bien definido. El papel es la prueba de ello. El experimento demuestra dos principios aparentemente contradictorios. Alicia piensa que la mecánica cuántica se aplica a los objetos macroscópicos, pues no solo el gato, sino también Benito puede hallarse en un limbo cuántico. Benito, por su parte, cree que los gatos solo pueden estar vivos o muertos. Aunque llevar a cabo semejante experimento con un humano revesti-

ría una complejidad enorme, se ha conseguido prácticamente lo mismo con sistemas más simples. Anton Zeilinger, de la Universidad de Viena, y sus colaboradores experimentan con fotones a los que envían contra un espejo semitransparente. Si el fotón es reflejado, el espejo retrocede; si lo atraviesa, el espejo permanece inmóvil. Aquí el fotón desempeña la función del átomo que se desintegra, pues puede hallarse en una superposición de estados. El espejo, con sus miles de millones de átomos, funciona como el gato y como Benito. Que el espejo retroceda o quede en reposo resulta análogo a que el gato muera o no y que Benito vea si muere o vive. En este caso, el proceso puede revertirse al volver a reflejar el fotón hacia el espejo. A escalas menores, los equipos liderados por Rainer Blatt, de la Universidad de Innsbruck, y por David J. Wineland, del Instituto Nacional de Estándares y Tecnología de EE.UU, han logrado deshacer las medidas sobre iones en vibración en una trampa. Al desarrollar su astuto experimento mental, Wigner y Deutsch siguieron los pasos de Erwin Schrödinger, Albert Einstein y otros que pensaban que aún era necesario hurgar en las profundidades de la mecánica cuántica. Durante décadas, los expertos rara vez se han preocupado de hacerlo, ya que los fundamentos de la teoría no afectaban a las aplicaciones prácticas. Pero, ahora que podemos realizar estos experimentos, entender los principios de la mecánica cuántica ha pasado a un primer plano.

E N T R E L A Z A M I E N T O M AC R O S C Ó P I C O cópico. Pero existen gran cantidad de situaciones en las que la filtración de la información puede ralentizarse o incluso frenarse por completo; es entonces cuando el mundo cuántico se exhibe en toda su gloria. El fenómeno cuántico por antonomasia es el Durante años se ha pensadoque los fenómenos cuánticos aparecían solo entrelazamiento, término acuñado por Schrödinger en átomos o partículas subatómicas; los sistemas formados por un gran en el mismo artículo de 1935 en el que presentó número de partículas se comportarían de manera clásica. En un cristal de su gato al mundo. El entrelazamiento une las parsal, los átomos suelen apuntar en direcciones aleatorias (izquierda). Estos tículas en un todo indivisible. Un sistema clásico se alinean al aplicar un campo magnético, pero lo hacen con mayor rapisiempre puede separarse en partes; al menos en dez que la predicha por la física clásica (centro). Es el entrelazamiento cuánprincipio, todas sus propiedades colectivas surtico (la «espeluznante acción a distancia» que coordina el comportamiento gen a partir de las de sus constituyentes. Pero no de las par­tículas) lo que les permite alinearse con gran rapidez (derecha). El así un sistema entrelazado, lo que implica confenómeno se revela al medir las propiedades magnéticas del cristal (gráfica). secuencias bastante extrañas. Incluso cuando las Más allá de las predicciones clásicas partículas entrelazadas se encuentran separadas una gran distancia, se comportan como una sola Magnetizado Magnetizado entidad, fenómeno que Einstein bautizó como su (predicción cuántica) Sin campo magnético (predicción clásica) famosa «espeluznante acción a distancia». La mayor parte de las veces se considera el entrelazamiento entre dos partículas elementales; electrones, por ejemplo. De manera algo rudimentaria, podemos imaginar estas partículas como pequeñas peonzas que rotan en uno u otro sentido en torno a un eje que puede adoptar cualquier orientación: horizontal, vertical, a 45 grados, etcétera. Para medir la rotación (espín) de la partícula, escogemos un eje y comprobamos la rotación del Predicción clásica Alta electrón en torno a dicho eje. Predicción cuántica Resultados experimentales Supongamos que las partículas se comportasen de manera clásica. Podríamos poner un electrón a girar en torno al eje horizontal en el sentido de las agujas del reloj y el otro alrededor del mismo eje, pero en sentido contrario. Decimos entonces Baja que el espín total es cero. Sus ejes de rotación 10-1 100 Temperatura (grados Kelvin) permanecen fijos, y, si decidimos medir el espín, el resultado dependerá de si el eje que escojamos para realizar la medición se encuentra alineado o no con el eje de rotación de las partículas. Si medimos el espín facilidad se entrelazan sus partículas con las del entorno, lo que en la dirección horizontal, veremos que ambas partículas giran oscurece las interconexiones originales entre las partículas. En en sentidos opuestos; si lo hacemos en la dirección vertical, no términos de decoherencia, se filtra demasiada información al observaremos rotación alguna. entorno, lo que provoca que el sistema acabe comportándose Para los electrones cuánticos, la situación cambia por com- de manera clásica. La dificultad de preservar el entrelazamiento pleto. Resulta posible preparar el sistema de tal modo que el plantea un reto de enormes proporciones a la hora de emplearlo espín total sea nulo, pero sin necesidad de especificar el espín con fines prácticos, como en el campo de la computación cuánde cada partícula. Si medimos entonces el espín de una de ellas, tica [véase «Procesamiento cuántico de la información», por la veremos girar en sentido horario o antihorario. Pero el resul- Antonio Acín, en este mismo número]. tado es aleatorio, como si la partícula decidiera por sí sola en Un experimento realizado en 2003 demostró que, si se manqué sentido rotar. Sin embargo, sea cual sea la dirección que tiene bajo control la filtración de información al entorno, es escojamos para medir los espines —y siempre y cuando esta sea posible conservar el entrelazamiento en sistemas de gran tamala misma para los dos—, veremos que ambos electrones rotan ño. Gabriel Aeppli, del Colegio Universitario de Londres, y sus siempre en sentidos opuestos. Sigue siendo un misterio cómo colaboradores dispusieron una muestra de sal de fluoruro de litio cada uno de ellos sabe que tiene que girar en sentido opuesto al en un campo magnético. Bajo tales condiciones, los átomos de la del otro. Es más: si se mide el espín de un electrón en la dirección sal se comportan como pequeños imanes giratorios que tratan horizontal y el del otro en la vertical, aún detectaremos un espín de alinearse con el campo magnético externo, una respuesta para cada uno. Da la sensación de que las partículas no poseen conocida como susceptibilidad magnética. Las fuerzas que unos un eje de rotación definido. Todos estos resultados nos llevan a átomos ejercen sobre otros actúan como una especie de «presión un punto que la física clásica no logra explicar. social» que lleva al conjunto a alinearse con mayor rapidez. Sin embargo, al medir el tiempo que los átomos tardaban en alinearTODOS A UNA se en función de la intensidad del campo, el equipo de Aeppli En la mayor parte de las demostraciones de entrelazamiento observó que los átomos respondían mucho más rápido de lo que no intervienen más que a unas pocas partículas. Cuanto mayor cabía esperar a partir de sus interacciones mutuas. Algún efecto es su número, más difícil resulta aislar el sistema y con mayor adicional aceleraba el alineamiento colectivo. Los investigadores

GEORGE RETSECK (ilustración), JEN CHRISTIANSEN (gráfica), FUENTE: «ENTANGLED QUANTUM STATE OF MAGNETIC DIPOLES», POR S. GHOSH ET AL, EN NATURE, VOL. 425, 4 DE SEPTIEMBRE DE 2003

Respuesta al campo magnético

Sal cuántica

Fronteras de la física cuántica  61

achacaron la respuesta al entrelazamiento. De ser cierto, habrían logrado entrelazar los 1020 átomos de la muestra. Para evitar la distorsión que la energía térmica hubiera podido introducir en la medida, el equipo de Aeppli realizó el experimento a temperaturas muy bajas, del orden del milikelvin. Desde entonces, Alexandre Martins de Souza, del Centro Brasileño para la Investigación Física de Río de Janeiro, y su equipo han logrado entrelazamientos macroscópicos en materiales como el carboxilato de cobre a temperatura ambiente e incluso superior. En estos sistemas, la interacción entre los espines de las partículas resulta lo bastante intensa como para resistir el caos térmico. En otros casos se aplica una fuerza externa para neutralizar los efectos térmicos. Desde entonces el entrelazamiento ha sido observado en sistemas de tamaños y temperaturas cada vez mayores, desde iones atrapados en campos electromagnéticos hasta átomos ultrafríos distribuidos en redes cristalinas o qubits en superconductores. Tales sistemas son análogos al gato de Schrödinger. Consideremos un átomo. Sus electrones pueden encontrarse cerca del núcleo, lejos de él, o ambas cosas al mismo tiempo. El electrón se comporta como el átomo radiactivo —que ha podido desintegrarse o no— del experimento mental de Schrödinger. Por otra parte, con independencia de lo que haga el electrón, el átomo puede estar desplazándose hacia la izquierda o hacia la derecha. Ese movimiento desempeña la función del gato vivo o muerto. Mediante un láser para manipular el átomo, es posible acoplar ambas propiedades: si el electrón se halla cerca del núcleo, podemos hacer que el átomo se mueva hacia la izquierda; si el electrón se aleja, el átomo se desplaza hacia la derecha. Ello entrelaza el estado del electrón con el movimiento del átomo, al igual que la desintegración radiactiva se hallaba entrelazada con el estado del gato. No hemos hecho más que sustituir al felino vivo o muerto por un átomo que se mueve a izquierda o derecha.

Otros experimentos han implementado la misma idea básica a escalas cada vez mayores. Se ha logrado entrelazar un número enorme de átomos y llevarlos a estados del todo imposibles para la física clásica. Y si los sólidos a escala macroscópica y a temperatura ambiente pueden experimentar el entrelazamiento, no nos encontramos sino a un paso de preguntarnos si podemos hacer lo mismo con una clase muy particular de sistemas calientes y de gran tamaño: los seres vivos. LOS PÁ JAROS DE SCHRÖDINGER

El petirrojo europeo es un pequeño pájaro que cada invierno migra de Escandinavia al África ecuatorial. Los petirrojos realizan este viaje de ida y vuelta de unos 13.000 kilómetros con tanta facilidad que, durante años, los expertos se han preguntado si estos animales poseen algún tipo de brújula. Durante los años setenta, Wolfgang y Roswitha Wiltschko, de la Universidad de Fráncfort, colocaron petirrojos que habían migrado a África en un campo magnético artificial. Descubrieron que los pájaros no notaban en absoluto una inversión del campo magnético, lo que indicaba que no podían distinguir entre norte y sur. Sin embargo, sí respondían a la inclinación del campo magnético de la Tierra (el ángulo que subtienden las líneas de campo con la superficie). Eso era todo lo que necesitaban para orientarse. Por otra parte, los petirrojos a los que tapaban los ojos no distinguían ningún campo magnético, lo que demostraba que, de alguna manera, percibían el campo con los ojos. En el año 2000, Thorsten Ritz, por entonces en la Universidad de Florida del Sur, y sus colaboradores propusieron que la clave residía en el entrelazamiento. Según su propuesta, basada en un trabajo previo de Klaus Schulten, de la Universidad de Illinois, en el ojo de las aves existe cierto tipo de molécula con dos electrones que forman un par entrelazado con espín total cero. Se trata de una situación irreproducible por medio de leyes

EXPERIMENT0S

El tamaño no importa Los efectos cuánticosno se limitan a las partículas subatómicas. Aparecen también en experimentos con sistemas mayores y a temperaturas elevadas. A continuación se listan algunos ejemplos logrados durante los últimos años. ~ RESULTADO AÑO TEMPERATURA EQUIPO

1999

Deducción del entrelazamiento entre billones de átomos a partir de la susceptibilidad magnética de carboxilatos metálicos.

2009 630 K

Alexandre Martins de Souza et al. (Centro Brasileño para la Investigación Física)

Demostración de que los efectos cuánticos aumentan la eficiencia de la fotosíntesis en dos especies de algas marinas.

2010

294 K

Elisabetta Collini et al. (universidades de Toronto, Nueva Gales del Sur y Padua)

Récord de observación de fenómenos cuánticos en moléculas gigantes, incluida una de 430 átomos.

2011

240–280 K

Stefan Gerlich, Sandra Eibenberger et al. (Universidad de Viena)

Entrelazamiento de tres qubits en un circuito superconductor. El procedimiento permite crear sistemas cuánticos de cualquier tamaño.

2010

0,1 K

Leonardo DiCarlo, Robert J. Schoelkopf et al. (Yale y Universidad de Waterloo)

Superposición de dos estados cuánticos en un resonador mecánico de unos 30 micrómetros (visible al ojo desnudo).

2010

25 mK (milikelvin)

Aaron O’Connell, Max Hofheinz et al. (Universidad de California en Santa Bárbara)

Entrelazamiento en cadenas de ocho iones de calcio atrapadas en una trampa para iones. Hoy se logran manejar hasta catorce.

2005 0,1 mK

Hartmut Häffner, Rainer Blatt et al. (Universidad de Innsbruck)

Entrelazamiento entre los modos de vibración (en lugar de propiedades internas, como el espín) de iones de berilio y magnesio.

2009 0,1 mK

John D. Jost, David J. Wineland et al. (Instituto Nacional de Estándares y Tecnología de EE.UU.)

62  TEMAS 86

900–1000 K (kelvin)

Markus Arndt, Anton Zeilinger et al. (Universidad de Viena)

GEORGE RETSECK

Observación de patrones de interferencia en moléculas de fullereno. Las moléculas, al igual que las partículas, se comportan como ondas.

clásicas. Cuando la molécula absorbe la luz visible, los electrones adquieren la energía necesaria para separarse, lo que los hace sensibles al campo magnético terrestre. Si el campo magnético se inclina, afecta de manera diferente a cada electrón e induce un desequilibrio que modifica la reacción química que experimenta la molécula. Esa diferencia se traduce en impulsos neurales que, a la postre, crean una imagen del campo magnético en el cerebro del pájaro. Aunque las pruebas del mecanismo de Ritz son indirectas, Christopher T. Rogers y Kiminori Maeda, de la Universidad de Oxford, han estudiado en el laboratorio —en lugar de en animales vivos— moléculas similares a las de Ritz y han demostrado que son, de hecho, sensibles a los campos magnéticos como consecuencia del entrelazamiento entre electrones. De acuerdo con los cálculos que mis colaboradores y yo hemos realizado, los efectos cuánticos persisten en el ojo del pájaro durante unos 100 microsegundos, lo que en este contexto supone un tiempo bastante largo: el récord para un sistema de espines de electrones creado en un laboratorio ronda los 50 microsegundos. Aún desconocemos cómo un sistema natural preserva los efectos cuánticos durante tanto tiempo, pero la respuesta quizá nos ayude a controlar la decoherencia en los ordenadores cuánticos. Otro proceso biológico que quizá guarde relación con el entrelazamiento es la fotosíntesis. La luz que incide sobre la planta excita los electrones de las moléculas de clorofila. Ello pone en marcha una cadena de transporte en la que los electrones han de encontrar su camino hacia un mismo lugar: el centro químico donde depositan su energía y desencadenan las reacciones que nutren las células de la planta. La física clásica no logra explicar la elevada eficiencia con la que el proceso tiene lugar. Los experimentos realizados por varios grupos, como el de Graham R. Fleming y Mohan Sarovar, de la Universidad de California en Berkeley, y Gregory D. Scholes, de la Universidad de Toronto, han sugerido que la eficiencia del proceso se debe a la mecánica cuántica. Según esta, una partícula no sigue un único camino, sino que procede por varios a la vez. Los campos electromagnéticos en el interior de las células vegetales provocarían que algunos de estos caminos se cancelasen, al tiempo que otros se verían reforzados. Como resultado, se reduciría la probabilidad de que los electrones diesen rodeos innecesarios y aumentaría la de que llegasen directos a su destino. El entrelazamiento duraría solo una fracción de segundo y afectaría a no más de 100.000 átomos. ¿Existe en la naturaleza algún ejemplo de entrelazamientos mayores y más persistentes? No lo sabemos. Pero la pregunta resulta lo bastante atractiva como para estimular el nacimiento de una nueva disciplina: la biología cuántica.

Pero los experimentos recientes dejan muy poco margen a tales límites. La división entre los mundos clásico y cuántico no parece fundamental, sino solo una cuestión de ingenuidad experimental. Hoy en día, pocos físicos piensan que la física clásica constituya una teoría correcta a ninguna escala. El hecho de que la mecánica cuántica se aplique a todos los tamaños nos obliga a enfrentarnos a los misterios más profundos de la teoría. No podemos relegarlos a meros detalles que afectan solo a las escalas más pequeñas. El espacio y el tiempo, dos conceptos fundamentales en física clásica, resultan secundarios en mecánica cuántica. Lo principal son los entrelazamientos, los cuales interconectan sistemas cuánticos sin referencia alguna al espacio o al tiempo. Si existiese una línea que separase los mundos clásico y cuántico, podríamos utilizar el espacio y el tiempo de la física clásica como herramientas para describir los procesos cuánticos. Pero, sin tal divisoria —y, de hecho, en ausencia de un mundo verdaderamente clásico—, ese enfoque se antoja imposible. Debemos explicar el espacio y el tiempo como entidades emergentes a partir de una física fundamental que carece de ellos. Esa idea también podría ayudarnos a reconciliar la mecánica cuántica con el otro gran pilar de la física, la relatividad general de Einstein. Esta teoría, que describe la gravedad en términos de la geometría del espaciotiempo, supone que los objetos poseen posiciones bien definidas y que nunca se encuentran en más de un sitio al mismo tiempo, en contradicción directa con la mecánica cuántica. Muchos físicos, como Stephen Hawking, de la Universidad de Cambridge, piensan que la teoría de la relatividad debe dejar paso a otra en la que el espacio y el tiempo no existan. El espaciotiempo clásico surgiría a partir de entrelazamientos cuánticos mediante un proceso de decoherencia [véase «Geometría y entrelazamiento cuántico», por Juan Maldacena, en este mismo número]. Una posibilidad aún más interesante es que la gravedad no constituya una interacción de pleno derecho, sino el «ruido» generado por la actividad cuántica de las otras fuerzas fundamentales. Esta idea de una «gravedad inducida» se remonta al físico nuclear Andréi Sájarov, quien la propuso en los años sesenta. De ser así, no solo habríamos de retirar a la gravedad la categoría de interacción fundamental, sino que los esfuerzos por cuantizar la gravedad carecerían de todo sentido. La gravedad podría incluso no existir a nivel cuántico. Las implicaciones de que objetos macroscópicos como nosotros mismos vivamos en un limbo cuántico se antoja tan perturbadora e inquietante que los físicos nos hallamos en un estado entrelazado de asombro y confusión. Artículo publicado en Investigación y Ciencia, agosto de 2011

¿QUÉ SIGNIFICA TODO ESTO?

Para Schrödinger carecía de sentido que un gato pudiera estar vivo y muerto a la vez: cualquier teoría que hiciera predicciones semejantes debía ser incorrecta. Varias generaciones de físicos han compartido su incomodidad y han participado de la idea de que la mecánica cuántica no puede aplicarse a escalas mayores. En los años ochenta, Roger Penrose, de la Universidad de Oxford, sugirió que la gravedad podría ser la responsable de que la mecánica cuántica dejara paso a las leyes clásicas para objetos de masa superior a los 20 microgramos. Por su parte, Gian Carlo Ghirardi y Tomaso Weber, de la Universidad de Trieste, y Alberto Rimini, de la Universidad de Pavía, propusieron que un conjunto de partículas lo bastante numeroso comenzaba espontáneamente a comportarse de manera clásica.

EL AUTOR

Vlatko Vedralganó su fama al desarrollar un novedoso método para cuantificar el entrelazamiento y aplicarlo a sistemas macroscópicos. Actualmente trabaja en la Universidad de Oxford y en la Universidad Nacional de Singapur. PARA SABER MÁS

Entangled quantum state of magnetic dipoles.Sayantani Ghosh et al. en Nature, vol. 425, págs. 48-51, septiembre de 2003. Entanglement in many-body systems.Luigi Amico et al. en Reviews of Modern Physics, vol. 80, n.o 2, págs. 517-576, mayo de 2008. Decoding reality: The universe as quantum information.Vlatko Vedral. Oxford University Press, 2010.

Fronteras de la física cuántica  63

RE TOS CUÁNTICOS

Efectos cuánticos macroscópicos ¿Puede observarse la superposición de estados en sistemas físicos de gran masa y tamaño? Un nuevo campo de investigación podría ayudar a resolver una cuestión sobre la que ya debatieron Einstein y Schrödinger Markus Aspelmeyer y Markus Arndt

«Q

uerido Schrödinger, eres la única persona con la que realmente me agrada discutir.» En abril de 1935, Albert Einstein dirigía desde California estas palabras a su amigo Erwin Schrödinger, quien por aquel entonces trabajaba en el Colegio Magdalen de la Universidad de Oxford. Con esta carta, los físicos comenzaron una discusión sobre uno de los aspectos básicos de la interpretación de la mecánica cuántica: ¿qué nos dice la función de onda sobre el mundo físico? En 1926, el físico vienés había introducido la función de onda como uno de los objetos matemáticos fundamentales de la teoría cuántica. Junto con la expresión que hoy conocemos como ecuación de Schrödinger, la función de onda permite calcular la probabilidad futura de obtener un resultado u otro al efectuar una medición sobre un sistema físico. Pero ¿describe dicha función algo que realmente existe? ¿O se trata más bien de un recurso matemático —un «catálogo de valores esperados», en palabras de Schrödinger— sin conexión directa con la realidad? La discusión llevó al austríaco a concebir el famoso experimento mental en el que un gato sometido a una trampa cuántica se hallaría vivo y muerto al mismo tiempo. El ejemplo propuesto por Schrödinger hace transparente la pregunta de hasta qué punto las leyes de la mecánica cuántica se aplican a los objetos macroscópicos de nuestra experiencia cotidiana. Un sencillo experimento nos servirá para ilustrar el problema. Un haz de moléculas, cada una compuesta por varias docenas de átomos, se dirige hacia una red de difracción. En ella hay

64  TEMAS 86

grabadas rendijas de 50 nanómetros de ancho, separadas por una distancia de 100 nanómetros. Tras la red hay una pantalla detectora. Si determinamos con precisión el lugar de origen de las partículas en la fuente emisora, su momento en la dirección lateral se verá afectado por una gran dispersión de valores, tal y como prescribe la relación de incertidumbre de Heisenberg. Según esta, posición y momento no se pueden especificar al mismo tiempo con una precisión arbitraria, ya que el producto de sus respectivas indeterminaciones debe superar siempre cierto valor límite, del orden de la constante de Planck. Gracias a esa dispersión, cada molécula podrá tomar varios caminos a través de las diferentes ranuras para llegar a la placa detectora, lo cual se plasmará en una superposición de posibilidades fundamentalmente indistinguibles. Si las moléculas se comportasen como bolas de billar que obedecen las leyes de Newton, observaríamos que las manchas que dejan al llegar a la pantalla imitan la distribución de rendijas en la red. Sin embargo, el experimento da como resultado un patrón de interferencia: una serie de líneas claras y oscuras cuya envolvente resulta demasiado ancha para haber sido originada por un objeto clásico. La anchura del conjunto de líneas se debe de nuevo al principio de incertidumbre: cada rendija limita localmente los caminos posibles, lo que causa una dispersión del momento en la dirección transversal. Por otro lado, existen posiciones en la pantalla de detección a las que una molécula podría haber llegado en caso de haber una sola rendija; sin embargo, cuando el experimento se realiza con más de una ranura, en dichas regiones no se detecta partícula alguna.

LA LARGA VIDA DEL GATO DE SCHRÖDINGER: Los físicos aún deben averiguar hasta qué punto las leyes de la mecánica cuántica penetran en el mundo macroscópico.

Fronteras de la física cuántica  65

una descripción adecuada de un hecho real». Sin duda, nuestra intuición macroscópica clama contra la existencia de un estado intermedio entre la vida y la muerte, así como contra la posibilidad de que un objeto pueda hallarse en dos lugares al mismo tiempo. ¿DÓNDE ESTÁ EL LÍMITE?

¿Significa lo anterior que los objetos macroscópicos no obedecen las leyes de la mecánica cuántica, sino solo la mecánica de Newton y la electrodinámica de Maxwell? En tal caso, ¿dónde está el límite? ¿A qué masa, tamaño, número cuántico o complejidad estructural se convierte una teoría en otra? ¿Desempeña la fuerza de la gravedad —cuya unificación con la mecánica cuántica ha causado tantos quebraderos de cabeza a los físicos teóricos— algún papel en todo esto? Esa manera de solucionar la paradoja del gato de Schrödinger implicaría la necesidad de modificar la teoría cuántica al alcanzar, como mínimo, cierto nivel macroscópico. Numerosos físicos contemplan dicha posibilidad con escepticismo: no en vano, las leyes de la mecánica cuántica (sobre todo en su forma relativista, la electrodinámica cuántica) han sido verificadas con precisión en todo tipo de experimentos. Por otro lado, si la teoría cuántica conservase su validez incluso a escala macroscópica, deberíamos alterar de manera radical nuestra visión del mundo en varios aspectos; entre ellos, nuestra comprensión del espacio y el tiempo, o nuestro concepto de realidad aplicado a objetos macroscópicos. Todo lo anterior se resume en la pregunta clave: ¿desaparece de manera objetiva la superposición cuántica a partir de cierto límite, o vivimos en un mundo fundamentalmente cuántico? Tal vez el hecho de no observar fenómenos cuánticos en objetos de gran tamaño se deba a que estos no resultan medibles cuando interaccionan mas de 100 partículas... o más de 100 billones. Hoy por hoy, estas preguntas continúan abiertas. Nadie cuenta con una respuesta que no plantee nuevos problemas. Con todo, los físicos hemos intentado abordar la cuestión con experimentos cuánticos que afectan a objetos cada vez mayores. En este contexto, la masa y la posición desempeñan un papel esencial. Una razón obvia por la que resulta tan difícil observar efectos cuánticos a escala macroscópica radica en que estos casi siempre dependen de manera explícita del cuanto de acción de Planck, h (expresado con frecuencia como «constante de Planck reducida»,  = h/2p). Este posee unidades de energía × tiempo («acción») o, de manera equivalente, de momento angular, o momento lineal × longitud. Con un valor de  ≈ 1,05 · 10–34 julios × segundo, , la constante de Planck resulta 33 órdenes de magnitud menor que el momento angular del péndulo de un reloj de mesa. Por tanto, no sorprende que los efectos cuánticos resulten inobservables en un objeto macroscópico. Una bola de billar de 170 gramos que se desplaza a una velocidad de 2 metros

EN SÍNTESIS

El «gato de Schrödinger»,una aparente paradoja concebida en los años treinta, ha ocupado durante decenios a físicos y filósofos con la siguiente pregunta: ¿puede un objeto macroscópico no observado hallarse en una superposición cuántica de estados? ¿Puede un gato estar vivo y muerto al mismo tiempo?

66  TEMAS 86

Bajo esta preguntasubyace el problema de la medida. Al efectuar una medición sobre un sistema cuántico descrito por una superposición de estados, la función de onda «colapsa» hacia un único resultado de entre todos los posibles. ¿Qué principios rigen esa interacción entre lo cuántico y lo macroscópico?

Durante los últimos años se han logrado avances notables en la carrera experimental para observar efectos cuánticos en sistemas físicos de grandes dimensiones. Las respuestas que depare este campo de investigación afectarán de manera fundamental a nuestra concepción de la realidad física.

DANIELA LEITNER/SPEKTRUM DER WISSENSCHAFT (páginas anteriores)

La primera demostración experimental de un fenómeno de interferencia cuántica con moléculas complejas fue efectuada en 1999 por Anton Zeilinger y otros investigadores de la Universidad de Viena; entre ellos, uno de nosotros (Arndt). En 2012, Thomas Juffmann y otros miembros del grupo de investigación de Arndt llevaron el experimento aún más lejos: filmaron la dualidad onda-corpúsculo con una cámara de dispositivo de carga acoplada (CCD), gracias a lo cual lograron seguir en tiempo real la formación del patrón de interferencia con moléculas de colorante lanzadas de una en una. La grabación ponía de relieve los dos aspectos del mundo cuántico: por una parte, la naturaleza corpuscular de las moléculas, pues cada una de ellas podía localizarse con precisión a su llegada a la pantalla detectora; por otra, su carácter ondulatorio, necesario para explicar que todas las partículas se «coordinasen» para acabar dibujando sobre la placa un patrón de interferencia. Para realizar el experimento, Juffmann y sus colaboradores necesitaron emplear nanoestructuras muy finas, de apenas cien átomos de espesor, a fin de reducir al máximo las interacciones de Van der Waals entre las partículas y las paredes de la red de difracción. Dichas estructuras fueron fabricadas por Aleksander Tsukernik y Ori Cheshnovsky, de la Universidad de Tel Aviv. Ello permitió al grupo vienés investigar las propiedades cuánticas de moléculas formadas por más de cien átomos, que Jens Tüxen y Marcel Mayor, de la Universidad de Basilea, diseñaron y sintetizaron para la ocasión. El resultado contradice la suposición clásica según la cual una molécula solo puede pasar por una rendija pero no por varias a la vez. La teoría cuántica, en cambio, predice de manera correcta el patrón de interferencia observado en los experimentos. Según la mecánica cuántica, también la materia queda descrita por una función de onda y, como tal, le es permitido tomar varios caminos de manera simultánea. Esa deslocalización puede alcanzar dimensiones macroscópicas: en el experimento descrito, la dispersión al final del tramo ascendía a décimas de milímetro. Al menos en principio, las leyes de la mecánica cuántica deberían poder aplicarse a objetos tan grandes como deseemos. Ello implicaría que también los cuerpos macroscópicos deberían experimentar la superposición de estados, lo que sin duda choca de forma drástica con nuestra visión del mundo. A ese aspecto hacía referencia el experimento mental de Schrödinger. El físico concibió una «máquina infernal» para transferir la superposición de estados de una partícula cuántica a una mezcla de los estados «vivo» y «muerto» de un gato, lo cual contradecía la suposición de que, en cada instante, el animal se encontraba, o bien vivo, o bien muerto. Para Einstein, ello suponía una clara prueba de que la mecánica cuántica proporcionaba una descripción incorrecta de la realidad. En su carta de 1935 escribió: «Ningún arte interpretativa puede convertir esta función-psi [la función de onda] en

Se han observado efectos de interferencia cuántica en moléculas complejas de más de 400 átomos

por segundo lleva asociada una onda cuántica cuya longitud de onda es de unos 2 · 10–33 metros. Sondear de manera directa distancias semejantes supera con mucho las posibilidades técnicas actuales. Pero incluso si se otorga a la física cuántica una validez universal, la interacción entre las partes individuales de un sistema complejo puede hacer que las propiedades cuánticas se tornen inapreciables en cualquiera de sus componentes. Así lo establece la teoría de la decoherencia, desarrollada hace algunos años por Anthony Leggett, de la Universidad de Illinois, Hans-Dieter Zeh y Erich Joos, de la Universidad de Heidelberg, y Wojciech Zurek, del Laboratorio Nacional de Los Álamos, entre otros. Su idea principal reside en que, si un sistema cuántico simple se acopla a otro mayor formado por un gran número de partículas (un baño térmico), parte de la información sobre el estado del primero se filtrará al segundo. Ello se debe a que el sistema cuántico original pasará a quedar entrelazado con los elementos que componen el baño térmico. El término entrelazamiento fue acuñado en 1935 por Schrö­ dinger para denotar ciertas superposiciones de estados en un sistema cuántico compuesto, en el que la función de onda del conjunto no permite describir por separado cada una de las partes. Para Schrödinger, esta particularidad constituía «el rasgo característico de la mecánica cuántica». En el caso de un sistema entrelazado con su entorno, ello implica que los efectos cuánti-

cos se tornan más sutiles o incluso desaparecen por completo. En 1996, un equipo de investigadores de la Escuela Normal Superior de París dirigido por Serge Haroche, premio nóbel de física en 2012, llevó a cabo una serie de experimentos en los que se logró estudiar de manera cuantitativa el proceso de decoherencia. A partir de átomos de rubidio y una cavidad de paredes reflectantes, los investigadores lograron recrear una «versión lumínica» del gato de Schrödinger, compuesta por un pequeño número de fotones. Haroche y sus colaboradores observaron cómo en ellos aparecía una superposición de estados durante pocos microsegundos y, después, dicha superposición se desvanecía. La decoherencia controlada de objetos materiales por dispersión de luz ha sido demostrada en experimentos de interferometría por investigadores del Instituto de Tecnología de Massachusetts y de la Universidad de Constanza. En 2004, un equipo de la Universidad de Viena comprobó que ciertas moléculas de gran tamaño podían acabar entrelazándose con el entorno por sí mismas debido a efectos térmicos, sin necesidad de una perturbación externa. Por esta razón, aislar un sistema de su entorno constituye uno de los grandes retos a los que se enfrentan los experimentos cuánticos macroscópicos. La gran ventaja de la decoherencia reside en que permite entender, dentro del marco de las leyes conocidas de la mecánica cuántica, por qué los fenómenos cuánticos son de alcance

D E S L O C A L I Z AC I Ó N M AC R O S C Ó P I C A

CORTESÍA DE LOS AUTORES

Interferencia con moléculas de masa elevada a

Rayo molecular

445 nm

El experimento de difracción de luz por una redconstituye una práctica estándar en las clases de física avanzada para mostrar la diferencia entre la óptica geométrica y la óptica física en las ondas electromagnéticas. Sin embargo, la misma idea se puede aplicar a ondas de materia. La difracción de moléculas de masa elevada en una nanorred (a) constituye un ejemplo excelente de la naturaleza deslocalizada de los estados cuánticos. En un experimento (b) realizado en 2012 por el grupo de uno de los autores, ciertas moléculas de colorante (ftalocianinas, c) se vaporizaron por acción de un láser focalizado. El tamaño efectivo de la fuente resultaba tan pequeño que la relación de incertidumbre entre la posición y el momento lineal acabó dispersando cada molécula con respecto a la distribución de rendijas, separadas entre sí unos 100 nanómetros. Así, cada molécula podía tomar varios caminos posibles para atravesar la red y llegar hasta la pantalla detectora. En ella, la microscopía de fluorescencia inducida por láser reveló que las partículas llegaban una a una, con una resolución espacial de unos 10 nanómetros. La mecánica cuántica prescribe la imposibilidad de predecir con certeza el punto de incidencia de cada molécula, pues este solo obedece leyes probabilísticas. En nuestro caso, las funciones de onda se encontraban deslocalizadas sobre una distancia de más de cien micrómetros. Sin embargo, el conjunto de todas las moléculas acabó formando un patrón de franjas de interferencia (d), cuyo aspecto global sí estaba estrictamente predeterminado por la distribución cuántica de probabilidades.

Franjas de interferencia

Nanorred

Preparación y difracción de la función de onda molecular

Microscopio de fluorescencia

b

CCD Vaporización por láser

51

Ftalocianina

Dispositivo de carga 660 nm acoplada

52 G

c

d

Patrón de interferencia molecular

Fronteras de la física cuántica  67

limitado (lo cual, de hecho, supone un problema en numerosas tecnologías incipientes, como la computación cuántica, en las que se busca preservar los efectos cuánticos lo máximo posible). Sin embargo, la decoherencia continúa planteando un desafío para nuestro concepto de realidad, puesto que no hace del mundo un lugar «real» en sentido estricto. Tampoco explica el «colapso» de la función de onda; es decir, por qué en una medición se obtiene solo un resultado concreto de entre todo el abanico de opciones posibles. De hecho, dado que la teoría de la decoherencia se basa en el entrelazamiento, tras realizar un experimento, todo el sistema queda en un estado de superposición. No existe ningún proceso de medición definitivo que acabe con las superposiciones cuánticas y las reduzca a un único resultado. Antes bien, estas se transfieren a sistemas cada vez más complejos. El problema del colapso de la función de onda ha llevado a algunos físicos a postular la existencia de universos paralelos. En 1954, durante la realización de su tesis doctoral en la Universidad de Princeton, Hugh Everett sugirió una interpretación de la mecánica cuántica que solucionaría el problema de la medida. A fin de que la teoría conservase su validez universal, pero, al mismo tiempo, evitase la superposición de estados macroscópicamente distinguibles, Everett postuló que la mecánica cuántica no seleccionaba ningún estado concreto durante el proceso de medición. En su lugar, al realizar una medida tendrían lugar todas las opciones posibles, pero cada una en un universo diferente. Si bien esta hipótesis guarda una lógica interna, adolece de la clara desventaja de necesitar un gran número de universos. Además, se trata, por su propia naturaleza, de una teoría no falsable, por lo que su valor para el debate científico solo puede ser limitado [véase «Los muchos mundos de Hugh Everett», por Peter Byrne; Investigación y Ciencia, febrero de 2008].

picos, emerja a partir de ellas un comportamiento clásico. Tales cambios deberían ser lo suficientemente pequeños para explicar que hasta ahora no se hayan observado en los experimentos, pero también lo bastante grandes como para que, a escala macroscópica, solo resulten válidas las leyes clásicas. Algunas de las primeras ideas para erigir una teoría cuántica sobre cimientos clásicos se deben a Louis de Broglie, el padre de la idea de asociar una onda a las partículas de materia. La mecánica cuántica es lineal, lo que en este contexto quiere decir que la suma de dos funciones de onda válidas da lugar a una nueva función de onda que satisface las mismas ecuaciones. El físico francés aspiraba a derivar la teoría cuántica a partir de una mecánica de ondas no lineal basada en conceptos clásicos. En 1976, Iwo Bialynicki-Birula y Jerzy Mycielski formularon una ampliación no lineal de la ecuación de Schrödinger. Según esta, la función de onda de una partícula de gran masa no cambiaría con el tiempo e imitaría el comportamiento de una bola de billar; en el caso de masas pequeñas, las leyes habituales de la mecánica cuántica seguirían resultando válidas. Dicha ampliación no lineal fue descartada en 1981 por Roland Gähler, Anthony G. Klein y Anton Zeilinger mediante un experimento ultrapreciso de difracción de neutrones. La corrección no lineal propuesta debería haber modificado los órdenes de difracción más altos, lo cual no se observó. En 1986, Giancarlo Ghirardi, Alberto Rimini y Tullio Weber sugirieron ampliar la teoría cuántica mediante la adición de un término estocástico no lineal en la ecuación de Schrödinger. Este modifica la evolución del paquete de ondas y provoca que un estado que describe una superposición de posiciones acabe concentrándose de manera espontánea en una región espacial bien definida (aunque no puntiforme). En este sentido, la función de onda colapsa de manera objetiva. Dicho colapso tendría lugar a tal velocidad que habría escapado a los experimentos más precisos de las últimas décadas. A la luz de los nuevos enfoques teóricos, las predicciones basadas en este modelo han llegado tan lejos que su validez podría comprobarse si se lograra observar

¿Por qué en una medición solo se obtiene un resultado concreto de entre todo el abanico de opciones posibles?

MODELOS DE COLAPSO

Los físicos reacios a aceptar la superposición de estados se preguntan sobre la posibilidad de modificar las ecuaciones básicas de la mecánica cuántica para que, al llegar a niveles macroscó-

OTROS EXPERIMENTOS

Superconductores y condensados de Bose-Einstein Además de los casosdescritos en este artículo, los estados de superposición macroscópicos cumplen también una función relevante en experimentos de otro tipo. Enumeramos a continuación algunos ejemplos.  La superposición de corrientes superconductoras que, en los dispositivos superconductores de interferencia cuántica (SQUID), pueden circular tanto en el sentido de las agujas del reloj como en el contrario.  La superposición de billones de espines entre dos nubes de átomos, como los producidos por el grupo de Eugene Polzik, del Instituto Niels Bohr de Copenhague.  La interferencia entre ondas de materia de millones de átomos en un condensado de Bose-Einstein. A temperaturas ultrafrías (algunos nanokelvin), los átomos pueden deslocalizarse sobre distancias de milímetros y durante varios centenares de milisegundos. Siempre que los átomos no se encuentren mutuamente entrelazados, la masa y la longitud de onda de De Broglie asociadas a las funciones de onda que pueden interferir coinciden con las de un átomo individual (del mismo modo que un láser mantiene su color a medida que se aumenta su intensidad). Varios grupos de investigadores están trabajando en el entrelazamiento de átomos ultrafríos para mejorar la precisión de las mediciones. Por otro lado, el entrelazamiento cuántico entre iones y átomos puede también extenderse sobre distancias macroscópicas. Con fotones, el entrelazamiento ha conseguido preservarse a lo largo de una distancia de más de 140 kilómetros.

68  TEMAS 86

la superposición cuántica de objetos con masas comprendidas entre 105 y 109 unidades de masa atómica. Otros modelos de colapso hacen referencia explícita al papel de la gravedad. ¿Cómo afecta al espaciotiempo la relación de indeterminación de Heisenberg aplicada a una partícula muy pesada? ¿Qué ocurre con el campo gravitatorio de una partícula lo bastante masiva cuando esta se encuentra en una superposición de estados asociados a posiciones diferentes? Expertos como Frigyes Károlyházy, Lajos Diósi o Roger Penrose han explorado de manera independiente las respuestas a esta pregunta. Como sucedía con los modelos descritos arriba, aquí también interviene una decoherencia reforzada de las superposiciones cuánticas. Su intensidad aumenta con la masa y tamaño de las partículas, o con el de sus funciones de onda. En todo caso, tales modificaciones no corresponden a una teoría de la gravedad cuántica, el santo grial de la física teórica. Más bien al contrario: la causa principal de que en estos modelos la superposición cuántica desaparezca se debe a que el campo gravitatorio no se cuantiza. Con experimentos que pongan a prueba estas ampliaciones, los investigadores esperan obtener pistas indirectas de una posible teoría cuántica de la gravedad. Durante largo tiempo, los modelos de colapso han pertenecido más bien al ámbito de las discusiones filosóficas sobre el significado de la función de onda y el proceso de medida. Desde hace algunos años, sin embargo, numerosos físicos albergan la esperanza de verificar o refutar empíricamente algunas de sus predicciones. ¿Qué clase de experimentos podrían lograrlo? Todos los modelos de colapso comparten una propiedad: cuanto más fácil resulta distinguir aquellas situaciones en las que existe una superposición de estados, con mayor rapidez se desvanecen los efectos cuánticos. Sin embargo, al mismo tiempo aumentan también los efectos de la decoherencia («los grandes felinos sufren una decoherencia más rápida»), por lo que un aspecto fundamental que deben tener en cuenta estos experimentos es la posibilidad de diferenciar claramente entre ambos fenómenos. A tal fin, dos observaciones resultan de utilidad. Por un lado —y al contrario de lo que ocurre con la decoherencia—, los modelos de colapso afectan también a aquellos objetos completamente aislados de su entorno. Por otro, tal vez puedan recrearse condiciones en las que la decoherencia tradicional y un hipotético colapso dependieran de manera muy distinta de los parámetros de laboratorio, como el volumen del experimento. La estrategia básica consiste en preparar un objeto de masa elevada en una superposición cuántica de dos o más estados y, después, intentar observar en él fenómenos de interferencia cuántica. Dichos estados deben mostrar, desde un punto de vista macroscópico, la máxima separación espacial posible. Si a escala macroscópica la naturaleza se comporta de un modo fundamentalmente distinto de como lo hace a escala microscópica, debería existir un límite más allá del cual los efectos de interferencia desapareciesen sin importar cuán aislado se encontrase el sistema.

prueba en el laboratorio resultan enormes. Los primeros efectos medibles de los modelos del colapso espontáneo sugeridos por Ghirardi y sus colaboradores se esperan para objetos de entre 105 y 108 unidades de masa atómica y una separación entre los estados de posición de unos 100 nanómetros. Por otro lado, los primeros efectos de la gravedad en el colapso de la función de onda deberían aparecer en cuerpos de entre 109 y 1016 unidades de masa atómica. Una posibilidad para satisfacer tales requisitos consiste en estudiar la interferencia cuántica en moléculas de gran tamaño, complejos moleculares o nanocristales. Otra, en investigar los efectos cuánticos en sistemas mecánicos de masa elevada. Más arriba discutíamos la difracción de moléculas de colorante con una rejilla de difracción. Durante los últimos años, numerosos investigadores han analizado diversas variantes del fenómeno de interferencia con objetos de masa elevada. La clave para llevar a cabo esta clase de experimentos se debe, en gran parte, a una idea de John Clauser, de la Universidad de California en Berkeley. Todos los interferómetros necesitan al comienzo una relación fija entre las fases de las ondas parciales que al final deberán superponerse. Sin embargo, tal relación no se da en las fuentes moleculares típicas. Solo una colocación ingeniosa de tres redes nanoestructuradas situadas una detrás de otra hace posible esta obra de arte. Primero, las partículas emitidas de manera desordenada por fuentes térmicas o de otro tipo se preestructuran y se deslocalizan mediante una red. Después, se difractan a través de una segunda red y se hacen pasar por la tercera. A partir de dicho principio, Stefan Gerlich, Lucia Hackermüller y otros colaboradores del grupo de uno de nosotros (Arndt) lograron diseñar un interferómetro molecular de Kapitza-Dirac-Talbot-Lau. Gracias a él, observaron fenómenos de interferencia con moléculas formadas por más de 400 átomos y de unas 7000 unidades de masa atómica, sintetizadas por Tüxen, Mayor y el químico de la compañía Dupont Paul Fagan. En su experimento, la función de onda de las moléculas se hallaba deslocalizada sobre una distancia más de 100 veces mayor que su diámetro molecular. Un aspecto esencial provino del empleo de redes ópticas, las cuales interaccionan con las moléculas mediante efectos de polarización. En los próximos años, la interferometría de ondas de materia con redes ópticas permitirá aumentar en dos órdenes de magnitud la masa de los objetos difractados. Para partículas de entre 106 y 109 unidades de masa atómica, en la actualidad se está considerando la posibilidad de llevar a cabo tales experimentos en condiciones de ingravidez, si bien su desarrollo requerirá tiempo. Por último, la interferometría con ondas de materia podría aplicarse a la fabricación de sensores cuánticos con interesantes aplicaciones en química física, como la caracterización de las propiedades ópticas, eléctricas y magnéticas de moléculas complejas. Durante los últimos años, otro ámbito experimental que ha conocido grandes e inesperados avances ha sido la exploración de la frontera entre las leyes cuánticas y la micromecánica. Varios equipos de investigación trabajan en estos momentos para acoplar sistemas cuánticos controlados a nano- y microrresonadores, pequeños osciladores mecánicos. La idea principal se basa en ejercer el control cuántico sobre un grado de libertad

«Ningún arte interpretativa puede convertir esta función-psi en una descripción adecuada de un hecho real», escribía Einstein a Schrödinger en 1935

ONDAS MOLECULARES Y RESONADORES MECÁNICOS

Si consideramos en detalle los distintos modelos que describen el colapso de la función de onda durante el proceso de medición, comprobaremos que las dificultades prácticas para ponerlos a

Fronteras de la física cuántica  69

Lente Espejo Condensador eléctrico Membrana

en Santa Bárbara, quienes observaron la interferencia cuántica de dos estados entre los que existía una separación espacial. Sin embargo, a pesar de que se trataba de un objeto formado por unos 1013 átomos y de masa relativamente elevada (un nanogramo), el experimento no permitió poner a prueba ninguno de los modelos de colapso mencionados, ya que la separación espacial entre dichos estados era minúscula: la millonésima parte del tamaño de un átomo.

15 µm

50 µm

MEMBRANAS Y ESPEJOS:A fin de observar efectos cuánticos en objetos de decenas de micrómetros (una distancia más que considerable para los estándares cuánticos), durante los últimos años los investigadores han intentado acoplar de manera controlada sistemas ópticos a dispositivos mecánicos. Entre ellos, membranas cuyas vibraciones modulan el espesor de un condensador (izquierda) o espejos oscilantes (derecha). En ambos casos, el número de fotones que inciden sobre los objetos varía, de modo que su presión de radiación se acopla a la mecánica del dispositivo.

mecánico, como los modos de vibración de un diminuto muelle de torsión o de una micropalanca. Ello posibilitaría nuevas aplicaciones, como sensores mecánicos ultraprecisos para la medición de distancias, fuerzas, masas o energías. Por otro lado, tal vez permitan construir mecanismos de transporte mecánico en computación cuántica a fin de acoplar qubits a circuitos electrónicos. Tales dispositivos han abierto la puerta a un área de investigación completamente nueva. Los resonadores empleados constan de un gran número de átomos, cuyo movimiento colectivo permite investigar la superposición de estados en objetos de gran tamaño. Los trabajos de varios grupos de investigación en todo el mundo están permitiendo cubrir un abanico de masas que abarca hasta 20 órdenes de magnitud: desde nubes atómicas con unos 105 átomos, pasando por objetos nano- y micromecánicos de 1015 átomos, hasta otros con más de 1025 átomos y masas de varios kilogramos, como ocurre con los espejos de los detectores de ondas gravitacionales. La idea básica es muy sencilla: transferir el estado cuántico de un sistema microscópico controlado, como un qubit, al resonador mecánico. Al contrario de lo que ocurre con un bit clásico, que solo puede tomar los valores 0 o 1, un qubit puede hallarse en una superposición simultánea de ambos estados. Así, la meta consiste en acoplarlo de la manera adecuada a un resonador para inducir en él una superposición de sus modos de vibración. Este objetivo fue logrado en 2010 por el grupo de investigación de Aaron O’Connell, Andrew Cleland y John Martinis, de la Universidad de California

Según la interpretación de Copenhague, la medida provoca el «colapso» de la función de onda. ¿Tiene lugar dicho colapso de manera literal, o solo efectiva?

70  TEMAS 86

CORTESÍA DE LOS AUTORES

EXPERIMENTOS ÓPTICOS

Otro enfoque experimental se basa en iluminar un objeto con partículas de luz a fin de aprovechar la presión de radiación, el efecto mecánico que ejercen los fotones al reflejarse en una superficie. Gracias a ello, las propiedades mecánicas pueden controlarse mediante efectos ópticos cuánticos con luz láser o microondas. Estas técnicas requieren suprimir al máximo la excitación térmica, a fin de que el movimiento del objeto revista un carácter cuántico. Un método eficaz lo proporciona el enfriamiento por láser. En dos experimentos efectuados en 2011, los investigadores bombardearon una estructura mecánica con fotones y la llevaron a su estado cuántico fundamental de vibración, cuya energía dependía principalmente de la indeterminación del paquete de ondas cuántico. Un resonador óptico controlaba la cantidad de fotones que incidían sobre el objeto en función de la dirección en que se moviese. De esta manera, prácticamente cada fotón podía frenarlo («enfriarlo») poco a poco, hasta llegar al punto en que el movimiento quedase dominado por las fluctuaciones cuánticas. En uno de estos experimentos, liderado por John Teufel, del Instituto Nacional de Estándares y Tecnología de EE.UU., los investigadores irradiaron con microondas una membrana oscilante de 15 micrómetros de diámetro y 100 nanómetros de grosor. En el segundo, realizado por una colaboración internacional en la que participó uno de nosotros (Aspelmeyer), se empleó luz de láser para enfriar una fibra óptica hasta su estado cuántico fundamental. El estado cuántico alcanzado en estos experimentos constituye el punto de partida para investigar, en objetos pesados, la superposición de estados separados espacialmente. En analogía con los experimentos de O’Connell, Cleland y Martinis, cabe imaginar la transferencia del estado cuántico de los fotones al objeto de gran tamaño mediante la aplicación de presión de radiación. Sin embargo, dado que el impulso que pueden transmitir los fotones es muy pequeño, la separación espacial entre estados resulta minúscula. El reto consiste en aumentar la dimensión espacial de la superposición. Una posible estrategia, sugerida hace poco por Oriol Romero Isart y otros colaboradores del grupo de Ignacio Cirac, del Instituto Max Planck de Óptica Cuántica de Garching, consiste en acoplar los efectos cuánticos de objetos mecánicos microscópicos a experimentos con ondas de materia. Estos investigadores proponen atrapar una esfera de dimensiones nanoscópicas en una jaula ólptica, mantener fija su posición y, mediante técnicas de óptica cuántica, prepararla en su estado fundamental. En tal caso, la esfera podría servir como fuente para experimentos de interferometría. La técnica permitiría emplear objetos de unos 1010 átomos o incluso más y, con ellos, estudiar la superposición de estados

En 1996, un equipo liderado por Serge Haroche recreó una versión lumínica del gato de Schrödinger compuesta por un pequeño número de fotones

separados espacialmente por distancias superiores al diámetro de las partículas. Son varias las dificultades a las que se enfrentan tales propuestas. Por un lado, la interacción con el entorno debe reducirse al máximo para mantener los efectos de la decoherencia bajo control, ya que solo así se tornarían visibles los efectos cuánticos. Ello implica realizar los experimentos en condiciones de alto vacío y a temperaturas muy próximas al cero absoluto. En caso contrario, los fotones de longitud de onda corta transportarían demasiada información sobre la posición de la partícula. Además, la deslocalización de un objeto de masa elevada necesitaría desarrollarse sin perturbaciones durante un tiempo. En el caso de partículas de unas 1010 unidades de masa atómica en una doble rendija, ese tiempo se estima en varios minutos. Por otra parte, en el caso de estructuras tan pesadas deben considerarse los efectos de la gravedad terrestre, que arrastraría el objeto hacia abajo. Para evitarlo, una técnica consiste en compensar la atracción gravitatoria con campos electromagnéticos muy homogéneos que no perturbasen la evolución de los estados cuánticos. Otra posibilidad sería llevar a cabo el experimento en un satélite o en la Estación Espacial Internacional, escenarios sin duda interesantes. La Agencia Espacial Europea ya ha comenzado a considerar esta línea de investigación. El espacio no solo ofrece un vacío muy alto y excelentes condiciones de microgravedad, sino también la posibilidad de emplear técnicas ópticas especialmente concebidas para tales casos. GRAVITACIÓN E INCERTIDUMBRE

La experimentación en la frontera entre efectos cuánticos y gravitatorios promete una perspectiva adicional. En 2012, Igor Pikovski, de la Universidad de Viena, y otros colaboradores, entre los que se encontraba uno de nosotros (Aspelmeyer), propusimos un experimento para poner a prueba las predicciones de ciertas teorías de gravedad cuántica. Nuestra idea pretendía estudiar las consecuencias observables de una longitud mínima en la naturaleza. Numerosas teorías predicen que el concepto de espacio perdería su significado a partir de cierta escala mínima de distancias, la cual se cree próxima la longitud de Planck (unos 10–35 metros). A fin de dar cuenta de esa distancia mínima, a lo largo de los años se han propuesto varias modificaciones de la relación de incertidumbre de Heisenberg. Como mencionábamos al comienzo, esta prohíbe determinar la posición y el momento lineal de un objeto con una precisión arbitraria. Sin embargo, si renunciamos por completo a conocer el momento de una partícula, nada nos impedirá acotar su localización espacial con tanta finura como deseemos, lo cual entraría en conflicto con la existencia de una distancia mínima en la naturaleza (sea esta la longitud de Planck o cualquier otra). Para resolverlo, se han propuesto varias correcciones de la relación de incertidumbre original, a fin de modificar su comportamiento a distancias muy cortas. Los efectos de tales alteraciones serían minúsculos, por lo que no cabe esperar observarlos de forma directa: hoy por hoy, los experimentos de altas energías solo pueden resolver distancias del orden de los 10–19 metros, 16 órdenes de magnitud por encima de la longitud de Planck. Nuestro artículo planteaba la posibilidad de evitar tales limitaciones mediante el control óptico de objetos mecánicos. Al

hacer incidir pulsos de láser muy cortos sobre un dispositivo mecánico, podrían inducirse ciertos cambios en su posición o velocidad. Después, mediante una secuencia concreta de operaciones concatenadas, el objeto se devolvería al punto de partida. Los estados inicial y final resultarían indistinguibles desde un punto de vista clásico; sin embargo, su función de onda habría adquirido una fase adicional, la cual codificaría la información sobre el camino seguido por el objeto. Lo más sorprendente reside en que dicha fase mecánica quedaría «grabada» en el campo de luz, el cual podría amplificarse mediante efectos no lineales. Ello nos permitiría medir los cambios en el valor de la fase, los cuales dependerían a su vez de las correcciones a la relación original de Heisenberg, en caso de haberlas. Al menos en principio, este experimento podría servir para poner a prueba las predicciones de ciertas teorías de gravedad cuántica a la escala de Planck, inverificables por otros medios. ¿Qué podemos aprender con la exploración de la frontera entre lo cuántico y lo macroscópico? Algo sí podemos asegurar: a corto plazo, los resultados podrán interpretarse de maneras muy distintas. Si los futuros experimentos con objetos de masa y complejidad crecientes continúan confirmando las predicciones de la teoría cuántica, el debate filosófico sobre su interpretación continuará inalterado y ciertas representaciones alternativas del mundo, como las basadas en los modelos de colapso, quedarán excluidas. Por otro lado, no menos emocionante resulta la otra posibilidad: si algún experimento llegase a mostrar desviaciones con respecto a la teoría cuántica comúnmente aceptada, nos hallaríamos ante el formidable reto de comprender el alcance de sus implicaciones. Artículo publicado en Investigación y Ciencia, marzo de 2013

LOS AUTORES

Markus Aspelmeyer y Markus Arndtson profesores de información cuántica y nanofísica en la Universidad de Viena e investigadores en el Centro Vienés de Ciencia y Tecnología Cuánticas. PARA SABER MÁS

Observing the progressive decoherence of the «meter» in a quantum measurement.Michel Brune et al. en Physical Review Letters, vol. 77, págs. 4887-4890, diciembre de 1996. Quantum ground state and single-phonon control of a mechanical resonator.Aaron D. O’Connell et al. en Nature, vol. 464, págs. 697-703, marzo de 2010. Laser cooling of a nanomechanical oscillator into its quantum ground state. Jasper. Chan et al. en Nature, vol. 478, págs. 89-92, octubre de 2011. Colloquium: Quantum interference of clusters and molecules.Klaus Hornberger et al. en Reviews of Modern Physics, vol. 84, págs. 157-173, febrero de 2012. Real-time single-molecule imaging of quantum interference.Thomas Juffmann et al. en Nature Nanotechnology, vol. 7, págs. 297-300, mayo de 2012. Probing Planck-scale physics with quantum optics.Igor Pikovski et al. en Nature Physics, vol. 8, págs. 393-397, mayo de 2012. EN NUESTRO ARCHIVO

Electrodinámica cuántica en cavidades.Serge Haroche y Jean-Michel Raimond en IyC, junio de 1993. La frontera entre lo clásico y lo cuántico.Philip Yam en IyC, agosto de 1997.

Fronteras de la física cuántica  71

72  TEMAS 86

RE TOS C UÁNTICOS

Agujeros negros y muros de fuego ¿Incineran los agujeros negros a quien intenta penetrar en ellos? Una nueva propuesta obliga a repensar la relatividad general y la mecánica cuántica asociada a estos objetos Joseph Polchinski

C

aer en un agujero negro nunca fue div ertido. Tan pronto como los físicos dedujeron la existencia de estos objetos, se percataron de que acercarse demasiado a uno de ellos supondría una muerte segura. Sin embargo, hasta hace muy poco creíamos que un astronauta no sentiría nada al cruzar el horizonte de sucesos, la frontera más allá de la cual resulta imposible regresar. Según la teoría de la relatividad general de Einstein, el horizonte no se encuentra marcado por ninguna señal particular. Las malas noticias solo llegan después: quienquiera que lo atraviese únicamente podrá caer, caer y caer hacia una profunda oscuridad. En 2012, en colaboración con Donald Marolf y los entonces estudiantes de posgrado Ahmed Almheiri y James Sully, por aquella época todos en la Universidad de California en Santa Bárbara (hoy a los cuatro se nos conoce por las siglas AMPS), nos propusimos reconsiderar esa imagen a la luz de

algunas ideas recientes sobre las propiedades cuánticas de los agujeros negros. Al hacerlo, llegamos a la conclusión de que el astronauta viviría una experiencia muy distinta de la predicha por Einstein. En lugar de deslizarse suavemente hacia el interior, al llegar al horizonte se toparía con un «muro de fuego» (firewall): partículas de alta energía que lo aniquilarían al instante. Ese muro podría incluso señalar el fin del espacio. Llegamos a ese resultado al emplear ciertas ideas procedentes de la teoría de cuerdas para analizar con detalle una paradoja planteada hace casi cuarenta años por Stephen Hawking. En los años setenta, el físico de Cambridge identificó un profundo conflicto entre las predicciones de la relatividad general y las de la mecánica cuántica en presencia de estos objetos. Según él, o bien la teoría cuántica era errónea, o bien lo era la descripción einsteiniana del espaciotiempo. La batalla sobre qué punto de vista resulta correcto se ha perpetuado desde entonces.

Fronteras de la física cuántica  73

LA SINGULARIDAD

La relatividad general, la teoría que dio a luz el concepto de agujero negro, deriva su imagen de estos objetos y sus horizontes de sucesos a partir de la manera en que concibe la acción de la gravedad sobre el espacio y el tiempo. Según ella, al juntar una cantidad suficiente de materia, la atracción gravitatoria hará que comience a colapsar sobre sí misma. Ese proceso continuará hasta que toda la masa haya quedado comprimida en un punto. Dicho punto, donde la densidad y la curvatura del espaciotiempo se tornan infinitas, recibe el nombre de singularidad. El objeto resultante es un agujero negro. Un viajero que cruce el horizonte de sucesos de un agujero negro sucumbirá al tirón gravitatorio y será arrastrado sin remedio hacia la singularidad. Ni siquiera la luz puede escapar de la región interior. Pero, aunque la singularidad sea un lugar horrible, el horizonte no debería tener nada de particular. Según el principio de equivalencia de la relatividad general, un astronauta que lo traspase experimentará las mismas leyes físicas que cualquier otro observador. A los teóricos les gusta decir que todo el sistema solar podría estar cruzando ahora mismo un horizonte de sucesos sin que notásemos nada fuera de lo normal. LA RADIACIÓN DE LOS AGUJEROS NEGROS

El desafío de Hawking comenzó en 1974, al considerar los efectos de la mecánica cuántica en presencia de un agujero negro. Según la teoría cuántica, el vacío se encuentra repleto de pares de partículas y antipartículas que constantemente aparecen y se desvanecen. Hawking demostró que, si esas fluctuaciones ocurren justo en el exterior de un horizonte de sucesos, la pareja puede separarse. Un miembro caería dentro y el otro escaparía. El resultado final es que un agujero negro radia partículas, las cuales van drenando poco a poco su masa. En principio, toda la masa del agujero negro puede acabar filtrándose hacia el exterior mediante este proceso, conocido como «evaporación de Hawking». Para los agujeros negros del mundo real, la evaporación es irrelevante. Dado que constantemente engullen polvo y gas, ganan mucha más masa que la que pierden por radiación de Hawking. Sin embargo, por un interés puramente teórico, podemos preguntarnos qué sucedería si un agujero negro se encontrase completamente aislado y dispusiéramos de tiempo suficiente para observar su evaporación hasta el final. Merced a este expe-

rimento mental, Hawking dedujo dos aparentes contradicciones entre la relatividad general y la mecánica cuántica. El problema de la entropía. Al calcular qué le ocurría a un agujero negro aislado, Hawking obtuvo que el espectro de la radiación emitida coincidía con el de un cuerpo caliente. Ese resultado implicaba que los agujeros negros debían tener una temperatura. La temperatura de un objeto ordinario se debe al movimiento de sus átomos. Por tanto, la naturaleza térmica de la radiación de Hawking sugiere que un agujero negro debería estar formado por algún tipo de componentes microscópicos básicos, o «bits». Jacob D. Bekenstein, por entonces en la Universidad de Princeton, había llegado a la misma conclusión dos años antes al considerar experimentos mentales consistentes en lanzar objetos a un agujero negro. Los trabajos de Bekenstein y Hawking proporcionaban una fórmula para el número de bits, una medida conocida como entropía del agujero negro. En general, la entropía constituye un indicador de desorden: aumenta a medida que lo hace el número de estados microscópicos en los que puede encontrarse un sistema. Cuantos más componentes básicos tenga un agujero negro, más disposiciones podrán adoptar estos y mayor será su entropía. En cambio, la relatividad general nos dice que la geometría de un agujero negro es suave, y que todos los agujeros negros con la misma masa, momento angular y carga eléctrica deberían ser exactamente iguales. El fallecido John Wheeler, de la Universidad de Princeton, lo expresó diciendo que «los agujeros negros no tienen pelo». He aquí la primera contradicción: mientras que la relatividad general afirma que los agujeros carecen de subestructura, la mecánica cuántica nos indica que poseen una gran cantidad de entropía, lo que implica una estructura microscópica, o «pelo». La paradoja de la información. La evaporación de Hawking también pone en aprietos a la teoría cuántica. Según su cálculo, el espectro de radiación de un agujero negro es universal: las partículas emitidas no dependen en absoluto de qué objetos hayan caído antes en él. Si lanzamos una nota con un mensaje, no habría manera de reconstruir el texto a partir de las partículas radiadas. Una vez que la nota atraviese el horizonte, no podrá afectar a nada que más tarde emerja del agujero negro, ya que ninguna información puede escapar de su interior. En mecánica cuántica, todo sistema queda descrito por una función de onda, la cual determina la probabilidad de encontrar el sistema en un estado u otro. En el experimento mental de Hawking, la pérdida de información significa que no hay forma de predecir la función de onda de la radiación a partir de las propiedades de lo que cayó en el agujero negro. La pérdida de información está prohibida en mecánica cuántica, por lo que Hawking concluyó que la teoría debía modificarse para dar cabida a la pérdida de información en los agujeros negros. El lector debe estar diciéndose: «Por supuesto que los agujeros negros destruyen la información. ¡Destruyen todo lo que cae

EN SÍNTESIS

En los años setenta,Stephen Hawking descubrió que los agujeros negros radian partículas, por lo que acabarían «evaporándose». Ello implicaba que destruirían la información, algo prohibido por la mecánica cuántica.

74  TEMAS 86

Algunas ideasprocedentes de la teoría de cuerdas parecían apuntar a una resolución del problema. Según ellas, el proceso de evaporación de un agujero negro respetaría las leyes cuánticas y no eliminaría la información.

El autor y sus colaboradoreshan argumentado que, para preservar la información, un agujero negro debe estar rodeado por un «muro» de partículas de alta energía. La idea socava una de las predicciones básicas de la relatividad general.

PÁGINAS ANTERIORES: KENN BROWN, MONDOLITHIC STUDIOS

Tal y como ocurrió con la idea de Hawking, nuestros muros de fuego han desatado una tormenta de incredulidad sin que nadie haya ofrecido una alternativa satisfactoria. Si aceptamos la mecánica cuántica, la consecuencia son los muros de fuego. Sin embargo, su existencia plantea nuevos rompecabezas teóricos. Parece que los físicos hemos de abandonar alguna de nuestras teorías más queridas, pero no podemos ponernos de acuerdo en cuál. Con todo, esperamos que de esta confusión emerja una imagen más completa de la mecánica cuántica y de la relatividad general y, en última instancia, una vía para resolver las aparentes contradicciones entre ellas.

C O L E C C I Ó N D E PA R A D O JA S

Agujeros negros e información En 1974, Stephen Hawkingdemostró que los agujeros negros emiten una pequeña cantidad de radiación. Según la mecánica cuántica, el vacío se encuentra lleno de pares de partículas y antipartículas que constantemente surgen y se desvanecen. Haw-

king observó que, si uno de esos pares aparece cerca del horizonte de sucesos de un agujero negro, una partícula puede caer dentro y la otra escapar. Este fenómeno, llamado radiación de Hawking, plantea varios rompecabezas.

El problema de la entropía

La paradoja de la información

El espectro de la radiación de Hawking sugiere que los agujeros negros tienen asociada una temperatura. En un objeto común, la temperatura se encuentra relacionada con el movimiento de sus átomos. Por tanto, un agujero negro debería tener algún tipo de subestructura: piezas elementales que se puedan reordenar. A su vez, la posibilidad de disponer esos componentes de una forma u otra dota a los agujeros de una medida de desorden, o entropía. Según la relatividad general, sin embargo, los agujeros negros carecen de subestructura, por lo que tampoco podrían tener entropía.

La mecánica cuántica prohíbe el borrado de información. Incluso al quemar una carta, la información del mensaje quedará codificada en los átomos de la ceniza, el humo y la luz. Sin embargo, el carácter térmico de la radiación de Hawking implica que los agujeros negros destruyen de veras la información, ya que las propiedades de las partículas emitidas no dependen en absoluto de los átomos que hayan caído antes en el agujero negro. Hawking sugirió que la mecánica cuántica debía modificarse para dar cabida a esta pérdida de información.

Relatividad general

uavvee SSua

Horizonte de sucesos (amarillo)

Radiación de Hawking

Mecánica cuántica

Radiación de Hawking

Coonn tex C texttur uraa

Singularidad

La materia se destruye, pero la información escapa

Una partícula de un par virtual escapa, pero con espín aleatorio (sin información)

Algunas ideas previas (no mostradas)... Para resolver tales rompecabezas, se han propuesto diversas formas de combinar la relatividad general con la mecánica cuántica. Un avance importante llegó con la teoría de cuerdas, la cual postula que las partículas elementales corresponden a diminutas «hebras» en vibración. Esta teoría permite explicar la entropía de algunos agujeros negros y parece indicar una forma de preservar la información.

Ausencia de espaciotiempo

JEN CHRISTIANSEN

... condujeron a los muros de fuego Según el autor y sus colaboradores, las leyes cuánticas implican que los agujeros negros han de estar rodeados por «muros de fuego»: murallas de partículas de alta energía que incinerarían al instante cualquier objeto que intentase adentrarse más allá del horizonte. Dicha conclusión contradice una de las predicciones básicas de la relatividad general y plantea algunas posibilidades extremas, como que los muros de fuego marquen el final del espacio y el tiempo.

Muro de partículas de alta energía (rojo) en el horizonte

Fronteras de la física cuántica  75

en ellos!». Pensemos qué sucedería si simplemente quemásemos la nota. Sin duda, el mensaje acabaría tan desmenuzado que, en la práctica, resultaría imposible reconstruirlo a partir del humo. Pero sabemos que, durante la combustión, los átomos obedecen las leyes de la mecánica cuántica, por lo que la función de onda del humo ha de depender del mensaje original. Así que, al menos en teoría, podríamos reconstruir el texto a partir de dicha función de onda. Con esa analogía en mano, muchos teóricos concluyeron que Hawking estaba equivocado. Que había confundido la simple mezcla de información con su verdadera pérdida. Además, argumentaron algunos, si la información realmente pudiese desaparecer, el fenómeno no se restringiría a una situación tan exótica como la evaporación de un agujero negro. Se manifestaría en todo momento y lugar, ya que, en mecánica cuántica, todo lo que puede ocurrir acaba ocurriendo. Si Hawking se hallaba en lo cierto, veríamos signos de ello en la física cotidiana, lo que probablemente incluiría violaciones muy graves de la ley de la conservación de la energía. Sin embargo, el argumento de Hawking resiste las objeciones más simples. Y, a diferencia de un papel ardiendo, los agujeros negros tienen horizontes que impiden que la información escape. Llegamos así a una paradoja muy evidente: o alteramos la mecánica cuántica para permitir la pérdida de información, o modificamos la relatividad general para que la información pueda escapar de un agujero negro. Hay una tercera posibilidad: que los agujeros negros no se evaporen por completo y que dejen algún residuo microscópico que contenga toda la información de la materia que lo creó. Pero esta «solución» adolece de sus propios problemas. Entre otros, si un objeto tan diminuto pudiese almacenar tanta información, violaría la noción de entropía de Bekenstein y Hawking. AGUJEROS NEGROS Y BRANAS

La teoría de cuerdas intenta solucionar los problemas que surgen al conjuntar la mecánica cuántica y la relatividad general. Dicha teoría postula que las partículas puntuales son, en realidad, diminutos bucles o hebras. Gracias a ello, algunas de las dificultades matemáticas que aparecen al combinar la gravedad y la teoría cuántica desaparecen. Sin embargo, reemplazar las partículas por cuerdas no soluciona de inmediato el problema de los agujeros negros. Un avance al respecto llegó en 1995, cuando estaba considerando otra clase de experimento mental sobre cuerdas en espacios diminutos. A partir de una serie de resultados previos tanto míos como de otros investigadores, demostré que la teoría de cuerdas tal y como la entendíamos por aquella época estaba incompleta: era necesario añadir cierta clase de objetos multidimensionales llamados D-branas. En un agujero negro, las D-branas estarían empaquetadas en dimensiones ocultas y demasiado pequeñas para detectarlas. Un año después, Andrew Strominger y Cumrun Vafa, hoy en Harvard, demostraron que esa descripción en términos de cuerdas y D-branas proporcionaba el número de bits justos para dar cuenta de la entropía de los agujeros negros, al menos en algunos casos muy simétricos. El problema de la entropía quedaba así parcialmente resuelto. ¿Y la pérdida de información? En 1997, Juan Maldacena, hoy en el Instituto de Estudios Avanzados de Princeton, dio con una forma de sortear la paradoja gracias a lo que hoy se conoce como «dualidad de Maldacena». En general, llamamos «dualidad» a una equivalencia entre dos fenómenos que, a primera vista, no

76  TEMAS 86

parecen guardar nada en común. Maldacena propuso que las matemáticas asociadas a cierta teoría cuántica de la gravedad basada en la teoría de cuerdas eran, bajo ciertas circunstancias, equivalentes a las matemáticas de una teoría cuántica de partículas ordinarias. En concreto, la física cuántica de un agujero negro correspondería a la de un gas de partículas nucleares calientes. La dualidad de Maldacena implicaba, además, que el espaciotiempo sería algo muy distinto de lo que percibimos; algo así como un holograma tridimensional proyectado desde la superficie bidimensional de una esfera. La dualidad de Maldacena ofrece una manera de describir la mecánica cuántica de los agujeros negros. Si su teoría es correcta, la gravedad admite una formulación alternativa basada en las leyes cuánticas habituales, en las que la información nunca desaparece. Un razonamiento más indirecto permite concluir que los agujeros negros no pueden dejar ningún residuo al evaporarse. Por tanto, si la información se conserva, ha de estar codificada en la radiación de Hawking. Puede defenderse que la dualidad de Maldacena es lo más cerca que hemos estado nunca de unificar la relatividad general y la mecánica cuántica. Maldacena la dedujo mientras investigaba el problema de la entropía y la paradoja de la información en los agujeros negros. Y aunque aún no ha sido demostrada formalmente, hay una enorme cantidad de indicios a su favor. Tantos que, en 2004, Hawking se retractó, reconoció que los agujeros no destruían la información y saldó la apuesta que mantenía con John Preskill, físico del Caltech, en la Conferencia Internacional de Relatividad General y Gravitación en Dublín. La mayoría de los físicos pensaba que ningún observador detectaría jamás una violación de la relatividad general u otra ley física cerca del horizonte de sucesos de un agujero negro que funcionase como postulaba Maldacena. Sin embargo, su dualidad no acababa de explicar claramente cómo se filtraba la información al exterior. Hace unos veinte años, Leonard Susskind, de Stanford, y Gerard ‘t Hooft, de la Universidad de Utrecht, propusieron una solución al problema de la información. Esta se basaba en lo que llamaron «principio de complementariedad», una especie de principio de relatividad: en esencia, un observador que cayese en un agujero negro encontraría la información dentro, mientras que uno que permaneciese en el exterior la vería salir. La idea no implica ninguna contradicción, ya que uno y otro no pueden comunicarse. MUROS DE FUEGO

La dualidad de Maldacena y el principio de complementariedad parecían haber eliminado todas las paradojas; sin embargo, faltaban por concretar los detalles. En 2012, nuestra colaboración AMPS intentó construir un modelo que mostrase cómo funcionaba todo. Para ello nos basamos en algunas ideas de Samir Mathur, de la Universidad estatal de Ohio, y Steven Giddings, de la Universidad de California en Santa Bárbara (y extendimos, sin saberlo, un razonamiento anterior debido a Samuel Braun­ stein, de la Universidad de York). Tras fracasar repetidas veces, nos dimos cuenta de que el problema iba más allá de nuestras carencias matemáticas. Aún persistía una contradicción. Esta aparece al considerar el entrelazamiento cuántico, el fenómeno menos intuitivo de la teoría cuántica y el más alejado de nuestra experiencia cotidiana. Si las partículas fuesen dados, dos partículas entrelazadas serían como dos dados que siempre suman siete: si al lanzar el primero obtenemos un dos, entonces sabremos que en el segundo aparecerá un cinco. De igual

A L T E R N AT I VA S

¿Fuego en el horizonte? Pese a las serias discordancias entre la física cuántica y la gravedad, parece prematuro abandonar la teoría de Einstein de los agujeros negros ROBERTO EMPARAN En 1976, Stephen Hawkingseñaló una contradicción básica entre la teoría de Einstein de los agujeros negros y la física cuántica. Casi cuarenta años después, esta «paradoja de la información» sigue resistiendo tenazmente todos nuestros intentos por resolverla. Dicha paradoja puede verse como un problema de irreversibilidad fundamental. Uno de los principios básicos de la física cuántica dicta que todo proceso ha de ser siempre reversible. Por ello, si nuestra tableta de última generación cae en un horno crematorio, no debemos desesperar: bastará con reunir las cenizas y la radiación generadas durante la quema y procesarlas en un superordenador cuántico. Al menos en principio, ello nos permitirá reconstruir todas las fotos y documentos que guardábamos en la tableta. Por supuesto, lo anterior no es más que un experimento mental; hoy por hoy, seguimos muy lejos de poder llevar a cabo algo así. Sin embargo, a los físicos nos gusta considerar esta clase de procesos imaginarios para investigar la consistencia interna de nuestras teorías. En este caso, lo importante es que, mientras la tableta se quema, todas las partes del sistema pueden intercambiar información entre sí. De este modo, la información se conserva globalmente a lo largo de la combustión, por más que se redistribuya de una forma muy complicada. Eso no ocurre si la tableta cae en un agujero negro. Una vez que haya atravesado el horizonte de sucesos, resultará imposible transmitir su información al exterior. Por ello, si el agujero negro se «evapora» emitiendo radiación térmica —como descubrió Hawking en 1974— y acaba desapareciendo, la información quedará aniquilada. Es decir, nos encontraríamos ante un proceso verdaderamente irreversible. Modificar la física cuántica para hacer sitio a esa irreversibilidad sin introducir efectos colaterales indeseados resulta notablemente difícil. Tanto es así que muchos físicos pensaron que, de alguna manera, la información seguiría siendo accesible desde el exterior del agujero negro. En 2012, Joseph Polchinski y sus colaboradores, conocidos como AMPS por sus iniciales, argumentaron que las consecuencias de esa opción resultaban mucho más conflictivas de lo que nunca habíamos imaginado. Si nos empeñamos en que la información se mantenga accesible desde fuera —por ejemplo, en forma de fotones que almacenen cada uno un bit de información—, debe existir una fuerza enorme cerca del horizonte que impida a esos fotones caer hacia el interior. Esa barrera, que AMPS denominaron «muro de fuego», sería percibida por cualquiera que intentase atravesar el horizonte de sucesos. Las consecuencias son tremendas: semejante «muro» difiere por completo de lo que predice la teoría de Einstein, según la cual en el horizonte no debería ocurrir nada especial. Aun reconociendo la dificultad del reto lanzado por AMPS, muchos, quizá la mayoría, de los físicos han rechazado seguirles hasta su última conclusión. Estamos habituados a que los efectos cuánticos resulten inapreciables en los objetos macroscópicos. Sin embargo, los muros de fuego implican que la mecánica cuántica altera por completo las propiedades de los agujeros negros, incluso si son tan grandes como el que ocupa el centro de la Vía Láctea,

con un tamaño de millones de kilómetros, o Gargantúa, el agujero negro de Interstellar. Si bien AMPS sugieren que tal vez los muros de fuego solo aparezcan en agujeros negros muy antiguos (con una edad mayor que la del universo actual), no estamos preparados para aceptar un fracaso tan drástico de la teoría de Einstein sin haber descartado antes todas las opciones. Sortear el muro Una de las alternativas más interesantes ha sido la propuesta por Kyriakos Papadodimas, del CERN y la Universidad de Groninga, y Suvrat Raju, del Centro Internacional para las Ciencias Teóricas de Bangalore. En ella, el interior del agujero negro no tiene una existencia independiente del exterior. El principal logro de estos investigadores ha sido demostrar cómo el interior puede ser codificado empleando únicamente magnitudes accesibles a los observadores externos. En realidad, toda la información se encuentra fuera del horizonte. Por tanto, para un observador externo resulta posible —aunque extremadamente difícil— describir lo que sucede en el interior. Seguimos disponiendo de la información almacenada en nuestra tableta; es decir, su caída en el agujero negro constituye un proceso reversible, tal y como exigen las leyes cuánticas. Pero, a menos que llevemos a cabo observaciones muy precisas, describiremos dicho proceso de manera casi idéntica a como lo hace la teoría de Einstein; en particular, sin encontrar muros de fuego y, aparentemente, perdiendo la información. Ello permite armonizar ambas teorías preservando lo esencial de cada una de ellas. Con todo, el debate no está cerrado. La construcción de Papadodimas y Raju resulta poco ortodoxa en física cuántica y AMPS —y otros— han cuestionado que pueda llevarse a cabo sin modificar ninguno de sus principios. Por desgracia, no parece que ningún experimento en un futuro próximo vaya a ayudarnos a resolver la cuestión. Si existiesen los muros de fuego, sus efectos sobre los agujeros negros astrofísicos se verían atemperados por su intensa gravedad. E incluso si los aceleradores de partículas presentes o futuros consiguiesen crear copiosas cantidades de agujeros negros microscópicos —algo que se antoja cada vez más improbable a la vista de los resultados del LHC en el CERN—, estaríamos aún muy lejos de poder realizar el tipo de computación cuántica que decidiría el problema. Sin embargo, a pesar de su carácter eminentemente teórico, no parece conveniente ignorar el reto. Muchos de los avances más radicales de la física han tenido su origen en las aparentes contradicciones entre teorías que, por separado, estaban bien establecidas. Por ello, tal vez la paradoja de la información se convierta en la contribución más importante y fructífera de Stephen Hawking a la física. Al fin y al cabo, son pocas las controversias capaces de atrapar la atención de los científicos y forzarles a generar nuevas ideas durante cuatro décadas. Roberto Emparan es profesor de investigación ICREA en el departamento de física fundamental de la Universidad de Barcelona y en el Instituto de Ciencias del Cosmos, de la misma universidad.

Fronteras de la física cuántica  77

modo, cuando medimos las propiedades de una partícula que se encuentra entrelazada con otra, el resultado determina las propiedades de su pareja. La mecánica cuántica también dicta que una partícula solo puede estar completamente entrelazada con otra más: si la partícula B se halla entrelazada con la A, entonces no puede estarlo a la vez con una tercera, C. Decimos que el entrelazamiento es «monógamo». Pensemos ahora en un fotón de Hawking emitido después de que se haya evaporado, al menos, la mitad del agujero negro. Llamemos «B» a dicho fotón. El proceso de Hawking implica que B forma parte de un par de partículas entrelazadas, cuyo segundo miembro, «A», se ha precipitado en el agujero. Por otro lado, la información que anteriormente había caído en el agujero negro ha de estar repartida de algún modo en la radiación de Hawking emitida hasta entonces. Ahora bien, si la información no se pierde, y si el fotón saliente, B, acaba en un estado cuántico bien definido, entonces B ha de estar entrelazado con alguna combinación, «C», de partículas de Hawking radiadas con anterioridad (de lo contrario, el proceso borraría información). Pero entonces llegamos a una contradicción: ¡la poligamia! Si fuera del agujero negro no ocurre nada extraordinario, el precio de salvar a la mecánica cuántica y preservar el entrelazamiento entre B y C es romper el entrelazamiento entre A y B. Pero, al igual que sucede con un enlace químico, romper el entrelazamiento cuesta energía. Los fotones A y B habían aparecido como un efímero par de partículas muy cerca del horizonte de sucesos. Para romper el entrelazamiento entre todos los pares de Hawking, el horizonte solo puede ser un «muro» de partículas de alta energía. Un astronauta que cayese en un agujero negro no se deslizaría con suavidad en él; en su lugar, se toparía con un muro de fuego. Hallar una divergencia tan drástica con respecto a las predicciones de la relatividad general nos causó un gran desconcierto. Pero nuestro razonamiento era simple y no pudimos encontrar ningún fallo. En cierto modo, habíamos recorrido el razonamiento original de Hawking en sentido inverso: supusimos que la información no se perdía y vimos a dónde nos llevaba tal hipótesis. Descubrimos que, más que los sutiles efectos de la complementariedad, la relatividad general se desmoronaba. Al comentar nuestro resultado con otros investigadores, la reacción más común fue un escepticismo seguido de la misma perplejidad que habíamos experimentado nosotros. O existen los muros de fuego, o habremos de abandonar algunos de nuestros principios cuánticos más arraigados. Por desgracia, estudiar los agujeros negros del mundo real no ayudará a resolver la cuestión, ya que cualquier radiación emitida por el objeto quedaría enmascarada por sus efectos gravitatorios, lo que haría el muro de fuego muy difícil de observar. EL FIN DEL ESPACIO

Si existen los muros de fuego, ¿qué son? Una posibilidad es que marquen el final del espacio. Tal vez las condiciones para que se forme el espaciotiempo no se satisfagan en el interior de un agujero negro. Como ha apuntado Marolf, quizás el interior no pueda formarse porque «la memoria cuántica del agujero negro está llena». Si el espaciotiempo termina en el horizonte, un astronauta que lo toque se «disolverá» en bits cuánticos alojados en la frontera. Para evitar situaciones tan estrafalarias, numerosos investigadores han intentado sortear el argumento que lleva a la existencia de muros de fuego. Una propuesta plantea que, dado que la partícula de Hawking B ha de estar entrelazada a la vez

78  TEMAS 86

con A y con C, entonces A debe formar parte de C: el fotón que se halla tras el horizonte representa, de alguna manera, el mismo bit que la radiación de Hawking emitida con anterioridad, por más que uno y otra se encuentren muy separados. La idea recuerda a la noción original de complementariedad, pero parece que plasmarla en un modelo concreto también implica modificar la mecánica cuántica. La alternativa más radical, propuesta por Maldacena y Susskind, postula que dos partículas entrelazadas se hallan conectadas por un agujero de gusano espaciotemporal. De esta manera, una extensa región del espaciotiempo, como el interior de un agujero negro, podría construirse a partir de grandes cantidades de entrelazamiento [véase «Geometría y entrelazamiento cuántico», por Juan Maldacena, en este mismo número]. Hawking propuso que la relatividad general funciona para los agujeros negros pero que la mecánica cuántica no. Maldacena llegó a la conclusión de que no hace falta modificar la mecánica cuántica, pero que el espaciotiempo es holográfico. Quizá la verdad se encuentre en algún punto intermedio. Se han propuesto muchas otras ideas. La mayoría implican abandonar alguno de los grandes principios que llevaban largo tiempo con nosotros, pero no hay consenso acerca de qué dirección tomar. Una pregunta común es: ¿qué consecuencias tendrían los muros de fuego para los agujeros negros del mundo real, como el del centro de la Vía Láctea? Aún es pronto para decirlo. Por el momento, la comunidad vive con emoción esta nueva contradicción entre dos teorías físicas fundamentales. Nuestra incapacidad para decidir si los muros de fuego existen o no ha sacado a la luz una limitación en las formulaciones actuales de la gravedad cuántica. Quizá de todo ello emerja una comprensión más profunda de la naturaleza del espacio y del tiempo, así como de los principios que subyacen a todas las leyes físicas. En último término, al desenmarañar los problemas que plantean los muros de fuego, tal vez obtengamos la clave para unificar la mecánica cuántica y la relatividad general. Artículo publicado en Investigación y Ciencia, abril de 2015

EL AUTOR

Joseph Polchinskies catedrático de física de la Universidad de California en Santa Bárbara y miembro del Instituto Kavli de Física Teórica, de la misma universidad. Ha destacado por sus investigaciones en teoría de cuerdas y gravedad cuántica. PARA SABER MÁS

La guerra de los agujeros negros: Una controversia científica sobre las leyes últimas de la naturaleza.Leonard Susskind. Editorial Crítica, 2009. Black holes: Complementarity or firewalls?Ahmed Almheiri, Donald Marolf, Joseph Polchinski y James Sully en Journal of High Energy Physics, vol. 2013, art. 62, febrero de 2013. Cool horizons for entangled black holes.Juan Maldacena y Leonard Susskind en Fortschritte der Physik, vol. 61, n.o 9, págs. 781-811, septiembre de 2013. Black hole interior in the holographic correspondence and the information paradox.Kyriakos Papadodimas y Suvrat Raju en Physical Review Letters, vol. 112, 051301, febrero de 2014. EN NUESTRO ARCHIVO

Los agujeros negros y la paradoja de la información.Leonard Susskind en IyC, junio de 1997. La información en el universo holográfico.Jacob D. Bekenstein en IyC, octubre de 2003. El espacio, ¿una ilusión?Juan Maldacena en IyC, enero de 2006.

ESPECIAL MONOGRÁFICOS DIGITALES Descubre los monográficos digitales que reúnen nuestros mejores artículos (en pdf) sobre temas de actualidad

www.investigacionyciencia.es/revistas/especial

RE TOS C UÁNTICOS

Geometría y entrelazamiento cuántico

80  TEMAS 86

El extraño fenómeno cuántico que tanto inquietaba a Einstein podría explicar la continuidad del espacio y el tiempo Juan Martín Maldacena

Fronteras de la física cuántica  81

repasaremos ambos artículos y explicaremos su relación desde un punto de vista moderno. AGUJEROS NEGROS Y AGUJEROS DE GUSANO

Una predicción sorprendente de la teoría de Einstein son los agujeros negros. Estos objetos se forman cuando una gran cantidad de materia se concentra en una región pequeña del espacio. La materia no tiene por qué ser especial; por ejemplo, podríamos crear un agujero negro con aire. Eso sí, necesitaríamos mucho aire: tendríamos que llenar una esfera del tamaño del sistema solar. Pero, si lo hiciéramos, el sistema colapsaría bajo su propio peso y se comprimiría hasta formar un agujero negro. Todo agujero negro se encuentra rodeado por una superficie imaginaria llamada horizonte de sucesos. Decimos que es imaginaria porque un astronauta que cayese libremente no encontraría nada allí. Sin embargo, una vez que la atravesase, no podría dar la vuelta atrás. Entraría en una región donde el espacio está colapsando hacia una «singularidad», una zona donde la geometría se contrae por completo. Al acercarse a la singularidad, el astronauta moriría despedazado por las fuerzas gravitatorias. Fuera de la región donde se encuentra la materia, un agujero negro queda descrito por una solución de las ecuaciones de Einstein que fue descubierta en 1916 por el físico Karl Schwarzschild. La motivación original de Schwarzschild era encontrar el campo gravitatorio generado por una masa puntual. De hecho, su solución no contiene materia: todo lo que describe es un campo gravitatorio puro con simetría esférica. Aunque puede parecer una configuración simple, las propiedades de este espaciotiempo resultaron bastante difíciles de interpretar. Una comprensión razonable de su estructura completa no llegó hasta los años sesenta. En 1935, en uno de los artículos a los que aludíamos más arriba, Einstein y Nathan Rosen, uno de sus colaboradores en el Instituto de Estudios Avanzados de Princeton, descubrieron un aspecto muy curioso de la solución de Schwarzschild. Hallaron que esta contiene dos espacios independientes unidos por una especie de «tubo». A un instante de tiempo fijo, la geometría puede visualizarse de la siguiente manera: muy lejos de la región central, el espacio es plano (sin curvatura apreciable); pero, a medida que nos acercamos al centro, la geometría se deforma y se conecta con un segundo espacio que también es asintóticamente plano. La conexión geométrica que acabamos de describir recibe el nombre de «puente de Einstein y Rosen» (ER), o agujero de gusano. Ellos analizaron la geometría de una hipersuperficie a un tiempo fijo (es decir, un espacio curvo de tres dimensiones) años antes de que se entendiera la estructura completa de la solución de Schwarzschild. Su motivación era encontrar una descripción geométrica de las partículas elementales que no fuera singular. Hoy creemos que su interpretación era desacertada.

EN SÍNTESIS

Según la relatividad general,la materia y la ener­ gía cambian la geometría del espacio. Cien años después de que Einstein formulase su teoría, los físicos siguen buscando una descripción cuántica del espacio y el tiempo.

82  TEMAS 86

La mecánica cuánticay la relatividad general predicen dos fenómenos que parecen permi­ tir la transmisión instantánea de información: el entrelazamiento cuántico y los agujeros de gusano. Ambos fueron estudiados por Einstein en 1935.

Varios trabajos recientes han demostrado que dichos fenómenos están relacionados: el entrela­ zamiento puede originar una conexión geométrica entre regiones distantes del espacio. La idea sugiere un nuevo principio en gravedad cuántica.

PÁGINAS ANTERIORES: ISTOCKPHOTO/KTSIMAGE

A

principios del siglo xx hubo dos revoluciones en física: la mecánica cuántica y la relatividad general. La mecánica cuántica nos enseñó las leyes que rigen el comportamiento del mundo microscópico. La relatividad general, formulada en 1915 por Albert Einstein, es una teoría del espacio y el tiempo. Según ella, el espaciotiempo es curvo y posee una dinámica propia. Hasta ahora todas las predicciones de ambas teorías se han visto confirmadas por los experimentos. Sin embargo, solemos aplicar una y otra a fenómenos muy distintos. Acostumbramos a emplear la mecánica cuántica para describir el comportamiento de objetos extremadamente pequeños (como átomos o fotones), mientras que usamos la relatividad general para estudiar cómo cambia la geometría del espaciotiempo en presencia de cuerpos muy masivos (estrellas o galaxias, por ejemplo). Para investigar sistemas físicos muy pequeños y masivos, como el universo pocos instantes después de la gran explosión, necesitaríamos disponer de una descripción cuántica del espaciotiempo. Cien años después de que Einstein formulase su teoría, este sigue siendo uno de los mayores retos a los que se enfrenta la física fundamental. En 2013, motivados por un debate reciente relacionado con las propiedades de los agujeros negros, el físico de Stanford Leonard Susskind y el autor de este artículo propusimos una conexión entre dos fenómenos aparentemente paradójicos que ocurren en mecánica cuántica y en relatividad general: el entrelazamiento cuántico y los agujeros de gusano. El primero hace referencia a un tipo de correlación cuántica que puede existir entre dos sistemas físicos distantes. Los agujeros de gusano son «atajos» que aparecen en algunas soluciones de las ecuaciones de Einstein y que conectan regiones muy lejanas del espacio. A continuación veremos que ambos fenómenos están relacionados. La equivalencia entre ellos puede argumentarse con solidez para algunos casos concretos en los que intervienen agujeros negros, pero parece ser más general. Nuestra idea es que esta relación entre geometría y entrelazamiento tal vez constituya un principio que toda teoría cuántica del espaciotiempo, o de gravedad cuántica, debería obedecer. Dicho principio tiene consecuencias profundas. Sugiere que, de alguna forma, el espaciotiempo mismo podría emerger a partir del entrelazamiento cuántico de constituyentes microscópicos más fundamentales. Curiosamente, tanto el entrelazamiento cuántico como los agujeros de gusano se remontan a dos artículos que el propio Einstein escribió en 1935. Ambos trabajos parecen tratar sobre fenómenos muy distintos, y seguramente Einstein nunca sospechó que pudiese haber una conexión entre ellos. De hecho, el entrelazamiento era una propiedad de la mecánica cuántica que molestaba enormemente al físico alemán. En lo que sigue

Causa y efecto en un agujero negro Los agujeros negros (derecha) se forman cuando una gran cantidad de materia se Exterior concentra en una región del espacio lo suficientemente pequeña. En tal caso, el campo gravitatorio en la región que Interior rodea a la materia se torna tan intenso que nada, ni siquiera la luz, puede escapar de allí. La superficie a partir de la Horizonte cual resulta imposible dar la vuelta atrás de sucesos recibe el nombre de horizonte de sucesos (naranja). Todo objeto que traspase el horizonte caerá inevitablemente hacia una singularidad: una zona en la que la curvatura del espacio se torna infinita (rojo, abajo). La estructura causal de un agujero negro suele representarse mediante un «diagrama de Penrose» (abajo). En estos diagramas el eje vertical corresponde al tiempo y el horizontal a la coordenada radial (las otras dos direcciones del espacio se omiten). La escala en cada punto se elige de tal manera que los rayos de luz describan siempre líneas rectas a 45 grados. Todas las trayectorias físicas transcurren necesariamente en el interior de estos «conos de luz». Por tanto, un suceso que ocurra en una posición e instante determinados solo podrá afectar a los puntos incluidos en el interior de su cono de luz futuro.

Singularidad

Rayo de luz interno (atrapado) Rayo de luz externo

on

te

Interior

r iz

En un diagrama de Penrose, todo el espacio físico y todo el tiempo quedan representados en un área finita. Este ejemplo reproduce el colapso gravitatorio de una gran cantidad de materia (rosa) y la formación de un agujero negro.

In

f in

i to

Materia en colapso

Exterior

Trayectorias sublumínicas Rayos de luz

45o

Tiempo

Origen de coordenadas

i to

Ho

f in

INVESTIGACIÓN Y CIENCIA, SEGÚN EL AUTOR

D I AG R A M A S D E P E N R O S E

In

El puente original de ER une dos espacios independientes. Sin embargo, resulta posible encontrar geometrías similares en las que las dos regiones conectadas pertenecen al mismo espacio. Con algunas pequeñas modificaciones, la solución de Schwarzschild puede también interpretarse como una que contiene dos agujeros negros muy distantes unidos a través de su interior. Imagine que tenemos un agujero negro aquí y otro en una galaxia lejana. Un observador, a quien llamaremos Romeo, está parado a un metro del horizonte de sucesos del primer agujero negro, mientras que Julieta se encuentra a un metro del horizonte del segundo. Si los interiores de ambos agujeros negros están conectados por un puente de ER, la distancia entre Romeo y Julieta a través del agujero de gusano será solo de dos metros, con independencia de cuán lejos se hallen en el espacio ambiente. Tales geometrías parecen problemáticas. Recordemos que uno de los principios de la relatividad especial es la imposibilidad de enviar señales más rápido que la luz. Sin embargo, se diría que los agujeros de gusano nos permiten violar este principio, ya que podríamos emplearlos para mandar señales a través de ellos. No obstante, en 1962, Robert W. Fuller, de la Universidad de Columbia, y John A. Wheeler, de la de Princeton, demostraron que los puentes de ER no pueden usarse para enviar señales de ningún tipo. Ello se debe a que se trata de geometrías dinámicas en las que el tiempo desempeña un papel importante. Nuestros agujeros de gusano describen la geometría del espacio a un instante de tiempo fijo. Sin embargo, dicha geometría evoluciona con el tiempo. Fuller y Wheeler demostraron que un puente de ER siempre acaba «estirándose» —su longitud se hace infinita— antes de que a un observador le dé tiempo a cruzarlo. Esto supone una decepción para los personajes de las películas de ciencia ficción, que suelen emplear los agujeros de gusano para cruzar el universo a velocidades superlumínicas. En el caso de dos agujeros negros conectados a través de su interior por un agujero de gusano, los horizontes se tocan por un instante, pero luego se separan tan rápido que resulta imposible cruzar el puente y llegar al otro lado. De manera que, si Romeo tratase de enviar un mensaje superlumínico a Julieta, no podría: lanzaría un cohete con el mensaje hacia su agujero negro y la nave caería en el interior. Pero, una vez dentro, los dos horizontes se separarían a toda velocidad y el espacio colapsaría mucho antes de que el mensaje pudiese llegar al horizonte de Julieta. Sin embargo, Romeo y Julieta aún tendrían una oportunidad para verse. Podrían dejarse caer en sus respectivos agujeros negros y encontrarse en el interior. Pero hay un problema: una vez dentro, jamás podrían salir, por lo que morirían en la singularidad. Se trataría literalmente de un caso de «atracción fatal». Lo extraño de esta

Trayectorias prohibidas (superlumínicas)

Espacio

Fronteras de la física cuántica  83

L A S O L U C I Ó N D E S C H WA R Z S C H I L D

Universos distantes y agujeros de gusano En 1916, Karl Schwarzschild publicó una solución de las ecuaciones de Einstein correspondiente a un campo gravitacional puro con simetría esférica. Dicha solución no contiene materia; representa un caso idealizado en el que solo hay campo gravitatorio. Más tarde se vio que este descri-

bía una singularidad y un horizonte de sucesos; es decir, un agujero negro. Sin embargo, el espaciotiempo de Schwarzschild esconde una estructura mucho más rica. A continuación se indican sus principales características a partir de su diagrama de Penrose.

Singularidad futura y pasada

te

te on Exterior I

Tiempo

Interior pasado Singularidad pasada

Puente de Einstein y Rosen

En 1935, Einstein y Nathan Rosen descubrieron que la solución de Schwarzschild contenía una geometría suave (línea azul, izquierda) que conectaba dos espacios distintos. Este «puente», o agujero de gusano, describe la geometría del espacio en un instante de tiempo fijo (derecha). No puede atravesarse, ya que para ello sería necesario viajar más rápido que la luz.

Fuera de los horizontes de sucesos, la solución completa de Schwarzschild describe dos espacios independientes. Los rayos de luz no pueden cruzar de uno a otro, por lo que nada de lo que ocurra en una de esas zonas podrá afectar a la otra. Diagrama de Penrose del espaciotiempo de Schwarzschild

Geometría del espacio a tiempo fijo

Agujeros negros conectados

Solución idealizada

Imaginemos dos observadores, Romeo y Julieta, uno en cada espacio exterior. Cada uno de ellos verá un horizonte de sucesos; es decir, un agujero negro. Aunque las regiones externas pertenecen a universos distintos, los dos agujeros negros comparten el interior, por lo que Romeo y Julieta podrían encontrarse allí.

La solución de Schwarzschild describe un caso de gran interés teórico, pero no se aplica a los agujeros negros del mundo real. Estos últimos se forman por el colapso de materia, lo que modifica la geometría de la solución. Un agujero negro astrofísico solo corresponde a una parte de la geometría de Schwarzschild; en particular, no contiene agujeros de gusano que conecten con otros espacios.

geometría es que describe dos agujeros negros que comparten el interior. Por eso Romeo y Julieta pueden encontrarse allí. Hemos de enfatizar que nuestros agujeros de gusano son muy distintos de los que aparecen en las películas de ciencia ficción. Estos últimos (aquellos que sí podrían atravesarse) requieren un tipo de materia con energía negativa que no parece ser compatible con las leyes de la física tal y como las conocemos. Por eso, muchos físicos creemos que los agujeros de gusano de la ciencia ficción no pueden existir en la naturaleza. Otro matiz importante atañe a la clase de agujeros negros que estamos considerando aquí. Los agujeros negros que se forman por el colapso de materia solo corresponden a una porción de la geometría completa de Schwarzschild, ya que la presencia de materia modifica la solución. Este caso se entiende muy bien y en él no hay ningún agujero de gusano. Los agujeros negros que se

84  TEMAS 86

producen por medio de procesos astrofísicos naturales, como el colapso de estrellas, son de este tipo y no contienen agujeros de gusano que los conecten con otras regiones del espacio ni entre sí, como ocurre en la solución completa de Schwarzschild. Sin embargo, nos gustaría entender mejor la interpretación física del espaciotiempo de Schwarzschild. Después de todo, se trata de una de las soluciones más sencillas de las ecuaciones de Einstein. CORRELACIONES CUÁNTICAS

De manera sorprendente, la interpretación de la solución de Schwarzschild parece tener que ver con el otro artículo de Einstein que mencionábamos al principio. Este trabajo es hoy muy famoso e influyente. Fue escrito el mismo año junto con Rosen y Boris Podolski, también investigador del Instituto de Estudios Avanzados. Los autores (hoy conocidos por sus iniciales, EPR)

INVESTIGACIÓN Y CIENCIA, SEGÚN EL AUTOR

on

r iz

r iz Exterior II

Espacio

Agujeros de gusano

Interior futuro

Ho

Ho

El espaciotiempo completo asociado a la solución de Schwarzschild incluye dos singularidades: una en el futuro distante y otra en el pasado remoto. En otras palabras, hay una región donde el espacio está colapsando hacia una singularidad (un agujero negro) y otra en la que el espacio está «saliendo», como si se tratase de una gran explosión. Cada una de estas regiones se encuentra rodeada por su propio horizonte de sucesos.

Universos disconexos Singularidad futura

mostraron que la mecánica cuántica permite la existencia de extrañas correlaciones entre sistemas físicos lejanos, una propiedad que más tarde sería llamada «entrelazamiento». Las correlaciones entre objetos distantes también se dan en los sistemas clásicos. Imagine que usted sale de casa con un solo guante porque olvidó el otro en casa. Antes de mirar en su bolsillo, no podrá saber qué guante tomó. Pero, una vez lo haga y vea que tiene el guante derecho, sabrá de inmediato que el que está en su casa es el izquierdo. Sin embargo, el entrelazamiento implica correlaciones entre variables cuánticas, las cuales pueden estar sujetas al principio de incertidumbre de Heisenberg. Este nos dice que hay pares de variables físicas que no pueden conocerse con total precisión al mismo tiempo. El ejemplo más famoso es el de la posición y la velocidad de una partícula: si medimos muy bien su posición, la velocidad se tornará incierta, y viceversa. En su artículo, EPR se preguntaron qué ocurriría si tenemos dos sistemas distantes y en cada uno de ellos decidimos medir un par de variables sujetas al principio de incertidumbre. El ejemplo analizado por EPR consideraba dos partículas con la misma masa que se mueven en una sola dimensión. Llamemos a estas partículas R y J y preparémoslas de tal manera que su centro de masas tenga una posición bien definida, digamos xcm = xR + xJ = 0. También podemos hacer que su velocidad relativa, vrel = vR – vJ, tome un valor preciso; por ejemplo, vrel = v0. Antes de continuar, clarifiquemos algo. Aquí estamos especificando una posición y una velocidad de manera exacta. ¿No viola esto el principio de incertidumbre de Heisenberg? Recordemos que este se aplica a la posición de un sistema y a la velocidad asociada a dicha posición. Pero, si tenemos dos sistemas distintos, nada nos impide conocer la posición del primero y la velocidad del segundo. En nuestro ejemplo, no estamos determinando la posición y la velocidad del centro de masas, sino la posición del centro de masas y la velocidad relativa de las partículas. Dado que ambas cantidades son independientes, no hay ningún problema en considerar un estado inicial como el que postularon EPR. Ahora vayamos a la parte más sorprendente. Supongamos que nuestras partículas se encuentran muy alejadas una de otra y que dos observadores distantes, Romeo y Julieta, deciden medir sus posiciones. Ahora bien, debido a cómo han sido preparadas, si Julieta obtiene el valor xJ, entonces Romeo encontrará que su partícula está en xR = –xJ. Por otro lado, si los dos miden la velocidad y Julieta obtiene el resultado vJ, Romeo hallará con toda seguridad el valor vR = v0 + vJ. Por supuesto, Romeo y Julieta son libres de elegir qué variable van a medir. Sin embargo, si Julieta mide la posición y Romeo la velocidad, sus resultados serán completamente aleatorios y no mostrarán correlación alguna. Lo extraño es que, si Julieta decide medir la posición de su partícula, la de Romeo tendrá una posición completamente determinada una vez que sepamos el resultado de la medición de Julieta. Y lo mismo ocurrirá con la velocidad. Podríamos pensar que, cuando Julieta mide la posición, la partícula de Romeo «sabe» inmediatamente que debe tener una posición bien definida. A primera vista esto parece constituir una transmisión instantánea de información: al repetir el mismo experimento un gran número de veces, Julieta podría enviar a Romeo un mensaje de ceros y unos decidiendo medir la posición o la velocidad de su partícula. Sin embargo, Romeo no sería capaz de leer ese mensaje a menos que conociese el resultado de las mediciones de Julieta. Así pues, las correlaciones debidas al entrelazamiento cuántico no pueden usarse para enviar señales superlumínicas.

El entrelazamiento tal vez parezca una propiedad muy esotérica de los sistemas cuánticos, pero a lo largo de los años ha sido confirmado en numerosos experimentos. En las últimas dos décadas, las correlaciones cuánticas han dado lugar a varias aplicaciones prácticas y a grandes avances en disciplinas como la criptografía y la información cuánticas. ER = EPR

Ahora retornemos a los agujeros negros. En 1974, Stephen Hawking demostró que los efectos cuánticos causan que los agujeros negros emitan radiación del mismo modo en que lo hace un cuerpo caliente. Ello implica que los agujeros negros tienen asociada una temperatura. Dicha temperatura resulta ser mayor cuanto más pequeño es el objeto. De hecho, un agujero negro puede ser blanco. En concreto, uno del tamaño de una bacteria, con un radio similar a la longitud de onda de la luz visible, se vería blanco debido a la radiación de Hawking. No emitiría mucha luz, pero desde cerca lo veríamos como un pequeño punto brillante. Con todo, la masa de un agujero negro de ese tamaño seguiría siendo enorme, equiparable a la de un continente, por lo que no cabría usarlo como fuente de energía. En los agujeros negros que se producen de forma natural por el colapso de estrellas, la radiación de Hawking es tan débil que, en la práctica, resulta inobservable. Estos objetos son demasiado grandes y se encuentran demasiado fríos para apreciar dicho efecto. Sin embargo, el hecho de que los agujeros negros tengan asociada una temperatura acarrea importantes consecuencias. Sabemos desde el siglo xix que la temperatura se debe al movimiento de los constituyentes microscópicos de un sistema. En un gas, por ejemplo, aparece como consecuencia de la agitación de sus moléculas. Por tanto, cabe esperar que un agujero negro cuente con algún tipo de constituyentes microscópicos capaces de adoptar un gran número de configuraciones posibles, o «microestados». También creemos que, al menos vistos desde el exterior, los agujeros negros deberían comportarse como sistemas cuánticos ordinarios sujetos a todas las leyes de la mecánica y la termodinámica. En vista de lo anterior, nada nos impide considerar estados entrelazados de agujeros negros. Imaginemos un par de agujeros negros muy distantes, cada uno con un gran número de microestados. Podemos pensar en una configuración en la que cada microestado del primer agujero negro se halla correlacionado con el correspondiente microestado del segundo. En concreto, si observamos el primer agujero negro en un microestado determinado, el segundo deberá encontrarse exactamente en el mismo microestado. Lo interesante es que, a partir de ciertas consideraciones relacionadas con la teoría de cuerdas y las teorías cuánticas de campos, puede argumentarse que un par de agujeros negros con sus microestados entrelazados de esta manera —es decir, en un estado de tipo EPR— darían lugar a un espaciotiempo en el que un puente de ER une el interior de ambos agujeros negros. En otras palabras, el entrelazamiento cuántico origina una conexión geométrica entre los dos agujeros negros. A esto lo hemos llamado equivalencia entre ER y EPR, o ER = EPR, ya que relaciona los dos artículos que Einstein y sus colaboradores escribieron en 1935. Desde el punto de vista de EPR, las observaciones realizadas cerca del horizonte de cada uno de los agujeros negros se hallan correlacionadas debido al entrelazamiento cuántico. Desde el punto de vista del puente de ER, las observaciones están correlacionadas porque la dis-

Fronteras de la física cuántica  85

G E O M E T R Í A Y M E C Á N I C A C UÁ N T I C A

El pegamento cuántico del espaciotiempo Uno de los fenómenos menos intuitivos predichos por la mecánica cuántica es el entrelazamiento. En él, las medidas efectuadas sobre dos sistemas cuánticos distantes parecen coordinarse de manera instantánea (arriba). En 1935, Albert Einstein, Boris Podolsky y Nathan Rosen analizaron las implicaciones de este fenómeno en un artículo hoy célebre.

Varias investigaciones recientes han demostrado que el entrelazamiento cuántico puede originar una conexión geométrica entre regiones distantes del espacio (abajo). Este resultado sugiere un principio general en gravedad cuántica. El espaciotiempo podría emerger a partir de las correlaciones cuánticas de sus constituyentes microscópicos fundamentales.

aci E sp

Vía Láctea

Julieta lanza su dado

aci

o

Vía Láctea

E sp

Dos partículas entrelazadas pueden verse como dos dados que arrojan siempre el mismo resultado. Cada vez que Julieta lance su dado obtendrá un número aleatorio. Sin embargo, su resultado estará correlacionado con el que obtenga Romeo. Al contrario de lo que podría parecer, el entrelazamiento no puede usarse para enviar información de manera instantánea.

o

Entrelazamiento cuántico

Romeo lanza su dado y obtiene el mismo número que Julieta

Andrómeda Andrómeda

aci E sp

Vía Láctea

aci

o

Vía Láctea

E sp

Romeo y Julieta podrían crear dos agujeros negros con partículas entrelazadas. Una vez formados, dichos agujeros negros quedarían conectados a través de su interior por un agujero de gusano, como ocurre en la solución completa de Schwarzschild. Ni Romeo ni Julieta podrían atravesar esa conexión geométrica para llegar al otro lado, pero sí podrían encontrarse en su interior.

o

Conexión geométrica

Puente de Einstein y Rosen

Agujeros negros con sus microestados entrelazados

Andrómeda Andrómeda

86  TEMAS 86

¿UN PRINCIPIO UNIVERSAL?

Las ideas que llevan hasta aquí han sido desarrolladas a través de los años por varios investigadores, comenzando por un estudio de 1976 de Werner Israel, de la Universidad de Alberta. Nuestro trabajo con Susskind fue motivado por una paradoja planteada en 2012 por Ahmed Almheiri, Donald Marolf, Joseph Polchinski y James Sully, por aquella época todos en la Universidad de California en Santa Bárbara. En contra de lo que se pensaba hasta entonces, estos investigadores argumentaron que el entrelazamiento cuántico obligaba a reemplazar el horizonte de sucesos de un agujero negro (una superficie suave, según la teoría de Einstein) por una barrera impenetrable de alta energía [véase «Agujeros negros y muros de fuego», por Joseph Polchinski y «¿Fuego en el horizonte?», por Roberto Emparan, en este mismo número]. En el contexto de la relación ER = EPR, dicha paradoja parece poder resolverse. La equivalencia ER = EPR sugiere que siempre que haya un entrelazamiento cuántico debería surgir una conexión geomé-

INVESTIGACIÓN Y CIENCIA

tancia entre ambos sistemas es pequeña a través del agujero de gusano. Para establecer esta equivalencia, es importante que no podamos enviar información a través del agujero de gusano, ya que tampoco puede enviarse información usando el entrelazamiento. Pensemos en un futuro muy lejano en el que dos familias enemistadas tratan de mantener a Romeo y Julieta separados. Mandan a Romeo a la galaxia de Andrómeda y retienen a Julieta en la Vía Láctea. Sin embargo, permiten que ambos se envíen mensajes y pares de sistemas cuánticos entrelazados. Esto les llevaría muchísimo tiempo, pero estamos en un futuro en el que la esperanza de vida es mucho mayor. Con paciencia, Romeo y Julieta podrían crear dos agujeros negros entrelazados. Dichos agujeros negros tendrían un aspecto normal vistos desde fuera, por lo que las familias nunca sospecharían nada. Sin embargo, una vez creados, Romeo y Julieta podrían dejarse caer en su interior y encontrarse allí por última vez antes de morir en la singularidad.

EL AUTOR

trica. Esto se aplicaría incluso al caso más simple en el que solo tenemos dos partículas entrelazadas. En tales situaciones, sin embargo, la conexión espacial podría implicar estructuras diminutas y muy cuánticas, las cuales no se parecerían mucho a nuestra noción usual de geometría. Aunque aún no sabemos cómo describir estas geometrías microscópicas, la idea es que la relación ER = EPR proporcionaría un principio que toda teoría cuántica de la gravedad debería respetar. La teoría de gravedad cuántica más estudiada es la teoría de cuerdas. En ella, la relación ER = EPR puede justificarse de manera rigurosa en algunos casos en los que el entrelazamiento adopta una forma muy específica, pero todavía no existe un consenso sobre si dicha equivalencia se cumple en todos los casos. Hemos visto que el entrelazamiento cuántico puede, literalmente, acercar dos sistemas distantes. También sabemos que dos regiones cercanas del espacio están entrelazadas. Parece natural pensar que el espaciotiempo, una estructura continua, surja a partir del entrelazamiento, una propiedad profundamente cuántica. Esta idea se encuentra hoy en el punto de mira de varios investigadores, pero aún no se ha sintetizado en una formulación precisa.

Juan Maldacenaes físico teórico del Instituto de Estudios Avanzados de Princeton. Es mundialmente reconocido por sus contribuciones al estudio de la gravedad cuántica y la teoría de cuerdas. En 2012 recibió el Premio de Física Fundamental de la Fundación Milner. PARA SABER MÁS

Über das Gravitationsfeld eines Massenpunktes nach der Einsteinschen Theorie.Karl Schwarzschild en Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften, vol. 7, págs. 189-196, febrero de 1916. Traducción al inglés de S. Antoci y A. Loinger disponible en arxiv.org/abs/ physics/9905030 Can the quantum mechanical description of physical reality be considered complete?Albert Einstein, Boris Podolsky y Nathan Rosen en The Physical Review vol. 47, págs. 777-780, mayo de 1935. The particle problem in the general theory of relativity.Albert Einstein y Nathan Rosen en The Physical Review, vol. 48, págs. 73-77, julio de 1935. Cool horizons for entangled black holes.Juan Maldacena y Leonard Susskind en Fortschritte der Physik, vol. 61, pág. 781-811, septiembre de 2013. Entanglement and the geometry of spacetime.Juan Maldacena en The Institute for Advanced Study Newsletter, otoño de 2013. Versión preliminar y más sintética de este artículo. Disponible en https://www.ias.edu/about/ publications/ias-letter/articles/2013-fall/maldacena-entanglement EN NUESTRO ARCHIVO

La mecánica cuántica de los agujeros negros.S. Hawking en IyC, marzo de 1977. Teoría cuántica y realidad.B. d’Espagnat en IyC, enero de 1980. El espacio, ¿una ilusión?J. M. Maldacena en IyC, enero de 2006.

Artículo publicado en Investigación y Ciencia, noviembre de 2015

¡9 libros

Regala Ciencia

Clásicos de la divulgación

POR SOLO

firmados por autores de referencia

49,95 euros!

Promoción especial Navidad 2016 vigente hasta el 6 de enero de 2017

Oferta válida hasta agotar existencias

IVERSO

UMEN SEGUNDO VOL

CHRISTIAN DE

DAVID LAYZER

I VA CELULA V L A VOL UMEN CHRISTIAN DE

ONTIN RICHARD LEW

LAR

EL LEGADO DE

LUCHOWSKI

DUVE

TIMAS FORMAS OP Y TROMBA

ANT Y ANTHON

EINSTEIN

GER

JULIAN SCHWIN

ROMAN SMO

AY MATEMÁTIC ERBR STEFAN HILD

DUVE

EL SISTEMA SO

PRIMER

AD HUMANA LA DIVERSID

A V I VA LA CELUL

ON DEL UN CONSTRUCCI

PARTICULAS RG

STEVEN WEINBE

SUBATOMIC

AS

DA

TAMAÑO Y VI THOMAS A.

MCMAHON

www.investigacionyciencia.es/catalogo/libros Gastos de envío no incluidos

Fronteras de la física cuántica  87

Teorías supracuánticas RE TOS C UÁNTICOS

¿Es la física cuántica una teoría fundamental? Miguel Navascués

88  TEMAS 86

INVESTIGACIÓN Y CIENCIA

Fronteras de la física cuántica  89

D

esde que trabajo en física fundacio al, algunos iluminados me escriben n de cuando en cuando para contarme su propia teoría del todo. «Einstein estaba equivocado», comienzan —¿por qué siempre la toman con Einstein?, ¿acaso no hay otros físicos a los que malin­terpretar?—. «La masa no es un número, sino un vector tridimensional, el vector de Rodrigo, generado por una partícula vectorial, a la que denominaré rodrigón.» Acto seguido, Rodrigo se pierde en un mar de detalles sobre la manera en que su teoría de la rodriguidad explica la superconductividad, la autoconsciencia y las pirámides aztecas. Lo que todos estos individuos obvian es que, para que una nueva teoría física pueda ser tomada en serio, no solo ha de explicar los fenómenos que aún no entendemos, sino también todo lo demás. De acuerdo, supongamos que la nueva teoría fija la temperatura crítica superconductora del YBa2Cu3O7 en 93 kelvin. ¿Qué dice sobre la temperatura crítica del hierro? ¿Y sobre la radiación del cuerpo negro? ¿Predice la dilatación del tiempo o el efecto fotoeléctrico? Es más, ¿qué implica la nueva teoría para experimentos que aún no se han llevado a cabo? ¿Podemos falsarla? Si nos atenemos a estas condiciones, proponer una teoría alternativa a la física cuántica puede parecer una tarea titánica. O, peor aún, innecesaria: hasta ahora, la física cuántica ha resistido todos los intentos por refutarla. Predice con exactitud el espectro de los elementos químicos, permite calcular el campo magnético generado por un electrón con una precisión de una parte en mil millones, explica los experimentos que se llevan a cabo en los aceleradores de partículas e incluso la expansión del universo temprano. ¿Qué necesidad hay de reemplazarla por otra? Sin embargo, existen varios motivos para pensar que la física cuántica podría no ser una teoría fundamental. A continuación mencionaré dos. El primero es histórico. Basta con que alguien afirme haber dado con una «teoría final» para que aparezca algún fenómeno nuevo que su modelo no puede explicar. Así ocurrió con el modelo geocéntrico, con el copernicano, con las leyes de Newton, con la naturaleza ondulatoria de la luz y con las primeras teorías sobre la evolución del universo. ¿Por qué no iba a ocurrir lo mismo con la física cuántica? Sería muy presuntuoso pensar que unos mamíferos que no hace tanto que abandonaron las copas de los árboles ya han descubierto el misterio último del cosmos. La segunda razón es que, a pesar de todos sus éxitos, hay fenómenos que no parecen tener cabida en el formalismo cuántico. Fenómenos que, de hecho, resultan de enorme importancia para la vida en el universo. La física de partículas ha conseguido integrar las interacciones electromagnéticas, débiles y fuertes en una teoría cuántica llamada modelo estándar. Sus predic-

ciones son verificadas cada día en los grandes aceleradores de partículas, como el Gran Colisionador de Hadrones (LHC) del CERN, cerca de Ginebra. Sin embargo, y pese al duro trabajo de miles de físicos brillantes, todos los intentos por formular una teoría cuántica de la gravedad han conducido a modelos no predictivos. Durante los últimos años, los avances en información cuántica han hecho surgir un nuevo programa de investigación cuyo objetivo consiste en deducir las leyes cuánticas a partir de primeros principios. Dichos principios incluyen algunos postulados considerados «irrenunciables», como la imposibilidad de enviar información de manera instantánea entre puntos distantes del espacio (lo que violaría el principio de causalidad) o que no deberíamos poder comunicar información compleja empleando únicamente un bit. Si fuera posible demostrar que las leyes cuánticas son las únicas compatibles con tales postulados, podríamos argumentar con buenas razones el carácter fundamental de la teoría. De hecho, a medida que esta línea de investigación avanzaba, el número de teorías plausibles fue reduciéndose cada vez más. Hasta hace poco, parecía que las únicas teorías razonables eran aquellas compatibles con la física cuántica. En 2014, sin embargo, el autor de este artículo y otros investigadores demostramos que esa no es necesariamente la situación: parece haber teorías más generales que la física cuántica pero que, no obstante, no violan ningún requisito físico básico. Tales teorías «supracuánticas» parecen guardar, además, una intrigante relación con algunos intentos por describir la gravedad a escala microscópica. La construcción explícita de una de estas teorías constituye aún una tarea pendiente, pero contamos con buenas razones para pensar que deberían existir, al menos sobre el papel. De ser el caso, la teoría cuántica no sería la única concebible para explicar el universo, sino que habría otras. ¿Podría una de ellas describir nuestro mundo? TEORÍAS CUÁNTICAS

Antes de proseguir conviene aclarar a qué nos referimos cuando hablamos de física cuántica. Esta expresión funciona como un comodín que engloba, no a una teoría física, sino a un número infinito de ellas. Para entenderlo, analicemos primero el caso de la física clásica. Imaginemos un universo compuesto por nueve partículas con ciertas masas. Si postulamos que obedecen las leyes de Newton y que se atraen con una fuerza inversamente proporcional al cuadrado de la distancia que las separa, habremos formulado una teoría clásica. De hecho, se trataría de una versión muy simplificada de la teoría que los astrónomos emplean a diario para explicar el movimiento de los planetas en el sistema solar. Si ahora cambiamos las interacciones que afectan a las partículas (postulando, por ejemplo, que se atraen con una fuerza proporcional a la distancia), su número, su masa o incluso las

EN SÍNTESIS

Desde hace noventa años,las predicciones de la física cuántica se han visto confirmadas en un sinnúmero de experimentos. La mayoría de los investigadores opinan que no hay nada que el formalismo cuántico no pueda explicar.

90  TEMAS 86

La teoría cuánticaes también extraordinariamente robusta: hasta ahora, todos lo intentos por modificarla han dado lugar a teorías que violan algún principio básico, como la imposibilidad de transmitir información de manera instantánea.

Un nuevo programade investigación, conocido como reconstrucción de la teoría cuántica, intenta determinar hasta qué punto las leyes cuánticas son las únicas compatibles con una serie de requisitos físicos esenciales.

Varios estudios recientessugieren que es posible concebir «teorías probabilísticas generalizadas» más amplias que la física cuántica pero que, sin embargo, no violan ningún principio fundamental. Tales teorías parecen guardar una intrigante relación con la formulación microscópica de la gravedad.

Los primeros intentos de modificar la teoría cuántica fueron un homenaje a la falta de imaginación. En ausencia de intuición física, las consecuencias de modificar cualquiera de los axiomas de la física cuántica resultan muy difíciles de predecir

mismas ecuaciones de Newton (haciéndolas relativistas, pongamos por caso), obtendremos distintas teorías físicas. Sin embargo, todas ellas seguirían siendo teorías clásicas. Así pues, ¿qué es la física clásica? Para entender lo que abarca este concepto, tenemos que abstraer lo que guardan en común todas esas teorías. Y es esto: en física clásica, el estado de un sistema queda determinado por una lista de números. En el ejemplo de arriba, dichos números serían la masa, la velocidad y la posición de cada partícula. Esa lista contiene todas las propiedades que caracterizan el sistema, las cuales evolucionan de acuerdo con una ecuación diferencial. Por último, cuando medimos una propiedad física —lo que en jerga técnica se conoce como un «observable»—, como la energía, nuestro dispositivo nos devuelve una cantidad que queda determinada unívocamente por esos valores. En física cuántica las reglas son muy distintas. El estado de una partícula no queda descrito por una lista de números, sino por una función: la función de onda. Por su parte, los distintos observables se corresponden con otra clase de objetos matemáticos, denominados operadores. El operador asociado a la energía, por ejemplo, determina la manera en que el sistema evoluciona con el tiempo. Finalmente, la física cuántica no predice con certeza el resultado de una medida, sino solo la probabilidad de obtener tal o cual valor. Dicha probabilidad se calcula aplicando una regla, conocida como regla de Born, a la función de onda y al operador asociado al observable que deseamos medir. Nuestro fracaso a la hora de cuantizar la gravedad significa que no hemos sido capaces de encontrar una representación de los sistemas físicos en términos de funciones de onda y operadores que, a escala macroscópica, permita recuperar la relatividad general de Einstein (la formulación moderna, pero clásica, de la gravedad). ISLOTE CUÁNTICO

Ahora bien, ese enfoque podría estar viciado. ¡Nadie nos promete que la gravedad pueda describirse mediante funciones de onda y operadores! ¿No estaremos caminando en círculos? Quizá deberíamos empezar a cuestionar la idea de que la física que rige nuestro universo deba quedar descrita por una teoría cuántica y, en su lugar, explorar otras opciones. ¿Cómo podrían ser esas opciones? Los primeros intentos de modificar la teoría cuántica fueron un homenaje a la falta de imaginación. ¿Que la evolución de un estado cuántico queda descrita por una ecuación lineal? Añadamos un término no lineal y veamos qué ocurre (sucede que la teoría resultante permite la comunicación instantánea entre dos puntos arbitrariamente lejanos). ¿Que la regla de Born dicta que hemos de calcular sumas de números al cuadrado? Efectuemos sumas de números a la cuarta y examinemos las consecuencias (en ese caso, la teoría permitiría la existencia de sistemas con un poder computacional ilimitado). El hecho de que estas y otras modi-

ficaciones peregrinas de la mecánica cuántica desembocasen en auténticos disparates provocó que muchos expertos se preguntasen si la teoría cuántica era «una isla en el espacio de teorías físicas». Pero tal vez esté siendo demasiado duro con esos investigadores. Las leyes de la física cuántica (las que determinan qué es un estado y qué es un observable) están formuladas en términos matemáticos abstractos y muy poco intuitivos. Por eso hacer divulgación resulta tan difícil. Y, también por eso, cuando un físico contempla generalizar la mecánica cuántica, lo primero que le viene a la cabeza no son consideraciones sobre la naturaleza del universo, sino conceptos matemáticos que aprendió en primero y cuarto de carrera. Y, en ausencia de intuición física, las consecuencias de modificar cualquiera de los axiomas de la teoría cuántica resultan muy difíciles de predecir. La complejidad de proponer alternativas viables a la física cuántica, sumada a su extraordinario poder predictivo, hizo que gran parte de los investigadores la aceptasen como un credo casi desde sus orígenes, en los años veinte y treinta del siglo xx. Durante décadas, las escasas incursiones en los fundamentos de la física cuántica se centraron en buscar interpretaciones que permitiesen aprovechar las lecciones aprendidas de la física clásica o, por el contrario, en poner de manifiesto las diferencias entre una y otra. TEORÍAS PROBABILÍSTICAS GENERALIZADAS

Esa situación de inmovilismo cambió radicalmente a finales del siglo xx, cuando los teóricos de la información cuántica tomaron las riendas de la física fundacional. La teoría de la información cuántica constituye un marco general que intenta caracterizar qué tareas pueden realizarse en un sistema cuántico y cuáles no [véase «Procesamiento cuántico de la información», por Antonio Acín, en este mismo número]. Por ejemplo, no podemos medir con total precisión la posición y la velocidad de una partícula, no podemos predecir el resultado de una medida, y tampoco podemos copiar información cuántica. Sin embargo, es posible teletransportar estados cuánticos, generar números aleatorios y transmitir información secreta [véase «Los límites físicos de la privacidad», por Artur Ekert y Renato Renner; Investigación y Ciencia, en este mismo número]. En los años noventa, los teóricos de la información cuántica empezaron a adoptar este punto de vista, más operacional que conceptual, para entender qué podría haber más allá de la física cuántica. Una de las aportaciones más interesantes de este enfoque fue la formulación de «teorías probabilísticas generalizadas» (TPG). El objetivo de una TPG es describir qué observaría un experimentador si preparase un sistema físico de cierta manera, lo dejase evolucionar en el tiempo y midiese luego sus propiedades. Todo ello sin entrar en las consideraciones ontológicas del tipo «¿pero qué estamos midiendo realmente?» que habían caracterizado —y hasta cierto punto, lastrado— la física fundacional.

Fronteras de la física cuántica  91

Así pues, una TPG queda definida por el conjunto de estados que puede adoptar un sistema físico (ya se trate de vectores, funciones de onda u ositos de gominola), junto con una regla de composición para describir sistemas compuestos. Los objetos matemáticos que representan las medidas y las posibles evoluciones del sistema quedan determinados por la estructura de dicho espacio de estados. Por último, una medida se asocia a alguna regla que asigne a cada estado de la teoría un número comprendido entre 0 y 1. Ese número se interpreta como la probabilidad de obtener un resultado cuando medimos un sistema preparado en el estado en cuestión. En particular, tanto la física cuántica como la clásica admiten una descripción en términos de TPG. Los estados de la primera vendrían dados por funciones de onda; los de la segunda, por vectores correspondientes a la posición y la velocidad de cada partícula. Lo fascinante es que el formalismo de las TPG también da cabida a teorías físicas coherentes que, sin embargo, no guardan ninguna relación con la física cuántica. Un ejemplo curioso lo hallamos en la «teoría de cubos», desarrollada en 2013 por Borivoje Dakic´, de la Universidad de Viena, y sus colaboradores. Esta teoría generaliza a tres dimensiones —de ahí su nombre— la «matriz densidad», uno de los objetos matemáticos básicos del formalismo cuántico. Como consecuencia, permite fenómenos de interferencia de tercer orden, los cuales se pondrían de manifiesto en un experimento de triple rendija. Tales efectos, sin embargo, no ocurren en mecánica cuántica. Realista o no, la teoría de Dakic´ y sus colaboradores muestra que es posible construir teorías probabilísticas que van más allá de la física cuántica. Una valiosa lección que nos han enseñado las TPG es que ciertos fenómenos que tradicionalmente se consideraban característicos de la mecánica cuántica, como el teletransporte, la imposibilidad de copiar estados y la existencia de comunicaciones seguras, son en realidad muy frecuentes en el espacio de teorías. Existen numerosos ejemplos de TPG no cuánticas que, sin embargo, permiten teletransportar estados, prohíben copiar información y garantizan la comunicación secreta. No obstante, todas las TPG no cuánticas exploradas hasta la fecha adolecen de algún problema. Algunas, por ejemplo, predicen que la evolución de un sistema de varias partículas no puede descomponerse como una sucesión de interacciones entre pares de partículas. Otras no quebrantan ninguna intuición física, pero los experimentos de óptica cuántica las refutan.

El primero recibe el nombre de tomografía local: el estado de un sistema compuesto ha de poder determinarse midiendo las propiedades de cada uno de los subsistemas constituyentes y evaluando las posibles correlaciones entre los resultados. El segundo es el de reversibilidad: para cualquier par de estados de la TPG, existe una transformación reversible que lleva de uno a otro. El tercero hace referencia a la capacidad informativa de la teoría: en todo sistema físico que solo permita distinguir con certeza entre dos estados, solo puede almacenarse un bit de información. Por último, la teoría ha de ser de dimensión finita: basta una lista finita de parámetros para determinar el estado de un sistema. En 2009, estos investigadores demostraron que las únicas TPG que satisfacen los cuatro principios mencionados son teorías cuánticas. Podríamos pensar que el trabajo de Dakic´ y Brukner terminó con el debate sobre la existencia de una teoría coherente y compatible con los experimentos distinta de la física cuántica, pero no fue así. La controversia se debe a los dos últimos axiomas. Examinemos el tercero, la capacidad informativa. Este principio no es tan inocuo como pudiera parecer, ya que es posible que un sistema posea infinitos pares de estados que se pueden distinguir —lo que, en principio, nos daría la posibilidad de almacenar infinitos bits—, pero que, al mismo tiempo, no contenga tres estados distinguibles. De hecho, esto es lo que sucede en física cuántica cuando consideramos el espín de un electrón. El espín puede entenderse como una propiedad de la partícula que, dada una dirección del espacio elegida a voluntad, puede tomar dos valores: +1/2 y –1/2. De este modo, a cada dirección en el espacio le corresponden dos estados electrónicos que se pueden distinguir. A priori podríamos pensar que, si preparamos un electrón de la manera adecuada en dos direcciones distintas del espacio, podríamos almacenar dos bits de información. Después, solo tendríamos que medir el espín en una dirección o en la otra para conocer el bit en cuestión. Y, sin embargo, esto no violaría la hipótesis de que solo pueden distinguirse dos estados, ya que el experimentador únicamente tendría acceso a uno de los bits. El tercer axioma prohíbe justo eso. Y, de hecho, así ocurre en todas las teorías cuánticas. Ahora bien, que la física cuántica satisfaga este principio no implica que una teoría futura no vaya a violarlo. ¿Tan extraño sería poder almacenar dos bits de información en un sistema que, en realidad, posee infinitos estados? Es más, una teoría física ni siquiera tiene por qué contener sistemas que solo permitan distinguir entre dos estados. ¡Pensemos en la física newtoniana! El cuarto axioma resulta aún más problemático, ya que las únicas teorías cuánticas que lo satisfacen son las teorías cuánticas finitas. Estas permiten describir multitud de fenómenos físicos, desde la magnetización y el comportamiento de la luz polarizada hasta el funcionamiento de un ordenador cuántico. Aplicadas a las partículas subatómicas, sin embargo, resultan desastrosas: todas ellas predicen la posibilidad de transmitir información de manera instantánea entre dos regiones distantes del espacio, por lo que violan el principio de causalidad, la piedra angular de la teoría de la relatividad de Einstein. No en vano, la física de partículas moderna se fundamenta en la teoría

Es posible formular teorías probabilísticas coherentes que, sin embargo, no guardan ninguna relación con la física cuántica

RECONSTRUIR LA TEORÍA CUÁNTICA

Una vez más, la comunidad científica empezaba a sospechar que la teoría cuántica quizá fuese la única capaz de describir el mundo. Esta conjetura se convirtió en el punto de partida de un ambicioso programa de investigación denominado «reconstrucción de la teoría cuántica». Su objetivo consiste en demostrar que todas las TPG que satisfacen unos mínimos requisitos físicos pueden interpretarse como una teoría cuántica. Para que el lector se haga una idea de a qué clase de requisitos físicos nos estamos refiriendo, a continuación presentamos los sugeridos por Dakic´ y Cˇaslav Brukner, de la Universidad de Viena.

92  TEMAS 86

E S PAC I O D E T E O R Í A S

Ni clásica ni cuántica Una de las principales características de la física cuántica es que no predice con certeza el resultado de un experimento, sino solo probabilidades. Sin embargo, es posible formular otras teorías físicas coherentes que comparten ese carácter probabilístico pero cuyas predicciones se alejan de las de la mecánica cuántica. En los últimos años, el análisis de estas «teorías probabilísticas generalizadas» ha ayudado a entender mejor los fundamentos de la física cuán-

tica. Por ejemplo, se ha observado que algunos fenómenos que se consideraban característicos de la mecánica cuántica (como el teletransporte, la imposibilidad de copiar estados o la comunicación secreta) son en realidad muy comunes en el espacio de teorías. Un ejemplo de teoría probabilística no cuántica es la «teoría de cubos», desarrollada en 2013 por Borivoje Dakic´, de la Universidad de Viena, y sus colaboradores. El diagrama que

reproducimos a continuación ilustra las diferencias entre las predicciones de la física clásica, la física cuántica y la teoría de cubos en el caso de un experimento de interferencia con dos y tres rendijas. A diferencia de la física clásica, la física cuántica predice fenómenos de interferencia de segundo orden (izquierda). Y, al contrario que la física cuántica, la teoría de cubos predice fenómenos de interferencia de tercer orden (derecha). IABC = IAB + IBC + ICA – IA – IB – IC

IBC = IB + IC Una fuente proyecta haces de partí­culas contra una pared con tres rendijas, las cuales pueden abrirse y cerrarse a voluntad A

L a física clásica establece que la intensidad que detectaríamos con dos rendijas abiertas (IBC) debería ser igual a la suma de las intensidades individuales asociadas a cada rendija (IB y IC).

B Fuente de partículas

IBC = ? L a física cuántica predice fenómenos de interferencia: la intensidad observada será, en general, distinta de la suma de las intensidades individuales.

C

Experimento con dos rendijas

A

B

IABC = ?  n la teoría de cubos, la E intensidad medida cuando tres rendijas están abiertas no queda determinada por las intensidades individuales ni por las asociadas a pares. No obstante, conocidas las intensidades individuales, por parejas y por tríos, todas las demás se pueden predecir.

C

Un aparato mide la intensidad en una pantalla situada detrás

cuántica de campos, un marco teórico compatible con la relatividad especial gracias a que asigna, a cada punto del espacio, un número infinito de grados de libertad. La inclusión de principios físicos dudosos y la exclusión de las teorías cuánticas infinitas no son síntomas característicos de la reconstrucción de Dakic´ y Brukner, sino de todas las reconstrucciones de la teoría cuántica propuestas hasta la fecha. Parece, pues, que nos hemos atascado de nuevo. ¿Es posible tomar otro camino? INVESTIGACIÓN Y CIENCIA, SEGÚN EL AUTOR

 na vez medidas las intensidades asociaU das a todos los pares de rendijas, la física cuántica permite predecir qué intensidad se observará al abrir tres rendijas o más.

FÍSICA DE CA JAS NEGRAS

Tanto los axiomas de Dakic´ y Brukner como los propuestos por otros autores hacen referencias explícitas a la estructura del espacio de estados de la TPG. El problema radica en que no tenemos acceso directo a dicha estructura, la cual vendría a ser la realidad última del universo. Por ello, resulta discutible si condiciones como el tercer axioma son «naturales» o siquiera refutables (¿cómo podemos estar seguros de que el sistema que estamos estudiando no permite distinguir más de dos estados?).

Experimento con tres rendijas

Debido a estas dificultades, en los últimos años ha nacido una nueva línea de investigación que, como complemento al estudio de las TPG, intenta caracterizar las teorías físicas desde una descripción mucho más básica. Analicemos qué ocurre durante un experimento. En esencia, un sujeto prepara su montaje (mesa óptica, acelerador de partículas, muestra de grafeno, etcétera) de una forma determinada, a la que llamaremos x. Al concluir, obtiene un resultado, que denominaremos a. Si el experimentador repite el proceso múltiples veces, podrá calcular la probabilidad de obtener el resultado a en el experimento x. Esto es lo único que sabemos con certeza: todo lo demás (cuestiones como «un electrón ha impactado contra el detector» y consideraciones similares) no son más que suposiciones o interpretaciones nuestras. Así pues, un experimento puede entenderse como una caja negra en la que introducimos un símbolo (en este caso, el tipo de experimento, x) y obtenemos un resultado (a). Esta observación constituye el punto de partida de la llamada «física de cajas negras».

Fronteras de la física cuántica  93

C O R R E L AC I O N E S E N T R E E X P E R I M E N T O S

Indicios de una nueva teoría Otra manera de explorarel espacio de teorías físicas plausibles consiste en considerar el grado de correlación entre experimentos efectuados en laboratorios distantes. En general, distintos principios físicos establecerán límites diferentes sobre cuán fuertes pueden ser esas correlaciones. En los últimos años, varios grupos de investigación han intentado averiguar si existe algún conjunto de requisitos básicos que implique las mis-

mas correlaciones que las que genera la mecánica cuántica. Tales requisitos incluyen, por ejemplo, la imposibilidad de enviar información de manera instantánea entre dos puntos distantes. Ese análisis de las correlaciones no tiene en cuenta los detalles de los experimentos: estos solo se ven como «cajas negras» en las que se introducen ciertos datos y se obtienen otros (izquierda). Las distintas correlaciones pueden represen-

Correlaciones causales: Conjunto de correlaciones que no permiten enviar información de manera instantánea. Sin embargo, no todas ellas se consideran físicas, ya que algunas permiten comunicar información compleja con un solo bit. Las características de las correlaciones quedan representadas mediante un punto en el diagrama de la derecha

Arturo

Begoña Correlaciones cuánticas a

b

y Correlaciones clásicas

 rturo y Begoña realizan sendos experimentos (x, y) y obtieA nen sus resultados (a, b). Si repiten el proceso muchas veces, podrán calcular qué grado de correlación guardan los datos. En física cuántica, tales correlaciones aparecen cuando Arturo y Begoña miden las propiedades de partículas entrelazadas.

El nuevo enfoque se basa en estudiar qué clase de correlaciones pueden surgir entre los resultados de experimentos efectuados en laboratorios distantes. Supongamos que dos físicos, Arturo y Begoña, cada uno en su laboratorio, llevan a cabo sendos experimentos y obtienen sus respectivos resultados. Si repiten el procedimiento un gran número de veces y comparan los datos, podrán calcular hasta qué punto los resultados estaban correlacionados. En física cuántica, por ejemplo, sabemos que aparecen correlaciones no triviales cuando Arturo y Begoña miden las propiedades de un par de partículas entrelazadas. ¿Que ocurrirá en un caso general? En principio, las distintas teorías físicas establecerán límites diferentes al conjunto de correlaciones posibles. El objetivo de la física de cajas negras es averiguar qué limitaciones corresponden a cada teoría. Si al lector este enfoque le parece limitado, tenga en cuenta que hace poco ha sido empleado para refutar todas las teorías clásicas. En 1964, John Bell, investigador del CERN, demostró que, en cualquier teoría clásica, las posibles correlaciones entre experimentos distantes debían obedecer una serie de relaciones matemáticas, hoy conocidas como «desigualdades de Bell».

94  TEMAS 86

Correlaciones casi cuánticas: Máximo conjunto conocido de correlaciones que no violan ningún principio básico.

 i las correlaciones que observan Arturo y Begoña S ­quedan fuera de la primera zona, sus experimentos no podrán describirse en ninguna teoría clásica. Si quedasen fuera de la segunda, no podrían aparecer en ninguna teoría cuántica.

En 2015, tres experimentos llevados a cabo en la Universidad de Delft, la Universidad de Viena y el Instituto Nacional de Estándares y Tecnología (NIST) estadounidense demostraron definitivamente que la naturaleza viola dichas desigualdades [véase «Un test de Bell sin escapatorias», por Carlos Abellán, Waldemar Amaya y Morgan Mitchell; Investigación y Ciencia, enero de 2016]. Tales resultados implican que ninguna teoría futura podrá ser clásica. (Lo cual significa que, en efecto, «Einstein estaba equivocado».) ¿Qué condiciones podríamos pedir a las correlaciones entre experimentos distantes si queremos que se correspondan con una teoría física razonable? Una restricción muy obvia es que dichas correlaciones no deberían permitirnos transmitir información de manera instantánea entre puntos distantes. Hace unos años, sin embargo, Sandu Popescu, ahora en la Universidad de Bristol, y Daniel Rohrlich, de la Universidad Ben Gurión, en Israel; y, de manera independiente, Boris Tsirelson, de la Universidad de Tel Aviv, hicieron notar que este «principio de no señalización» (la imposibilidad de transmitir señales de manera instantánea) no bastaba para caracterizar todas las correlaciones

INVESTIGACIÓN Y CIENCIA, SEGÚN EL AUTOR

Cajas negras: Desde un punto de vista operacional, un experimento puede entenderse como una «caja negra» en la que un observador introduce un símbolo (x, que denota el tipo de experimento que se dispone a realizar) y obtiene un resultado (a).

x

tarse en un diagrama que refleja los principios básicos con los que son compatibles (derecha). En un trabajo teórico, el autor y sus colaboradores han descrito un conjunto de correlaciones ligeramente más generales que las cuánticas, que, sin embargo, no parecen violar ningún principio físico. Su existencia sugiere la posibilidad de formular una teoría más fundamental que la física cuántica.

cuánticas. Al menos sobre el papel, es posible escribir correlaciones que satisfacen el principio de no señalización pero que, sin embargo, no se pueden generar en ninguna teoría cuántica, ni siquiera de manera aproximada [véase «¿Qué bit tiene mi vecino?», por Antonio Acín y Mafalda Almeida; Investigación y Ciencia, febrero de 2013]. Algunas de esas correlaciones no cuánticas resultaban tan extrañas que la comunidad comenzó a dudar de que pudieran darse en una teoría física razonable. En 1999, Wim van Dam, ahora en la Universidad de California en Santa Bárbara, señaló que algunas de esas correlaciones, las generadas por las llamadas «cajas de Popescu-Rohrlich», convertirían la evaluación no local de funciones en una tarea trivial. Para descifrar esta última frase, consideremos el siguiente ejemplo. Arturo y Begoña desean ir a ver juntos una obra de teatro. El problema es que ambos tienen la agenda muy apretada y que, por motivos que no vienen al caso, el teléfono de Begoña solo puede recibir mensajes, no enviarlos; es decir, únicamente Arturo puede mandar información. ¿Cómo podría Begoña averiguar si existe una posibilidad de quedar? Cabría pensar que la única solución es que Arturo le envíe un whatsapp muy largo a Begoña indicando qué días y a qué horas estará libre durante todo el mes. Sin embargo, si Arturo y Begoña compartiesen varios pares de cajas de Popescu-Rohrlich, Arturo solo tendría que mandar un bit de información. Es más, Van Dam demostró que, si tales cajas realmente existiesen en la naturaleza, cualquier protocolo de comunicación que resultase en una respuesta del tipo «sí» o «no» solo requeriría transmitir un bit. Esta posibilidad no solo está prohibida por las leyes cuánticas, sino que resulta poco plausible a los ojos de la mayoría de los investigadores en el campo. La observación de Van Dam llevó a Noah Linden, de la Universidad de Bristol, y a otros investigadores a proponer un nuevo principio físico: la «no trivialidad de la complejidad de la información». Este requisito viene a decir que ninguna cantidad fija de bits basta para resolver con una alta probabilidad todas las tareas de comunicación posibles. A partir de él, Linden y sus colaboradores demostraron que muchas de las cajas no cuánticas identificadas por Popescu y Rohrlich no podrían existir en ninguna teoría física razonable. Con todo, los autores dejaron abierto el problema de si cualquier par de cajas no cuánticas violaría la no trivialidad de la complejidad de la información. De ser el caso, sabríamos con certeza que toda teoría futura sería indistinguible de la física cuántica, al menos en lo referente al grado de correlación entre distintos experimentos. RINCÓN SUPRACUÁNTICO

Durante los años siguientes, la no trivialidad de la complejidad de la información fue seguida de una lista de principios físicos orientados a acotar el conjunto de cajas plausibles: el principio de no ventaja en computaciones no locales, la causalidad informativa, la localidad macroscópica, la ortogonalidad local. Cada uno de ellos consiguió reducir más y más el conjunto de cajas «razonables». Gracias a estos estudios, hoy sabemos que cualquier teoría física futura no podrá presentar unas correlaciones muy distintas de las que genera la física cuántica. Y, sin embargo, la demostración de que alguno de estos principios (o todos a la vez) era suficiente para determinar el conjunto de cajas cuánticas no acababa de llegar. Esa situación cambió en 2014, cuando Yelena Guryanova, de la Universidad de Bristol, Matty Hoban, de la de Oxford, Antonio Acín, del Instituto de Ciencias Fotónicas de Barcelona, y el

autor de este artículo analizamos un nuevo conjunto de cajas negras. Bautizadas como cajas «casi cuánticas», dicho conjunto es solo ligeramente mayor que el cuántico: incluye todas las cajas cuánticas, pero también algunas que no tienen cabida en ninguna teoría cuántica. Sin embargo, hay pruebas de que satisface todos los principios propuestos hasta ahora para caracterizar las posibles correlaciones físicas. En otras palabras: no parece haber ninguna razón profunda que nos impida fabricar cajas casi cuánticas. Al mismo tiempo, el conjunto casi cuántico presenta varias características muy interesantes. En primer lugar, si combinamos varias cajas casi cuánticas, la «metacaja» resultante es también casi cuántica; es decir, el nuevo conjunto de cajas es cerrado bajo operaciones físicas. Además, existe un procedimiento sencillo para averiguar si un par de cajas es casi cuántico o no. No sucede lo mismo con las cajas cuánticas: de hecho, se conjetura que este último problema es indecidible; esto es, que no existen algoritmos generales para resolverlo. Por último, ciertas consideraciones sobre cómo extender la teoría de la relatividad general a escala microscópica sugieren que las correlaciones que no son casi cuánticas no pueden ser físicas. Tal vez el hecho de que las correlaciones casi cuánticas exhi­ ban estas propiedades tan convenientes no sea casualidad, sino que se deba a que realmente hay una teoría física subyacente que las genera. Dicha teoría resultaría muy similar a la física cuántica, al menos en lo que se refiere a las correlaciones entre experimentos distantes. Sin embargo, debido a las dos últimas propiedades listadas arriba, ¡sería más factible que la física cuántica! En la actualidad estamos buscando la formulación explícita de una TPG que presente correlaciones casi cuánticas. La existencia, aunque solo fuese a nivel teórico, de dicha teoría supondría confirmar lo que algunos de nosotros siempre hemos sospechado: que la física cuántica no es la única teoría concebible. O, en términos más alegóricos, que Dios tuvo más de una opción a la hora de crear el mundo. Artículo publicado en Investigación y Ciencia, septiembre de 2016

EL AUTOR

Miguel Navascuéses experto en información cuántica. Trabaja en el Instituto de Óptica Cuántica e Información Cuántica de Viena, donde lidera uno de los grupos de investigación. PARA SABER MÁS

Quantum nonlocality as an axiom.Sandu Popescu y Daniel Rohrlich en Foundations of Physics, vol. 24, págs. 379-385, marzo de 1994. Nonlocality & communication complexity.Wim van Dam, tesis doctoral. Universidad de Oxford, 1999. A glance beyond the quantum model.Miguel Navascués y Harald Wunderlich en Proceedings of the Royal Society A, vol. 466, págs. 881-890, noviembre de 2009. Quantum theory and beyond: Is entanglement special?Borivoje Dakic´ y Cˇaslav Brukner en Deep beauty: Understanding the quantum world through mathematical innovation, dirigido por H. Halvorson. Cambridge University Press, 2011. Almost quantum correlations.Miguel Navascués et al. en Nature Communications, vol. 6, art. n.o 6288, enero de 2015. EN NUESTRO ARCHIVO

Teoría cuántica y realidad.Bernard D’Espagnat en IyC, enero de 1980.

Fronteras de la física cuántica  95

www.scilogs.es

SciLogs ASTRONOMÍA

|

CIENCIA Y SOCIEDAD

|

FÍSICA Y QUÍMICA

La mayor red de blogs de investigadores científicos |

MATEMÁTICAS

|

MEDICINA Y BIOLOGÍA

|

PSICOLOGÍA Y NEUROCIENCIAS

|

TECNOLOGÍA

Cuantos completos Tecnologías cuánticas y mucho más Carlos Sabín | Universidad de Nottingham

Simplemente complejo Avances en el estudio de los sistemas complejos Carlos Gershenson | Universidad Nacional Autónoma de México

Perspectiva de Física y Universidad Política científica, gran ciencia y mundo académico Ramón Pascual de Sans | Universidad Autónoma de Barcelona

Big Nano El universo de las nanopartículas Guillermo Orts-Gil | Instituto Max Planck de Coloides e Interfases en Golm

El reloj de Deborah Materiales y sistemas desordenados Luis Carlos Pardo | Universidad Politécnica de Cataluña

A hombros de fotones Avances en óptica y fotónica Álex Turpin | Universidad Autónoma de Barcelona

Y muchos más... ¿Eres investigador y te gustaría unirte a SciLogs? Envía tu propuesta a [email protected]

Sigue también Scilogs internacional |.com |.be |.fr |.de

PACKS TEMÁTICOS DIGITALES Minicolecciones de monografías ä¸Ußxîx­Dä`žx³îŸ‰`¸ä`§Dþx EINSTEIN

COSMOLOGÍA

2 5 , 6 0€ t Lo que debemos emo moss a Einstein Einstein in t¿ććD¶¸älxßx§DîžþžlDlx³xßD§ x ßxx§ xßx§DîžþžlDlx³x x§Dî Dîžþ Dî žþžlDl þ lDl x³ xx³xxß x t Einstein t2x§DîžþžlDlx³xßD§

19,99€

FÍSICA CUÁNTICA

2 5 , 6 0€

FÍSICA

2 0 , 70 €

27,60€

t Misterios de la física cuántica tx³¹­x³¸ä`øE³îž`¸ä t7³žþxßä¸`øE³îž`¸ t Fronteras de la física cuántica

19,99€

t Presente y futuro del cosmos t Estrellas y galaxias t'ߞx³āxþ¸§ø`ž¹³lx§ø³žþxßä¸ t Hubble

21,99€

t Fronteras de la física t El tiempo t La ciencia de la luz

15,99€

Y descubre muchos otros packs temáticos digitales y en papel en:

www.investigacionyciencia.es/catalogo Teléfono: 934 143 344 | [email protected]

Accede a la

HEMEROTECA DIGITAL DE TODAS NUESTRAS PUBLICACIONES

Suscríbete y accede a todos los artículos PAPEL

Elige la modalidad mixta y recibirás también las revistas impresas correspondientes al período de suscripción

ARCHIVO

Encuentra toda la información sobre el desarrollo de la ciencia y la tecnología durante los últimos 30 años

www.investigacionyciencia.es

DIGITAL

Accede desde cualquier ordenador o tableta al PDF de más de 8000 artículos elaborados por expertos

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF