Principio_Minima_Accion.pdf

July 27, 2017 | Author: flusqui-1 | Category: Quantum Mechanics, Special Relativity, Light, Physics & Mathematics, Physics
Share Embed Donate


Short Description

Download Principio_Minima_Accion.pdf...

Description

UN PRINCIPIO DE LA FISICA En esta leccion, a diferencia de las anteriores, voy a presentar uno de los principios más generales de la física, conocido hoy en día como el principio de mínima acción, establecido por William Hamilton (matemático inglés, 1805-1865) en sus estudios de mecánica clásica. Para esta presentación he elegido utilizar la aplicación del principio en óptica, donde apareció antes que en la mecánica, y donde es conocido como el principio de Fermat (Pierre de Fermat, matemático francés,1601-1665). Pido disculpas si esta lección pudiera resultar demasiado árida, pero estoy convencido de que la física es un gusto que se adquiere. El principio de mínima acción es un principio general aplicable a todas las áreas de la física, y lo mismo gobierna la mecánica celeste que los procesos elementales del núcleo y sus componentes. La conjetura de Fermat (nota al margen) Fermat es el autor de la conjetura que Andrew Wiles del departamento de matematicas de la universidad de Priceton demostró hace algunos años, concluyendo así una de las más largas esperas en matemáticas. La conjetura (una corzonada que no se puede demostrar cabalmente con las herramientas matematicas que se tienen). Se trataba de demostrar que las ecuaciones diofantinas de la forma xn + yn = zn donde x, y, z son enteros y n es un entero mayor a dos, no tienen solución. Se puede reconocer fácilmente que si n = 2, se trata del teorema de Pitágoras, y efectivamente sí existen soluciones a este problema; basta probar los números 3, 4 y 5 para darse cuenta de que satisfacen claramente esa ecuación diofantina. Esta conjetura se mantuvo sin demostrar por más de tres siglos; durante ese tiempo las mejores mentes de la matemática la asediaron sin éxito. Se trata de un problema de teoría de los números. Recomiendo al respecto la lectura del libro de Sighi, sobre todo a quienes les interesa conocer con más detalle la historia y las consecuencias de este ahora teorema. El principio de mínima acción aplicado a la luz La formulación para rayos de luz que se reflejan en una superficie plana parece haber sido establecida por Hero de Alejandría alrededor del año 100 de nuestra era, la formulación de Fermat permite utilizar el principio para estudiar también los fenómenos de refracción. El principio dice: La propagación de la luz entre dos punos sigue aquel camino en que la luz tarda el menor tiempo recorriendo en comparación con cualquier otro camino posible entre los mismos puntos.

Ilustración empírica del principio de mínima acción Voy a utilizar este principio para deducir una de las leyes de la óptica: el ángulo de incidencia es igual al ángulo reflejado cuando un rayo se refleja en una superficie plana. Será necesario utilizar matemáticas, pero comenzaré utilizando una regla en el pizarrón para hacer una serie de mediciones capaces de demostrar tanto que tanto el principio de mínima acción como que las matemáticas sí funcionan. He tomado una hoja tamaño carta (28 por 21.7 centímetros) para marcar en uno de sus lados largos la posición de los centímetros con una regla; quiero medir la distancia en linea recta entre los dos vértices opuestos a ese lado, dependiendo del lugar donde toca en el lado O la linea que sale de P y llega a Q.

Figura 4.1 Tres trayectorias representativas de los posibles caminos recorridos por la luz al partir de P tocar el lado O y llegar a Q. Los resultados en centímetros basados en nueve trayectorias diferentes partiendo del vertice P, tocando el lado O y llegando al vertice Q se encuentran en la tabla 4.1 La precisión con la que he podido medir las distancias es de 0.1 centímetros, esto es, 1 milímetro. En la figura 4.2 aparece la nomenclatura. posicion de O (cm)

distancia PO (cm)

distancia OQ (cm)

distancia PQ (cm)

8 10 12 13 14 15 17 19

23.0 23.7 24.8 25.4 25.8 26.5 27.5 28.7

29.1 27.7 26.5 25.9 25.4 24.8 23.8 23.1

52.1 51.4 51.3 51.3 51.2 51.3 51.3 51.8

Tabla 4.1 Resultados de las mediciones en una hoja tamaño carta de las distancias entre los vertices P y Q . Las mediciones se hacen a ambos lados del aparente centro de la hoja. Como se puede ver en la tabla 4.1, la distancia mínima es de 51.2 en el cuando la linea toca O a los 14 centímetros. Sin embargo, el resultado tiene una incertidumbre de +-0.1 centímetros, pues no he podido medir bien las distancias. La figura 4.2 muestra los resultados, observándose un mínimo en los datos que corresponde a la distancia menor entre los dos puntos cuando la reflexión es cerca de los 14 centímetros, donde se divide en dos mitades exactas la base. Hice mediciones a ambos lados del centro, pues de no hacerlo estaría asumiendo una simetría que no he comprobado y que puede sesgar los datos. Quiero poner en claro algunos de los problemas reales de medición. Por ejemplo, qué tan bien se puede registrar la distancia en la regla con la que se está midiendo. ¿Al medir la misma línea se obtiene siempre el mismo resultado? ¿Qué seguridad hay de que cuando se anota una distancia de un centímetro basándose en la regla que se utiliza, otra persona del grupo coincide en que la distancia registrada en su regla es efectivamente de un centímetro? Dado que la física es una ciencia empírica y cuantitativa, es preciso poner mucha atención a la hora de hacer mediciones, pues ese es, a fin de cuentas, su criterio de verdad. En la figura 4.1 se observan tres rayos que parten del punto P hacia el lado O. Los rayos se reflejan y prosigue su trayectoria del lado O al punto Q. De la superficie donde se refleja parte una línea perpendicular a ella, “la normal”, que va de O a N. El rayo forma dos ángulos diferentes con respecto a la normal: el ángulo de incidencia es , mientras que el reflejado es . La distancia sobre la superficie desde los puntos P y O es X, la distancia sobre la superficie entre los puntos P y Q es D y la altura sobre la superficie de ambos puntos es h.

Figura 4.2 Grafico de las distancias recorridas entre los puntos P y Q tocando el lado O para nueve trayectorias posibles, indicando la incertidumbre en la medicion de dicha distancia.

Como el medio donde se mueve la luz es homogéneo, su velocidad es la misma y la llamaré simplemente c. Necesitamos conocer el tiempo que tarda la luz en ir del punto P al punto Q pasando por el punto O. De este modo, aplicando la relación entre velocidad de la luz (c), distancia (s) y tiempo (t), tenemos: t=s/c

donde hay que encontrar el espacio recorrido por la luz entre el punto P y O y el punto O y Q. Para lograrlo es necesario utilizar el teorema de Pitágoras, pues el rayo de luz sigue la hipotenusa de dos triángulos rectángulos. En el primer triángulo rectángulo los lados son h y X, mientras que en el segundo son h y D-X. La ventaja de utilizar esta notación para el lugar donde se refleja la luz es inmediata, pues sólo tenemos una incógnita, dado que la distancia entre los puntos P y Q está fija de antemano. Ver figura 4.3.

Figura 4.3 Detalle te rayo incidente PO y rayo reflejado OQ con los ángulos α y β respecto a la Normal NO. Llamaré a la distancia entre los puntos P y O simplemente PO, y del mismo modo, a la distancia entre O y Q OQ. Así pues, las hipotenusas PO y OQ vienen dadas por PO = h 2 + X 2 y QO = h 2 + ( D − X )

2

El tiempo que tarda la luz en ir del punto P al punto Q pasando por O viene dado por t=

h2 + X 2 h2 + ( D − X ) + c c

2

Debemos encontrar el valor de la variable X que minimiza el tiempo total del recorrido t. Para ello se puede utilizar el cálculo, sabiendo que cuando el tiempo es un mínimo su derivada es cero. La derivada de la expresión anterior igualada a cero es:

(D − X ) dt X =0= − 2 2 2 dX c h +X c h2 + ( D − X )

Reconocemos que las fracciones son simplemente el lado opuesto de un ángulo dividido por la hipotenusa de un triángulo rectángulo, la definición de la función seno. Por lo tanto, la ecuación anterior puede ser reescrita como 0 = sen(α) - sen (β) o bien en la forma reconocible de la ley de reflexión: sen (α)= sen(β) la cual establece que el ángulo de incidencia de un rayo de luz con respecto a la normal es igual al ángulo del rayo reflejado.

Observaciones sobre el principio de mínima acción El principio de mínima acción nos permitió deducir una regla muy conocida de la óptica: el ángulo de incidencia es igual al ángulo reflejado. Este principio se aplica a muchos otros casos en la naturaleza. Su generalización como principio de mínima acción se reduce al principio de Fermat en el caso de la óptica. El principio de mínima acción requiere introducir una cantidad muy importante en física que es la diferencia entre la energía potencial y la cinética, a la que los físicos llamamos Lagrangiano. La energía potencial depende de la posición, mientras la cinética de la velocidad. La acción es la integral temporal del Lagrangiano sobre una trayectoria específica. El principio de mínima acción indica que el recorrido seguido por una partícula de prueba en la naturaleza minimiza la acción. Es posible formular la mecánica en base al principio de mínima acción. La naturaleza tiene una unidad fundamental de la acción, la constante de Planck. La acción está cuantizada; esto es, se manifiesta en la naturaleza siempre en múltiplos enteros de la constante de Planck. La unidad de la acción determina el área elemental de de la mecánica cuántica. Esta unidad vincula por ejemplo a la posición y a la cantidad de movimiento de una partícula (la cantidad de movimiento es el producto de la masa por la velocidad, también llamada momentum). No es posible conocer la posicion y la cantidad de movimiento de una partícula con un producto de sus incertidumbres menor a la constante de Plank (esto es el principio de incertidumbre de Heisenberg). Una partícula sigue el recorrido entre dos puntos que consigue la acción más baja. Lo hace mediante modificaciones de su posición (energía potencial) y su velocidad (energía cinética). El principio de mínima acción es un ejemplo de un principio variacional en la física, esto permite llegar a una solución mediante varias iteraciones, pues se puede adivinar una solución y luego ver si es mínima. Si es mínima, hemos llegado a la respuesta; si no es el caso, podemos acercarnos a ella mediante interacciones sucesivas.

El lector puede quedarse con la impresión de que hemos reducido el problema de óptica a una cuestión de geometría: encontrar el camino entre dos puntos que sigue el valle que los une. La analogía es buena, pues un valle tiene en su parte inferior una derivada igual a cero, exactamente la condición matemática que nos permitión encontrar la respuesta a la ley de la reflexión. Si se piensa en la luz como un fluido, queda claro que la trayectoria va a seguir por el valle, y no va a irse por las montañas. El principio de mínima acción sirve para encontrar tanto las leyes de la mecánica clásica como las de la mecánica cuántica. Una introducción formal al principio de mínima acción está en el capítulo 19 del segundo volumen de The Feynman lectures of physicsii, texto cuya lectura ha convencido a más de una persona a dedicarse a la física el resto de su vida.

LA RELATIVIDAD ESPECIAL Nuestro conocimiento de la realidad descansa en dos grandes pilares, construidos en el curso del siglo XX: el primero es la relatividad y el segundo la mecánica cuántica. La relatividad fue la solución a la incompatibilidad de la mecánica de Newton con el electromagnetismo de Maxwell. Me parece que entre los libros que abordan de manera adecuada la relatividad destaca el de Landauiii, aunque en la mayoría de los libros de texto de física para universitarios se aborda el tema; Feynmaniv lo hace con claridad deslumbrante en su libro ya citado. Hubo intentos por encontrar explicaciones ad hoc -por ejemplo el éter- para salvar la mecánica de Newton; sin embargo, las mediciones las contradecían: las ondas electromagnéticas se propagaban sin necesidad de ningún medio, contradiciendo a la mecánica de Newton. El electromagnetismo predecía que la velocidad de la luz era la misma en cualquier marco de referencia inercial (299 792 458 metros por segundo, según la definición actual, pero para simplificar, 300, 000 kilómetros por segundo, con un margen de error menor al 0.1%). Hoy en día la certeza en la validez de la constancia de la velocidad de la luz ha llevado a la comunidad internacional de pesas y medidas a definir la velocidad de la luz y no a medirla en base a un patrón de tiempo y a otro de longitud. Einstein formuló su teoría especial de la relatividad en 1905. Esta teoría es válida para marcos inerciales de referencia, es decir, un sistema de coordenadas que se mueve a velocidad constante. Gran parte de los ejemplos de la teoría especial de la relatividad tienen que ver con trenes imaginarios que viajan a velocidades muy altas con un pasajero en una cabina y un observador situado en la plataforma de una estación donde no para el tren. Voy a centrarme en el problema de un intervalo de tiempo medido desde dos marcos inerciales de referencia diferentes, aunque la relatividad también tiene consecuencias en la distancia entre dos puntos, la masa de un cuerpo, la cantidad de movimiento y la energía, entre otos aspectos. La famosa ecuación de Einstein, E = mc2, también proviene de la teoría especial de la relatividad.

Este acercamiento es una invitación al lector para que continúe asomándose a la manera que tenemos de entender la realidad los físicos, pero sobre todo, para que entienda cómo hemos tenido que ir dejando atrás casi toda nuestra intuición innata para poseer mayor capacidad predictiva sobre la naturaleza. El intervalo de tiempo de acuerdo a la relatividad: un ejemplo Las leyes de la física son las mismas tanto para el pasajero del tren como para quien está en la plataforma de la estación, de acuerdo con la relatividad espacial, ya que ambos marcos de referencia son inerciales. Esto implica que el tren se mueve a velocidad constante, y no vamos a preguntarnos cómo llegó a esa velocidad, pues para adquirirla es necesario que haya sido acelerado. Agreguemos para completar el ejemplo el requisito de las ventanas de la cabina del tren están cerradas, así que no se puede dar cuenta nuestro pasajero de que va a gran velocidad, si mira hacia afuera. La velocidad es constante (no olvidemos que la cabina es un marco inercial de referencia), y si el pasajero lanza una pelota al aire, ésta subirá y caerá de la misma manera que lo hace en la plataforma de la estación, el otro marco inercial de referencia, que está en reposo en relación con el tren. Pese a no ser probable en este ejemplo, el pasajero del tren puede exclamar al abrir la ventana que la plataforma está moviéndose a gran velocidad, ya que de acuerdo a su experiencia con la pelota él no se mueve. Lo importante es la velocidad relativa entre los dos marcos de referencia; para mayor exactitud del ejemplo, el tren se mueve a la improbable velocidad de 240,000 kilómetros por segundo respecto de la plataforma. Ahora bien, si el pasajero comienza a moverse dentro del tren a una velocidad muy alta, 120,000 kilómetros por segundo, en la misma dirección en la que el tren avanza, uno podría preguntarle al observador del andén cuál es la velocidad del pasajero. Según la mecánica clásica, la respuesta es la suma vectorial de las velocidades; esto es, tomando en consideración la dirección y el sentido de las dos velocidades. Justo lo que nos dice también el sentido común, que funciona muy bien en nuestra vida cotidiana: la velocidad del tren más la velocidad del pasajero. La velocidad resultante es 240 000 + 120 000 = 360 000 kilómetros por segundo, resultado que viola el postulado de la relatividad especial de que la máxima velocidad posible es la de la luz en el vacío. Insisto una vez más en que la constancia de la velocidad de la luz no es algo intuitivo; es la realidad y tiene consecuencias interesantes. Vamos a estudiar ahora las consecuencias de la constancia de la velocidad de la luz, independientemente del marco inercial de referencia donde se mide. Para ello tendremos que hacer un par de gedankenexperiment (experimentos imaginarios, en alemán), pues llevarlos a cabo es difícil. La cabina del tren es muy alta (digamos 900 000 kilómetros); tiene una ventana del piso al techo y por ella puede ver lo que pasa dentro del tren, en principio, el observador situado en la plataforma de la estación. El pasajero ha montado en la cabina el

siguiente experimento: puso un flash en el piso que puede accionar de manera simultánea con un reloj muy preciso. En el techo ha colocado un espejo para reflejar el pulso de luz emitido por el flash hacia un detector situado en el piso, junto al mismo flash. El detector envía un pulso de luz hacia afuera y simultáneamente para el reloj del pasajero. El tiempo transcurrido entre la emisión del pulso y su detección, según el reloj del pasajero, es t pasajero = S/C donde S es la distancia recorrida, esto es, 1 800 000 kilómetros, y C es la velocidad de la luz. Por lo tanto, t pasajero = 6 segundos. ¿Cuánto tiempo mediría el observador de la plataforma con su reloj igualmente preciso? El observador no observara la luz subir y bajar en una perpendicular como lo hace el pasajero. Debido a la velocidad del tren, el pulso de luz va a seguir el recorrido de un triángulo isósceles, ya que una vez emitida por el flash el tren se mueve a una distancia apreciable. Hay que recordar que la altura de la cabina es de 900 000 kilómetros; si la luz no hubiese recorrido también esa distancia horizontal, no habría llegado al detector que se está moviendo a 240 000 kilómetros por segundo, y sabemos por la experiencia del pasajero que sí llegó al detector. Ver figura 5.1.

Figure 5.1 A: Recorrido del pulso de luz según el pasajero en el interior de la cabina de un tren que viaja a una velocidad v. B: tres imágenes consecutivas del interior de la cabina del tren según el observador en la plataforma.

¿Cuál fue, entonces, la distancia recorrida por el pulso de luz de acuerdo al observador de la plataforma? La distancia recorrida es igual a C x t plataforma. Durante ese mismo tiempo el tren recorrió 240 000 kms. x t plataforma. Sabemos que la la altura del tren es de 900 000 kilómetros; podemos usar esta información y el teorema de Pitágoras para calcular el tiempo que mide el observador t plataforma. El triángulo rectángulo está formado por una hipotenusa de longitud C x tplataforma / 2. La base del triángulo está dada por la velocidad del tren v y es igual a v x tplataforma / 2. El factor de 2 aparece dado que la luz va primero al techo y luego regresa al piso. La altura del tren es h. Así, el teorema de Pitágoras dice:

2

t plataforma  t plataforma    c ×  = h2 +  v ×  2  2   

2

Ahora debemos manipular algebraicamente esta expresión para despejar la incógnita que es tplataforma / 2. Primero voy a dividir ambos lados de la ecuación por c2. 2 2 2 2  t plataforma   t plataforma   v  h    =   +  ×  c  c 2  2    En seguida, pondré todos los términos que contiene la variable en un lado de la ecuación. 2   v  2   h 2  t plataforma    × 1 −    =   2     c   c Para luego despejar finalmente la incógnita: 2h c t plataforma = 2 1 − (v c) Si sustituimos los valores de la altura y la velocidad tanto del tren como de la luz en la ecuación anterior, obtenemos el tiempo medido por el observador: t plataforma =

2 × 900,000 300,000 1 − (240,000 300,000)

2

= 10seg

Como se puede observar, el intervalo de tiempo medido por el pasajero -6 segundos- y el intervalo de tiempo medido por el observador en la plataforma -10 segundos- son diferentes. No hay ningún error en el cálculo. El intervalo de tiempo transcurrido depende de la velocidad del marco de referencia. El tiempo en el marco con una velocidad más rápida -en este caso el tren- se dilata. Si estudiamos detenidamente la ecuación intervalo del tiempo medido en la plataforma podremos ver que mientras más nos acercamos a la velocidad de la luz, el intervalo de tiempo medido por el observador en la plataforma crece, pues el denominador es positivo y menor a la unidad. Si se pudiese alcanzar la velocidad de la luz, el intervalo de tiempó sería infinito. La relatividad y la experiencia cotidiana En nuestra vida cotidiana no tenemos la oportunidad de desplazarnos a velocidades próximas a la de la luz ni de observar, a partir de nuestra propia experiencia, estos hechos paradójicos. La física clásica de Newton está más cerca de nuestra intuición pero más lejos de la realidad. Se ha comprobado de manera experimental, con exactitud superior a los ocho dígitos, que un intervalo de tiempo depende de la velocidad del observador y el pasajero, esto es, de los diferentes marcos inerciales de referencia. La simultaneidad de dos eventos depende, como en los intervalos temporales, de las velocidades de los marcos

inerciales de referencia. Es necesario indicar respecto a qué marco de referencia se afirma la simultaneidad. De ahí que el descubrimiento de la relatividad haya significado un cambio en la idea del tiempo y del espacio en la ciencia. La relación matemática que permite cambiar de un marco de referencia a otro, establecida en la ecuación del intervalo de tiempo desde la plataforma, es parte de las llamadas transformaciones de Lorenz. Estas son una consecuencia de las simetrías de la naturaleza, que tanto Maxwell (sin ser consciente de ello) como Einstein incorporaron a sus respectivas teorías. Dichas trasformaciones difieren de la manera en que Galileo y Newton trataban el tiempo, ya que para los fundadores de la mecánica clásica el tiempo era absoluto, completamente independiente de la velocidad del marco de referencia, y no había forma de que el pasajero y el observador en la plataforma midiesen intervalos diferentes. LA MECANICA CUANTICA Cien años de la mecánica cuántica (notas basadas en una platica dada en Noviembre del 2000 en la libreria del Fondo de Cultura Economica en Gudadalajara) Es sorprendente la cantidad de datos empíricos que existían a finales del siglo pasado, las revistas científicas estaban llenas de artículos sobre espectros de átomos y moléculas, propiedades de la materia como índice de refracción viscosidad elasticidad, conductividad térmica y muchas otras cosas mas. Este compendio era puramente empírico, nadie sabia por que los espectros ocurrían ni mucho menos que información daban. Había muchas leyes empíricas, pero ninguna base existía por ejemplo para la tabla periódica que era el principio organizador de la química carecía completamente de bases teóricas, por lo que su capacidad predictiva era muy limitada.

La prehistoria: Los últimos cuatro meses del año de 1859 vieron tres acontecimientos que iban a cambiar el curso de la ciencia para siempre. El doce de septiembre el astrónomo Le Verrier envió a la Academia Francesa de las Ciencias el texto de su carta a Faye donde discutía un cambio no explicado en el movimiento de Mercurio: Su perihelio avanzaba. El 24 de Noviembre se publicó un libro en Londres con el título “Sobre el Origen de las Especies Mediante la Selección Natural” de Carlos Darwin, mientras que el veinte de Octubre, Gustav Kichhoff de Heidelberg enviaba su observación de que una de las líneas obscuras del espectro del sol, la línea D, se oscurecía aun mas si se le hacia pasar por una flama de sodio. Este ultimo evento resulto ser la pregunta que daría origen a la mecánica cuántica. Kirchhoff lo relaciono directamente con la radiación que emite un cuerpo caliente.

Todos ustedes se han dado cuenta de que un cuerpo caliente emite luz. También se han dado cuenta de que el color de la luz depende de la temperatura de ese cuerpo. Por ejemplo en nuestro lenguaje cotidiano hablamos del rojo blanco, cuando una superficie esta muy caliente. De hecho existe un aparato para medir temperaturas que se llama el pirómetro donde se compara el color del objeto radiante con el color de un filamento. Kirchhoff se dio cuenta de la importancia de este fenómeno y advirtió que habría muchas dificultades experimentales para su determinación. Así empezó una aventura de la física que dio origen a la mecánica cuántica: tratar de medir cuidadosamente la cantidad de energía que emitía un cuerpo negro en función de su temperatura y en función de su color. Para 1879 Josef Stefan había conjeturado basado en sus experimentos de que el total de la energía radiada por un cuerpo caliente varia con la cuarta potencia de su temperatura absoluta. Ludwig Boltzman, siendo profesor de física experimental en Linz, probo en 1884 teóricamente con argumentos basados en los trabajos de la teoría electromagnética de Maxwell y de la termodinámica que esto era cierto solo para cuerpos negros. Un cuerpo negro es un cuerpo que absorbe toda la radiación que recibe, por eso se ve negro. Otros comenzaron a proponer mas ideas, la mas importante probablemente fue la de Wilhelm Wein que para 1896 propuso una forma especifica con decaimiento exponencial. Paralelamente habían avanzado los métodos experimentales. Los cuerpos negros se hacían con un horno que se calentaba a una temperatura dada y se le abría un orificio muy pequeño para que por ahí escapara algo de la radiación. Con un ingenio verdaderamente asombroso los físicos fueron encontrando formas de estudiar la radiación infrarroja, cuya longitud de onda es mayor que la visible, y los cuerpos negros a mil grados centígrados de temperatura producen en abundancia. Conocían que los prismas de vidrio dispersaban la luz visible en su espectro de manera que se podían separa los diferentes colores bloqueando la luz y dejando pasar solo un color por una rejilla. Haciendo pruebas con prismas de sal descubrieron que esta permitía separar los colores y también lo hacían en el infrarrojo, abriendo posibilidades inimaginadas hasta ese momento. La primera frase, en el primer articulo del primer numero de la revista The Physical Review dice: “Desde hace algunos años el estudio de la radiación obscura ha sido avanzada por las inquisiciones sistemáticas sobre las leyes de dispersión de los rayos infrarocos por Langley Rubens y Snow entre otros”. Esta revista es hoy en día la mas prestigiosa del mundo. Rubens, profesor de física experimental en la universidad de Berlín, había descubierto el método de los rayos residuales, en el cual se elimina la radiación de longitudes de onda corta (visible) mediante la múltiple reflexión en cristales de cuarzo o de sal. Esas reflexiones funcionan como un filtro en el cual solo sobreviven las longitudes de onda que coinciden con las oscilaciones ionicas del cristal. Para detectar la radiación

utilizaban termopilas (termopares) hechos por ejemplo de antimonio y bismuto. La termopila estaba en contacto con una superficie negra que absorbía la radiación y se calentaba, ese cambio de temperatura generaba una corriente eléctrica muy pequeña que se podía medir. Ya para entonces tenían galvanómetros con peso de menos de 100 mg y resolución de cien picoamperios (punto decimal con nueve ceros y un uno). Para medir la deflexión de la aguja del galvanómetro utilizaban un haz de luz que se reflejaba en un mini espejo en la punta de la aguja. El rayo de luz recorría uno o dos cuartos y en el siguiente proyectaba sobre la pared una línea que cambiaba de posición conforme la aguja se movía.

Volvamos al recuento de la historia. Kirchhoff había dejado Heidelberg para convertirse en profesor de física teórica en Berlín. A su muerte la posición se fue ofrecida a Boltzmann quien la declinó (ya era profesor de física teórica en Viena), luego le fue ofrecida a Heinrich Hertz quien también la declino (famoso por su descubrimiento de las ondas de radio) así que el tercer candidato de la lista Max Karl Erst Ludwig Planck llega como profesor a Berlín con cuarenta años de edad. Esta posición lo coloco en cercanía con los desarrollos experimentales de Rubens ahí mismo en Berlín. Esta cercanía fue uno de los factores decisivos en el destino de este hombre marcadamente inusual.

Koffee und Kuche Planck probablemente descubrió su ley durante las primeras horas de la noche del domingo 7 de Octubre de 1900. El Prof. Rubens y su esposa habían ido a visitar a los Plancks en la tarde de ese día. Durante la conversación, Rubens mencionó a Planck que había encontrado que para altas longitudes de onda la energía emitida por un cuerpo negro era proporcional a la temperatura. Cuando se despidieron Planck se puso a trabajar y encontró una interpolación entre ese resultado y los resultados anteriores que funcionaban muy bien para pequeñas longitudes de onda; La ley de Wien. Esa misma noche escribió una tarjeta postal a Rubens con sus resultados. El 19 de Octubre el colaborador de Rubens Dr. Kurlbaum presento los resultados y Planck presento públicamente su descubrimiento. Sería injusto decir que lo único que hizo Planck fue un ajuste de datos y encontró la mejor forma matemática para expresar las observaciones. Pero entre Octubre y Diciembre de 1900 fue un periodo heroico en su vida. Planck había encontrado la formula, pero cuales eran los principios físicos que permitían tales cosas. Planck conocía muy bien la electrodinámica y la termodinámica. Comenzó a trabajar pensando en que el cuerpo negro estaba compuesto por multitud de antenas u osciladores que emitían y absorbían radiación. Gracias a la electrodinámica se sabía como funcionaban tales antenas y la termodinámica establecía el equilibrio térmico al cual debían llegar tales osciladores. Para poner todos los elementos de manera coherente es necesario hacer un promedio estadístico pues es imposible saber que es lo que hace cada uno de esos osciladores u antenas que Planck postulaba. Aquí están los dos grandes saltos intelectuales: Primero

asumió que la el total de la energía estaba hecho de elementos finitos o cuantos (quantum) proporcionales a la frecuencia de oscilación. Y segundo: tales cuantos son indistinguibles unos de otros por lo que es necesario repartirlos de manera indistinguible entre los osciladores que si son distinguibles. Planck presentó sus resultados en 14 de Diciembre de 1900 y así apareció públicamente por primera vez la idea del cuanto y la hoy llamada constante de Planck. (h barra). Desde el punto de vista de la física de 1900 la lógica de Planck en cuanto a sus bases de electrodinámica y de termodinámica era impecable, pero su tratamiento estadístico era descabellado. Planck se refirió a ello en 1931 como “un acto de desesperación, pues tenia que obtener un resultado que coincidiera con los datos bajo cualquier circunstancia y a cualquier costo” Su teoría combinada con los experimentos de Rubens y otros le permitió en 1901 calcular los valores de h (constante de Planck) = 6.55E-27 erg-s (6.63E-27 es el valor aceptado actualmente), luego la constante de Boltzmann, El numero de Avogadro, y a partir de la ley de Faraday para electrolitos el valor de la carga del electrón 4.69 E-10 esu, el valor actual es 4.80 E-10 esu. En ese tiempo J. J. Thompson había medido la carga del electrón, pues el lo había descubierto, como 6.5 E-10 esu un error de casi cincuenta por ciento que la gente no acepto sino hasta que las partículas alfa (núcleos de helio) con dos cargas positivas se registraron una carga de 9.3E-10 esu, dándole la razón a Planck.

Abram Pais a dicho de el: “Su razonamiento fue una locura, pero su locura tenía la calidad que solo las grandes figuras de transición pueden traer a la ciencia”v. Su teoría que definitivamente explicaba las observaciones, puso a Planck, un hombre conservador por inclinación, en el lugar de un revolucionario renuente. El que estaba completamente imbuido en el pensamiento y los prejuicios del siglo 19 hizo el primer rompimiento conceptual que hizo que la física del siglo veinte apareciere tan discontinuamente diferente de la anterior. Planck no llamo a sus elementos de energía cuantos y no insistió en su naturaleza discreta. Maxwell había hecho su teoría electromagnética y había hecho una descripción magnífica de la luz como ondas que son continuas. Planck no tomo su hipótesis como una discontinuidad física, una atomicidad de la energía en un sentido estricto. Aunque han habido muchas otras innovaciones en la física desde el 14 de Diciembre del 1900, el mundo no ha visto otra figura como Planck.

Aparece Albert Einstein: De los tres grandes artículos producidos por Einstein en 1905 el titulado “Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz” lo considero como él más revolucionario de su vida. Otro de esos artículos era sobre la teoría de la relatividad. Einstein observaba que la teoría electromagnética de la luz asumía un continuo, mientras que todas las formas de entender la materia comenzaban con átomos discretos. Seria posible que la discontinuidad fuera productiva para la luz. El observaba que si bien las ecuaciones de Maxwell parecían ser adecuadas para muchos fenómenos,

para la radiación de cuerpo negro no era suficiente. Demostró que los resultados puramente clásicos eran erróneos y absurdos. La radiación tenia que aparecer en lo que Einstein llamó por primera vez cuanto de radiación de energía. Einstein creía que su acercamiento al problema de radiación de cuerpo negro era diferente al de Planck. Planck había estudiado que pasaba cuando se tienen cargan oscilando en las antenas. Einstein aplicó la termodinámica directamente a la luz. Ahí fue cuando propuso que si la luz esta realmente compuesta de cuantos de energía, entonces probablemente también es emitida y absorbida de manera discreta. Así pues con otras consideraciones logro establecer la ley del efecto fotoeléctrico en el cual la luz expele electrones de la superficie de un metal. Así Einstein hizo una predicción cuantitativa probable partiendo de su teoría del quantum. Hoy en día ese efecto se utiliza para detectar luz en multitud de aparatos, pero llevo mas de una década lograr hacerlo. Fue Robert Millikan quien confirmó la predicción y obtuvo de una manera diferente el valor de h (la constante de Planck) que era exactamente la misma que aparecía en la formula para la radiación de cuerpo negro. Millikan con la mayoría de los físicos se resistía a aceptar la hipótesis cuántica de la luz. Einstein recibió su premio Nobel justamente por el efecto fotoeléctrico. La discusión entre onda o partícula en la luz había sido “resuelta” en el siglo 19 con los trabajos de difracción e interferencia de Fourier, Poisson y Arago. Así quedo establecida la naturaleza ondulatoria de la luz que había sido propuesta por Hyugens, en oposición a Newton quien prefería una naturaleza corpuscular. Con la aparición del cuanto resurgía la naturaleza copuscular de la luz con venganza y era difícil entender que causaba la interferencia de la luz si esta no era onda. La relación del quantum (corpúsculo) con el aspecto ondulatorio de la luz se ha mantenido como uno de los puntos álgidos de la teoría. Los dos aspectos, onda y partícula, están íntimamente acoplados. Ambos son necesarios simultáneamente para explicar el comportamiento de la luz. El aspecto corpuscular de la luz, llamado hoy en día fotón resultó fundamental para la explicación de la dispersión de rayos X por electrones, por lo cual Arthur Compton recibió el premio Nobel en 1923. Primer interludio. La primera bienvenida que la idea del quantum recibió en la comunidad de físicos no provino del estudio de la radiación. Se dio en una de las áreas de la física mas distantes de la luz que uno se podría imaginar: el estudio de los calores específicos. El calor especifico de una sustancia determina cuanto cambia su energía cuando su temperatura cambia. A temperaturas bajas los sólidos presentan una conducta muy peculiar. Einstein, si nos lo volvemos a encontrar, sospecho que la desviación podría ser explicable en base a la teoría cuántica. Reformuló el problema de Planck para tratar la estructura de un cristal formado por un arreglo uniforme de átomos (rejilla). Logro obtener predicciones razonables que involucraban la misma constante de Planck multiplicada por la frecuencia de oscilación de los átomos.

Las cosas se mantuvieron así por varios años hasta que el fisicoquímico Walther Nernst inundó la arena con resultados que coincidían con la teoría de los calores específicos de Einstein sino que convenció a los físicos que esas ideas se debían discutir. El Primer Congreso de Solvay La Teoria del quantum nació en 1900, pero su presentación en sociedad ocurrió justamente en la conferencia Solay de 1911. En esta reunion en Belgica se juntaron todos los fisicos importantes a discutir la idea del cuanto. Ahí estaba Madame Curie con Henri Poincare, Planc, Rubens, Sommerfeld, de Broglei, Rutherford, Einstein, Langevin, Lorentz y por supuesto Nernst. En medio de las discusiones sobre lo discreto, los espectros discretos que emiten las sustancias al ser excitadas cobraron una importancia muy grande . La mayoria de los modelos creados en esa decada estabn equivocados. Se trataba de cuantizar algo en los atomos y en las moleculas, pero no se sabia que. Aparece Bohr en la Escena. Parece irónico que Niels Bohr, el físico danés que se convirtió en el gran Papa de la Mecánica Cuántica, inicialmente no haya tenido interés en los espectros. El hizo su tesis doctoral sobre la teoría de los electrones en los metales. Bohn estaba fascinado por sus fallas e inestabilidades. El pensaba que tales fallas sugerían una nuevo tipo de fuerza, fundamentalmente diferente a esas que se conocían en la física, esto es gravedad y electromagnetismo. Sospecho que el cuanto estaba implicado, llevaba tiempo tratando de aplicar esas ideas a la teoría sin ningún éxito. El mantuvo la corazonada de que la idea era buena y fue durante su estancia postdoctoral en Manchester en el laboratorio de Rutherford, quien años antes había descubierto que el átomo estaba formado por un núcleo central con electrones alrededor. Comenzó a pensar que el átomo estaba formado por un núcleo central con electrones orbitando a su alrededor y de inmediato se dio cuenta que seria inestable, pues los electrones perderían energía al dar vueltas puesto que su movimiento es acelerado. Para estabilizar su modelo del átomo a fuerzas impuso una condición de cuantización como estaba de moda en esos días (Rutherford había estado en Solvay). Uno de sus colegas en el laboratorio dirigió su atención hacia los espectros e inmediatamente se dio cuenta de que podía explicar el espectro de la serie de Balmer de hidrógeno si cambiaba su modelo un poco. Postulo que la luz era la emisión producida por la transición entre dos órbitas discontinuas cuya energía difería por una cantidad proporcional a la frecuencia de la luz emitida, la constante de proporcionalidad era h la constante de Planck. Publicó sus resultados en 1913. El modelo tenía demasiados huecos y condiciones ad-hoc, pero tenia cierta capacidad predictiva que convenció a mucha gente. La rueca dio la vuelta entera un par de años después cuando Einstein conectó el átomo de Bohr con la radiación de cuerpo negro. En esos artículos donde se preludia el invento del laser, mostró el vinculo entre la ley de Planck de la radiación de cuerpo negro, los niveles de energía discretos y la emisión y absorción cuantizada de radiación.

Ahí señalo que las transiciones no podían ser predichas exactamente sino de manera probabilistica, por cierto es en esos artículos donde formalizó la idea del fotón, el cuanto de energía. Durante la segunda parte de la década de los diez los físicos teóricos continuaron refinando las reglas de cuantización y los experimentales, entre ellos se distinguen Zeeman en Holanda y Stark en Alemania, mostraron espectros con mayor resolución y sobre todo estudiaron la influencia de campos magnéticos y eléctricos en los átomos. Una nueva generación de físicos: Bohr, Arnold Sommerfeld y Max Born aparecieron y motivaron a sus estudiantes: Hendrik Kramers, Wolfgang Pauli, Werner Heisneberg y Pascual Jordan a trabajar en explicar la evidencia empírica que provenía de los espectros contra las ambigüedades de las reglas de cuantización. Existían procedimientos para tratar los problemas que se basaban en identificar un parámetro, como la órbita del electrón y luego cuantizarlo. La teoría tenía muchos parches y sus fracasos aumentaban, a principios de los años 20 un sentimiento de crisis se generalizó entre los físicos. Un grupo alrededor de Bohr que incluía a Born, Pauli y Heisenberg, empezaron a sospechar que los problemas tenían su origen en las trayectorias de los electrones. A lo mejor era posible abstraerse de las órbitas y en cambio enfocarse a las transiciones de probabilidades y emisiones de radiación ya que esas son más fáciles de conocer. Una tésis doctoral de página y media. En 1923 un físico francés: Luis de Broglie, escribió su tésis doctoral en página y media. En ella presentó una idea especulativa muy interesante que es el inverso de las ideas de Einstein y Planck sobre la luz. El sugirió que se buscaran aspectos ondulatorios de los electrones. La contraparte de la naturaleza corpuscular del electrón. Asoció la cantidad de movimiento de una partícula con su longitud de onda. A mayor cantidad de movimiento menor seria la longitud de onda. Experimentos posteriores en Bell Labs confirmaron que los electrones efectivamente interferían. En 1924 un físico hindú de apellido Bose vuelve sobre el problema de Planck de las partículas indistinguibles y formula las bases de lo que hoy llamamos la estadística de Bose Einstein. Una tormenta de ideas. En 1925 Pauli enuncia su principio de exclusion, estableciendo el spin o momento angular intrinseco del electron. En 1925 Heisenberg paso unas vacaciones en una isla del mar báltico, ahí comenzó a pensar que tal vez la formulación matemática debía ser discreta desde el origen. Solo descubrió lo que los matemáticos llaman matrices, que no son sino tablas de números con ciertas reglas especiales de adición y multiplicación. En especial cuando se multiplican matrices el orden si afecta el producto. Su artículo original no es muy claro,

pero las ideas están ahí. En colaboración con Born y Jordan desarrolla la mecánica matricial, la primera versión de la mecánica cuántica. El postulado de DeBroglie dio a Erwin Schroedinger la idea para sus artículos de 1926. El trato de utilizar lo que se conocía de las propiedades de las ondas para vincularlas a las partículas utilizando la constante de Planck como la piedra angular. A Schroedinger no le gustaban las ideas de Bohr sobre la discontinuidad, tampoco encontraba intuitivamente tratable la mecánica matricial de Heisenberg. En su mente, el quantum no implicaba ninguna de esas cosas. Al contrario, mostraba lo opuesto; la aparente atomicidad de la materia servia de cubierta a un continuo. Schroedinger propuso su famosa formula, tal vez una de las mas famosas en la historia de la ciencia, la hoy conocida ecuación de Schroedinger. Esta ecuación predice la función de onda asociada con un electrón. Puesto que las ondas presentan vibraciones discretas era posible encontrar resultados cuantizados, pero no es posible darle una Interpretación determinística a la función de onda. La existencia de dos teorías generó multitud de discusiones, pero pronto se demostró que ambas formulaciones eran exactamente equivalentes. Born desmaterializó las ondas de Schroedinger convirtiéndolas en puras densidades de probabilidad. En 1926 Enrico Fermi y Paul Dirac muestran que de acuerdo a la mecánica cuántica debe existir otra manera de contar partículas, asociada al principio de exclusión de Pauli. Este descubrimiento abrió la puerta para la física del estado sólido que en 1948 desarrollo el transistor. En 1927 Heisenberg enunció su principio de incertidumbre, limitando la posibilidad de la precisión de cualquier medición, creando un compromiso en la precisión con la que se puede conocer la posición y la cantidad de movimiento (velocidad multiplicada por la masa) de una partícula. En 1928 Dirac presenta su teoría del electrón, con predicciones fascinantes como la antimateria (descubierta por Anderson en 1932) y comenzando la generalizacion de la mecanica cuantica a lo que hoy conocemos como la teoria cuantica del campo. La mecánica cuántica es la teoría que se ha comprobado con mediciones mas precisa. Es sin duda la teoría más exitosa en la historia de la ciencia. No obstante eso, la mecánica cuántica causó multitud de discusiones entre sus fundadores durante los primeros treinta años del siglo veinte, sino hoy en día muchas personas que no están satisfechas con sus fundamentos y su interpretación, aun cuando todo mundo acepta que funciona a la perfección. Su capacidad predictiva es inigualable y su influencia en nuestra vida cotidiana impresionante. Ella ha hecho posible el avance de la industria electrónica y de la industria química y comenzamos a ver su influencia en la biología. La próxima vez que vean un horno caliente o simplemente un cuerpo caliente que emite radiación, no dejen de maravillarse, de asorarse que millones de fotones, cuantos de luz

están siendo emitidos y aun si no los detectamos individualmente su existencia y la comprensión del por que esa cuantización es digna de enorgullecerse y de celebrarse. Aproximaciones a la mecánica cuántica Aunque sin profundizar en ellas, voy a tratar de sintetizar algunas de las ideas introducidas por la mecánica cuántica. Antes de empezar advierto que la mayoría de los físicos, cuando se nos pregunta sobre la interpretación de la mecánica cuántica, preferimos remitirnos a su éxito predictivo y asumimos una actitud pragmática. La mecánica cuántica forma parte de los avances de la ciencia menos aprehensibles de manera intuitiva, pero ciertamente funciona. Para la mecánica clásica, y con ella para nuestra intuición, es posible conocer y predecir todas las propiedades de una partícula si conocemos su posición y su momentum (masa multiplicada por la velocidad). Dadas unas condiciones iniciales, las ecuaciones de Newton permiten seguir la trayectoria de la partícula en todo momento y en todo lugar: la mecánica clásica es determinista. La mecánica cuántica, por su parte, establece a la función de onda Ψ como el objeto principal. Ψ obedece a una ecuación determinista que relaciona su evolución temporal con la energía cinética y potencial del sistema, llamado Hamiltoniano. Matemáticamente Ψ es una función de onda: una de sus consecuencias es que acepta de manera natural soluciones con valores característicos si el potencial y las condiciones de frontera lo permiten. Los valores característicos -muchas veces referidos por su nombre en alemán: eigenvalues- forman un espectro discreto de valores; por ejemplo, dada la longitud de una cuerda de guitarra, encontrar las frecuencias en que puede oscilar tal cuerda. Puesto que la cuerda está ligada en ambos extremos, las ondas estacionarias tienen longitudes de onda cuyos múltiplos caben exactamente en la cuerda. En el caso de la cuerda, la vibración permitida es de una nota y sus armónicos, que son múltiplos de la frecuencia de oscilación fundamental, o submúltiplos de la longitud de onda fundamental. El contenido armónico de una cuerda; esto es, cuántos armónicos oscilan y con que amplitud, especifica el timbre de cualquier instrumento musical, incluida la voz humana. La mecánica cuántica ha podido calcular y predecir los espectros de líneas discretas que caracterizan e identifican a los diferentes elementos atómicos. El átomo emite luz de una determinada frecuencia cuando alguno o varios de sus electrones son excitados y regresan al estado fundamental. Entre las consecuencias que aparecen en la mecánica cuántica está la necesidad de abandonar la idea de partícula y trayectoria de la mecánica de Newton; la realidad del mundo microscópico está regido por una ecuación de onda. La función de onda Ψ, el elemento fundamental en la explicación de la realidad, permite calcular valores esperados e incertidumbres en la posición y la velocidad de la

partícula; pero no permite conocer con absoluta certeza cuál será la trayectoria de una partícula. Puesto todo esto en el contexto del principio de mínima acción que vimos hace dos lecciones, la mecánica cuántica describe todas las trayectorias posibles que una partícula puede llegar a explorar cuando recorre un valle. No hay nada que le prohíba viajar por la parte inclinada del valle, pero es mucho más probable que pase por la parte más baja. La mecánica cuántica ofrece reglas específicas para sumar todas las trayectorias posibles y encontrar cuál es la más probable, así como cuál es la desviación estandar de sus trayectorias. La parte de esas reglas que posee mayor importancia consiste en especificar la onda que caracteriza a la partícula en cada trayectoria. Esa onda puede interferir entonces de manera constructiva o destructiva. La longitud de onda está relacionada intrínsecamente con el momentum de la partícula λ = h/p (donde λ es la longitud de onda, h la constante de Planck y p el momentum de la partícula). La primera persona que postuló la existencia de tales ondas fue el francés Louis de Broglie en su tesis doctoral. Todas las trayectorias son iguales y todas son exploradas. Dado que el “valle” es plano en su parte inferior, las trayectorias en esa vecindad interfieren constructivamente formando el recorrido más probable. Esta descripción de la mecánica cuántica se debe a Richard Feynmanvi. Insisto en que las trayectorias se refieren a la acción (ver principio de la tercera lección de estas notas), suceden en el espacio de fase, espacio formado por la posición y el momentum de una partícula; ya no se habla sólo de la posición de la partícula, como cuando nos referimos al espacio. La función de onda Ψ tiene toda la información respecto a los posibles recorridos y al valle donde éstos suceden. A partir de la función de onda es posible calcular la posición y el momentum o velocidad de una partícula. La manera de calcular aquélla no difiere mucho de la forma en que se calcula el promedio de una distribución estadística. De hecho, la función de onda elevada al cuadrado -Ψ2- es la densidad de probabilidad de la partícula, indicando cuantitativamente cual es la probabilidad de encontrar la partícula en un lugar dado. Imaginemos que nos interesa conocer la posición de un electrón dentro de un átomo; para construir la densidad de probabilidad podemos hacer un experimento de dispersión analizando cómo se desvían los proyectiles que enviamos. Donde hay más probabilidad de encontrar un electrón se desviará más el proyectil, ya que, a fin de cuentas, prevalece la interacción electromagnética. La función de onda es completamente determinista, dado que sigue una ecuación lineal, la ecuación de Schrödinger. Sin embargo, la función de onda no da ni la posición ni la velocidad de la partícula; no ofrece ningún resultado “observable”: ¡cuidado con las

interpretaciones positivistas¡ La función de onda sí permite el cálculo de promedios y desviaciones estandar de cualquier fenómeno observable. Una de las consecuencias más interesantes de la mecánica cuántica es el principio de incertidumbre, principio íntimamente vinculado a la cuantización de la acción, y que limita la precisión con que se puede conocer de manera simultánea, dos cantidades diferentes que forman un par conjugado. Sin entrar en detalles técnicos, el producto de un par conjugado tiene las mismas unidades que la acción. Por ejemplo, son conjugados la posición y el momentum (velocidad por masa), asi como la energía y el tiempo. El principio de incertidumbre establece la existencia de un “ruido” cuántico mínimo entre dos variables conjugadas, de manera que si reducimos el ruido en una, se incrementará en la otra. No es posible conocer con exactitud total, de manera simultánea, la posición y la velocidad de un electrón. Este resultado ha originado muchas discusiones filosóficas; pero los físicos, que tenemos una actitud de mayor pragmatismo, hemos aprendido a vivir con la realidad y a encontrar la manera de aprovecharla. Agregaré una nota de carácter histórico: Niels Bohr apuntó en sus reflexiones filosóficas que la claridad y la verdad, a su modo de ver, se comportan como dos variables conjugadas, esto es, vinculadas por una relación de incertidumbre: A mayor claridad, menor verdad! Transcribo a continuación algunas consideraciones de Steven Weinbergvii sobre la mecánica cuántica viiiy sus consecuencias: “Describir la mecánica cuántica sólo con palabras da inevitablemente una impresión vaga de lo que ésta es. La mecánica cuántica no es nada vaga; aunque parezca raro, provee una manera de calcular niveles de energía, tasas de transición y probabilidades. Voy a tratar de mostrarles un poco más de la mecánica cuántica, y para este propósito consideraré aquí el más simple de los sistemas, uno que tiene sólo dos configuraciones.” “Podemos pensar en este sistema como una partícula con sólo dos posibles posiciones, en vez del infinito que generalmente asociamos con éstas; las llamaré aquí y allá. El estado del sistema está descrito en todo momento por dos números: los valores del aquí y del allá de la función de onda.” “En la física clásica la descripción de nuestra partícula es muy simple: está definitivamente aquí o allá, aunque puede saltar de aquí a allá, o viceversa, de una manera dictada por alguna ley dinámica.” “Las cosas son más complicadas en la mecánica cuántica. Cuando no estamos observando la partícula, el estado del sistema puede ser puro aquí; en tal caso, el valor del allá de la función de onda se desvanecerá. O bien, el estado de puro allá, en el cual será el valor del aquí de la función de onda el que se desvanecerá. Pero también es posible, y mucho más usual, que ninguno de los valores se desvanezca, y que la partícula no esté definitivamente ni aquí ni allá. Si tratamos de ver si la partícula está aquí o allá, por supuesto encontraremos que está en una u otra de las posiciones; la probabilidad de que el resultado sea aquí va dada por el cuadrado del valor aquí antes de la medición, y la probabilidad de que esté allá va dada por el cuadrado del valor de allá. Conociendo

la función de onda no podemos predecir cuál valor asumirá la partícula, solamente sus probabilidades.” “Este sistema con sólo dos configuraciones es suficientemente simple que su ecuación de Schrödinger puede ser descrita de una manera más directa que para otras partículas. Entre mediciones, la tasa de cambio del valor aquí de la función de onda es una constante multiplicando el valor aquí más una segunda constante numérica multiplicando el valor allá. La razón de cambio del valor allá es una tercera constante multiplicando el valor de aquí más una cuarta constante multiplicando el valor de allá. A las cuatro constantes se les conoce colectivamente como el Hamiltoniano de este sistema simple. El Hamiltoniano caracteriza al sistema en sí, no a un estado particular del sistema; el Hamiltoniano nos dice todo lo que hay que saber sobre cómo evoluciona el sistema a partir de ciertas condiciones iniciales. La mecánica cuántica en sí misma no nos dice cómo es el Hamiltoniano, el que tiene que ser derivado de nuestro conocimiento experimental y teórico sobre la naturaleza del sistema que estamos estudiando.” “Nuestro ejemplo de sistema sencillo puede ser utilizado a la vez para ilustrar la idea de complementariedad de Bohr, considerando otras formas de describir el estado de la misma partícula. Por ejemplo, hay otro par de estados, similares a los estados de cantidad de movimiento definida, que podríamos llamar parar e ir, en los cuales el valor del aquí de la función de onda es respectivamente ya igual al valor del allá, o igual al menos valor del allá. Podemos, si lo queremos, describir la función de onda en términos de sus valores de parar e ir en vez de los valores de aquí y de allá: el valor de parar es la suma de los valores de aquí y de allá, y el de ir es la diferencia.” “Si sucede que sabemos que la posición de la partícula está definitivamente aquí, entonces el valor de allá de la función de onda debe desvanecerse y por lo tanto los valores del parar e ir deben ser iguales, lo que significa que no sabemos nada de la cantidad de movimiento de la partícula; ambas posibilidades tiene una probabilidad del 50%. Por otro lado, si sabemos que la partícula está definitivamente en el estado parar con cero cantidad de movimiento, entonces el valor de ir es la diferencia entre los valores del aquí y del allá, lo cual significa que no sabemos nada acerca de si la partícula está aquí o allá; la probabilidad de cualquiera es del 50%. Vemos que existe una total complementariedad entre las mediciones del aquí o allá y del parar o ir. Podemos hacer uno u otro tipo de medición, pero cualquiera que elijamos nos deja totalmente a oscuras acerca del resultado que encontraríamos si hiciésemos el otro tipo de medición”. Todos los físicos estamos de acuerdo en cómo utilizar la mecánica cuántica, pero existen desacuerdos muy serios respecto a cómo interpretar lo que estamos calculando cuando lo hacemos. La realidad es el objeto de estudio de los físicos, pero su metodología es muy diferente a la de los filósofos y a la de otros humanistas. La interpretación de la mecánica cuántica mediante palabras es un problema, ya no digamos intentar hacerla en términos aceptables para los filósofos. La mayoría de los físicos hemos adoptado una actitud pragmática al respecto, pues conocemos la capacidad predictiva de la mecánica cuántica. Nuestra actitud no es bien recibida por los filósofos, quienes difícilmente aceptan argumentos pragmáticos y quieren explicar de manera verbal, no matemática, la realidad. Esta diferencia, que

Weinberg pone de manifiesto al principio del ejemplo anterior, es muy importante porque enfatiza la formulación matemática y su capacidad predictiva de la realidad. Cathy Carson The Origins of The Quantum Theory Beam Line, Summer/Fall 2000, p. 6 Daniel Kleppner and Roman Jackiw One Hundred Years of Quantum Physics Science, 289, 893 (2000). i

SIGH, Fermat,s last theorem, 1996 FEYNMAN R., Leighton and Sands, The Feynman lectures of physics, Adison-Wesley, New York, 1970 iii LANDAU L., Y. Rumer, Qué es la teoría de la relatividad, Ediciones de Cultura Popular, México, 1977 iv FEYNMAN R., Op.cit. v PAIS Adam, Subtle is the Lord vi FEYNMAN R. Op. cit. vii WEINBERG Steven, Dreams of a final theory, Pantheon Books, Random House, New York, 1992

ii

viii

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF