Apuntes Cálculo Tensorial

October 13, 2018 | Author: InésDraaijer | Category: Vector Space, Tensor, Basis (Linear Algebra), Euclidean Vector, Scalar (Mathematics)
Share Embed Donate


Short Description

Apuntes Cálculo Tensorial (MM4)...

Description

Apuntes de C´ alculo Tensorial Manuel Arias Zugasti Pedro C´ordoba Torres ´ Alvaro Guillermo Perea Covarrubias Cristina Mar´ıa Santa Marta Pastrana

´ Ultima modificaci´on: 3 de octubre de 2016

ii

´Indice Prefacio

XI

1. Espacios vectoriales 1.1. Concepto de espacio vectorial . . . . . . . . . . . . . . 1.1.1. Definici´on y propiedades . . . . . . . . . . . . . 1.1.2. Bases y dimensi´on . . . . . . . . . . . . . . . . 1.2. M´etrica . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Espacios vectoriales normados . . . . . . . . . . 1.2.2. Producto escalar . . . . . . . . . . . . . . . . . 1.2.3. Tensor m´etrico . . . . . . . . . . . . . . . . . . 1.2.4. Topologa m´etrica . . . . . . . . . . . . . . . . . 1.3. Espacios Eucl´ıdeos y de Riemann . . . . . . . . . . . . 1.3.1. Bases ortonormales . . . . . . . . . . . . . . . . 1.3.2. Espacios no Eucl´ıdeos: espacio dual y base dual 1.4. Cambios de base . . . . . . . . . . . . . . . . . . . . . 1.4.1. Definici´on de cambio de base . . . . . . . . . . 1.4.2. Cambios de base sobre vectores . . . . . . . . . 1.4.3. Cambios de base sobre aplicaciones lineales . . 1.4.4. Ley de transformaci´on del tensor m´etrico . . . 1.4.5. Resumen . . . . . . . . . . . . . . . . . . . . . 1.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . 1.5.1. Soluciones a problemas seleccionados (Tema 1) 1.6. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

1 1 2 4 7 7 8 10 12 12 13 14 17 18 19 20 21 23 23 25 27

2. Tensores 2.1. Concepto de tensor . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1. Tensores en f´ısica . . . . . . . . . . . . . . . . . . . . . . 2.1.2. Rango tensorial . . . . . . . . . . . . . . . . . . . . . . . 2.1.3. Ley de transformaci´on de tensores generales . . . . . . . 2.2. Magnitudes f´ısicas de rango tensorial superior . . . . . . . . . . 2.2.1. Tensores de polarizabilidad y de conductividad el´ectrica 2.2.2. Tensor de esfuerzos o de tensiones . . . . . . . . . . . . 2.2.3. Derivaci´on de campos tensoriales . . . . . . . . . . . . . 2.3. Definici´on de tensor . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Espacio producto tensorial . . . . . . . . . . . . . . . . 2.3.2. Tensores afines . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

29 29 30 31 31 32 32 34 38 39 39 40

iii

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

´INDICE

iv

2.4.

2.5. 2.6. 2.7. 2.8.

´ 2.3.3. Algebra tensorial . . . . . . . . . . . 2.3.4. Producto tensorial . . . . . . . . . . Aplicaciones multilineales . . . . . . . . . . 2.4.1. Contracci´on de ´ındices . . . . . . . . 2.4.2. Producto de contracci´on . . . . . . . Criterios de tensorialidad . . . . . . . . . . Tipos de tensores . . . . . . . . . . . . . . . Problemas . . . . . . . . . . . . . . . . . . . 2.7.1. Soluciones a problemas seleccionados Bibliograf´ıa . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (Tema . . . .

. . . . . . . . . . . . . . . . 2) . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

41 41 42 42 43 44 46 49 50 56

3. Densidades tensoriales 3.1. Ley de transformaci´on de densidades tensoriales generales 3.1.1. Producto de densidades tensoriales . . . . . . . . . 3.2. Espacios orientables . . . . . . . . . . . . . . . . . . . . . 3.2.1. Bases ordenadas y orientaci´on . . . . . . . . . . . . 3.3. S´ımbolo alternante de Levi-Civita . . . . . . . . . . . . . . 3.3.1. Tensor alternante de Levi-Civita . . . . . . . . . . 3.4. Producto vectorial en espacios tridimensionales . . . . . . 3.4.1. Definici´on de producto vectorial . . . . . . . . . . 3.4.2. C´alculo de vol´ umenes . . . . . . . . . . . . . . . . 3.4.3. Rotaciones infinitesimales . . . . . . . . . . . . . . 3.5. Introducci´on al producto exterior de p-formas . . . . . . . 3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1. Soluciones a problemas seleccionados (Tema 3) . . 3.7. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

57 59 60 60 61 63 64 65 66 68 69 70 72 73 80

4. Campos tensoriales 4.1. Variedades diferenciables . . . . . . . . . . . . . . . . . . . 4.1.1. Curvas y superficies . . . . . . . . . . . . . . . . . 4.1.2. Geometr´ıa intr´ınseca y extr´ınseca . . . . . . . . . . 4.1.3. Ejemplos de variedades en f´ısica . . . . . . . . . . 4.1.4. Diferenciabilidad y parametrizaciones . . . . . . . 4.1.5. Ejemplos de variedades y parametrizaciones . . . . 4.2. Fibrados tangente y cotangente . . . . . . . . . . . . . . . 4.2.1. Espacio tangente a un espacio vectorial . . . . . . 4.2.2. Espacio tangente de una variedad diferenciable . . 4.3. El espacio vectorial Rn en coordenadas curvil´ıneas . . . . 4.3.1. Base natural y m´etrica del espacio tangente . . . . 4.3.2. Componentes f´ısicas . . . . . . . . . . . . . . . . . 4.3.3. El espacio Eucl´ıdeo R3 en coordenadas cil´ındricas 4.3.4. El espacio Eucl´ıdeo R3 en coordenadas esf´ericas . 4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1. Soluciones a problemas seleccionados (Tema 4) . . 4.5. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

81 82 83 85 87 91 94 96 96 97 101 102 103 106 107 108 108 110

´INDICE

v

5. Derivaci´ on de campos tensoriales 5.1. Transporte paralelo . . . . . . . . . . . . . . . . . . . . . . . 5.1.1. S´ımbolos de Christoffel . . . . . . . . . . . . . . . . . 5.1.2. S´ımbolos de Christoffel en componentes f´ısicas . . . 5.1.3. Transporte paralelo de vectores y tensores . . . . . . 5.1.4. Curvatura . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Derivada covariante . . . . . . . . . . . . . . . . . . . . . . 5.2.1. Comportamiento tensorial de la derivada covariante 5.2.2. Derivada covariante en componentes f´ısicas . . . . . 5.3. Vector aceleraci´on . . . . . . . . . . . . . . . . . . . . . . . 5.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1. Soluciones a problemas seleccionados (Tema 5) . . . 5.5. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

111 111 113 116 117 119 121 124 126 126 127 128 129

6. Operadores diferenciales habituales 6.1. Operadores diferenciales . . . . . . . . . . . . . 6.1.1. Gradiente covariante . . . . . . . . . . . 6.1.2. Divergencia covariante . . . . . . . . . . 6.1.3. Rotacional covariante . . . . . . . . . . 6.1.4. Laplaciano covariante . . . . . . . . . . 6.2. Coordenadas curvil´ıneas ortogonales habituales 6.2.1. Coordenadas cartesianas . . . . . . . . . 6.2.2. Coordenadas cil´ındricas . . . . . . . . . 6.2.3. Coordenadas esf´ericas . . . . . . . . . . 6.3. Bibliograf´ıa . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

131 131 131 132 132 133 133 133 135 136 138

A. F´ ormulas de an´ alisis vectorial A.1. Notaci´on . . . . . . . . . . . . . . A.2. Productos escalares y vectoriales A.3. Gradiente, divergencia, rotacional A.4. Teoremas integrales . . . . . . . . A.4.1. Teorema del gradiente . . A.4.2. Teorema de la divergencia A.4.3. Teorema del rotacional . . A.4.4. Otros teoremas integrales A.4.5. Identidades de Green . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

139 139 140 140 141 141 141 141 142 142

. . . . . . . . . . . . . . . . y laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Bibliograf´ıa

145

´ Indice alfab´ etico

149

vi

´INDICE

Lista de figuras 1.1. Vectores en 2 dimensiones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2. Esquema de inclusiones para espacios vectoriales normados. . . . . . . . . . . . . . . 10 2.1. El producto τ · n es la fuerza por unidad de superficie ejercida por el medio situado en el lado hacia donde apunta la normal sobre el medio situado al otro lado. . . . . . 35 2.2. Elemento infinitesimal de medio material con forma de tetraedro. . . . . . . . . . . . 36 3.1. Banda de Moebius. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 4.1. Deformaci´on continua de una esfera en un cubo. . . . . . . . . . . . . . . . . . . . 4.2. Ejemplos de variedades monodimensionales contenidas en el plano. . . . . . . . . . 4.3. Ejemplos de variedades bidimensionales contenidas en R3 . En la imagen central se ha representado tambi´en el plano z = 1 y en la u ´ltima el plano z = 0. . . . . . . . 4.4. El p´endulo simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Plano de fases de un p´endulo simple. La trayectoria marcada en rojo (E = Es ) es la separatriz entre las trayectorias cerradas (E < Es ) y las abiertas (E > Es ). . . . . 4.6. Isotermas de un fluido de van der Waals. Las l´ıneas rojas corresponden al fluido supercr´ıtico, las azules a la fase l´ıquida y las verdes a la fase gas. . . . . . . . . . . 4.7. Parametrizaci´on de una variedad diferenciable. . . . . . . . . . . . . . . . . . . . . 4.8. Compatibilidad entre coordenadas generalizadas de una variedad diferenciable. . . 4.9. Part´ıcula m´ovil en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10. Coordenadas cil´ındricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.11. Coordenadas esf´ericas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. 82 . 83 . 85 . 88 . 89 . . . . . .

90 92 94 97 106 107

5.1. Transporte paralelo de un vector a lo largo de una curva cerrada en un plano y en una esfera. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5.2. Transporte paralelo a lo largo del circuito dy q , dy p , −dy q , −dy p en una variedad con curvatura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.1. Coordenadas cartesianas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 6.2. Coordenadas cil´ındricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 6.3. Coordenadas esf´ericas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

vii

viii

LISTA DE FIGURAS

Lista de tablas 1.1. Comportamiento de tensores de orden ≤ 2 bajo cambios de base (˜ ei = Cij ej , D ≡ C −1 ). 23 3.1. Paridad del tensor dado por el producto tensorial o de contracci´on (respecto de cualquier par de ´ındices) de dos tensores A y B. . . . . . . . . . . . . . . . . . . . . 61 3.2. Dimensionalidad del producto exterior de dos vectores en funci´on de la dimensionalidad (n) del espacio vectorial al que pertenecen. . . . . . . . . . . . . . . . . . . . . 72

ix

x

LISTA DE TABLAS

Prefacio Contexto y objetivos Estos apuntes son el material b´asico para el estudio de la primera parte de la asignatura M´etodos Matem´aticos IV (primer semestre del tercer curso del Grado en F´ısica) impartido por la UNED desde el curso 2012-2013. El temario de esta parte de la asignatura es el habitual en un primer curso de c´ alculo tensorial para f´ısicos e incluye desde las nociones b´asicas (componentes co- y contra-variantes de vectores) hasta temas avanzados (transporte paralelo, derivada covariante y versi´on covariante de los operadores diferenciales habituales en coordenadas generalizadas). En la exposici´on se presuponen conocimientos b´asicos de ´algebra lineal, c´alculo con funciones de varias variables y tambi´en algunos conocimientos de f´ısica general (sobre todo de mec´anica y tambi´en algo de electromagnetismo y termodin´amica) que si bien no son necesarios para esta asignatura se emplean en algunos ejemplos y para mostrar la motivaci´on f´ısica de esta rama de las matem´aticas. Estos apuntes est´an especialmente orientados para estudiantes de f´ısicas. En la exposici´on hemos procurado complementar las definiciones formales habituales con ejemplos y explicaciones intuitivas y pr´acticas. Las principales aplicaciones del c´alculo tensorial en f´ısica son, a grandes rasgos, la descripci´on de diversas variables f´ısicas por medio de campos tensoriales (escalares, vectoriales o de rango tensorial superior). El contexto en que se definen estos campos tensoriales es generalmente una variedad diferenciable n-dimensional sobre la que se han definido unas coordenadas generalizadas que recorren la variedad, y cuyo espacio tangente tiene estructura de espacio de Riemann (conceptos que veremos a lo largo de este curso), en particular el caso m´as sencillo de espacio Eucl´ıdeo tri-dimensional es especialmente frecuente e importante. Los tensores se emplean en general para describir multitud de variables en todos los campos de la f´ısica. Las aplicaciones del c´alculo tensorial en relatividad son sobradamente conocidas, en ese caso los tensores se emplean tambi´en para la descripci´on de la curvatura de variedades diferenciables con vistas al posterior estudio de las ecuaciones de Einstein, que relacionan esta curvatura con la densidad de energ´ıa y momento presentes en la variedad. De todas formas la teor´ıa de la relatividad no es el u ´nico campo en que esta materia es importante. El estudio de campos tensoriales en coordenadas generalizadas se aplica de manera rutinaria en todas las ´areas de la f´ısica basadas en teor´ıas de campos, por ejemplo este es el caso de ´areas como la mec´anica de fluidos (o en general la mec´anica de medios continuos) o el electromagnetismo, y por tanto es de gran inter´es no solo en f´ısica, sino tambi´en en ingenier´ıa. Los tensores tambi´en se emplean para describir operaciones de simetr´ıa de muchos sistemas f´ısicos, lo cual es importante ya que normalmente la existencia de cierto grado de simetr´ıa en un sistema f´ısico tiene importantes consecuencias en su din´amica. Esto es especialmente importante en diversas ´areas de la f´ısica, incluyendo desde la mec´anica cu´antica (con aplicaciones, p. ej., en f´ısica molecular y estado s´olido) hasta termodin´amica de sistemas alejados del equilibrio (p. ej., dicho an´alisis explica el desacoplamiento entre fuerzas y flujos generalizados de rango tensorial distinto en medios is´otropos). xi

xii

PREFACIO

Gu´ıa de estudio Los objetivos de esta parte del curso son, por tanto, familiarizarse con los conceptos necesarios para operar con campos tensoriales en coordenadas generalizadas en espacios de Riemann de dimensi´on arbitraria, comprendiendo el significado geom´etrico de los objetos y operaciones matem´aticas empleados. Posiblemente el objetivo m´as importante de esta parte del curso sea familiarizarse con la derivada covariante, tanto en componentes hol´onomas como en componentes f´ısicas, que son las empleadas generalmente en las aplicaciones en espacios Eucl´ıdeos. Por supuesto, para entender esta parte es necesario estudiar antes algunos conceptos previos, para ello el material est´a distribuido de la siguiente forma: Cap´ıtulo 1: Se presenta un repaso general de conceptos relacionados con espacios vectoriales. Se revisan desde el punto de vista tensorial diversos conceptos ya conocidos sobre ´algebra y vectores. Se define la operaci´on de cambio de base, estudi´andose su aplicaci´on sobre tensores de hasta segundo orden. Al hacer esto se definen las componentes co- y contra- variantes, que emplearemos constantemente durante el resto del curso. En este apartado se introduce tambi´en el conocido convenio de suma de Einstein para las expresiones con ´ındices repetidos y los conceptos de ´ındice mudo o libre, cuyo uso ser´a frecuente durante el resto del curso. El contenido de este cap´ıtulo es totalmente b´asico, por este motivo es muy importante comprender bien estos conceptos. Para afianzar estas ideas se recomienda realizar la colecci´on de problemas propuestos al final del cap´ıtulo. Cap´ıtulo 2: Se emplean algunos ejemplos f´ısicos para justificar el uso de tensores de rango mayor que la unidad. Se generalizan los conceptos presentados en el primer cap´ıtulo al caso de tensores de orden arbitrario. En este apartado es muy importante familiarizarse con el concepto de producto tensorial, tensor af´ın y producto de contracci´on, que son la base sobre la que trabajaremos el resto del curso. Como aplicaci´on directa de estos conceptos es importante comprender y saber emplear los criterios de tensorialidad, introducidos en este cap´ıtulo. Como ejercicio para esta parte se debe trabajar en la aplicaci´on de cambios de base y subida y bajada de ´ındices (mencionados en el primer cap´ıtulo) sobre tensores generales (en particular deben estudiarse algunos ejemplos de rango superior a 2). Al finalizar este cap´ıtulo tambi´en debe estar totalmente dominado el uso del convenio de suma de Einstein y la manipulaci´on de expresiones con ´ındices mudos. Cap´ıtulo 3: El concepto de tensor definido en el cap´ıtulo 2 se generaliza aqu´ı para incluir los pseudotensores, de gran importancia en f´ısica (p. ej. el producto vectorial, el rotacional de un campo vectorial, o el determinante del tensor m´etrico). En este apartado es especialmente importante comprender la definici´on tensorial del producto vectorial, que nos permitir´a posteriormente calcular productos vectoriales y rotacionales de campos vectoriales en coordenadas generalizadas. Como aplicaci´on de los conceptos introducidos hasta el momento, en este tema tambi´en es especialmente importante observar que los pseudotensores se transforman como verdaderos tensores bajo cambios de base ortogonales (en particular bajo rotaciones de los ejes). Al final de este apartado se incluye una introducci´on m´as o menos intuitiva al c´alculo exterior, que queda fuera del temario de esta asignatura. Cap´ıtulo 4: Hasta este momento solo hemos hablado de tensores definidos sobre un espacio vectorial. En este apartado se generaliza este concepto al espacio fibra, definido sobre una variedad diferenciable. El c´alculo con campos tensoriales era el objetivo b´asico de esta parte del curso,

xiii por tanto son muy importantes los conceptos de fibrado tangente y cotangente y sus bases habituales, en particular las bases definidas por las tangentes a las l´ıneas coordenadas (que dan lugar a las componentes hol´onomas) y la correspondiente base de vectores tangentes unitarios (que da lugar a las componentes f´ısicas). Como ejercicio para afianzar estos conceptos en este tema se deben estudiar ejemplos pr´acticos de cambios de base inducidos en los fibrados tangente y cotangente cuando se realiza un cambio de coordenadas en la variedad de partida. Los cambios de coordenadas m´as habituales en el espacio tridimensional Eucl´ıdeo son especialmente importantes (es decir, el paso de coordenadas cartesianas a coordenadas cil´ındricas y esf´ericas), aunque tambi´en deber´an considerarse otros ejemplos m´as complicados. Es muy importante saber distinguir entre las componentes hol´onomas (co- y contra-variantes) y las componentes f´ısicas, y tambi´en trabajar con ellas. Cap´ıtulos 5 y 6: Por u ´ltimo llegamos al que era el objetivo principal del curso, la derivada covariante. Para comprender este concepto se estudia primero el transporte paralelo, ilustrado con diversos ejemplos sobre variedades con y sin curvatura, la conexi´on de Levi-Civita y los s´ımbolos de Christoffel. A continuaci´on se define el concepto de derivada covariante, tanto en componentes hol´onomas como en componentes f´ısicas. Como ejercicio de aplicaci´on de estos conceptos es importante estudiar la deducci´on de las expresiones de los operadores diferenciales habituales en f´ısica (gradiente, divergencia, rotacional y laplaciano) en coordenadas generalizadas, tanto en el caso de coordenadas generalizadas ortogonales como no ortogonales. En particular es importante el caso de las coordenadas de uso m´as extendido: cartesianas, cil´ındricas y esf´ericas. Tras esta primera parte del curso estamos en condiciones de poder calcular las expresiones de los operadores diferenciales habituales en f´ısica en cualquier sistema de coordenadas generalizadas, tanto en el espacio tridimensional Eucl´ıdeo habitual como en variedades diferenciables con m´etrica de Riemann. Esto es interesante, por ejemplo, para analizar problemas de mec´anica de fluidos o de electromagnetismo empleando un sistema de coordenadas adaptado a la geometr´ıa del problema (suponiendo que no haya singularidades geom´etricas, como esquinas o bordes, y siempre y cuando la geometr´ıa no sea demasiado complicada). Como ejercicio de aplicaci´on de estos conceptos es interesante la programaci´on del c´alculo de las expresiones de los operadores diferenciales habituales en coordenadas generalizadas en un entorno de c´alculo simb´olico, aunque el escaso tiempo de que disponemos y el car´acter algo avanzado de este problema lo desaconsejan, excepto para algunos estudiantes avanzados que tengan suficiente experiencia en programaci´on. Tras esta parte del curso estamos tambi´en en condiciones ´optimas para iniciar el estudio de la segunda parte del curso: geometr´ıa diferencial, donde nos centraremos en el estudio de curvas y superficies (incluyendo temas como geometr´ıa intr´ınseca, primera y segunda forma fundamental, operador de Weingarten, etc.). El material para la segunda parte es el libro de Martin M. Lipschultz mencionado en la gu´ıa del curso (Differential Geometry, editado por McGraw-Hill). Tras esta segunda parte del curso estaremos en condiciones de estudiar la teor´ıa general de la relatividad de Einstein, en la que todas las nociones aprendidas en este curso (y algunas m´as no incluidas) se emplean de manera rutinaria.

Agradecimientos Nos gustar´ıa dejar constancia de nuestro agradecimiento hacia la Free Software Foundation y el proyecto GNU por poner a nuestra disposici´on herramientas inform´aticas gratuitas de verdadera

xiv

PREFACIO

calidad. Este documento ha sido elaborado ´ıntegramente con el procesador de textos LATEX 2ε , los esquemas que aparecen en las figuras se han llevado a cabo o bien en LATEX o bien con el programa de dise˜ no xfig, ambos programas van incluidos en cualquier distribuci´on del sistema operativo gratuito Linux.

Cap´ıtulo 1

Espacios vectoriales Los espacios vectoriales son el punto de partida natural para el estudio de tensores. A continuaci´on revisaremos algunos de los conceptos m´as importantes relativos a vectores, cuya generalizaci´on al caso de tensores ser´a el objeto de esta parte del curso. Comenzamos revisando brevemente los conceptos de vector, espacio vectorial, normas, distancias, productos escalares, bases y aplicaciones lineales, ya estudiados en cursos anteriores. Posteriormente veremos c´omo cambian las componentes de un vector, o de una aplicaci´on lineal, al realizar un cambio de base en el espacio, esto nos servir´a de punto de partida para definir el concepto de tensor en el pr´oximo cap´ıtulo.

1.1.

Concepto de espacio vectorial

En el lenguaje coloquial se denomina con cierta frecuencia “vector” a cualquier lista unidimensional de datos num´ericos, con un n´ umero de elementos mayor que la unidad, dispuestos entre par´entesis y separados por comas. Desde el punto de vista matematico esto no siempre es correcto. Por ejemplo, si consideramos el conjunto de datos dados por el a˜ no en curso, la temperatura del sitio donde nos encontremos y la cotizaci´on de cualquier moneda frente al euro, es evidente que dicho conjunto de datos dif´ıcilmente podr´ıa considerarse como un vector (¿tendr´ıa alg´ un significado aplicar una rotaci´on sobre semejante lista de datos?). Sin embargo, la posici´on de un m´ovil en el espacio o su velocidad s´ı est´an dados por vectores. ⋆ ¿Qu´e es lo que distingue a un verdadero vector de un mero conjunto de datos? Un vector es un elemento de un espacio vectorial, es decir, es un miembro de una estructura de elementos sobre los que se han definido ciertas operaciones (suma de vectores y multiplicaci´ on por escalares) que tienen unas determinadas propiedades (conmutativa, asociativa, elemento neutro, elemento opuesto) las cuales dotan al conjunto de una determinada estructura. Concretamente estas propiedades garantizan que podamos construir cualquiera de los elementos del espacio como combinaci´on lineal de unos pocos de ellos, y que al aplicar una operaci´on lineal (como p. ej. una rotaci´on) sobre cualquier elemento del espacio obtenemos otro elemento del espacio. En particular cualquier elemento del espacio vectorial puede construirse como combinaci´on lineal de un conjunto de vectores linealmente independientes, que forman una base del espacio vectorial en consideraci´on, y se define la dimensi´on del espacio vectorial como el cardinal (el n´ umero de elementos) de cualquiera de sus bases. Esto es muy importante, ya que nos permite trabajar con vectores por medio de sus componentes respecto a una base cualquiera del espacio, y tambi´en nos permite describir cualquier aplicaci´on lineal definida sobre el espacio vectorial por medio de su matriz asociada, dada por la 1

CAP´ITULO 1. ESPACIOS VECTORIALES

2

acci´on de la aplicaci´on lineal sobre cualquier base del espacio. Lo que diferencia a un vector (o a una matriz) de una mera “caja de n´ umeros” es que los vectores son objetos geom´etricos pertenecientes a un espacio vectorial, de tal forma que sus componentes son las proyecciones de estos vectores sobre una determinada base del espacio, y las matrices por su parte son las proyecciones de la actuaci´on de una determinada aplicaci´on lineal sobre una base del espacio vectorial. Dado un vector (o una aplicaci´on lineal) perteneciente a un cierto espacio vectorial, si aplicamos un cambio de base en el espacio el vector (o la aplicaci´on lineal) sigue siendo el mismo, pero sus componentes cambian siguiendo una ley de transformaci´on que est´a determinada por el cambio de base que hayamos aplicado, tal y como veremos en este cap´ıtulo. Es muy importante que estos conceptos queden claros, ya que son la base indispensable para comprender los tensores. Normalmente los vectores que se emplean en f´ısica pertenecen a espacios vectoriales normados, es decir, espacios vectoriales sobre los que se ha definido una operaci´on, llamada norma, que permite medir la “longitud” de los vectores. Se entiende que esta “longitud” est´a medida en las unidades que tengan los vectores del espacio en consideraci´on (p. ej. velocidad, aceleraci´on, fuerza, campo el´ectrico, . . . ), de forma que no tiene por qu´e ser una longitud en el sentido coloquial del t´ermino. La operaci´on norma nos permite medir la distancia que separa dos vectores cualesquiera del espacio, dada por la norma del vector diferencia. Esto nos permite juzgar si dos vectores de este espacio son pr´oximos o no y tambi´en nos permite juzgar si una sucesi´on de elementos de este espacio es convergente o no, dependiendo de si la distancia entre dos elementos consecutivos de la sucesi´on tiende a cero. La operaci´on distancia dota al conjunto de vectores que forma el espacio vectorial de una topolog´ıa inducida por la m´etrica, convirtiendo el espacio vectorial en un objeto con significado geom´etrico, apropiado, por ejemplo, para describir el espacio en el que nos movemos, u otros espacios con una m´etrica diferente y por extensi´on nos permite tambi´en imaginar espacios similares con un n´ umero de dimensiones diferente a las 3 a las que estamos habituados, En el contexto de la f´ısica es habitual definir como magnitudes escalares a aquellas para cuya especificaci´on completa basta con proporcionar su magnitud, como por ejemplo la temperatura, la masa, la carga el´ectrica o el tiempo en la mec´anica Newtoniana. Por oposici´on a las anteriores, se definen como magnitudes vectoriales a aquellas para las que es preciso especificar, adem´as de su magnitud, una direcci´on y un sentido. De esta forma resulta muy natural describir como vectores la posici´on, la velocidad, la aceleraci´on, o las fuerzas. Estas magnitudes f´ısicas, que nos resultan tan conocidas y naturales, hacen que el concepto de vector resulte f´acil e intuitivo. Tambi´en resulta intuitivo el significado de las operaciones b´asicas definidas sobre los vectores. Por ejemplo, si un m´ovil est´a en el punto A y realiza un movimiento dado por el vector B, la posici´on final del m´ovil est´a dada por A + B, si sobre un m´ovil se aplican simult´aneamente las fuerzas f 1 y f 2 el m´ovil se ve sometido a una fuerza neta dada por la suma f 1 + f 2 , si estamos en el punto A y queremos ir al punto B tendremos que desplazarnos seg´ un el vector dado por la diferencia B − A.

1.1.1.

Definici´ on y propiedades

Los espacios vectoriales se definen siempre haciendo referencia a un cierto conjunto de escalares, es decir, de n´ umeros, que se emplean para construir combinaciones lineales de vectores. En general supondremos que sobre estos escalares se han definido las operaciones aritm´eticas habituales (suma, resta, multiplicaci´on y divisi´on), cuyas propiedades dotan al conjunto de escalares de una cierta estructura denominada cuerpo. Los dos casos de cuerpos de escalares m´as frecuentes son el de los n´ umeros reales R y el de los n´ umeros complejos C. En f´ısica es especialmente frecuente considerar espacios vectoriales definidos sobre el cuerpo de los n´ umeros reales, en este curso este ser´a el caso que consideraremos salvo que se diga lo contrario. De todas formas, a continuaci´on incluimos las

1.1. CONCEPTO DE ESPACIO VECTORIAL

3

B

f1

A A+B

f1 + f2 f2

Figura 1.1: Vectores en 2 dimensiones.

definiciones formales en el caso general abstracto de un cierto cuerpo K de escalares. Un espacio vectorial E, sobre el cuerpo de escalares K, se define como una estructura dada por un conjunto de elementos llamados vectores (x), sobre los que se han definido las operaciones de suma de vectores y producto por escalares: Suma de vectores: Para cualquier pareja de vectores x e y pertenecientes a vector z perteneciente a E dado por la suma x + y. ∀ x, y ∈ E,

∃! z = x + y ∈ E

E existe un u´nico (1.1)

La operaci´on suma de vectores cumple las siguientes propiedades: • Propiedad conmutativa

∀ x, y ∈ E,

x+y =y+x

(1.2)

• Propiedad asociativa ∀ x, y, z ∈ E,

(x + y) + z = x + (y + z)

(1.3)

• Elemento nulo: Existe un u ´nico vector nulo (0) en E tal que para cualquier x de E se cumple 0 + x = x ∃! 0 ∈ E / ∀ x ∈ E, 0 + x = x (1.4) • Elemento opuesto: Para cualquier x de suma con x es el elemento nulo ∀ x ∈ E,

E existe un u´nico vector −x de E tal que su

∃! − x ∈ E / x + (−x) = 0

(1.5)

Producto por escalares: Para cualquier vector x perteneciente a E y cualquier escalar λ perteneciente al cuerpo K existe un u ´nico vector perteneciente a E dado por el producto λx ∀ x ∈ E, ∀λ ∈ K,

∃! z = λx ∈ E

La operaci´on producto por escalares cumple las siguientes propiedades:

(1.6)

CAP´ITULO 1. ESPACIOS VECTORIALES

4 • Propiedad asociativa

∀ x ∈ E, ∀λ, µ ∈ K,

λ (µx) = (λµ) x

(1.7)

• Propiedad distributiva respecto de la suma de escalares ∀ x ∈ E, ∀λ, µ ∈ K,

(λ + µ) x = λx + µx

(1.8)

• Propiedad distributiva respecto de la suma de vectores ∀ x, y ∈ E, ∀λ ∈ K,

λ (x + y) = λx + λy

(1.9)

• Elemento neutro de los escalares: ∀ x ∈ E,

1x = x

(1.10)

∀ x ∈ E,

0x = 0

(1.11)

−1x = −x

(1.12)

• Elemento nulo de los escalares:

• Elemento opuesto de los escalares: ∀ x ∈ E,

Estas propiedades garantizan que la suma de vectores responde a la idea intuitiva de composici´on de movimientos, o de fuerzas, que a todos nos resulta familiar. Dec´ıamos al principio de este apartado que el objeto de los escalares era formar vectores de como combinaciones lineales de otros vectores del espacio. Las propiedades anteriores nos garantizan que si x e y son vectores de E (x, y ∈ E) y λ y µ son escalares de K (λ, µ ∈ K) entonces la combinaci´on lineal λx + µy es un vector de E. En el apartado siguiente emplearemos esta propiedad para definir el concepto de base del espacio vectorial.

1.1.2.

Bases y dimensi´ on

Un conjunto de n vectores {e1 , . . . , en } se dice linealmente independiente cuando es imposible encontrar n n´ umeros {λ1 , . . . , λn } no todos nulos, tales que λ1 e1 + λ2 e2 + · · · + λn en = 0

(1.13)

y en caso contrario se dice linealmente dependiente. Veamos el significado de esta definici´on. Por un lado es obvio que la Ec. (1.13) siempre tiene la soluci´on trivial λ1 = λ2 = · · · = λn = 0; por otra parte, si esta ecuaci´on tiene alguna otra soluci´on diferente de la trivial lo que sucede es que, en ese caso, podemos despejar uno de estos vectores como combinaci´on lineal de los restantes. Si la u ´nica soluci´on de Ec. (1.13) es la soluci´on trivial, entonces resulta imposible despejar ninguno de los vectores {e1 , . . . , en } como combinaci´on lineal de los restantes, esto es lo que significa que el conjunto {e1 , . . . , en } sea linealmente independiente. ⋆ ¿Cu´al es el n´ umero m´aximo de vectores linealmente independientes que podemos tomar en un espacio vectorial?

1.1. CONCEPTO DE ESPACIO VECTORIAL

5

El n´ umero m´aximo de vectores linealmente independientes que podemos tomar en un espacio vectorial se define como la dimensi´on del espacio vectorial. Vamos a intentar elaborar un razonamiento m´as o menos intuitivo para entender este concepto. Consideremos el caso de un conjunto formado por un u ´nico vector {e1 } (distinto de 0), es evidente que este conjunto siempre es linealmente independiente. La envolvente lineal del conjunto {e1 }, definida por los vectores x ∈ E dados por x = λ 1 e1

∀λ1 ∈ R

(1.14)

nos genera la recta que pasa por el origen 0 y que tiene direcci´on dada por e1 . Para cualquier vector x que pertenezca a esta recta el sistema {e1 , x} es linealmente dependiente, lo que implica que x es sencillamente proporcional a e1 . Supongamos ahora un vector e2 que no pertenezca a la envolvente lineal de e1 . En este caso el conjunto {e1 , e2 } es linealmente independiente, y la envolvente lineal de este conjunto, definida por los vectores x ∈ E dados por x = λ1 e1 + λ2 e2

∀λ1 , λ2 ∈ R

(1.15)

nos genera el plano que pasa por el origen y contiene a e1 y e2 . Para cualquier vector x contenido en este plano el conjunto {e1 , e2 , x} es linealmente dependiente, lo que indica que x puede escribirse como combinaci´on lineal de {e1 , e2 }. Si a˜ nadimos otro vector e3 que no pertenezca a este plano el conjunto resultante vuelve a ser linealmente independiente, y su envolvente lineal nos da el espacio tridimensional engendrado por los vectores {e1 , e2 , e3 }, de tal forma que cualquier vector de este espacio puede construirse como combinaci´on lineal de {e1 , e2 , e3 }. En principio podr´ıamos seguir a˜ nadiendo sucesivamente m´as vectores ei ∈ E linealmente independientes a todos los anteriores, pero si nuestro espacio vectorial E es de dimensi´on finita (n) llega un momento que la envolvente lineal del conjunto {e1 , . . . , en }, dada por x = λ1 e1 + λ2 e2 + · · · + λn en

∀λ1 , λ2 , . . . , λn ∈ R

(1.16)

coincide con todo el espacio vectorial E. En ese caso resulta imposible a˜ nadir ning´ un elemento en+1 ∈ E (distinto de 0) que sea linealmente independiente a todos los anteriores. En consecuencia, dado un espacio vectorial E de dimensi´on finita n se define como base de E a cualquier conjunto de n vectores linealmente independientes {e1 , . . . , en }, todos ellos pertenecientes a E y distintos de 0. La propiedad importante que define a una base es que para cualquier x ∈ E el conjunto {e1 , . . . , en , x} es linealmente dependiente, lo que implica que x puede expresarse como combinaci´on lineal de {e1 , . . . , en } ∀x ∈ E x = x1 e1 + x2 e2 + · · · + xn en

(1.17)

{ } y se definen los n´ umeros x1 , x2 , . . . , xn como las componentes (o coordenadas) del vector x respecto a la base {e1 , . . . , en }. Por otra parte, el cardinal del mayor conjunto de vectores linealmente independientes que podamos tomar en el espacio vectorial E se define como la dimensi´on del espacio vectorial. En la discusi´on anterior hemos asumido t´acitamente que el espacio vectorial E estaba definido sobre el cuerpo de los reales R, para simplificar la exposici´on. En un caso m´as general podemos repetir los mismos pasos haciendo que los n´ umeros λi tomen valores en el cuerpo K correspondiente, y el resultado final es totalmente an´alogo. En este curso s´olo estudiaremos espacios vectoriales de dimensi´on finita. En algunos casos consideraremos una dimensi´on finita arbitraria (n) y en otros nos centraremos en el caso especialmente

CAP´ITULO 1. ESPACIOS VECTORIALES

6

relevante del espacio tridimensional. De todas formas conviene recordar que tambi´en existen espacios vectoriales de dimensi´on infinita, de gran importancia en ciertas ´areas de las matem´aticas (p. ej. en an´alisis funcional) y tambi´en extremadamente relevantes en f´ısica, por sus aplicaciones en el estudio de ecuaciones diferenciales y en mec´anica cu´antica. Como ejemplo de espacio vectorial de dimensi´on infinita tenemos los espacios funcionales, es decir, espacios cuyos elementos son funciones. Por ejemplo, es muy f´acil ver que el conjunto de polinomios de una variable (x) p(x) = a0 + a1 x + a2 x2 + a3 x3 + · · · + an xn

(1.18)

cumple todas las propiedades necesarias para ser un espacio vectorial. Tambi´en es muy f´acil ver que las funciones xn y xm son linealmente independientes siempre que n ̸= m, esto parece indicar que podr´ıamos tomar como base espacio funcional al conjunto dado por las sucesivas potencias { de este } 2 3 n enteras de la variable x: 1, x, x , x , . . . , x , . . . . Pero en ese caso ¿cu´al es el valor m´aximo de n que debemos tomar para garantizar que cualquier polinomio de x est´a incluido en la envolvente lineal de la base? Claramente ning´ un valor finito de n es suficiente, por tanto la dimensi´on de este espacio vectorial es infinita. Los espacios funcionales tienen (normalmente) infinitas dimensiones, y esa circunstancia hace que en ellos aparezcan otros problemas que no aparecen en los de dimensi´on finita. Volviendo a los espacios de dimensi´on finita, una propiedad interesante de las envolventes lineales de los sucesivos conjuntos de vectores que hemos ido considerando ({e1 }, {e1 , e2 }, {e1 , e2 , e3 }, . . . , {e1 , . . . , en }), es que todas estas envolventes lineales son, a su vez, espacios vectoriales, que adem´as est´an contenidos en el espacio vectorial E y por tanto se denominan subespacios vectoriales. La demostraci´on de que la envolvente lineal de cualquier conjunto de vectores es un espacio vectorial se deja para los ejercicios. Otra propiedad importante cuya demostraci´on se deja para los ejercicios, es que la descomposici´on de cualquier vector x como combinaci´on lineal de la base (Ec. (1.17)) es u ´nica. Por u ´ltimo, dada cualquier base {e1 , . . . , en } del espacio E, se dice que E se descompone en suma directa (⊕) de los subespacios vectoriales engendrados por cada uno de los ei (con i = 1, . . . , n)

E=

n ⊕

envolvente lineal de ei

(1.19)

i=1

donde la suma directa de dos subespacios vectoriales independientes E1 y E2 (es decir, cuya intersecci´on se reduzca al elemento nulo 0), se define sencillamente como el conjunto de vectores que pueden definirse como combinaci´on lineal de vectores de E1 y E2 . En general, dado un espacio vectorial con n dimensiones, se llama base can´ onica a la formada por los vectores e1 = {1, 0, 0, . . . , 0}

(1.20)

e2 = {0, 1, 0, . . . , 0}

(1.21)

... ... ... ... ... ...

(1.22)

en = {0, 0, 0, . . . , 1}

(1.23)

Esta ser´a la base que emplearemos constantemente. Uno de los temas centrales del estudio de tensores es c´omo cambian las componentes de diversos objetos definidos en un espacio vectorial (vectores, aplicaciones lineales, tensor m´etrico, etc.) al realizar un cambio de base en el espacio, es decir, al pasar de la base can´onica a otra base distinta.

´ 1.2. METRICA

1.2.

7

M´ etrica

1.2.1.

Espacios vectoriales normados

El siguiente ingrediente que necesitamos para dotar al espacio vectorial E de significado geom´etrico es definir una operaci´on distancia d(·, ·). Para ello basta con disponer de una funci´on, llamada norma ∥ · ∥, que nos permita medir la “longitud” de cada vector x de E. Una vez definida esta funci´on, la distancia entre cualquier par de vectores x, y ∈ E (que denotaremos por d(x, y)) puede definirse, p. ej., como la norma del vector diferencia ∀x, y ∈ E,

d(x, y) ≡ ∥y − x∥

(1.24)

Para que la funci´on distancia se corresponda con lo que intuitivamente se entiende por distancia esta funci´on debe cumplir ciertas propiedades, como por ejemplo que la distancia de x a y debe ser igual a la de y a x, que debe ser siempre mayor o igual que cero, que debe cumplir la propiedad triangular y que la distancia de λx a 0 debe ser |λ| veces la distancia de x a 0 (para cualquier vector x ∈ E y cualquier escalar λ ∈ K, siendo |λ| el valor absoluto de λ). Como consecuencia se define la operaci´on norma ∥ · ∥ como cualquier funci´on definida sobre el espacio vectorial E que cumpla las siguientes propiedades La operaci´on norma es definida positiva ∀x ∈ E, El u ´nico elemento de

∥x∥ ≥ 0

(1.25)

E con “longitud” cero es el elemento nulo de E ∥x∥ = 0 si y s´olo si x = 0

(1.26)

Comportamiento respecto al producto por escalares ∀x ∈ E, ∀λ ∈ K, Desigualdad triangular

∀x, y ∈ E,

∥λx∥ = |λ| ∥x∥

(1.27)

∥x + y∥ ≤ ∥x∥ + ∥y∥

(1.28)

Una vez definida una operaci´on norma, la distancia entre dos vectores cualesquiera del espacio puede definirse de manera natural como se ha dicho anteriormente (Ec. (1.24)), aunque esta no es la u ´nica posibilidad. En general puede tomarse como operaci´on distancia a cualquier funci´on que cumpla las siguientes propiedades La operaci´on distancia es definida positiva ∀x, y ∈ E,

d(x, y) ≥ 0

(1.29)

Dos vectores separados por una distancia nula son el mismo vector

Simetr´ıa

d(x, y) = 0 si y s´olo si x = y

(1.30)

∀x, y ∈ E,

(1.31)

d(x, y) = d(y, x)

CAP´ITULO 1. ESPACIOS VECTORIALES

8 Desigualdad triangular ∀x, y, z ∈ E,

d(x, z) ≤ d(x, y) + d(y, z)

(1.32)

En el caso particular de definir la distancia como la norma del vector diferencia (Ec. (1.24)), que es la opci´on m´as habitual, las propiedades que cumple la operaci´on norma garantizan que la operaci´on distancia d(·, ·) cumple las propiedades anteriores. Un espacio vectorial sobre el que se ha definido una operaci´on norma se denomina espacio normado, los espacios vectoriales sobre los que se ha definido una operaci´on distancia se denominan espacios m´etricos.

1.2.2.

Producto escalar

Una vez definida la operaci´on distancia, el u ´ltimo ingrediente que necesitamos para dotar a los elementos de E de una estructura geom´etrica es definir una operaci´on que nos permita medir ´angulos, lo cual nos permitir´a definir el concepto de ortogonalidad. Para ello se introduce la funci´on producto escalar (o producto interior), que denotaremos indistintamente por producto escalar de x por y ≡ (x, y) ≡ x · y

(1.33)

Dado el espacio vectorial E sobre el cuerpo K, se define la operaci´on producto escalar (· , ·) como una funci´on definida sobre E ⊗ E con imagen en K ∀x1 , x2 ∈ E,

(x1 , x2 ) ∈ K

(1.34)

(x1 , x2 ) = (x2 , x1 )

(1.35)

que cumpla las siguientes propiedades Propiedad herm´ıtica

∀x1 , x2 ∈ E,

donde z es el complejo conjugado del n´ umero complejo z. Si el cuerpo

K es el de los n´umeros reales esta propiedad se reduce a la relaci´on de simetr´ıa ∀x1 , x2 ∈ E,

(x1 , x2 ) = (x2 , x1 )

(1.36)

Propiedad distributiva respecto a la suma de vectores en el segundo argumento ∀x1 , x2 , x3 ∈ E,

(x1 , x2 + x3 ) = (x1 , x2 ) + (x1 , x3 )

(1.37)

∀x1 , x2 , x3 ∈ E,

(x1 + x2 , x3 ) = (x1 , x3 ) + (x2 , x3 )

(1.38)

de donde se deduce

Linealidad respecto al producto por escalares en el primer argumento ∀x1 , x2 ∈ E, ∀λ ∈ K,

(λx1 , x2 ) = λ (x1 , x2 )

(1.39)

∀x1 , x2 ∈ E, ∀λ ∈ K,

(x1 , λx2 ) = λ (x1 , x2 )

(1.40)

de donde se deduce

En el caso en que

K = R esta propiedad se reduce a

∀x1 , x2 ∈ E, ∀λ ∈ R,

(λx1 , x2 ) = (x1 , λx2 ) = λ (x1 , x2 )

(1.41)

´ 1.2. METRICA

9

El producto escalar de un vector por s´ı mismo es definido positivo ∀x ∈ E,

(x, x) ≥ 0

(1.42)

El u ´nico vector con producto escalar por s´ı mismo nulo es el vector nulo (x, x) = 0 si y s´olo si x = 0

(1.43)

Un espacio vectorial en el que se ha definido un producto escalar se denomina espacio dotado de producto interno. Una vez definido el producto escalar podemos definir el ´angulo (α) formado por dos vectores x e y a partir de la relaci´on x · y ≡ ∥x∥∥y∥ cos α

(1.44)

de tal forma que en el caso de un espacio vectorial definido sobre el cuerpo de los reales el producto escalar x · ei (con ∥ei ∥ = 1) corresponde a la proyecci´on ortogonal de x sobre la direcci´on definida por el vector unitario ei . Si K = R y la m´etrica de E es eucl´ıdea esta definici´on de x · y se corresponde con la definici´on cl´asica del ´angulo formado por estos dos vectores. Definimos tambi´en que dos vectores son ortogonales si y s´olo si su producto escalar es nulo x ⊥ y si y s´olo si x · y = 0

(1.45)

Las propiedades que cumple la operaci´on producto escalar permiten definir una operaci´on norma de manera natural por medio de ∥x∥ ≡ (x, x)1/2 (1.46) A partir de las propiedades que cumple la operaci´on producto escalar es muy f´acil comprobar que la anterior relaci´on define una norma. La existencia de una funci´on producto escalar implica que podemos definir una funci´on norma por medio de Ec. (1.46), sin embargo el rec´ıproco no es cierto. Es decir, dada una funci´on norma no est´a garantizado que sea posible definir una operaci´on producto escalar compatible con esta norma. Existen funciones norma que no provienen de (o que no son compatibles con) ning´ un producto escalar. No obstante los espacios vectoriales que suelen emplearse en f´ısica se caracterizan precisamente por tener funciones norma definidas a partir de un producto escalar. Este tipo de espacios vectoriales se denominan en general espacios pre-Hilbert, y se reserva la denominaci´on espacios de Hilbert para aqu´ellos espacios que, adem´as de tener una norma inducida por el producto escalar, son completos (o de Banach). Donde se entiende por espacio de Banach (o completo) aquel en el que para toda sucesi´on convergente de vectores enteramente contenida en el espacio (es decir, para toda sucesi´on de Cauchy), el l´ımite al que tiende la sucesi´on tambi´en est´a contenido en el espacio. Para darse cuenta del significado de esta propiedad es interesante considerar el ejemplo del espacio funcional dado por los polinomios de una variable a los que hac´ıamos referencia antes. Para ver que este espacio no es completo podemos considerar, p. ej., el desarrollo en serie de Taylor de la funci´on sen x, hasta orden N y centrado en el punto x = 0, que definimos como sN (x). Aplicando la definici´on de desarrollo en serie de Taylor se encuentra que dicho desarrollo est´a dado por: sN (x) =

N ∑ (−1)n 2n+1 x (2n + 1)!

n=0

Como es bien sabido, en el l´ımite N → ∞ este desarrollo converge uniformamente a sen x (∀x ∈ R). Para cualquier N finito este desarrollo es un polinomio, por tanto la sucesi´on {si (x)}N i=1 (N =

CAP´ITULO 1. ESPACIOS VECTORIALES

10

Espacios Lineales Normados Espacios de Banach (completos)

Norma inducida por el Producto Escalar Pre−Hilbert Hilbert

Figura 1.2: Esquema de inclusiones para espacios vectoriales normados.

1, 2, 3, . . . ) es convergente y est´a enteramente contenida en el espacio de los polinomios, pero el l´ımite al que tiende esta sucesi´on al hacer N → ∞ no pertenece al espacio, ya que la funci´on sen x no es un polinomio. Como consecuencia deducimos que el espacio vectorial definido por los polinomios de una variable no es un espacio completo (o lo que es lo mismo, no es un espacio de Banach). Los espacios de Hilbert son los espacios con un significado geom´etrico m´as intuitivo y sencillo, y son los m´as empleados en f´ısica. Como ejemplos t´ıpicos de espacios de Hilbert con dimensi´on finita tenemos Rn y Cn (ambos con dimensi´on n), el caso de los espacios R, R2 y R3 (con dimensi´on 1, 2 y 3 respectivamente) es especialmente habitual. Como ejemplo de espacio de Hilbert con dimensi´on infinita tenemos el espacio de Lebesgue L2 , formado por las funciones de cuadrado integrable.

1.2.3.

Tensor m´ etrico

⋆ A partir de este momento consideramos s´ olamente el caso de un espacio vectorial de dimensi´ on finita (n) definido sobre el cuerpo de los n´ umeros reales R. Consideremos el producto escalar de dos vectores cualesquiera x e y. Dada una base cualquiera del espacio vectorial los vectores x e y est´an dados por sus correspondientes desarrollos en componentes x = x1 e1 + x2 e2 + · · · + xn en ,

y = y 1 e1 + y 2 e2 + · · · + y n en

(1.47)

Aplicando las propiedades de linealidad del producto escalar, x · y puede ponerse como x·y =

n ∑ n ∑

gij xi y j

(1.48)

i=1 j=1

donde hemos definido el tensor m´etrico gij como la tabla de todos los productos escalares de los vectores de la base gij ≡ ei · ej , i, j, = 1, . . . , n (1.49)

´ 1.2. METRICA

11

M´as adelante veremos por qu´e denominamos tensor a la lista de productos escalares que hemos definido como gij , lo que debe quedar claro de momento es que gij contiene toda la informaci´on necesaria para calcular el producto escalar de cualquier par de vectores del espacio en consideraci´on. Por otra parte, en el caso de un espacio vectorial sobre los reales es evidente que el tensor m´etrico debe ser sim´etrico gij = gji (1.50) ya que en ese caso se cumple ei · ej = ej · ei (∀i, j, ver Ec. (1.36)). Convenio de Suma de Einstein Al manejar tensores aparecen con mucha frecuencia expresiones como Ec. (1.48), donde se realiza la suma de una expresi´on dependiente de uno o m´as ´ındices (aqu´ı i y j) para todos los valores posibles de los mismos (es decir, desde 1 hasta la dimensi´on del espacio n). El convenio de suma de Einstein es un m´etodo muy extendido para simplificar la escritura de este tipo de f´ormulas, consiste en asumir que: ⋆ cualquier monomio donde aparezca un ´ındice repetido representa la suma del monomio respecto al ´ındice repetido, para todos los valores posibles del ´ındice. Aplicando el convenio de suma de Einstein el desarrollo de un vector en componentes (Ec. (1.17)) se escribe como x = x i ei (1.51) y el producto escalar x · y (Ec. (1.48)) puede escribirse sencillamente como x · y = gij xi y j

(1.52)

donde los sumatorios respecto de i y j se sobreentienden. En la anterior expresi´on los ´ındices i y j se denominan ´ındices mudos ya que el resultado no depende de los s´ımbolos empleados para denominar estos ´ındices gij xi y j = gpq xp y q = gαβ xα y β = g11 x1 y 1 + g12 x1 y 2 + · · · + g21 x2 y 1 + · · · + gnn xn y n

(1.53)

(siendo n la dimensi´on del espacio vectorial). Por el contrario, se denominan ´ındices libres a aquellos respecto de los que no se realiza la suma. En los dos ejemplos anteriores todos los ´ındices eran mudos, sin embargo en la expresi´on Aij xj = y i

(1.54)

el ´ındice j es mudo pero el ´ındice i es libre. La expresi´on anterior representa la componente i del vector y, resultante de aplicar la aplicaci´on lineal A (con matriz asociada Aij ) sobre el vector x (con componentes xj ), es decir, la expresi´on anterior es el desarrollo en componentes de A(x) = y. En dicha expresi´on no hay ning´ un monomio en el que el ´ındice i est´e repetido, esto nos indica que no se realiza la suma respecto del ´ındice i, y por tanto el resultado de esta operaci´on depende del valor que asignemos a este ´ındice (para i = 1 obtenemos la componente y 1 , para i = 2 la componente y 2 , etc.). En las expresiones anteriores algunos ´ındices son sub-´ındices y otros super-´ındices, y puede apreciarse que siempre que aparece un ´ındice repetido ´este aparece 1 vez como sub-´ındice y 1 vez como super-´ındice. Como veremos a continuaci´on esto no es fruto de la casualidad, sino que

CAP´ITULO 1. ESPACIOS VECTORIALES

12

responde a un formalismo que emplearemos extensivamente a lo largo del curso. El uso de sub´ındices y super´ındices no es arbitrario, responde a los dos tipos de comportamiento tensorial frente a cambios de base que existen (covariante y contravariante), tal y como veremos al final de este cap´ıtulo. A partir de este momento supondremos que se aplica el convenio de suma de Einstein para cualquier expresi´on en la que aparezca un monomio con ´ındices repetidos, a menos que se diga expl´ıcitamente lo contrario.

1.2.4.

Topologa m´ etrica

La operaci´on distancia induce en el espacio vectorial una topolog´ıa, dada por la topolog´ıa m´etrica. Es decir, una vez definida la operaci´on distancia d(·, ·) sobre el espacio vectorial, podemos definir el conjunto de bolas abiertas (con radio r) en torno a cualquier punto x de E, como el conjunto de puntos y ∈ E tales que d(x, y) < r. Existen muchos ejemplos de normas y de distancias diferentes, cada uno de estos ejemplos genera una topolog´ıa diferente en el espacio. El ejemplo m´as habitual es el de la m´etrica eucl´ıdea, en el que definimos como distancia entre x e y a la longitud de la l´ınea recta que une estos puntos.

1.3.

Espacios Eucl´ıdeos y de Riemann

En general se llama m´etrica Riemanniana a cualquier m´etrica definida a trav´es de la norma inducida por un producto escalar dado por un tensor m´etrico gij que cumpla las dos propiedades siguientes: simetr´ıa: gij = gji invertibilidad: det gij ̸= 0 Los espacios dotados de una m´etrica Riemanniana se llaman espacios de Riemann o Riemannianos. Un caso particular de estos espacios son los espacios Eucl´ıdeos, definidos por la m´etrica Eucl´ıdea habitual. En un espacio Eucl´ıdeo la distancia entre los puntos x e y est´a dada por la longitud de la l´ınea recta que une estos puntos, cuyo valor en un sistema de coordenadas cartesianas puede calcularse por medio del teorema de Pit´agoras, que para un espacio n-dimensional toma la forma √ d(x, y) = (y 1 − x1 )2 + (y 2 − x2 )2 + · · · + (y n − xn )2 (1.55) o lo que es lo mismo, el elemento diferencial de longitud (ds) est´a dado (en n dimensiones) por ( )2 ( )2 (ds)2 = dx1 + dx2 + · · · + (dxn )2

(1.56)

donde xi , y i son las proyecciones de x e y sobre n direcciones mutuamente perpendiculares. Tomando n = 3 recuperamos las expresiones familiares, correspondientes al espacio R3 habitual. El producto escalar que induce esta m´etrica es el producto escalar habitual, dado por x · y = x1 y 1 + x2 y 2 + · · · + xn y n

(1.57)

y corresponde al caso particular en el que el tensor m´etrico est´a dado por la matriz identidad gij = δij

i, j, = 1, . . . , n

(1.58)

1.3. ESPACIOS EUCL´IDEOS Y DE RIEMANN

13

donde se define la delta de Kronecker en su versi´on 2-covariante (δij ) como: { δij =

1 si i = j 0 si i ̸= j

(1.59)

An´alogamente se define la delta de Kronecker en sus versiones 2-contravariante (δ ij ) y 1-covariante 1-contravariante (δij ), respectivamente, como: { 1 δ = 0 { 1 δji = 0 ij

si i = j si i = ̸ j

(1.60)

si i = j si i = ̸ j

(1.61)

En general se define como espacio Eucl´ıdeo a cualquier espacio Riemanniano en el que existe al menos una base tal que el tensor m´etrico en esa base est´a dado por la delta de Kronecker. Los espacios Riemannianos en los que no existe ninguna base en la que gij sea la identidad se dicen no Eucl´ıdeos. En general, dependiendo de la base que tomemos el tensor m´etrico puede dejar de ser la identidad incluso si el espacio es Eucl´ıdeo (esto es lo que sucede si tomamos como base un conjunto de vectores que no sean mutuamente ortogonales).

1.3.1.

Bases ortonormales

En los espacios Eucl´ıdeos se definen las bases ortonormales como aquellas en las que el tensor m´etrico es la identidad. Como puede verse, la propiedad que caracteriza a las bases ortonormales es que todos los vectores de la base tienen longitud unidad (est´an normalizados) y son mutuamente perpendiculares ei · ej = δij ;

i, j = 1, . . . , n

(1.62)

Multiplicando escalarmente el desarrollo en componentes de un vector cualquiera (Ec. (1.17)) por ej y recordando las relaciones de ortogonalidad Ec. (1.62), encontramos que la componente xj del vector x respecto de una base ortonormal est´a dada por xj = (ej , x) ;

j = 1, . . . , n

(1.63)

por tanto xj = ∥x∥ cos α (siendo α el ´angulo formado por x y ej ), es decir, xj es la proyecci´ on ortogonal de x sobre la direcci´on definida por ej . En el caso de una base ortornormal las componentes de un vector est´an, por tanto, dadas por las correspondientes proyecciones ortogonales del vector sobre cada uno de los elementos de la base.

M´ etodo de ortonormalizaci´ on de Gram-Schmidt Dada una base cualquiera de un espacio Eucl´ıdeo, el m´etodo de ortonormalizaci´on de GramSchmidt es un procedimiento muy sencillo que permite construir una base ortonormal a partir de la base de partida. Supongamos que tenemos una base cualquiera dada por los vectores {t1 , t2 , . . . , tn },

CAP´ITULO 1. ESPACIOS VECTORIALES

14

siguiendo el m´etodo de ortonormalizaci´on de Gram-Schmidt definimos: t1 , ∥t1 ∥ t′ e2 = 2′ , ∥t2 ∥ t′ e3 = 3′ , ∥t3 ∥ e1 =

t′2 = t2 − (e1 , t2 ) e1 , t′3 = t3 − (e1 , t3 ) e1 − (e2 , t3 ) e2 , ...

... t′n = tn −

... n−1 ∑

(ei , tn ) ei ,

i=1

... en =

t′n ∥t′n ∥

(1.64)

De esta forma vamos construyendo una base ortonormal de forma sucesiva, restando a cada uno de los tj su proyecci´on sobre el subespacio generado por todos los ei anteriores (i = 1, . . . , j − 1) y posteriormente normalizando. Dejamos para los ejercicios la demostraci´on de que este procedimiento genera una base ortonormal. Dado que los ei generados por este mecanismo son ortonormales, tambi´en son linealmente independientes, y como son combinaci´on lineal de los ti de partida y el cardinal de la base es el mismo, deducimos que la envolvente lineal de los ei coincide con la de la base de partida.

1.3.2.

Espacios no Eucl´ıdeos: espacio dual y base dual

Seg´ un hemos visto previamente, siempre es posible escribir un vector como combinaci´on lineal de los vectores de una base cualquiera, independientemente de si el espacio es Eucl´ıdeo o no. Si el espacio es Eucl´ıdeo y se emplea una base ortonormal las componentes de un vector est´an dadas por las correspondientes proyecciones ortogonales del vector sobre cada uno de los elementos de la base. En el caso general de un espacio vectorial no necesariamente Eucl´ıdeo ¿c´omo se definen las componentes de un vector? Para responder esta pregunta es necesario introducir los conceptos de espacio dual y base dual. Dado el espacio vectorial E sobre el cuerpo de los reales, el conjunto de aplicaciones lineales ⋆ (a ) definidas sobre E con imagen en R a⋆ : x → a⋆ (x) ∈ R

(1.65)

tiene a su vez estructura de espacio vectorial y recibe el nombre de espacio dual E⋆ . En espacios de dimensi´on finita (y en general en espacios de Hilbert) el espacio dual es isomorfo al espacio vectorial de partida. En este caso se deduce el teorema de Riesz-Fr´echet, seg´ un el cual ⋆ dada la aplicaci´ on lineal a⋆ del espacio dual E⋆ (a⋆ ∈ E⋆ ), existe un u ´nico vector a del espacio E (a ∈ E) tal que el resultado de aplicar a⋆ sobre x (denotado por a⋆ (x)) coincide con el producto escalar a · x ∀a⋆ ∈ E⋆ , ∃!a ∈ E / a⋆ (x) = (a, x) = a · x

(1.66)

El teorema de Riesz-Fr´echet permite identificar, por medio de un isomorfismo, cada elemento de un espacio vectorial con un elemento del espacio dual, de la manera que acabamos de indicar (a⋆ (x) = (a, x)). Por su propia definici´on est´a claro que el isomorfismo que asocia la aplicaci´on

1.3. ESPACIOS EUCL´IDEOS Y DE RIEMANN

15

lineal a⋆ de E⋆ con el vector a de E (y viceversa) depende del producto escalar que estemos considerando en E, de modo que distintos productos escalares nos llevar´ıan a asociar elementos distintos. Una vez definido el espacio dual E⋆ podemos considerar el espacio de las aplicaciones lineales definidas sobre E⋆ , es decir, el dual del dual de E. En este caso se puede comprobar que el dual del dual E⋆⋆ es isomorfo al espacio de partida E, y que el isomorfismo que relaciona cada elemento de E⋆⋆ con uno de E es independiente de cu´al sea el producto escalar que estemos considerando en E, motivo por el cual este isomorfismo se denomina isomorfismo can´ onico. Como resultado tenemos que el espacio E⋆⋆ coincide con el espacio de partida E, independientemente del producto escalar considerado. Volvamos ahora a la cuesti´on del c´alculo de las componentes de vectores en bases no ortonormales. Dado un vector x de E y una base cualquiera {ei }ni=1 , la aplicaci´on que genera la componente xi de x respecto de esta base es una aplicaci´on lineal, que llamaremos ei , de forma que la componente xi de x est´ a dada por el resultado de aplicar ei sobre dicho vector ei (x) = xi

(1.67)

Como ei es una aplicaci´on lineal, ei pertenece al espacio dual

E⋆ .

⋆ ¿C´omo sabemos que la aplicaci´on que define cada componente i de un vector respecto a una base arbitraria es, necesariamente, una aplicaci´on lineal? A primera vista esta afirmaci´on podr´ıa parecer arbitraria, sin embargo es totalmente natural. La aplicaci´on que genera las componentes de un vector respecto de una base cualquiera debe ser una aplicaci´on continua y diferenciable. Esto es necesario si queremos que las componentes de cualquier vector var´ıen de forma continua y diferenciable al variar el vector de forma continua y diferenciable. Tambi´en parece l´ogico exigir que el vector nulo tenga todas sus componentes nulas, independientemente de la base considerada. Por otra parte, tambi´en exigimos que las operaciones de suma de vectores y multiplicaci´on por escalares puedan calcularse componente a componente en cualquier base. El resultado de estas condiciones es que la aplicaci´on que produce la componente del vector x respecto del elemento ei de cualquier base tiene que ser necesariamente una aplicaci´on lineal, que denotamos por ei . Aplicando ahora el teorema de Riesz-Fr´echet, para cada aplicaci´on lineal ei ∈ E⋆ existe un u ´nico vector ei ∈ E tal que xi = ei (x) est´a dado sencillamente por el i i producto escalar x = e · x. El conjunto de aplicaciones lineales que nos dan las componentes xi respecto de una base cualquiera {ei }ni=1 son linealmente independientes y forman, por tanto, una base del espacio dual, llamada base dual, dada por {ei }ni=1 . Claramente la base dual cumple ei (ej ) = (ei , ej ) = δji ,

i, j = 1, . . . , n

(1.68)

independientemente de si la m´etrica de este espacio es Eucl´ıdea o no, e independientemente de si la base {ei }ni=1 es ortogonal o no. Dado que el espacio dual es isomorfo al espacio de partida, la base {ei }ni=1 del espacio dual tambi´en es base del espacio de partida. ⋆ ¿Por qu´e cumple la base dual la relaci´on ei (ej ) = δji ? Seg´ un hemos visto, dada una base {ei }ni=1 cualquier vector del espacio puede expresarse como combinaci´on lineal de los elementos de la base. Los vectores de la base son vectores del espacio,

16

CAP´ITULO 1. ESPACIOS VECTORIALES

luego tambi´en pueden desarrollarse en t´erminos de la base. Consideremos el primero de los vectores de la base (e1 ). L´ogicamente, el desarrollo de este vector en t´erminos de la base de la que forma parte est´a dado por el mismo vector: e1 , de modo que su coordenada respecto a e1 es la unidad y sus coordenadas respecto a todos los vectores de la base restantes son nulas. Recordando que ei (ej ) representa la componente i del vector j de la base {ei }ni=1 y repitiendo el razonamiento anterior vemos que esta componente ser´a la unidad para i = j y nula ∀i ̸= j, de donde se deduce la importante relaci´on ei (ej ) = δji . Dicha expresi´on nos permitir´a en el futuro calcular la base dual a cualquier base dada, as´ı como el desarrollo en componentes de cualquier vector del espacio. Como consecuencia, en un espacio vectorial E (no necesariamente Eucl´ıdeo), dada una base cualquiera ({ei }ni=1 ) existe otra base, llamada base dual ({ei }ni=1 ), tal que ei · ej = δji . Proyectando entonces el desarrollo en componentes de x (Ec. (1.17)) sobre la direcci´on ej de la base dual y aplicando las relaciones Ec. (1.68), encontramos que la componente xi de x respecto de {ei }ni=1 est´a dada por la proyecci´on ortogonal de x sobre el vector ei de la base dual. En general la base dual de una base dada cualquiera ser´a otra base distinta. En el caso particular de un espacio vectorial Eucl´ıdeo, cuando se usa una base ortonormal se da la circunstancia excepcional de que la base dual coincide con la base de partida. Normalmente esto no se cumplir´a, en el caso general la base dual a una base dada ser´a diferente de la base dada. M´as adelante veremos c´omo calcular cada una de estas bases cuando se conoce la otra. Dejamos para los ejercicios la demostraci´on de las siguientes propiedades importantes: la base dual siempre existe y es u ´nica; si {ei }ni=1 es la base dual de {ei }ni=1 , entonces {ei }ni=1 es la base i n dual de {e }i=1 (es decir, el dual del dual nos devuelve a la base de partida). Normalmente emplearemos sub´ındices para numerar los vectores de la base de partida, y super´ındices para numerar los vectores de la base dual. Como ya se ha mencionado, el uso de suby super-´ındices no es arbitrario, sino que corresponde a los comportamientos co- y contra-variante de estos objetos al aplicar un cambio de base, tal y como veremos a continuaci´on. Tensor m´ etrico: relaci´ on entre una base y su dual Aplicando que el espacio dual es isomorfo al espacio de partida hemos identificado los vectores de la base dual con vectores del espacio de partida, en el sentido del teorema de Riesz-Fr´echet (Ec (1.66)). Dado que son vectores del mismo espacio, entonces podemos escribir los vectores de la base dual como combinaci´on lineal de los vectores de la base, escribimos esta combinaci´on lineal como ei = g ij ej

(1.69)

Nos queda por determinar cu´ales son las componentes de este objeto g ij . Para ello basta con sustituir en la propiedad que define a la base dual (Ec. (1.68)), de donde deducimos g ik gkj = δji

(1.70)

por tanto la matriz g ij es sencillamente la inversa del tensor m´etrico gij (recordar que en espacios Riemannianos el tensor m´etrico siempre es invertible det gij ̸= 0). Por tanto, la inversa del tensor m´etrico aplicada sobre la base de partida nos genera la base dual. Esta relaci´on nos indica de forma trivial que en el caso de un espacio Eucl´ıdeo, la base dual de una base ortonormal coincide con ella misma. Por otra parte, sustituyendo este desarrollo (Ec. (1.69)) en ei · ej es inmediato demostrar que ei · ej = g ij , i, j = 1, . . . , n (1.71)

1.4. CAMBIOS DE BASE

17

por tanto la inversa del tensor m´etrico nos proporciona la tabla de productos escalares de los vectores de la base dual. En otras palabras, el objeto g ij es el tensor m´etrico de la base dual, o tensor m´etrico dual. Por u ´ltimo, dado que son vectores del mismo espacio tambi´en podemos escribir los vectores de la base de partida como combinaci´on lineal de la base dual. En este sentido dejamos para los ejercicios demostrar que el tensor m´etrico aplicado sobre la base dual nos genera la base de partida ei = gij ej

(1.72)

Matriz correspondiente a una aplicaci´ on lineal Una vez hemos visto c´omo se calculan las componentes de un vector en el caso general (respecto de una base cualquiera en un espacio no necesariamente Eucl´ıdeo) ( ) x = ei , x ei = x i ei (1.73) veamos ahora c´omo se calculan las componentes de una aplicaci´on lineal A, que transforma vectores de E en vectores de E: A : x → A(x) = y ∈ E (1.74) Escribiendo los vectores x e y en componentes encontramos ) ( A x j ej = y k ek

(1.75)

multiplicando escalarmente por ei por la izquierda y recordando que la aplicaci´on A es lineal encontramos ( i ) e · A(ej ) xj = y i (1.76) donde identificamos ei · A(ej ) como la componente i del vector que resulta de aplicar A sobre ej . Si definimos esto como la componente Aij de la aplicaci´on A respecto de la base {ei }ni=1 , encontramos que la aplicaci´on de A sobre x puede ponerse en componentes como Aij xj = y i

(1.77)

es decir, como el producto de la matriz Aij por el vector columna xj . Por tanto, dada una aplicaci´on lineal A y una base cualquiera {ei }ni=1 (no necesariamente ortonormal), la matriz Aij correspondiente a esta aplicaci´on est´a dada por ( ) Aij ≡ ei , A(ej ) (1.78) donde el super-´ındice i recorre las filas y el sub-´ındice j las columnas de la matriz Aij . En el caso en que el espacio E sea Eucl´ıdeo y la base {ei }ni=1 sea ortonormal (y s´olo en ese caso) tendremos que ei = ei , en un caso general ei estar´a dado por el correspondiente vector de la base dual.

1.4.

Cambios de base

El m´etodo de ortonormalizaci´on de Gram-Schmidt nos proporciona el primer ejemplo de cambio de base. En general, cuando se aplica un cambio de base sobre un espacio vectorial est´a claro que los vectores y las aplicaciones lineales definidas sobre estos vectores no cambian, es decir, permanecen invariantes bajo el cambio de base. Por el contrario, las componentes de estos vectores y aplicaciones lineales respecto a una base concreta s´ı cambian al cambiar los vectores de la base. Precisamente, la

CAP´ITULO 1. ESPACIOS VECTORIALES

18

ley de transformaci´on que siguen las componentes de un vector se deduce al imponer que el vector es el mismo independientemente de cu´al sea la base a la que est´en referidas sus componentes ˜i x = xi ei = x ˜i e

1.4.1.

(1.79)

Definici´ on de cambio de base

Dado un espacio vectorial E y dos bases, la base “antigua” {e1 , . . . , en } y la base “nueva” ˜n }, se define como cambio de base a la aplicaci´on lineal e invertible C, tal que al aplicarla {˜ e1 , . . . , e sobre la base antigua genera la base nueva y viceversa. ˜i = C(ei ), e

ei = C −1 (˜ ei )

(1.80)

Para ver qu´e forma tiene la aplicaci´on de cambio de base C recordamos que los vectores de la base nueva pertenecen a E, por tanto pueden ponerse como combinaci´on lineal de los vectores de la base antigua ˜i = e˜ji ej e (1.81) donde se aplica el convenio de suma de Einstein para el ´ındice mudo j. En la anterior expresi´on ˜i de la base nueva, expresado hemos denominado e˜ji a la componente contravariante j del vector e en t´erminos de la base antigua. Seg´ un hemos visto en el apartado precedente, estas componentes ˜i por el correspondiente vector de la base dual antigua ej est´an dadas por el producto escalar de e ) ( ) ( ˜i = ej , C(ei ) = Cij (1.82) e˜ji = ej , e Sustituyendo en ec. (1.81), escribimos esta relaci´on en la forma siguiente ˜i = Cij ej , e

i = 1, . . . , n

(1.83)

Esto nos indica que la aplicaci´on cambio de base est´a descrita por una matriz con componentes Cij , dadas por la coordenada j del vector i de la base nueva referido a la base antigua. Si escribimos las componentes contravariantes como vectores columna, tal y como es habitual, entonces encontramos que la matriz del cambio de base est´a formada por las componentes de los vectores de la base nueva respecto a la base antigua, escritos como vectores columna ( ) ˜1 e ˜2 . . . e ˜n C= e (1.84) Cuando se hace un cambio de base, para que la base nueva sea una base v´alida es necesario que sus vectores sean linealmente independientes, lo cual queda garantizado si el determinante de la matriz del cambio de base es distinto de cero (en caso contrario el cambio de base no es v´alido). Suponiendo entonces que det C ̸= 0 tenemos que la matriz del cambio C es invertible. Para simplificar las expresiones definimos la matriz D como la inversa de C D ≡ C −1 ,

Dki Cjk = Cki Djk = δji

(1.85)

Aplicando el cambio inverso D sobre la relaci´on Ec. (1.83) encontramos directamente ˜j , ei = Dij e

i = 1, . . . , n

(1.86)

que nos proporciona la expresi´on de los vectores de la base antigua como combinaci´on lineal de la base nueva.

1.4. CAMBIOS DE BASE

19

Ley de transformaci´ on de la base dual Por medio del cambio de base C (Ec. 1.80) pasamos a la nueva base {˜ ei }ni=1 , cuya base dual cumple por definici´on ˜i · e ˜j = δji e (1.87)

{˜ ei }ni=1

de donde se deduce directamente que la base dual se transforma con la matriz inversa a la matriz del cambio de base ˜i = Dji ej e (1.88) ˜i como combinaci´on lineal de la base dual antigua, sustituir en Ec. Para verlo basta con escribir e (1.87) y aplicar la propiedades de linealidad del producto escalar (los detalles se dejan para los ejercicios). A partir de esta relaci´on (Ec. (1.88)) es trivial verificar ˜j ei = Cji e

(1.89)

que nos proporciona los vectores de la base dual antigua como combinaci´on lineal de los vectores de la base dual nueva. Comportamiento covariante y contravariante Seg´ un hemos visto, al aplicar un cambio de base los vectores de la base se transforman con la matriz del cambio de base (C) y los vectores de la base dual se transforman con la matriz inversa del cambio de base (D). Estos dos tipos de comportamiento se denominan respectivamente como covariante y contravariante vectores de la base

ei :

comportamiento covariante

˜i = Cij ej e

vectores de la base dual

ei :

comportamiento contravariante

˜i = Dji ej e

En general emplearemos super´ındices para denotar objetos con comportamiento contravariante y sub´ındices para los objetos con comportamiento covariante

1.4.2.

Cambios de base sobre vectores

Un vector cualquiera puede expresarse indistintamente en t´erminos de cualquier base (Ec. (1.79)) ¿Qu´e relaci´on existe entre las componentes de x en ambas bases? Sustituyendo la expresi´on de los vectores de la base antigua en t´erminos de la nueva (Ec. (1.86)) en Ec. (1.79), e identificando componente a componente, deducimos x ˜i = Dji xj (1.90) Por tanto, las componentes de un vector respecto de una base cualquiera tienen comportamiento contravariante. A partir de esta relaci´on es inmediato demostrar la relaci´on inversa xi = Cji x ˜j , lo cual se deja para los ejercicios. Por otra parte, dado que la base dual tambi´en es una base v´alida del espacio vectorial, podemos expresar cualquier vector del espacio por medio de sus componentes respecto a la base dual (antigua o nueva) ˜i x = x i ei = x ˜i e (1.91) Por medio de la ley de transformaci´on de los vectores de la base dual (Ecs. (1.88) y (1.89)) es muy f´acil comprobar que las componentes de x respecto a la base dual se transforman seg´ un x ˜i = Cij xj ,

xi = Dij x ˜j

(1.92)

CAP´ITULO 1. ESPACIOS VECTORIALES

20

Las componentes de un vector respecto de una base cualquiera tienen compontamiento contravariante y se denominan componentes contravariantes, mientras que las componentes respecto a la base dual de una base dada tienen comportamiento covariante, y se denominan componentes covariantes. En general las componentes co- y contra-variantes son distintas. En el caso particular de un espacio Eucl´ıdeo, cuando se emplea una base ortonormal las componentes co- y contra-variantes de cualquier vector coinciden, y en ese caso no es necesario establecer ninguna distinci´on entre ellas. En el contexto del c´alculo tensorial tendremos siempre en mente el caso general de un espacio vectorial no necesariamente Eucl´ıdeo, por tanto es fundamental no confundir las componentes de uno y otro tipo. La relaci´on existente entre los vectores de la base de partida y la base dual y viceversa (Ecs. (1.69) y (1.72)) nos permiten calcular las componentes co-variantes de un vector a partir de sus componentes contravariantes relativas a cualquier base (y viceversa). El resultado es xi = gij xj ,

xi = g ij xj

(1.93)

(dejamos la demostraci´on para los ejercicios) que ilustra la conocida propiedad de subida y bajada de ´ındices por medio del tensor m´etrico y su inversa, que emplearemos con mucha frecuencia a lo largo del curso. Una de las propiedades interesantes que tiene conocer ambos tipos de componentes es la siguiente: una vez conocemos las componentes co- y contra-variantes de dos vectores x e y, su producto escalar x · y puede calcularse indistintamente seg´ un cualquiera de las expresiones siguientes x · y = gij xi y j = g ij xi yj = xi yi = xi y i

(1.94)

Obs´ervese que las dos u ´ltimas expresiones son an´alogas a la que encontrar´ıamos al usar una base ortonormal en el caso de una espacio vectorial Eucl´ıdeo, sin embargo x · y = xi yi = xi y i es correcto independientemente de cu´al sea la base y de si el espacio es o no Eucl´ıdeo.

1.4.3.

Cambios de base sobre aplicaciones lineales

An´alogamente a como hemos hecho con el caso de los vectores, imponiendo que las aplicaciones lineales permanecen invariantes al aplicar un cambio de base podemos deducir c´omo se transforman las componentes de estas aplicaciones lineales respecto de una base cualquiera bajo un cambio de base. Si la imagen de un vector x al aplicar la aplicaci´on lineal A es Ax = y, la expresi´on en componentes de esta igualdad debe cumplirse independientemente de cu´al sea la base empleada Aij xj = y i ,

A˜ij x ˜j = y˜i

(1.95)

donde Aij , xj e y i son las componentes de A, x e y respecto a la base antigua ei y A˜ij , x ˜j e y˜i son las ˜i , definida por medio del cambio Ec. (1.83). Sustituyendo la componentes respecto a la base nueva e ley de transformaci´on de las componentes de un vector (Ec. (1.90)) es inmediato deducir la relaci´on que todos conocemos A˜ij = Dki Akl Cjl , Aij = Cki A˜kl Djl (1.96) Tambi´en podemos llegar al mismo resultado sustituyendo la ley de transformaci´on de los vectores de la base (de partida y dual) en la expresi´on an´aloga a Ec. (1.78) pero en t´erminos de la base nueva, es decir ( i ) ˜ , A(˜ A˜ij ≡ e ej ) (1.97) Por tanto, vemos que la matriz correspondiente a una aplicaci´on lineal es un objeto 1-covariante 1-contravariante, ya que tiene un ´ındice de cada tipo.

1.4. CAMBIOS DE BASE

1.4.4.

21

Ley de transformaci´ on del tensor m´ etrico

Dada una base cualquiera y su dual se define el tensor m´etrico gij y su inverso de acuerdo a las relaciones Ec. (1.49) y Ec. (1.71) respectivamente. Por tanto, en t´erminos de la base nueva y su dual tenemos las relaciones ˜i · e ˜j , ˜i · e ˜j g˜ij = e g˜ij = e (1.98) ˜i y e ˜i deducimos que el tensor m´etrico en t´erminos de Aplicando las leyes de transformaci´on de e la nueva base est´a dado por g˜ij = Cik Cjl gkl ,

gij = Dik Djl g˜kl

(1.99)

mientras que para el tensor m´etrico de la base dual encontramos g˜ij = Dki Dlj g kl ,

g ij = Cki Clj g˜kl

(1.100)

Este resultado indica que gij es un objeto 2-covariante, ya que se transforma aplicando 2 veces la matriz del cambio, y g ij 2-contravariante, ya que se transforma aplicando 2 veces la inversa de la matriz del cambio. Expresi´ on matricial de operaciones tensoriales Similarmente a como sucede para la ley de transformaci´on de vectores (p. ej., para las componentes contravariantes [˜ x] = [D][x]), la ley de transformaci´on que hemos encontrado para aplicaciones li˜ = [D][A][C]). neales (A˜ij = Dki Akl Cjl ) puede escribirse directamente como un producto matricial ([A] k l Sin embargo el producto Ci Cj gkl no coincide con el producto matricial [C][C][g], ni tampoco con [C][g][C]. Recordando que en Cik el ´ındice k recorre las filas e i las columnas, si asignamos el primer ´ındice de gkl a las filas y el segundo a las columnas vemos que la expresi´on matricial de g˜ij = Cik Cjl gkl estar´ıa dada por [˜ g ] = [C]T [g][C], donde [C]T es la traspuesta de la matriz [C]. Por tanto la ley de transformaci´on de gij es distinta de la ley de transformaci´on que cumplen las matrices, a pesar de que ambos son objetos tensoriales de orden 2. Como veremos en este curso, el ´algebra tensorial generaliza al ´algebra matricial, de forma que hay expresiones tensoriales cuya transcripci´on en t´erminos de matrices es dif´ıcil, o incluso imposible. Por este motivo, al trabajar con tensores lo normal es escribir todos los productos en componentes, y no se insiste en la transcripci´on en t´erminos de matrices de estos productos, ni siquiera en aquellos casos en los que la transcripci´on matricial es posible. Ley de transformaci´ on de productos escalares Por u ´ltimo, es muy f´acil comprobar que el producto escalar de dos vectores es, efectivamente, un escalar, es decir, un invariante bajo cambios de base. Independientemente de la base que estemos empleando el producto escalar x · y se define como gij xi y j . Sustituyendo la ley de transformaci´on de gij , xi e y j es muy f´acil comprobar que el comportamiento 2-covariante de gij cancela los comportamientos 1-contravariante de xi e y j , de forma que el resultado final es invariante bajo cambios de base, es decir, el producto escalar de dos vectores es un escalar. Tambi´en es un escalar la traza de las aplicaciones lineales, definida como la suma de los elementos de la diagonal, trA ≡ Aii , en cualquier base. Aplicando la ley de transformaci´on de las aplicaciones lineales (Ec. (1.96)) se comprueba que, al tomar la traza, el comportamiento contravariante del super´ındice se cancela con el comportamiento covariante del sub´ındice, de forma que el resultado final es el mismo independientemente de qu´e base estemos empleando.

CAP´ITULO 1. ESPACIOS VECTORIALES

22 Transformaciones ortogonales

A lo largo de este curso veremos con mucha frecuencia c´omo se comportan las componentes de diversos objetos al aplicar un cambio de base. Normalmente consideraremos cambios de base totalmente generales, descritos por la matriz del cambio C (Ec. (1.84)) y su correspondiente inversa D ≡ C −1 (Ec. (1.85)). En un cambio de base general la matriz inversa D no coincide con la traspuesta C −1 ̸= C T , la excepci´on a esta regla est´a dada por las conocidas transformaciones ortogonales en espacios Eucl´ıdeos. Para evitar confusiones en este sentido, vamos a ver a continuaci´ on qu´e tipo de transformaciones cumplen la relaci´on excepcional C −1 = C T . Se denomina transformaci´on unitaria (U ) a cualquier aplicaci´on que preserva los productos escalares para todo par de vectores x e y pertenecientes a un espacio vectorial E ∀ x, y ∈ E,

(U (x), U (y)) = (x, y)

(1.101)

Como caso particular de las anteriores, se denominan transformaciones ortogonales a las transformaciones unitarias definidas en un espacio vectorial sobre el cuerpo de los reales. Aplicando la relaci´on que define las transformaciones unitarias (Ec. (1.101)) puede demostrarse f´acilmente que en un espacio vectorial Eucl´ıdeo la matriz de una transformaci´on unitaria respecto de una base ortonormal es una matriz unitaria, es decir, una matriz que cumple: U −1 = U , T

en componentes

(

U −1

)i j

j

= Ui

(1.102)

T

donde U se denomina matriz adjunta de U y est´a dada por la traspuesta del complejo conjugado de U . Si el espacio E est´a definido sobre el cuerpo de los reales, entonces la anterior relaci´on se simplifica a ( −1 )i U −1 = U T , en componentes U = Uij (1.103) j Este es el u ´nico caso en que la inversa coincide con la traspuesta. Las matrices que verifican la relaci´on Ec. (1.103) se denominan matrices ortogonales. Por su propia definici´on, est´a claro que en un espacio vectorial Eucl´ıdeo las aplicaciones unitarias transforman bases ortonormales en bases ortonormales, lo que hace que este tipo particular de transformaciones sea especialmente importante. En un cambio de base la inversa de la matriz C coincide con C T s´olo si la base nueva es el resultado de aplicar una transformaci´on ortogonal sobre la base antigua. Como casos particulares de cambios de base ortogonales tenemos las siguientes operaciones: rotaciones (rotaci´on de los vectores de la base un cierto ´angulo respecto a un eje dado que pase por el origen), inversiones (reflexi´on de los vectores de la base seg´ un un determinado plano que pase por el origen), permutaciones (intercambio de dos vectores de la base antigua), cualquier combinaci´on de las anteriores. Si el cambio de base C es ortogonal entonces det(C) = ±1. Los cambios de base con det(C) = +1 corresponden a rotaciones, o a permutaciones con paridad positiva de los vectores de la base, mientras que los cambios con det(C) = −1 corresponden a inversiones o a permutaciones con paridad negativa.

1.5. PROBLEMAS

23

En la pr´actica los cambios de base ortogonales se emplean con much´ısima frecuencia, pero no son los u ´nicos posibles. Por ejemplo, el cambio de la base can´onica de R3 , {i, j, k}, a la base dada por {2i, 2j, 2k} (que sigue siendo una base ortogonal pero no ortonormal), no es un cambio de base ortogonal. En este curso veremos diversos cambios de base concretos tanto ortogonales como no ortogonales.

1.4.5.

Resumen

En este apartado hemos visto las leyes de transformaci´on de los 3 tipos de tensores m´as habituales: tensores de orden 0 (escalares), tensores de orden 1 (vectores) y tensores de orden 2 (aplicaciones lineales y tensor m´etrico); y los 2 tipos de comportamiento posibles bajo cambios de base: covariante y contravariante. Los resultados obtenidos son v´alidos para un espacio vectorial de dimensi´on finita arbitraria n, dotado de una m´etrica de Riemann no necesariamente Eucl´ıdea. La siguiente tabla (C. 1.1) resume los tipos de tensores que hemos visto hasta ahora y su comportamiento bajo cambios de base: Tensores de orden ≤ 2 orden

tipo

ley de transformaci´on

0

escalares

invariantes

vector contravariante

x ˜i = Dji xj

vector covariante

x ˜i = Cij xj

aplicaciones lineales

A˜ij = Dki Cjl Akl

tensor m´etrico

g˜ij = Cik Cjl gkl

tensor m´etrico dual

g˜ij = Dki Dlj g kl

1

2

Cuadro 1.1: Comportamiento de tensores de orden ≤ 2 bajo cambios de base (˜ ei = Cij ej , −1 D ≡ C ).

En los cap´ıtulos siguientes generalizaremos estos conceptos al caso general, de tensores de orden r + s (r-covariante s-contravariante), posteriormente describiremos campos tensoriales y operaciones de c´alculo (derivaci´on e integraci´on) con campos tensoriales de orden arbitrario. Por tanto es fundamental comprender bien todos los conceptos introducidos en este cap´ıtulo.

1.5.

Problemas

P.1.1. Demostrar que para cualquier pareja de vectores x, y ∈ E existe un u ´nico z ∈ E tal que x=y+z P.1.2. Dado un vector cualquiera x ∈ E, demostrar la relaci´on 0x = 0

CAP´ITULO 1. ESPACIOS VECTORIALES

24

P.1.3. Dado un vector cualquiera x ∈ E, demostrar la relaci´on (−1) x = (−x) P.1.4. Demostrar que la envolvente lineal de cualquier conjunto de vectores {e1 , . . . , ep } ∈ p ≤ n, siendo n la dimensi´on de E) es un espacio vectorial.

E (con

P.1.5. Demostrar que si e1 y e2 son linealmente independientes, entonces la intersecci´on de las envolventes lineales de estos vectores se reduce a 0. P.1.6. Dado un vector cualquiera x ∈ E y una base {e1 , . . . , en } de E, demostrar que la descompo´nica. sici´on de x como combinaci´on lineal de la base (Ec. (1.17)) es u P.1.7. Dados los subespacios vectoriales independientes E1 y E2 , demostrar que la descomposici´on de un vector x ∈ E1 ⊕ E2 como x = x1 + x2 , donde x1 ∈ E1 y x2 ∈ E2 , es u ´nica. P.1.8. Dados los subespacios vectoriales independientes E1 y E2 con dimensiones n1 y n2 , demostrar que la dimensi´on del espacio suma directa E1 ⊕ E2 es n1 + n2 . P.1.9. Demostrar que Eq. (1.37) implica que ∀x1 , x2 , x3 ∈ E,

(x1 + x2 , x3 ) = (x1 , x3 ) + (x2 , x3 )

P.1.10. Dado el espacio vectorial E definido sobre el cuerpo de los n´ umeros complejos C, demostrar que ∀x ∈ E el producto escalar x · x es real (para cualquier producto escalar). P.1.11. Demostrar que si en un espacio vectorial dotado de producto escalar tenemos que x · y = 0 ∀y ̸= 0, entonces x = 0. P.1.12. Demostrar que dos vectores no nulos que sean ortogonales son, necesariamente, linealmente independientes. P.1.13. Demostrar que dos vectores no nulos que sean linealmente independientes pueden no ser ortogonales. P.1.14. Demostrar que el m´etodo de ortonormalizaci´on de Gram-Schmidt genera una base ortonormal. P.1.15. Demostrar que la base dual siempre existe y es u ´nica. P.1.16. Demostrar que la base dual del dual de una base cualquiera est´a dado por la base de partida. P.1.17. Demostrar las ecuaciones Ecs. (1.69, 1.70 y 1.72) que relacionan la base dual con la base de partida. P.1.18. Demostrar que la inversa del tensor m´etrico est´a dada por Ec. (1.71). P.1.19. Demostrar que la base dual se transforma con la matriz inversa del cambio de base (Ec. (1.88)). P.1.20. Deducir la ley de transformaci´on que cumplen las componentes de un vector bajo el cambio de base C: x ˜i = Dji xj , xi = Cji x ˜j donde D ≡ C −1 .

1.5. PROBLEMAS

25

P.1.21. Deducir la ley de transformaci´on que cumplen las componentes de un vector respecto a la base dual bajo el cambio de base C, dada por Ec. (1.92). P.1.22. Deducir la relaci´on entre las componentes co- y contra-variantes de un vector, dada por Ec. (1.93). P.1.23. Demostrar la relaci´on Ec. (1.94). P.1.24. Demostrar la relaci´on Ec. (1.96). P.1.25. Demostrar las relaciones Ec. (1.99) y Ec. (1.100). P.1.26. Demostrar que el producto escalar de 2 vectores define un escalar (es decir, un objeto invariante bajo cambios de base). P.1.27. Demostrar que la traza de cualquier aplicaci´on lineal es un escalar. P.1.28. Demostrar que la matriz correspondiente a una transformaci´on unitaria, respecto de una base T ortonormal, cumple U −1 = U . P.1.29. Demostrar que la matriz correspondiente a una transformaci´on ortogonal, respecto de una base ortonormal, cumple U −1 = U T . P.1.30. Dado el cambio de base no ortogonal (pero extremadamente sencillo) que pasa de la base {i, j, k} de R3 (con m´etrica Eucl´ıdea) a {2i, 2j, 2k}, calcule la matriz del cambio de base y su inversa, calcule c´omo cambia la base dual y c´omo cambian las componentes de un vector contravariante y uno covariante. P.1.31. Repita el ejercicio anterior considerando un tensor m´etrico arbitrario. Calcule tambi´en c´omo cambian las componentes del tensor m´etrico y del tensor m´etrico dual.

1.5.1.

Soluciones a problemas seleccionados (Tema 1)

˜i · e ˜j = δji . IntroduP.1.19. Partimos de la relaci´on que define la base dual, aplicada a la base nueva e ˜i = Cij ej , y una transformaci´on lineal cimos ahora la relaci´on entre la base nueva y la vieja e ˜i = Tji ej : a determinar (T ) para la relaci´on entre la base dual nueva y la antigua e (

Tpi ep , Cjq eq

)

= δji

Aplicando que el producto escalar es herm´ıtico y lineal en el segundo argumento deducimos Tpi Cjq (ep , eq ) = δji es decir Tki Cjk = δji Por tanto la matriz Tji es la compleja conjugada de la inversa de [C]: Tji = Dji . La ecuaci´on (1.88) es v´alida para el caso de un espacio vectorial definido sobre el cuerpo de los n´ umeros reales, que es el caso considerado en este curso (salvo que se diga lo contrario). En este curso hemos tomado como hip´otesis que se trabaja con un campo vectorial definido sobre el cuerpo de los n´ umeros reales, tal y como se afirma en la secci´on 1.2.3, inmediatamente

26

CAP´ITULO 1. ESPACIOS VECTORIALES antes de definir el tensor m´etrico gij = ei ·ej . Esto es muy importante dado que en los apuntes se emplea constantemente la relaci´on de simetr´ıa gij = gji , que s´olo es v´alida para espacios vectoriales reales. En el caso de un espacio vectorial complejo la relaci´on anterior se re-escribe como gij = gji , y en consecuencia muchas de las relaciones mostradas en los apuntes cambian. Por ejemplo, en el caso de un espacio vectorial complejo las componentes contravariantes de un vector cambian de acuerdo a v˜i = Dji v j (igual que en el caso real), pero las componentes co-variantes cambian con la compleja conjugada de la matriz del cambio: v˜i = Cij vj .

P.1.30. La base de partida en este caso es la base can´onica de R3 :       1 0 0             i = 0 ; j = 1 ; k = 0       0 0 1 La base nueva es sencillamente 2i, 2j, 2k. Vamos a considerar un caso ligeramente m´as general, de modo que en lugar de los factores ‘2’, vamos a suponer un cambio de base en el que cada vector de la base de partida se multiplica por un factor cualquiera (a, b y c respectivamente), de modo que la base nueva es:       a 0 0             ai = 0 ; bj =  b  ; ck = 0       0 0 c Por supuesto suponemos que ninguno de estos factores puede ser nulo (¿por qu´e es necesario imponer esto?), y para recuperar el problema propuesto basta con hacer a = b = c = 2. La matriz del cambio de base (C) est´a dada por los vectores de la base nueva puestos como “vectores columna”, por tanto   a 0 0     C =  0 b 0   0 0 c Como la matriz del cambio es diagonal, es trivial calcular la inversa (D ≡ C −1 )   a−1 0 0     D =  0 b−1 0    0 0 c−1 El problema pide calcular c´omo cambian la base de partida y su dual bajo este cambio de base. En primer lugar, la base de partida {i, j, k} se convierte al aplicar el cambio en {ai, bj, ck}. El dual de la base de partida es ella misma (ya que se trata de una base ortonormal { −1 } en un −1 −1 espacio Eucl´ıdeo), y al aplicar el cambio de base se transforma en a i, b j, c k . Por otra parte nos piden calcular c´omo cambian las componentes de los vectores. Las componentes co- y contra-variantes de cualquier vector en la base de partida coinciden (ya que

1.6. BIBLIOGRAF´IA

27

la base de partida coincide con su dual), pero esto ya no va a suceder en la base nueva. Dado el vector r = xi + yj + zk en la base de partida, las componentes contravariantes de este vector (inicialmente x, y, z) pasan a ser en la nueva base a−1 x, b−1 y, c−1 z, L´ogicamente, si multiplicamos por un factor a la longitud del vector base en la direcci´on del eje X, las coordenadas respecto de este vector se multiplican por a−1 , y an´alogamente con las otras coordenadas. Este ejemplo es especialmente simple, ya que al ser el cambio diagonal, no se mezclan unas coordenadas con otras. En cuanto a las componentes co-variantes, inicialmente tambi´en x, y, z, al realizar el cambio estas componentes pasan a ser ax, by, cz. Aunque el enunciado no lo pide, podemos calcular tambi´en c´omo cambia el tensor m´etrico y el tensor m´etrico dual. El tensor m´etrico de partida es la identidad en 3 dimensiones, y coincide con su dual. En la nueva base el tensor m´etrico sigue siendo diagonal, pero los coeficientes de la diagonal principal ya no son 1, sino que est´an dados por g˜11 = a2 ;

g˜22 = b2 ;

g˜33 = c2

En cuanto al tensor m´etrico dual, en la nueva base sigue siendo diagonal, y los elementos de la diagonal principal pasan a estar dados por: g˜11 = a−2 ;

g˜22 = b−2 ;

g˜33 = c−2

P.1.31. Consideramos el mismo cambio que en el ejercicio anterior, pero ahora con una m´etrica arbitraria. Las matrices C y D son las calculadas en el ejercicio anterior. La base de partida es {e1 , e2 , e3 } y al aplicar el cambio se convierte en {ae1 , be2 , ce3 } (vamos a reservar los tradicionales i, j y k para el caso Eucl´ıdeo). El problema pide considerar una m´etrica arbitraria, de modo que suponemos conocido el tensor m´etrico de partida gij y tambi´en su inverso g ij . Con esto sabemos que la base dual a la base de partida est´a dada por ˜i = g ij ej e pero mientras no se especifique una m´etrica concreta no se puede dar m´as detalle sobre los ˜i . e El tensor m´etrico en la nueva base queda dado por g˜ij = λi λj gij (sin suma ni en i ni en j), donde hemos definido λ1 = a, λ2 = b, λ3 = c. En cuanto al inverso del tensor m´etrico en la −1 ij nueva base, encontramos g˜ij = λ−1 i λj g (sin suma ni en i ni en j).

1.6.

Bibliograf´ıa

Para los apuntes de este cap´ıtulo se ha consultado el texto de Burgos [3], junto con [8] y los textos cl´asicos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2]. Cualquiera de ellos es muy recomendable para profundizar en este tema. Especialmente el libro de Lichnerowicz [10] (lamentablemente descatalogado) y el de Burgos [3].

28

CAP´ITULO 1. ESPACIOS VECTORIALES

Cap´ıtulo 2

Tensores En el apartado anterior hemos visto los tres tipos b´asicos de tensores: escalares, vectores y aplicaciones lineales, y sus correspondientes reglas de transformaci´on bajo cambios de base. En este apartado estudiaremos el concepto de tensor general de rango arbitrario y veremos algunos ejemplos concretos de tensores empleados en f´ısica. Por u ´ltimo veremos una introducci´on al ´algebra tensorial, incluyendo productos tensoriales y productos de contracci´on, algunos criterios pr´acticos de tensorialidad y ciertos tipos especiales de tensores.

2.1.

Concepto de tensor

El estudio de los tensores aparece de manera natural al aplicar cambios de base en espacios vectoriales. De todos los objetos matem´aticos que pueden definirse sobre un espacio vectorial se denominan tensores a aquellos que son invariantes bajo cambios de base. Normalmente describimos los objetos tensoriales mediante sus coordenadas (o componentes) respecto de una determinada base, e imponiendo la condici´on de invariancia del tensor frente a cambios de base deducimos la ley de transformaci´on que cumplen las componentes del tensor cuando se realiza un cambio de base en el espacio. Esta es la regla que hemos aplicado en el cap´ıtulo anterior para deducir las leyes de transformaci´on de las componentes de tensores de orden bajo, y su generalizaci´on a tensores de orden arbitrario es inmediata. Dado que la elecci´on de una base en particular es totalmente arbitraria, desde el punto de vista tensorial s´olo est´an bien definidos aquellos objetos que son invariantes bajo cambios de base. No obstante, en el cap´ıtulo pr´oximo generalizaremos ligeramente este concepto al estudiar las densidades tensoriales. Los tensores son, por tanto, objetos geom´etricos definidos en un espacio vectorial, de tal forma que su definici´on y propiedades no dependen de la base empleada, aunque s´ı los valores de sus componentes, que pueden interpretarse como el “aspecto” del tensor desde el sistema de referencia definido por la base que estemos empleando. Aclaraci´ on Cuando uno habla de vectores es frecuente denominar “vector” tanto al propio vector (p. ej. v = v 1 i + v 2 j + v 3 k {∈ R3 ) como } al conjunto de coordenadas que{lo1 describen } respecto a una 1 2 3 2 3 base concreta (p. ej. v , v , v ). Por tanto, es normal referirse a v , v , v como un “vector contravariante” o simplemente un “vector”. La diferencia entre el (verdadero) vector v y el conjunto de componentes que lo describe respecto de una base dada es que v es invariante bajo cambios de 29

CAP´ITULO 2. TENSORES

30

base (el vector sigue siendo el mismo, independientemente de la base del espacio que decidamos emplear para describirlo), mientras que sus componentes dependen de la base empleada, y cambian bajo un cambio de base seg´ un las leyes que hemos visto en el cap´ıtulo anterior. Aunque posiblemente este abuso del lenguaje incurra en cierta incorrecci´on, se admite ya que simplifica enormemente la comunicaci´on. Con tensores de rango general sucede exactamente lo mismo: en el lenguaje coloquial se denomina con frecuencia tensor tanto al verdadero objeto tensorial (objeto geom´etrico invariante bajo cambios de base), como al conjunto de coordenadas que lo describen en una base concreta, que se transforma bajo cambios de base de acuerdo a la correspondiente ley de transformaci´on tensorial. Normalmente por el contexto quedar´a claro si nos estamos refiriendo al verdadero tensor o al correspondiente conjunto de coordenadas que lo describen respecto a una determinada base.

2.1.1.

Tensores en f´ısica

Los tensores se emplean en f´ısica te´orica con much´ısima frecuencia, especialmente en relatividad, electromagnetismo y en general en cualquier teor´ıa de campos, pero tambi´en se emplean mucho en diversas ´areas de la f´ısica de inter´es en ingenier´ıa, como mec´anica de medios continuos (resistencia de materiales, elasticidad) y mec´anica de fluidos. El motivo es muy sencillo. Las magnitudes que se emplean en f´ısica describen propiedades reales (objetivas) del mundo f´ısico, como por ejemplo la masa de un objeto, su posici´on, su velocidad, las fuerzas a que est´a sometido, etc. Para describir muchas de estas propiedades es necesario emplear alg´ un sistema de referencia, cuya elecci´on es totalmente arbitraria. Sea cual sea el sistema de referencia que decidamos emplear, las propiedades f´ısicas que pretendemos describir son las mismas, no dependen del sistema de referencia escogido. Supongamos por ejemplo una situaci´on en la que muchos observadores est´an estudiando el mismo sistema f´ısico, empleando para ello varios sistemas de referencia distintos. Aunque cada uno de ellos emplee un sistema de referencia diferente, todos ellos est´an describiendo la misma realidad f´ısica, de modo que todas estas descripciones deben ser coherentes entre s´ı. Adem´as debe ser posible traducir los resultados de un observador de forma que los otros puedan verificarlos, lo cual implica que existen reglas objetivas bien definidas que permiten transformar las observaciones realizadas desde un sistema de referencia a otros sistemas. El c´alculo tensorial es un m´etodo sistem´atico para trabajar con objetos geom´etricos de manera independiente al sistema de referencia que se est´e empleando, de tal forma que si una relaci´on tensorial es correcta en un determinado sistema de coordenadas, entonces tambi´en lo es en cualquiera otro. Esto hace que los tensores sean objetos matem´aticos adecuados para la descripci´on de propiedades y leyes f´ısicas. De hecho, las magnitudes f´ısicas se caracterizan por tener comportamiento tensorial bien definido, y las leyes f´ısicas pueden expresarse como ecuaciones tensoriales. Muchas magnitudes f´ısicas son tensores como los que veremos en este cap´ıtulo; otras, denominadas densidades tensoriales (a veces pseudotensores o tensores relativos), son objetos geom´etricos que cumplen leyes de transformaci´on iguales a las tensoriales, pero con un factor de escala adicional (dado por una determinada potencia del determinante de la matriz de cambio de base), tal y como tendremos ocasi´on de ver en el cap´ıtulo siguiente. Previamente ya hemos mencionado varios ejemplos de propiedades f´ısicas escalares y vectoriales, a continuaci´on veremos algunos ejemplos de magnitudes f´ısicas de rango tensorial superior.

2.1. CONCEPTO DE TENSOR

2.1.2.

31

Rango tensorial

Los tensores generalizan los conceptos y leyes de transformaci´on familiares de escalares, vectores y aplicaciones lineales a objetos de orden superior, para cuya descripci´on es necesario emplear un n´ umero mayor de ´ındices. Seg´ un hemos visto, las aplicaciones lineales y el tensor m´etrico son tensores de orden 2, ya que para su descripci´on completa es necesario especificar un n´ umero de componentes que depende de 2 ´ındices; los vectores son tensores de orden 1, ya que para su descripci´on completa basta con una familia de componentes que depende s´olo de un ´ındice; y los escalares son tensores de orden 0 ya que sus componentes quedan descritas por un u ´nico n´ umero (0 ´ındices). En general, dado un tensor se denomina rango tensorial u orden del tensor a la dimensi´on del conjunto de coordenadas que es necesario especificar para la descripci´on completa del tensor respecto a una base cualquiera del espacio vectorial. Es decir, el n´ umero de ´ındices que necesitamos para describir todas las componentes del tensor. Si la dimensi´on del espacio vectorial en consideraci´on es n, entonces el n´ umero de grados de libertad de un tensor de rango tensorial t (el n´ umero de componentes) es nt . De todas formas, en muchos casos sucede que los tensores tienen cierta simetr´ıa, de modo que no todas las nt componentes son independientes. Por ejemplo, el tensor m´etrico tiene n2 componentes, pero como es sim´etrico (gij = gji ), s´olo hay n + n(n − 1)/2 independientes (que corresponden, p. ej., a la diagonal principal y la parte triangular superior de gij ). Otro caso muy habitual es el de un tensor antisim´etrico ωij = −ωji , en ese caso sabemos que las n componentes de la diagonal son necesariamente nulas (ωii = 0, sin suma en i), y de las restantes s´olo hay n(n − 1)/2 independientes.

2.1.3.

Ley de transformaci´ on de tensores generales

En el apartado anterior hemos visto que, bajo un cambio de base, las componentes de vectores y aplicaciones lineales se transforman o bien con la matriz del cambio de base (comportamiento covariante) o bien con su inversa (comportamiento contravariante). Generalizando este concepto a tensores de orden arbitrario, se denomina tensor de orden r-covariante s-contravariante a un objeto ... is tensorial (T ) de orden r + s, con nr+s componentes Tji11 ji22 ... jr , tales que bajo el cambio de base C −1 (con inversa D ≡ C ) se transforman seg´ un la ley p1 p2 pr ... is i1 i2 is q1 q2 ... qs T˜ji11 ji22 ... jr = Cj1 Cj2 . . . Cjr Dq1 Dq2 . . . Dqs Tp1 p2 ... pr | {z } | {z } r veces

(2.1)

s veces

donde, an´alogamente a como hemos hecho en el cap´ıtulo anterior, empleamos super-´ındices para los ´ındices contravariantes y sub´ındices para los ´ındices covariantes, y donde se aplica el convenio de suma de Einstein para todos los ´ındices repetidos. En f´ısica es frecuente tomar la anterior ley de transformaci´on como definici´on de tensor de orden r-covariante s-contravariante. Esta definici´on tiene la ventaja de ser la generalizaci´on directa de las correspondientes leyes de transformaci´on que hemos visto en el apartado anterior para tensores de orden 1 y 2, pero tiene el inconveniente de resultar poco intuitiva. En este cap´ıtulo intentaremos aclarar el significado de la anterior ley de transformaci´on de tensores generales. Desde un punto de vista m´as formal, los tensores se pueden definir como elementos de un espacio vectorial denominado espacio producto tensorial, tal y como veremos m´as abajo, lo cual tiene la ventaja de que en ese contexto la ley de transformaci´on anterior resulta totalmente natural, e incluso intuitiva. Tambi´en es habitual definir formalmente los tensores como aplicaciones multilineales definidas entre ciertos espacios producto tensorial, tal y como veremos tambi´en en este cap´ıtulo.

CAP´ITULO 2. TENSORES

32

Antes de pasar a estas definiciones m´as formales vamos a justificar el empleo de objetos tensoriales de orden superior con algunos ejemplos de inter´es en f´ısica.

2.2.

Magnitudes f´ısicas de rango tensorial superior

El uso de escalares y vectores en f´ısica resulta totalmente natural pero ¿c´omo aparecen los tensores de orden superior? Con mucha frecuencia los tensores de orden superior aparecen como aplicaciones lineales entre tensores de orden m´as bajo. Por ejemplo, la relaci´on entre el momento de las fuerzas aplicadas y la aceleraci´on angular en un s´olido r´ıgido (o entre el momento angular y la velocidad angular) est´a dada por una aplicaci´on lineal, siendo la matriz de inercia la constante de proporcionalidad. En el caso de una esfera con densidad uniforme todas las direcciones son equivalentes, de modo que la resistencia al giro, es decir, la inercia que hay que vencer al aplicar un torque, es la misma sea cual sea la direcci´on del eje de giro (suponiendo que el eje de giro pasa por el centro de la esfera), y como consecuencia en ese caso la matriz de inercia es proporcional a la matriz identidad. A diferencia de la esfera con densidad uniforme, si consideramos un objeto con una distribuci´on anis´otropa de masa la inercia depender´a de la orientaci´on del eje de giro, y como consecuencia el momento angular no tendr´a la misma direcci´on que la velocidad angular. En ese caso, para describir la inercia del objeto es necesario emplear una matriz, que ya no ser´a proporcional a la identidad. Rango tensorial y direccionalidad El ejemplo anterior muestra que la aparici´on de tensores de orden superior responde a un comportamiento anis´otropo, es decir, a que estamos describiendo propiedades f´ısicas que dependen de la direcci´on considerada. De manera algo informal podr´ıamos decir que el rango tensorial indica el n´ umero de direcciones que entran en juego en la magnitud que estamos estudiando: una magnitud escalar carece de direccionalidad, en el caso de una magnitud vectorial el vector define una direcci´on y en el caso de un tensor de orden 2 entran en juego 2 direcciones. Por ejemplo, en la relaci´on L = Iω las dos direcciones que entran en juego son las definidas por el momento angular L y la velocidad angular ω, y la matriz de inercia I nos proporciona la relaci´on que existe entre estas 2 direcciones.

2.2.1.

Tensores de polarizabilidad y de conductividad el´ ectrica

El comportamiento de los medios materiales bajo la aplicaci´on de un campo el´ectrico permite introducir de manera bastante intuitiva el concepto y utilidad de tensores de orden 2 en f´ısica. Consideremos el caso de la relaci´on entre el vector polarizaci´on por unidad de volumen (P ) y el vector campo el´ectrico (E) en un medio material diel´ectrico. Como es bien sabido, al aplicar un campo el´ectrico en un medio material las cargas positivas tienden a desplazarse seg´ un el campo, mientras que las cargas negativas tienden a desplazarse en sentido contrario. Estos desplazamientos de carga inducen una cierta polarizaci´ on por unidad de volumen en el material, que normalmente puede describirse como una funci´on lineal del campo el´ectrico aplicado. ⋆ ¿Por qu´e existe una relaci´on lineal entre P y E? La polarizaci´on por unidad de volumen es consecuencia de la aplicaci´on del campo externo E, de modo que P debe ser una funci´on creciente de E (P = P (E)). Si el medio en consideraci´on carece de polarizaci´on espont´anea en ausencia de campo el´ectrico externo, es decir, si no es ferroel´ectrico,

2.2. MAGNITUDES F´ISICAS DE RANGO TENSORIAL SUPERIOR

33

entonces la polarizaci´on correspondiente a campo externo nulo es nula. Teniendo esto en cuenta, aproximando P = P (E) por su desarrollo en serie de Taylor en torno a E = 0, a orden m´as bajo encontramos la mencionada relaci´on lineal P = αE, defini´endose la constante de proporcionalidad α como la polarizabilidad del medio. En el caso de un medio is´ otropo la respuesta del medio es la misma independientemente de la direcci´on del campo aplicado. En ese caso P tiene la misma direcci´on que E, y la polarizabilidad es sencillamente un escalar (o si se prefiere un escalar multiplicado por la matriz identidad). Esto es lo que sucede en el caso de los gases y los l´ıquidos sencillos, en esos casos las mol´eculas que forman el medio est´an orientadas de todas las formas posibles con igual probabilidad, de tal forma que, al promediar, a nivel macrosc´opico no existe ninguna direcci´on especial en el medio. La situaci´on es diferente en el caso de un medio cristalino. Es evidente que en un cristal no todas las direcciones son equivalentes: en una red c´ ubica es distinto aplicar un campo en la direcci´on de la diagonal principal a hacerlo seg´ un la direcci´on perpendicular a dos caras opuestas. En otro caso podr´ıamos tener como celda fundamental no cubos, sino parelelep´ıpedos con aristas de distintos tama˜ nos seg´ un las 3 direcciones del espacio; en cualquiera de estos casos la respuesta del medio ser´a distinta dependiendo de la orientaci´on del campo aplicado, ya que en ciertas direcciones las cargas pueden moverse m´as f´acilmente que en otras. En un medio desordenado, como un gas o un l´ıquido, las orientaciones particulares de las mol´eculas a nivel microsc´opico no se traducen en una direcci´on privilegiada a nivel macrosc´opico, ya que al promediar en todas las orientaciones posibles estos efectos se cancelan. Esto no sucede en un medio cristalino, ya que en estos la celda fundamental que define la red se repite siempre con la misma orientaci´on. Como consecuencia, en un medio cristalino la anisotrop´ıa introducida por la celda fundamental a nivel microsc´opico se traduce en un comportamiento anis´otropo a nivel macrosc´opico. En ese caso la polarizabilidad ya no es la misma en todas las direcciones, pero la relaci´on lineal entre P y E sigue siendo v´alida (siempre y cuando E no sea demasiado elevado), de modo que estos dos vectores ya no ser´an sencillamente proporcionales, sino que estar´an relacionados por una aplicaci´on lineal P = αE. En ese caso la polarizabilidad pasa a ser una aplicaci´on lineal y es muy f´acil ver que si P y E son vectores 1-contravariantes, entonces α necesariamente es un tensor 1-covariante 1-contravariante. Otro ejemplo similar es el de la conductividad el´ectrica. Cuando se aplica un campo el´ectrico en un medio conductor aparece una cierta densidad de corriente el´ectrica j, que es proporcional a E (al menos para campos no demasiado intensos), defini´endose la constante de proporcionalidad como la conductividad el´ectrica del medio. Si la movilidad de las cargas libres no es la misma en todas las direcciones, entonces j y E dejan de ser proporcionales, pero siguen estando relacionados linealmente. En ese caso la conductividad pasa a estar descrita por una aplicaci´on lineal, es decir, un tensor 1-covariante 1-contravariante. En los dos ejemplos precedentes podr´ıa parecer que la validez de la aproximaci´on lineal es muy limitada, sin embargo en la pr´actica se observa que esta aproximaci´on se cumple con mucha frecuencia incluso para campos aplicados muy intensos. En principio la aproximaci´on lineal deber´ıa ser v´alida s´olo en el l´ımite de campos externos muy d´ebiles, pero d´ebiles comparados con qu´e escala. La aproximaci´on lineal es v´alida siempre que el campo aplicado sea peque˜ no en comparaci´on con la escala de intensidad de campo el´ectrico t´ıpica en el material a nivel microsc´ opico, la cual es muchos ´ordenes de magnitud mayor que la escala t´ıpica de intensidad de campo el´ectrico del mundo macrosc´ opico. El motivo de esta diferencia de escala es muy simple. Por un lado a nivel microsc´opico las distancias t´ıpicas son muchos ´ordenes de magnitud menores que a nivel macrosc´opico, por otro a nivel macrosc´opico todas las cargas suelen estar apantalladas, lo cual no siempre sucede a nivel microsc´opico. Esta diferencia de escala entre la intensidad t´ıpica de los campos a nivel micro- y

CAP´ITULO 2. TENSORES

34

macrosc´opico explica la validez de la aproximaci´on lineal, incluso cuando aplicamos campos que desde el punto de vista macrosc´opico nos parecen muy intensos, pero que no lo son tanto si los comparamos con las escalas t´ıpicas del mundo microsc´opico. En f´ısica es muy frecuente encontrar magnitudes relacionadas entre s´ı por aplicaciones lineales. Esto sucede en multitud de leyes fundamentales, como la que relaciona el momento de las fuerzas aplicadas sobre un s´olido y su aceleraci´on angular; y tambi´en en leyes menos fundamentales, deducidas como una primera aproximaci´on de un comportamiento m´as complejo. En este u ´ltimo caso, si la propiedad A aparece como consecuencia de aplicar la magnitud B, A ser´a una funci´on creciente de B. Si el valor de A para B = 0 es nulo, entonces por medio de un desarrollo en serie de Taylor encontramos una relaci´on lineal entre estas magnitudes, que ser´a v´alida siempre y cuando B no sea demasiado elevado. Si la estructura microsc´opica del medio es anis´otropa, es decir, si la respuesta del medio es diferente dependiendo de la direcci´on considerada, entonces la relaci´on lineal entre A y B no se reduce a una mera relaci´on de proporcionalidad, sino que tendremos una relaci´on del tipo A = T · B, donde T es un tensor con el rango tensorial adecuado, determinado por los rangos tensoriales de A y B. Desde el punto de vista f´ısico las leyes f´ısicas lineales implican la validez del conocido principio de superposici´ on. Desde el punto de vista matem´atico siempre que dos magnitudes f´ısicas est´en relacionadas por una aplicaci´on lineal, y queramos aplicar cambios de base, tendremos que emplear tensores.

2.2.2.

Tensor de esfuerzos o de tensiones

El estado de tensiones existente en el interior de un material est´a dado por un tensor de orden 2, denominado tensor de tensiones o tensor de esfuerzos. Estas tensiones a las que nos referimos son las fuerzas aplicadas por unidad de superficie entre elementos contiguos del material, ejercidas a trav´es de la superficie que separa los elementos considerados. Los ejemplos m´as visuales son las fuerzas el´asticas que aparecen en un material el´astico al deformarlo, las fuerzas de presi´on existentes en un fluido, o las fuerzas de rozamiento interno (fuerzas viscosas) que aparecen en los fluidos en movimiento. Desde el punto hist´orico el estudio de las tensiones internas existentes en cualquier medio material es lo que motiv´o la aparici´on de los tensores, por este motivo estudiaremos este ejemplo con cierta profundidad. Consideremos dos elementos diferenciales de volumen contiguos, situados en un punto dado en el interior de cualquier medio material y separados por un determinado elemento diferencial de superficie. Como consecuencia de las interacciones existentes entre las mol´eculas que forman el material, cada uno de estos 2 elementos diferenciales de volumen ejerce una fuerza por unidad de superficie sobre el otro, a trav´es de la superficie que los separa. Esta fuerza por unidad de superficie se denomina tensi´ on, y depende del punto considerado y de la orientaci´on de la superficie que separa los elementos considerados. Si llamamos s a la fuerza por unidad de superficie ejercida tenemos entonces s = s(r, n)

(2.2)

donde r es el punto considerado y n la normal a la superficie considerada en el punto r. En principio podr´ıa parecer que para caracterizar totalmente el estado de tensiones en el interior de un material tenemos que conocer la funci´on vectorial s, como funci´on de los vectores de posici´on r y de orientaci´on de la superficie considerada n, es decir, una funci´on vectorial de 3 componentes definida como funci´on de 9 variables. En realidad la situaci´on es mucho m´as sencilla, como veremos a continuaci´on.

2.2. MAGNITUDES F´ISICAS DE RANGO TENSORIAL SUPERIOR

35

Convenio En lo sucesivo supondremos que s(r, n) representa la fuerza por unidad de superficie ejercida por el medio situado en el lado de la superficie hacia donde apunta la normal n sobre el medio situado al otro lado de la superficie.

n

Figura 2.1: El producto τ · n es la fuerza por unidad de superficie ejercida por el medio situado en el lado hacia donde apunta la normal sobre el medio situado al otro lado.

Como consecuencia la fuerza de superficie total aplicada sobre un volumen cualquiera Vc est´a dada por la integral de superficie ∫ F = s(r, n) dS (2.3) ∂Vc

siendo ∂Vc la superficie que limita a Vc y n la normal a ∂Vc orientada hacia el exterior. Las fuerzas por unidad de superficie pueden ser tangentes a la superficie considerada, en cuyo caso se denominan tensiones cortantes o de cizalla; o normales a la superficie considerada. De estas u ´ltimas, seg´ un el convenio adoptado m´as arriba, una fuerza con signo positivo corresponde a una tensi´ on y una negativa a una compresi´ on. Por el principio de acci´ on y reacci´ on la fuerza por unidad de superficie ejercida por el medio situado en el lado de la superficie desde donde apunta n, sobre el medio situado al otro lado de la superficie, est´a dada por −s (Fig. 2.1). Esto implica que s es una funci´on impar de n s(r, −n) = −s(r, n)

(2.4)

Consideremos el elemento infinitesimal de volumen dado por el tetraedro representado en la figura F. 2.2. Las normales orientadas hacia el exterior a las superficies perpendiculares a los ejes x, y y z est´ an dadas por los vectores unitarios −i, −j y −k respectivamente, y llamaremos n a la normal (orientada hacia el exterior) a la superficie ABC. Recordando que la fuerza por unidad de superficie es una funci´on impar de la normal, la fuerza resultante aplicada sobre este elemento de volumen (dV ) situado en r es f (r) dV + s(r, n) dσ − s(r, i) dσx − s(r, j) dσy − s(r, k) dσz

(2.5)

CAP´ITULO 2. TENSORES

36

z C

dσy

dσx B

y

dσz A

x Figura 2.2: Elemento infinitesimal de medio material con forma de tetraedro.

donde hemos denominado dσ al ´area de la superficie ABC, dσx al ´area de la superficie perpendicular al eje x, y similarmente para las superficies perpendiculares a los ejes y y z, y donde f es la resultante de las fuerzas aplicadas por unidad de volumen sobre este elemento (por ejemplo su peso por unidad de volumen). Dividiendo por dV y tomando el l´ımite dV → 0 el t´ermino debido a las fuerzas por unidad de volumen tiende al valor de la aceleraci´on del elemento considerado (multiplicado por la masa por unidad de volumen, es decir, por la densidad). Sin embargo, los t´erminos debidos a las tensiones divididos por dV divergen, ya que el elemento de volumen es proporcional al cubo de la dimensi´on lineal del tetraedro, mientras que los elementos de superficie son proporcionales al cuadrado de la dimensi´on lineal del tetraedro. La u ´nica posibilidad de resolver esta paradoja de manera compatible con el principio de conservaci´ on del momento lineal (segunda ley de Newton), es que la resultante de todas las fuerzas de superficie aplicadas sobre el elemento diferencial considerado sea nula en el l´ımite dV → 0, es decir, cuando todas las contribuciones se evaluan en el mismo punto. Por tanto, en el l´ımite dV → 0 la tensi´on ejercida en un punto cualquiera (r), a trav´es de una superficie cualquiera (con normal n), est´a dada por s(r, n)dσ = s(r, i)dσx + s(r, j)dσy + s(r, k)dσz

(2.6)

Por otra parte es muy f´acil ver que los elementos de superficie dσi est´ an relacionados con dσ por medio de dσx = n1 dσ, dσy = n2 dσ, dσz = n3 dσ (2.7) siendo ni las componentes covariantes de n. Por tanto llegamos finalmente a s(r, n) = s(r, i)n1 + s(r, j)n2 + s(r, k)n3

(2.8)

que expresa la tensi´on ejercida en el punto r a trav´es de la superficie con normal n como combinaci´on lineal de las tensiones ejercidas en r a trav´es de las tres superficies perpendiculares a los ejes.

2.2. MAGNITUDES F´ISICAS DE RANGO TENSORIAL SUPERIOR

37

La anterior expresi´on se puede expresar de una manera m´as compacta por medio del tensor de tensiones (o tensor de esfuerzos) τ definido por   sx (r, i) sx (r, j) sx (r, k)    y  y y τ (r) = (s(r, i) s(r, j) s(r, k)) =  s (r, i) s (r, j) s (r, k)  (2.9)   sz (r, i) sz (r, j) sz (r, k) Definido de esta manera, la componente τ ij del tensor de tensiones representa la componente seg´ un el eje i de la tensi´on ejercida sobre el medio, en el punto r, a trav´es del elemento de superficie perpendicular a la direcci´on j. Con esto la tensi´on ejercida a trav´es de la superficie perpendicular a n (figura 2.1) queda como s(r, n) = τ (r) n (2.10) En componentes cartesianas la anterior expresi´on queda como si = τ ij nj

(2.11)

donde se ha omitido la dependencia en r y se ha empleado el convenio de suma de Einstein. Esto nos define el tensor de tensiones como un tensor 2-contravariante, ya que (como veremos m´as adelante) las fuerzas se describen de manera natural por medio de sus componentes contravariantes y la normal a una superficie como un vector covariante. El tensor de tensiones es un objeto con rango tensorial 2, y como puede verse las dos direcciones que entran en juego en este caso son las de la normal a la superficie considerada y la definida por la fuerza por unidad de superficie que se ejerce a trav´es de dicha superficie. El tensor de tensiones caracteriza totalmente el estado de tensiones internas en el interior de un material, ya que, por medio de Ec. (2.11), permite calcular la tensi´on ejercida en cualquier punto del material a trav´es de una superficie cualquiera. Por otra parte, imponiendo que el momento neto aplicado sobre el tetraedro infinitesimal (Fig. 2.2) debe ser nulo en el l´ımite dV → 0, es muy f´acil comprobar que el tensor de tensiones es necesariamente sim´etrico τ ij = τ ji . De modo que para caracterizar totalmente el estado de tensiones en el interior de un material basta conocer 6 funciones (τ 11 , τ 22 , τ 33 , τ 12 , τ 13 , τ 23 ) que dependen exclusivamente del vector de posici´on r. Medios el´ asticos y fluidos Newtonianos En un medio el´astico las tensiones son proporcionales a las deformaciones, que est´an a su vez descritas por un tensor de orden 2, de tal forma que en ese caso la constante de proporcionalidad es nada menos que un tensor de orden 4, denominado tensor de elasticidad. El motivo por el que es necesario un tensor de orden 2 para describir el estado de deformaciones existente en un material es el siguiente. Al deformar un material, cada elemento diferencial de volumen se desplaza desde su posici´on en el material no deformado a su posici´on en el material deformado, lo cual nos define un vector desplazamiento u que depende del punto. Es evidente que un desplazamiento u constante en todo el material corresponde a que el material se desplaza como un todo, sin deformarse. Las deformaciones aparecen cuando puntos del material inicialmente pr´oximos se desplazan de forma distinta, por tanto para describir las deformaciones necesitamos analizar las derivadas del vector desplazamiento respecto de cada una de las direcciones del espacio, es decir ∂ui /∂xj , lo que nos produce un tensor de segundo orden. Como consecuencia la constante de proporcionalidad entre tensiones y deformaciones es un tensor de orden 4, con 34 = 81 componentes. Esto parece indicar que para describir las propiedades

CAP´ITULO 2. TENSORES

38

el´asticas de cualquier medio tendr´ıamos que suministrar nada menos que 81 constantes el´asticas. En realidad, como consecuencia de la simetr´ıa del tensor de elasticidad, el n´ umero de constantes diferentes es mucho menor (en la mayor´ıa de los casos s´olo 2). Para empezar, tal y como hemos mencionado m´as arriba puede demostrarse f´acilmente que el tensor de tensiones es necesariamente sim´etrico τ ij = τ ji (de lo contrario no puede cumplirse la conservaci´on del momento angular). Por j otra parte el tensor i /∂x , es de( de deformaciones ) est´a dado s´olo por la componente sim´e1trica ( de ∂u ) 1 j i j cir, por eij ≡ 2 ∂ui /∂x + ∂uj /∂x , ya que la componente antisim´etrica ( 2 ∂ui /∂x − ∂uj /∂xi ) describe rotaciones tipo s´olido r´ıgido, que no introducen deformaciones. Como consecuencia de esta simetr´ıa, de las 81 componentes el´asticas del tensor de elasticidad s´olo puede haber 36 distintas. Por otra parte, en la mayor´ıa de los casos los medios el´asticos considerados tienen cierta simetr´ıa, es decir, son invariantes (y todas sus propiedades f´ısicas tambi´en) bajo ciertas operaciones, como por ejemplo rotaciones o reflexiones. Esta simetr´ıa impone ligaduras entre los posibles valores de las 36 constantes el´asticas anteriores, haciendo que disminuya el n´ umero de constantes independientes. En u ´ltima instancia, en un medio el´astico is´otropo la respuesta el´astica del medio es la misma independientemente de la direcci´on considerada, y como consecuencia las propiedades el´asticas son invariantes bajo cualquier rotaci´on. En ese caso de las 36 constantes el´asticas anteriores, en realidad s´olo hay 2 distintas, que se suelen tomar como el m´ odulo de Young y el Coeficiente de Poisson. En el caso de un fluido la situaci´on es similar, pero en ese caso las tensiones viscosas no son proporcionales a la deformaci´on, sino a la velocidad de deformaci´ on, es decir, a la deformaci´on introducida por unidad de tiempo como consecuencia del movimiento ( ) del fluido. Esta velocidad 1 j i de deformaci´on est´a dada por el tensor eij ≡ 2 ∂ui /∂x + ∂uj /∂x , donde ahora el vector u representa el desplazamiento por unidad de tiempo de cada punto del fluido, es decir, el campo de velocidades del fluido. Los fluidos en los que se cumple la aproximaci´on lineal entre tensiones viscosas y velocidad de deformaci´on se denominan Newtonianos. Igual que hay s´olidos no el´asticos, tambi´en hay fluidos no Newtonianos, en ellos la aproximaci´on lineal entre tensiones y deformaciones no es v´alida. An´alogamente a como suced´ıa en los medios el´asticos, en los fluidos Newtonianos el coeficiente de proporcionalidad entre el tensor de tensiones y el de velocidad de deformaci´on es un tensor de orden 4, en el que por la simetr´ıa del tensor de tensiones y del de velocidad de deformaci´on (ambos sim´etricos) s´olo puede haber 36 componentes distintas. La inmensa mayor´ıa de los fluidos son is´otropos, de modo que en esos casos de las 36 componentes anteriores s´olo hay 2 independientes, que se definen en t´erminos de la viscosidad de cizalla y la viscosidad de volumen.

2.2.3.

Derivaci´ on de campos tensoriales

Un campo tensorial es un objeto con comportamiento tensorial bien definido, pero cuyo valor depende del punto en que nos encontremos en el espacio. Los familiares campos escalares (como un campo de temperaturas) o vectoriales (como un campo de velocidades o el vector campo el´ectrico) son ejemplos de campos tensoriales de orden 0 y 1 respectivamente. El estado de tensiones ejercidas en el interior de un material nos proporciona un ejemplo de campo tensorial de orden 2. En espacios Eucl´ıdeos, cuando se usan coordenadas cartesianas, la derivaci´on parcial respecto de las coordenadas espaciales es una operaci´on que aumenta en 1 el rango tensorial del objeto resultante cada vez que se aplica. Por ejemplo, ya hemos mencionado que un campo de temperaturas T = T (x, y, z) es una magnitud escalar. Sin embargo su gradiente ∇T , con componentes cartesianas ∂T /∂xi es un vector 1-covariante, y su derivada segunda (con componentes cartesianas ∂ 2 T /(∂xi ∂xj )) es un tensor 2-covariante. En general al derivar respecto de las coordenadas cartesianas contravariantes xi aumentamos en 1 el rango tensorial covariante del objeto. En el apartado anterior hemos llegado a considerar tensores de orden 4, en cualquier caso en que entren en juego

´ DE TENSOR 2.3. DEFINICION

39

las derivadas direccionales de estos tensores estaremos manejando tensores de orden superior. En el caso de espacios no Eucl´ıdeos, o de espacios Eucl´ıdeos descritos en t´erminos de coordenadas curvil´ıneas, la operaci´on de derivaci´on direccional con comportamiento tensorial bien definido es la derivada covariante, que es la generalizaci´on de la derivada parcial al caso en que los vectores de la base no son constantes, sino que var´ıan de un punto a otro. Entender bien el significado y propiedades de la derivada covariante es, posiblemente, el objetivo m´as importante de este curso. El motivo es el siguiente, ya hemos mencionado que las leyes f´ısicas pueden expresarse de manera independiente al sistema de referencia empleado como ecuaciones tensoriales; en la mayor´ıa de los casos las leyes f´ısicas expresan principios de conservaci´on que cumplen unas magnitudes (masa, energ´ıa, momento, . . . ) descriptibles como campos tensoriales; estos principios de conservaci´ on se expresan como ecuaciones en las que entran las derivadas direccionales de estos campos, es decir, como ecuaciones diferenciales en derivadas parciales. Pues bien, en la expresi´on tensorial de estas leyes la derivada direccional que entra en juego es la derivada covariante. Antes de estudiar la definici´on y propiedades de la derivada covariante es conveniente estudiar a fondo algunas propiedades generales de tensores de rango arbitrario. De todas formas, esperamos que esta secci´on haya servido para estimular cierta intuici´on f´ısica sobre el concepto de tensores y su uso en f´ısica, incluyendo algunos tensores de rango elevado.

2.3.

Definici´ on de tensor

Una vez hemos visto la idea intuitiva de tensor y algunos ejemplos de tensores empleados en f´ısica, vamos a ver a continuaci´on la definici´on formal de tensor.

2.3.1.

Espacio producto tensorial

Dados los espacios vectoriales E1 y E2 sobre el cuerpo K, con dimensiones n1 y n2 respectivamente, se define el espacio producto tensorial E1 ⊗E2 como el espacio vectorial de n1 ·n2 dimensiones cuyos elementos est´an dados por x ⊗ y para cualquier par de vectores x ∈ E1 e y ∈ E2 . El elemento x ⊗ y de E1 ⊗ E2 se denomina producto tensorial de los vectores x e y. En el caso particular en que E1 = E2 , el producto x ⊗ y se denomina tambi´en producto di´ adico, y en ese caso la diada x ⊗ y se denota a veces sencillamente por xy. El producto tensorial de dos espacios puede entenderse como la tabla de productos cartesianos ordenados de todos los elementos x ∈ E1 por los y ∈ E2 , dotada de las siguientes propiedades: propiedad distributiva respecto a la suma de vectores en ambos argumentos ∀x ∈ E1 , ∀y 1 , y 2 ∈ E2 ,

x ⊗ (y 1 + y 2 ) = x ⊗ y 1 + x ⊗ y 2

(2.12)

∀x1 , x2 ∈ E1 , ∀y ∈ E2 ,

(x1 + x2 ) ⊗ y = x1 ⊗ y + x2 ⊗ y

(2.13)

propiedad asociativa respecto al producto por escalares ∀x ∈ E1 , ∀y ∈ E2 , ∀λ ∈ K,

λ (x ⊗ y) = (λx) ⊗ y = x ⊗ (λy)

(2.14)

1 2 Base del espacio producto tensorial: si {ei }ni=1 es una base de E1 y {ej }nj=1 es una base de E2 , entonces {eij } = {ei ⊗ ej } con i = 1, . . . , n1 , y j = 1, . . . , n2 es una base de E1 ⊗ E2 . La base construida de esta manera se denomina base producto tensorial de las bases de partida.

CAP´ITULO 2. TENSORES

40

Como consecuencia de estas propiedades, dados los vectores x = xi ei ∈ E1 e y = y j ej ∈ E2 , el producto tensorial x ⊗ y puede ponerse en componentes como x ⊗ y = xi y j eij

(2.15)

Una vez formado el espacio producto tensorial E1 ⊗ E2 , podemos construir el espacio producto tensorial de este por un tercer espacio E3 , de tal forma que se verifica la propiedad asociativa del producto tensorial, para cualesquiera espacios vectoriales E1 , E2 , E3 se cumple E1 ⊗ E2 ⊗ E3 = (E1 ⊗ E2 ) ⊗ E3 = E1 ⊗ (E2 ⊗ E3 ) (2.16) Por medio de la propiedad anterior podemos construir de manera recursiva el espacio producto tensorial de cualquier conjunto de espacios vectoriales E1 ⊗ E2 ⊗ · · · ⊗ Ep , o de un mismo espacio vectorial E por s´ı mismo un n´ umero arbitrario (p) de veces. Con frecuencia esto se denomina potencia tensorial p de E y se denota por E⊗p . Por completitud, en el caso p = 0 se define el espacio E⊗0 como el cuerpo de escalares (K) sobre el que est´a definido el espacio vectorial E. En nuestro caso normalmente tendremos E⊗0 = R. Una vez construido el espacio producto tensorial E1 ⊗ E2 ⊗ · · · ⊗ Ep , se definen como tensores construidos sobre los espacios base E1 , E2 , . . . , Ep a todos los elementos de E1 ⊗ E2 ⊗ · · · ⊗ Ep .

2.3.2.

Tensores afines

Dado el espacio vectorial E, consideramos el espacio dado por el producto tensorial de s copias de E y r copias del espacio dual E⋆ . Si la dimensi´on de E es n, entonces la dimensi´on de este espacio es nr+s . Se denominan tensores afines ligados al espacio E a todos los elementos del espacio producto tensorial de E con s´ı mismo y su dual un n´ umero arbitrario de veces. La mayor´ıa de los tensores empleados en f´ısica son tensores afines, de hecho este tipo de tensores son los m´as empleados en la pr´actica, de tal forma que con much´ısima frecuencia se les denomina sencillamente tensores. En este curso siempre que hablemos de tensores nos estamos refiriendo a tensores afines, de acuerdo a la definici´on anterior.{ } n Dadas las bases {ei }ni=1 de E y ei i=1 del espacio dual E⋆ , los elementos T del espacio producto tensorial ⋆ ⋆ ⋆ E⋆ ⊗r ⊗ E⊗s = E . . . ⊗ E} (2.17) | ⊗ E {z. . . ⊗ E} ⊗ E | ⊗ E{z r veces

s veces

pueden ponerse en componentes como ... is j1 j2 jr T = Tji11 ji22 ... jr ei1 ⊗ ei2 ⊗ . . . ⊗ eis ⊗ e ⊗ e ⊗ . . . ⊗ e

(2.18)

Si realizamos un cambio de base en E, dado por la matriz de cambio de base C, esto induce el correspondiente cambio de base en el espacio dual E⋆ y como consecuencia tambi´en en el espacio producto tensorial E⋆ ⊗r ⊗ E⊗s . Como resultado del comportamiento covariante de la base de E y contravariante de la correspondiente base dual, es muy sencillo comprobar que el conjunto de ... is componentes Tji11 ji22 ... on tensorial r-covariante jr se transforma de acuerdo a la regla de transformaci´ s-contravariante definida en Ec. (2.1). Para ello basta con sustituir cada uno de los vectores { }n { ide }n las ˜ i=1 ) bases viejas ({ei }ni=1 y ei i=1 ) en t´erminos de los vectores de las bases nuevas ({˜ ei }ni=1 y e y aplicar la propiedad asociativa del producto tensorial frente al producto por escalares. Vemos por tanto que en el contexto del espacio vectorial E⋆ ⊗r ⊗ E⊗s la ley de transformaci´on bajo cambios de base dada por Ec. (2.1) es totalmente natural, y puede entenderse como la

´ DE TENSOR 2.3. DEFINICION

41

generalizaci´on al espacio producto tensorial de las conocidas leyes de transformaci´on de las componentes de un vector de E bajo cambios de base. Esta ley de transformaci´on garantiza que el objeto T ∈ E⋆ ⊗r ⊗ E⊗s definido en Ec. (2.18) es invariante bajo cambios de base.

2.3.3.

´ Algebra tensorial

Dada la estructura de espacio vectorial que hemos asignado al espacio producto tensorial por medio de las propiedades distributiva respecto a la suma de vectores (Ec. (2.12)) y asociativa respecto al producto por escalares (Ec. (2.14)), sobre los tensores generales tenemos definidas las operaciones de suma de tensores y producto por escalares. Suma de tensores: Dados 2 tensores del mismo tipo, es decir, pertenecientes al mismo espacio producto tensorial T, se define la suma de tensores como el tensor que resulta de sumar estos componente a componente (obviamente estamos dando por hecho que estas componentes est´an referidas a la misma base). • El tensor que se obtiene al sumar dos tensores dados pertenece al mismo espacio que los anteriores y es u ´nico ∀A, B ∈ T,

∃!C = A + B ∈ T,

is i1 i2 ... is i1 i2 ... is Cji11 ji22 ... ... jr = Aj1 j2 ... jr + Bj1 j2 ... jr

(2.19)

• Dos tensores de distinto tipo, es decir, que no pertenezcan al mismo espacio producto tensorial, no se pueden sumar. • Dado que la suma de tensores se realiza componente a componente, esta operaci´on cumple las propiedades habituales de la adici´on (conmutativa, asociativa, elemento neutro, elemento opuesto). Producto por escalares: Dado un tensor T perteneciente a un determinado espacio producto tensorial T, se define el producto del tensor T por el escalar λ como el resultado de multiplicar cada una de las componentes del tensor por el escalar. • El tensor que se obtiene al multiplicar un tensor dado por un escalar pertenece al mismo espacio que el tensor de partida y es u ´nico ∀T ∈ T,

2.3.4.

∃!T ′ = λT ∈ T,

... is T ′ j11 j22 ... jsr = λTji11 ji22 ... jr i i ... i

(2.20)

Producto tensorial

La operaci´on producto tensorial de dos vectores definida previamente, se generaliza de manera autom´atica al caso de 2 tensores de rango arbitrario A y B, pertenecientes a dos espacios producto tensorial arbitrarios T1 y T2 . El resultado de este producto es u ´nico y pertence al espacio producto tensorial T1 ⊗ T2 : ∀A ∈ T1 , ∀B ∈ T2 , ∃!C = A ⊗ B ∈ T1 ⊗ T2 (2.21) Dados los desarrollos en componentes de A y B is j1 jr A = Aij11 ... ... jr ei1 ⊗ . . . ⊗ eis ⊗ e ⊗ . . . ⊗ e

k ... k

B = Bℓ11 ... ℓpq ek1 ⊗ . . . ⊗ ekq ⊗ eℓ1 ⊗ . . . ⊗ eℓp

(2.22)

(2.23)

CAP´ITULO 2. TENSORES

42 la base producto tensorial de las bases de

T1 y T2 est´a dada por

ei1 ⊗ . . . ⊗ eis ⊗ ej1 ⊗ . . . ⊗ ejr ⊗ ek1 ⊗ . . . ⊗ ekq ⊗ eℓ1 ⊗ . . . ⊗ eℓp

(2.24)

y las componentes del tensor C referidas a esta base est´an dadas por i ... i k ... k

k ... k

q is 1 Cj11 ... jsr ℓ11 ... ℓpq = Aij11 ... ... jr Bℓ1 ... ℓp

(2.25)

Como puede verse, si A es un tensor r-covariante s-contravariante y B es un tensor p-covariante q-contravariante, el objeto definido por el producto tensorial A ⊗ B es un tensor de rango r + pcovariante s + q-contravariante. En ocasiones el producto tensorial se denomina producto exterior.

2.4.

Aplicaciones multilineales

Las operaciones definidas hasta ahora permiten sumar tensores del mismo tipo, multiplicarlos por escalares y construir tensores de rango superior por medio del producto tensorial. Si visualizamos los tensores por medio de “matrices multidimensionales”, las operaciones anteriores nos permiten construir combinaciones lineales de estas matrices y tambi´en matrices de mayor dimensionalidad por medio del producto tensorial. La propiedad que hace tan u ´tiles las matrices ordinarias es que representan aplicaciones lineales, de tal forma que el producto matricial de una matriz por un vector A·x=y (2.26) nos permite calcular la acci´on de dicha aplicaci´on lineal sobre el vector (A(x) = y). An´alogamente, el producto matricial de dos matrices C = B · A nos genera una matriz que representa la aplicaci´on lineal resultante de la composici´on de las aplicaciones lineales dadas por las matrices de partida C · x = y,

y = B(A(x))

(2.27)

La gran utilidad de los tensores es que permiten generalizar el producto matricial a objetos multidimensionales, de rangos co- y contra-variantes arbitrarios, de tal forma que podemos emplearlos como aplicaciones multilineales definidas entre espacios producto tensorial. El t´ermino multilineal se refiere a que los tensores definen aplicaciones lineales respecto de cada uno de sus ´ındices. Para emplear los tensores como aplicaciones multilineales es preciso definir primero la conocida operaci´on de contracci´ on de ´ındices.

2.4.1.

Contracci´ on de ´ındices

La operaci´on de contracci´on de ´ındices que definimos a continuaci´on puede considerarse como una generalizaci´on de la traza de un operador lineal. En el cap´ıtulo anterior hemos definido la traza de un operador lineal A, con matriz Aij , como el escalar dado por tr(A) = Aii . La operaci´on que hemos realizado para calcular tr(A) es la contracci´ on del ´ındice contravariante de Aij con su ´ındice covariante; esta contracci´on est´a dada por la suma de Aii para todos los valores posibles de i, de acuerdo con el convenio de suma de Einstein. ... is En general, dado el tensor r-covariante s-contravariante con componentes Tji11 ji22 ... jr , la contracci´on del super´ındice is con el sub´ındice jr , dada por n ∑ α=1

i i ... i

α

i i ... i

Tj11 j22 ... js−1 = Tj11 j22 ... js−1 r−1 α r−1

(2.28)

2.4. APLICACIONES MULTILINEALES

43

genera un tensor de orden r − 1-covariante s − 1-contravariante, con las componentes que acabamos ... is de indicar. Similarmente a como hemos hecho para contraer los dos u ´ltimos ´ındices de Tji11 ji22 ... jr , podr´ıamos haber tomado cualquier otro par de ´ındices co- y contra-variantes, calcul´andose la correspondiente contracci´on de manera an´aloga: ⋆ se igualan los valores de los ´ındices escogidos a un ´ındice mudo (α en Ec. (2.28)) y se suma para todos los valores posibles del ´ındice mudo. Al contraer un ´ındice covariante con uno contravariante sus comportamientos co- y contra-variantes se cancelan, resultando en un objeto tensorial cuyos ´ordenes co- y contra-variantes se han reducido en una unidad. Podemos contraer cualquier pareja de ´ındices, la u ´nica condici´on es que siempre se contrae un ´ındice co-variante con otro contra-variante. La contracci´on de dos ´ındices del mismo tipo no est´a definida (p. ej. tr(A) = Aii , pero gii no tiene ning´ un sentido, por el contrario, gii si est´a definido y es muy sencillo de calcular). De manera un poco m´as formal, dado un espacio vectorial E y su dual E⋆ , existe una aplicaci´on lineal definida sobre E⋆ ⊗ E con imagen en el cuerpo K, tal que a cada elemento x⋆ ⊗ y ∈ E⋆ ⊗ E le hace corresponder la acci´on de la aplicaci´on x⋆ sobre el vector y, dada por x⋆ (y) = x · y ∈ K (siendo x el vector asociado a la aplicaci´on x⋆ por medio del teorema de Riesz-Fr´echet). De esta forma, si tenemos la aplicaci´on lineal A = Aij ej ⊗ ei , la contracci´on del super´ındice i con el sub´ındice j corresponde a Aij ej (ei ) = Aij δij = Aii (por definici´on de base dual). En el caso de un tensor de orden superior, la contracci´on de dos ´ındices cualesquiera (α y β) se calcula de manera an´aloga, sustituyendo eβ ⊗ eα por eβ (eα ) = δαβ . Esta forma de definir la contracci´on de ´ındices pone de manifiesto de manera m´as evidente que s´olo se pueden contraer ´ındices covariantes con ´ındices contravariantes (y viceversa) y que el objeto resultante tiene el comportamiento tensorial que hemos mencionado.

2.4.2.

Producto de contracci´ on

Una vez definida la contracci´on de ´ındices, definimos el producto de contracci´ on de los tensores k1 ... kq y Bℓ1 ... ℓp respecto de sus ´ındices jr y kq como el resultado de contraer dichos ´ındices en el tensor producto tensorial de los dos tensores dados, es decir is Aji11 ... ... jr

i ... i k ... k

k ... k

1 q−1 i1 ... is Cj11 ... jsr−11 ℓ1 ...q−1 ℓp = Aj1 ... jr−1 α Bℓ1 ... ℓp

α

(2.29)

donde, por supuesto, hay suma respecto al ´ındice mudo α. Dado que el producto tensorial tiene comportamiento tensorial bien definido, y la contracci´ on de ´ındices tambi´en, el producto de contracci´on genera un objeto con comportamiento tensorial bien definido, con rango tensorial (r + p − 1)-covariante (s + q − 1)-contravariante en el caso anterior. En este caso hemos realizado el producto de contracci´on de A por B respecto del u ´ltimo ´ındice covariante de A y el u ´ltimo ´ındice contravariante de B. An´alogamente, podr´ıamos haber calculado el producto de contracci´on respecto de cualquier otra pareja de ´ındices, con la u ´nica restricci´on de tener un ´ındice de cada tipo. Cuando se manejan tensores se emplea constantemente el producto de contracci´on. En este curso lo hemos estado haciendo incluso desde el primer cap´ıtulo, p. ej. con expresiones del tipo x · y = gij xi y j , con las que hemos trabajado desde mucho antes de antes de definir el producto tensorial y la contracci´on de ´ındices. Otro ejemplo son todas las leyes de transformaci´on de las componentes de cualquier tensor ante un cambio de base, que tambi´en est´an

CAP´ITULO 2. TENSORES

44

dadas por los correspondientes productos de contracci´on del tensor con la matriz del cambio y su inversa. El producto de contracci´on generaliza a tensores de orden arbitrario el producto de matrices. De hecho, el producto matricial Cji = Aik Bjk est´a dado por la contracci´on de Aiα Bjβ respecto de los ´ındices α y β. El producto escalar (x·y = gij xi y j = xi y i = xi yi ) tambi´en est´a dado por un producto de contracci´on. Una vez m´as, es importante darse cuenta de que s´olo se pueden contraer ´ındices correspondientes a comportamientos tensoriales opuestos (uno covariante con uno contravariante). Por medio de esta operaci´on podemos considerar el tensor T ∈ E⋆ ⊗r ⊗ E⊗s , con componentes i1 i2 ... is Tj1 j2 ... jr , como una aplicaci´on multilineal definida sobre el espacio producto tensorial E⋆ ⊗s ⊗ E⊗r con imagen en el cuerpo de escalares K (en nuestro caso R), de tal forma que para cada elemento ... jr on T le hace corresponder un escalar, A de E⋆ ⊗s ⊗ E⊗r (con componentes Aji11 ij22 ... is ) la aplicaci´ dado por el correspondiente producto de contracci´on ... is j1 j2 ... jr T · A = Tji11 ji22 ... jr Ai1 i2 ... is ∈ R

(2.30)

donde hay suma respecto de todos los ´ındices. Como puede verse, la aplicaci´on definida por este producto de contracci´on es lineal respecto de cada uno de los ´ındices, es decir, es multilineal. En algunos casos el elemento A sobre el que aplicamos el tensor T estar´a dado por el producto tensorial de r vectores de E y s vectores del dual E⋆ , de tal forma que la aplicaci´on T definida sobre v 1 ⊗ · · · ⊗ v r ⊗ v ⋆1 ⊗ · · · ⊗ v ⋆s es lineal respecto de cada una de sus variables, todo esto hace que los tensores puedan definirse como aplicaciones multilineales. An´alogamente a como suced´ıa con el producto matricial, el producto de contracci´ on de dos tensores representa la composici´on de las aplicaciones lineales definidas por cada uno de ellos.

2.5.

Criterios de tensorialidad

Dado un objeto presuntamente tensorial, es conveniente disponer de una serie de reglas pr´acticas que nos permitan determinar de una manera r´apida si el objeto en cuesti´on es o no un tensor. Las operaciones que hemos estudiado hasta ahora nos permiten identificar un comportamiento tensorial en muchos casos. A continuaci´on incluimos un resumen con los criterios de tensorialidad m´as importantes. Invariancia: Un objeto del tipo ... is j1 j2 jr T = Tji11 ji22 ... jr ei1 ⊗ ei2 ⊗ . . . ⊗ eis ⊗ e ⊗ e ⊗ . . . ⊗ e

(2.31)

es un tensor r-covariante s-contravariante si y s´olo si es invariante bajo cambios de base. ... is Ley de transformaci´ on tensorial: El conjunto de coordenadas Tji11 ji22 ... jr , ligado a una base determinada, corresponde a un tensor r-covariante s-contravariante si y s´olo si bajo el cambio de base C (con inversa D ≡ C −1 ) se transforma de acuerdo a p1 p2 pr ... is i1 q1 q2 ... qs i2 is T˜ji11 ji22 ... jr = Cj1 Cj2 . . . Cjr Dq1 Dq2 . . . Dqs Tp1 p2 ... pr {z } {z } | | r veces

(2.32)

s veces

Suma y producto por escalares: Dados dos tensores del mismo tipo (T 1 y T 2 ), cualquier combinaci´on lineal de ellos (λT 1 + µT 2 , con λ y µ escalares) genera un tensor del mismo tipo que los de partida.

2.5. CRITERIOS DE TENSORIALIDAD

45

Producto tensorial: Dados dos tensores de orden r1 -covariante s1 -contravariante y r2 -covariante s2 -contravariante, su producto tensorial es un tensor de orden r1 + r2 -covariante s1 + s2 contravariante. Producto de contracci´ on: Dados dos tensores de orden r1 -covariante s1 -contravariante y r2 covariante s2 -contravariante, su producto de contracci´on respecto de cualquier pareja de ´ındices (siempre uno de cada tipo) es un tensor de orden r1 + r2 − 1-covariante s1 + s2 − 1contravariante. Permutaci´ on de ´ındices: Dado un tensor, el objeto que resulta de permutar dos ´ındices del mismo tipo es un tensor del mismo tipo que el tensor de partida. Por ejemplo, dado el tensor 2covariante Aij , el objeto con componentes Aji tambi´en es un tensor 2-covariante. Sin embargo, en general el objeto que resulta de permutar dos ´ındices de distinto tipo no ser´a un tensor. Criterio del cociente: Dada una relaci´on del tipo A=C ·B

(2.33)

donde · representa un producto de contracci´on de C con B respecto de alguna pareja (o algunas parejas) de ´ındices, si A y B son dos tensores entonces el objeto C es necesariamente un tensor, cuyo orden co- y contra-variante est´a determinado por los de A y B y por el n´ umero de ´ındices de B que se hayan contraido. Por ejemplo, en la relaci´on entre polarizaci´on y campo el´ectrico P = αE el hecho de que P y E son vectores garantiza que α es un tensor; an´alogamente, la relaci´on lineal entre deformaci´on y tensi´on en un material el´astico nos garantiza que la constante de proporcionalidad es un tensor, dado que las tensiones y las deformaciones son tensores. El nombre “criterio del cociente” se debe a que el tensor C parece estar definido por la relaci´on anterior como el “cociente” de los tensores A y B, sin embargo no existe una operaci´on “divisi´on de tensores”. A estas alturas deber´ıa haber quedado clara la gran utilidad de la notaci´on que hemos empleado desde el principio para escribir componentes covariantes y contravariantes de tensores, no solamente porque indica de manera inmediata el tipo de comportamiento bajo cambios de base, sino porque permite identificar r´apidamente expresiones tensoriales correctas e incorrectas. Por ejemplo, en la expresi´on R = g ij Rij = g ij g ℓm Riℓjm ✓ vemos autom´aticamente que R representa un escalar (suponiendo que Riℓjm y g ij son tensores), ya que en ella todos los ´ındices est´an contraidos correctamente (uno covariante con uno contravariante). Por otra parte, la expresi´on α Mβα = Mβγγ × no define un tensor de ning´ un tipo, ya que representa la contracci´on respecto de dos ´ındices del mismo tipo. La notaci´on que estamos empleando tambi´en facilita enormemente escribir la ley de transformaci´ on tensorial que cumplen las componente de un tensor de cualquier tipo. Por ejemplo, supongamos que queremos escribir la ley de transformaci´on de las componentes del tensor de curvatura de Riei bajo el cambio de base Cji , para ello podemos aplicar la siguiente regla nemot´ecnica: mann Rjkℓ

CAP´ITULO 2. TENSORES

46

1. En t´erminos de la nueva base los valores de las componentes de este tensor habr´an cambiado, pero el tensor sigue siendo del mismo tipo. Denotamos las componentes en la nueva base por ˜i R jkℓ

2. Dado que se trata de un objeto 1-contravariante 3-covariante, la ley de transformaci´on de i Rjkℓ incluye a la matriz del cambio 3 veces y a su inversa 1 vez. La ley de transformaci´on que estamos buscando tiene entonce el siguiente aspecto · ˜ i :::: D·· C·· C·· C·· R··· R jkℓ

3. Cada una de las matrices C y D da lugar al correspondiente ´ındice co- y contra-variante de ˜ i , por tanto escribimos R jkℓ ˜ i :::: Di C · C · C · R· R · j k ℓ ··· jkℓ · en el lado 4. Finalmente, para obtener una expresi´on tensorial v´alida todos los ´ındices de R··· · derecho deben estar contraidos correctamente. L´ogicamente, el ´ındice contravariante de R··· debe estar contraido con el sub´ındice de la matriz inversa D, mientras que cada uno de los ´ındices covariantes deben estar contraidos con los correspondientes super´ındices de cada una de las matrices del cambio C. Esto nos lleva a ˜ i = D i C α C β C γ Ra R jkℓ

a

j

k



αβγ

que es la ley de transformaci´on buscada. Esta regla nemot´ecnica permite escribir r´apidamente cualquier ley de transformaci´on tensorial, sin necesidad de memorizar la expresi´on general Ec. (2.32).

2.6.

Tipos de tensores

Por u ´ltimo vamos a cerrar este cap´ıtulo con una breve clasificaci´on de tensores y algunas definiciones. Los tensores suelen clasificarse de acuerdo al tipo de componentes que los describen o a las reglas de simetr´ıa que cumplen estas componentes. Como veremos en los cap´ıtulos siguientes, es muy relevante saber con qu´e tipo de tensor estamos trabajando. En lo referente a la simetr´ıa esto es especialmente importante por dos motivos: por un lado la simetr´ıa de las componentes de un tensor responde a la simetr´ıa de la magnitud f´ısica que describe; por otro lado conocer las relaciones de simetr´ıa que cumplen las componentes de un tensor nos permitir´a realizar determinadas manipulaciones algebraicas de manera muy r´apida. Tensores asociados La contracci´ on con el tensor m´etrico gij (o con su inverso g ij ) produce la bajada (o subida si contraemos con el inverso) del ´ındice que hemos contra´ıdo, tal y como ya vimos en el primer cap´ıtulo. Los tensores relacionados entre s´ı por esta operaci´on se denominan tensores asociados. En el primer cap´ıtulo ya vimos un ejemplo de tensores asociados dado por las componentes co- y contra-variantes de un vector (vi = gij v j , v i = g ij vj ). Esto se generaliza directamente a tensores de cualquier orden, por ejemplo, la versi´on puramente covariante del tensor de curvatura de Riemann k . est´a dada por Rijαβ = gik Rjαβ La operaci´on de subida y bajada de ´ındices es reversible, ya que al ser gij y g ij inversos uno del otro, si volvemos a contraer con g ij (en caso de haber contra´ıdo antes con gij , y viceversa) recuperamos las componentes de partida.

2.6. TIPOS DE TENSORES

47

Tipo de componentes En referencia al tipo de componentes los tensores pueden clasificarse en: Tensores contravariantes de rango q (o q-contravariantes): objetos tensoriales con q componentes contravariantes (y ninguna covariante). Tensores covariantes de rango q (o q-covariantes): objetos tensoriales con q componentes covariantes (y ninguna contravariante). Tensores mixtos: objetos tensoriales con componentes de ambos tipos. Simetr´ıa Dependiendo de la simetr´ıa de las componentes tenemos Tensores sim´etricos: un tensor es sim´etrico respecto a dos ´ındices del mismo tipo si sus componentes no cambian al permutar estos ´ındices. Por ejemplo, un tensor 2-covariante Aij es sim´etrico si ∀ij Aij = Aji . An´alogamente, el tensor m´etrico dual g ij es sim´etrico dado que ∀ij g ij = g ji . Tensores antisim´etricos: un tensor es antisim´etrico respecto a dos ´ındices del mismo tipo si sus componentes cambian con un factor −1 al permutar estos ´ındices. Por ejemplo, el tensor ωij es antisim´etrico respecto de sus ´ındices i y j si ∀ij ωij = −ωji . Un tensor que s´olo tenga componentes de un tipo (o bien covariantes o bien contravariantes) se dice completamente sim´etrico (respectivamente completamente antisim´etrico) si sus componentes son sim´etricas (respectivamente antisim´etricas) respecto a la permutaci´on de cualquier par de ´ındices. Es muy f´acil demostrar que las propiedades de simetr´ıa o antisimetr´ıa anteriores son independientes de la base que estemos empleando, es decir, son propiedades inherentes al tensor en consideraci´on. Tambi´en es interesante ver que un tensor arbitrario de segundo orden, con componentes s´olo de un tipo (p. ej. Tij ), se puede descomponer como suma de un tensor sim´etrico y uno antisim´etrico por medio de 1 1 Tij = (Tij + Tji ) + (Tij − Tji ) (2.34) 2 2 esta descomposici´on tan sencilla tiene aplicaciones muy importantes en f´ısica. Es evidente que dado un tensor de orden superior, podemos hacer una descomposici´on similar para cualquier pareja de ´ındices del mismo tipo. Las operaciones de permutaci´on de ´ındices s´olo est´an bien definidas desde el punto de vista tensorial (es decir, s´olo son independientes de la base) cuando se intercambian ´ındices del mismo tipo. En particular, la matriz Aij correspondiente a una aplicaci´on lineal puede ser sim´etrica respecto de una determinada base (Aij = Aji ) y no serlo respecto a otra base distinta. Tambi´en es f´acil demostrar que el resultado de contraer 2 ´ındices sim´etricos con 2 ´ındices antisim´etricos es necesariamente nulo (es decir, si Aij = Aji y ωij = −ωji , entonces Aij ωij = 0). Como consecuencia, en la contracci´on de un tensor 2-contravariante cualquiera T ij (con un tensor ) 2-covariante antisim´etrico, s´olo contribuye la parte antisim´etrica de T ij , dada por 21 T ij − T ji .

CAP´ITULO 2. TENSORES

48 Definiciones adicionales

Aparte de los tipos de tensores definidos hasta ahora, en la pr´actica es muy usual emplear la siguiente terminolog´ıa: Tensores Cartesianos: Si nos restringimos a espacios Eucl´ıdeos y al uso de bases ortonormales (en particular las coordenadas Cartesianas habituales), encontramos que el tensor m´etrico es la identidad (gij = g ij = δji ) y por tanto las componentes co- y contra-variantes de cualquier tensor coinciden, de tal forma que no es necesario establecer ninguna distinci´on entre ellas. Los tensores definidos en este contexto se denominan tensores cartesianos, a este tipo pertenecen los tensores empleados normalmente en ingenier´ıa (elasticidad, mec´anica de fluidos). Dado que en estos tensores no hace falta distinguir entre componentes co- y contra-variantes, es habitual denotar todas sus componentes por medio de sub-´ındices indistintamente. Tensores is´ otropos: Dentro de los tensores Cartesianos, se denominan tensores is´otropos a aquellos cuyas componentes no var´ıan al rotar los ejes, es decir, al realizar un cambio de base ortogonal con det C = 1. El n´ umero de tensores is´otropos que existe depende del rango tensorial que consideremos, de acuerdo a la siguiente tabla: • Todos los tensores de rango 0 son is´otropos. • No existen tensores is´otropos de orden 1; • La delta de Kronecker (δij , δji , δ ij ) es el u ´nico tensor is´otropo de orden 2. De estos 3 objetos se puede ver que la versi´on 1-covariante 1-contravariante es is´otropa no solo ante cambos de base ortogonales en espacios Eucl´ıdeos, sino ante cualquier cambio de base independientemente de la m´etrica. • El s´ımbolo alternante de Levi-Civita es el u ´nico “tensor” is´otropo de orden 3 (dejamos este objeto para el cap´ıtulo siguiente, dado que en realidad es un pseudotensor). • Los u ´nicos tensores is´otropos de orden 4 son los siguientes δij δkℓ

δik δjℓ

δiℓ δjk

• El n´ umero de tensores is´otropos con rango tensorial q (aq ) va aumentando de acuerdo a la siguiente regla de recurencia aq =

q−1 (2aq−1 + 3aq−2 ) q+1

con a0 = 1 y a1 = 0. Los tensores is´otropos de orden 4 se emplean para definir el tensor de elasticidad del que habl´abamos al comienzo del cap´ıtulo. En el caso de un medio is´otropo el tensor de elasticidad debe ser invariante bajo rotaciones. El tensor is´otropo de orden 4 m´as general que se puede formar es cijkℓ = λδij δkℓ + µδik δjℓ + νδiℓ δjk Como los tensores de tensiones y deformaciones son sim´etricos, de la relaci´on de proporcionalidad entre tensi´on y deformaci´on (τij = cijkℓ ekℓ , escribimos todo con sub´ındices dado que estamos manejando tensores Cartesianos) deducimos las relaciones cijkℓ = cijℓk y cijkℓ = cjikℓ , de donde deducimos la condici´on µ = ν. Por tanto, el tensor de elasticidad de un medio is´otropo depende

2.7. PROBLEMAS

49

de s´olo 2 par´ametros. En t´erminos del m´odulo de Young E y el cociente de poisson σ, el tensor de elasticidad puede escribirse como [ ] E σ 1 cijkℓ = δij δkℓ + (δik δjℓ + δiℓ δjk ) 1 + σ 1 − 2σ 2 Aparte de los anteriores tensores is´otropos es interesante darse cuenta de que el tensor nulo de rango tensorial arbitrario tambi´en es is´otropo. Consideremos el tensor nulo de rango (r)-covariante (s)-contravariante, por definici´on todas sus componentes respecto de la base can´onica son nulas; pero como las leyes de transformaci´on de las componentes de tensores son lineales, si todas las componentes de un tensor son nulas respecto de una base, entonces tambi´en ser´an nulas respecto de cualquier otra base. Esto tiene la siguiente consecuencia importante en f´ısica: para cualquier ecuaci´on que est´e escrita en forma tensorial correctamente, si esta ecuaci´on se cumple en una base dada, entonces tambi´en se cumplir´a en cualquier otra base. Por tanto los tensores proporcionan el marco adecuado para escribir ecuaciones f´ısicas que sean v´alidas independientemente del sistema de referencia empleado.

2.7.

Problemas

P.2.1. Calcular el valor del escalar gii en un espacio vectorial con dimensi´on n y m´etrica dada por el tensor gij . P.2.2. Demostrar que si entre 2 vectores 1-contravariantes (x e y) existe una relaci´on lineal del tipo y = Ax, entonces A es un objeto 1-covariante 1-contravariante. P.2.3. Demostrar que en el caso de 2 vectores 1-covariantes (x e y), dada la relaci´on y = Ax tambi´en implica que A es un objeto 1-covariante 1-contravariante. P.2.4. Demostrar que la contracci´on de ´ındices (uno de cada tipo) es una operaci´on con comportamiento tensorial bien definido. P.2.5. Demostrar que dado un tensor arbitrario, el objeto que resulta de la contracci´on de dos ´ındices del mismo tipo, en general, no es un tensor. k k P.2.6. Demostrar que si Rjαβ es un tensor 1-contravariante 3-covariante, entonces Rijαβ = gik Rjαβ es un tensor 4-covariante.

P.2.7. Demostrar que el producto de contracci´on tiene comportamiento tensorial bien definido. P.2.8. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada base son sim´etricas, entonces tambi´en lo son respecto de cualquier otra base. P.2.9. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada base son sim´etricas, entonces tambi´en lo son respecto de cualquier otra base. P.2.10. Demostrar que si las componentes de un tensor 2-covariante respecto de una determinada base son antisim´etricas, entonces tambi´en lo son respecto de cualquier otra base. P.2.11. Demostrar que si las componentes de un tensor 2-contravariante respecto de una determinada base son antisim´etricas, entonces tambi´en lo son respecto de cualquier otra base.

CAP´ITULO 2. TENSORES

50

P.2.12. Demostrar que el resultado de contraer 2 ´ındices sim´etricos con 2 ´ındices antisim´etricos es necesariamente nulo. P.2.13. Dados los tensores 2-contravariante T ij y 2-covariante Aij , demostrar que si Aij = Aji entonces ) 1 ( ij T ij Aij = T + T ji Aij 2 P.2.14. En el caso anterior, demostrar que si Aij es antisim´etrico entonces T ij Aij =

) 1 ( ij T − T ji Aij 2

P.2.15. El tensor 2-covariante Tij define una aplicaci´on de E en E⋆ , tal que para un vector v ∈ E le hace corresponder un vector w ∈ E⋆ , dado en componentes por Tij v j = wi . Sabiendo que el tensor inverso (T −1 )ij se define como la aplicaci´on inversa a la anterior, calcule las compontes del tensor inverso (T −1 )ij . P.2.16. Demostrar que las versiones co- y contra-variantes de la delta de Kronecker (δij y δ ij ) se comportan como tensores is´otropos s´olo bajo cambios de base ortogonales. P.2.17. Demostrar que las componentes de δji son invariantes bajo cualquier cambio de base.

2.7.1.

Soluciones a problemas seleccionados (Tema 2)

P.2.1. Por definici´on el objeto gij es la delta de Kronecker (gik g kj = gij = δij ), por tanto los n elementos de la diagonal (gii ) son iguales a la unidad, y al tomar la suma encontramos la dimesionalidad del espacio: n. P.2.2. Comenzamos escribiendo en componentes la relaci´on indicada entre los vectores x e y y i = A(i, j)xj donde suponemos que se aplica el convenio de suma de Einstein para el ´ındice mudo j. En esta expresi´on hemos escrito las componentes i, j de A como A(i, j), y no como sub- o super-´ındices, ya que de momento no sabemos cu´al de las dos posibilidades (sub/super) les corresponde. Si hacemos un cambio de base con matriz del cambio C, la relaci´on anterior en la base nueva se escribir´a de manera an´aloga: ˜ j)˜ y˜i = A(i, xj ˜ j) y x siendo y˜i , A(i, ˜j las componentes de y, A y x en la nueva base. Sabemos que las componentes xi e y i son contravariantes, de modo que la primera de las relaciones anteriores se puede escribir como Cpi y˜p = A(i, j)Cqj x ˜q siendo C la matriz que relaciona la base de partida con la base nueva. Si multiplicamos ahora por la matriz inversa del cambio de base (D) encontramos (intercambiando los nombres de los ´ındices i por p, j por q y viceversa) Dpk Cip y˜i = Dpk A(p, q)Cjq x ˜j

2.7. PROBLEMAS

51

Por definici´on Dpk Cip = δik , por tanto xj y˜i = Dpi Cjq A(p, q)˜ comparando con la relaci´on de arriba esto implica que ˜ j) = Di C q A(p, ˜ q) A(i, p j de modo que el primer ´ındice de A es contravariante y el segundo es covariante ˜ j) = Aij A(i, y por tanto A es un objeto 1-covariante 1-contravariante como quer´ıamos demostrar. P.2.3. Para realizar este ejercicio repetimos los pasos del ejercicio anterior, partimos de las relaciones y = Ax expresadas en la base antigua y en la base nueva (relacionadas entre s´ı por el cambio de base C) ˜ j)˜ yi = A(i, j)xj , y˜i = A(i, xj En este caso las componentes xi e yi son covariantes, por tanto Dip y˜p = A(i, j)Djq x ˜q multiplicando por la matriz C e intercambiando los nombre de los ´ındices como en el ejercicio anterior deducimos y˜i = Cip Dqj A(p, q)˜ xj ˜ j)˜ ˜ j) = C p Dqj A(p, q), de modo que en este caso comparando con y˜i = A(i, xj llegamos a A(i, i el primer ´ındice es covariante y el segundo contravariante ˜ j) = Aj A(i, i lo cual corresponde a un objeto 1-covariante 1-contravariante como quer´ıamos demostrar, la diferencia respecto al ejercicio anterior es que el comportamiento con/contra de los ´ındices de A de cada ejercicio es el inverso del otro. mp P.2.4. Por simplicidad supondremos un tensor 2-covariante 2-contravariante con componentes Trs . Si realizamos ahora la contracci´on de dos de sus ´ındices (por ejemplo el u ´ltimo sub´ındice s y el u ´ltimo super´ındice p), obtenemos el objeto mα Am r = Trα =

n ∑

mα Trα

α=1

(donde hemos hecho expl´ıcito el convenio de suma de Einstein, y n es la dimensi´on del espacio vectorial). Para que tenga un comportamiento tensorial bien definido deber´ıa transformarse siguiendo la ley de transformaci´on de un tensor de orden 1-covariante 1-contravariante, esto es: i A˜ik = Ckr Dm Am r Como el tensor T tiene un comportamiento tensorial bien definido (premisa de partida), se transforma, seg´ un el cambio de base C (con inversa D ≡ C −1 ), conforme a la ley tensorial: ij i mp T˜kl = Ckr Cls Dm Dpj Trs

CAP´ITULO 2. TENSORES

52

Ahora podemos contraer los ´ındices j y l en el tensor transformado: mβ iα i mp i mp i T˜kα = Ckr Cαs Dm Dpα Trs = δps Ckr Dm Trs = Ckr Dm Trβ

donde hemos tenido en cuenta que Cαs Dpα = δps . Finalmente comprobamos que, efectivamenmβ te, el tensor contra´ıdo Trβ se transforma siguiendo la ley tensorial de un tensor de orden 1-covariante 1-contravariante. Ahora es inmediato generalizar este argumento a un tensor ...is general r-covariante s-contravariante con componentes Tji11ji22...j . r P.2.5. Seguiremos un razonamiento similar al empleado en el problema P.2.4. Por simplicidad suponmp dremos un tensor 2-covariante 2-contravariante con componentes Trs . Si realizamos ahora la contracci´on de dos ´ındices del mismo tipo (por ejemplo los sub´ındices r y s), obtenemos un objeto n ∑ mp mp mp A = Tαα = Tαα α=1

para que Amp tenga un comportamiento tensorial bien definido deber´ıa transformarse siguiendo la ley de transformaci´on de un tensor de orden 2-contravariante, esto es: i A˜ij = Dm Dpj Amp

Partimos de nuevo de la ley de transformaci´on del tensor T : ij i mp T˜kl = Ckr Cls Dm Dpj Trs

y contraemos los ´ındices covariantes k y l en el tensor transformado: ij i mp T˜αα = Cαr Cαs Dm Dpj Trs

Comprobamos que no se transforma como un tensor. P.2.6. Para demostrar que es un tensor 4-covariante hay que demostrar que se transforma siguiendo la ley: ˜ klmn = C i C j C α C β Rijαβ R k l m n ˜t ˜ klmn = g˜kt R Para demostrarlo sustituimos en esta relaci´on Rijαβ = gik Rk y R jαβ

lmn

˜ t = C i C j C α C β gis Rs g˜kt R lmn k l m n jαβ Ahora sabemos que g˜kt = Cki Cth gih , de modo que α β s ˜ t = C i C j Cm Cki Cth gih R Cn gis Rjαβ lmn k l k es un tensor 1-contravariante Ahora podemos utilizar la premisa del enunciado que dice que Rjαβ 3-covariante, y que por lo tanto se transforma siguiendo la ley: α β t s ˜ t = C j Cm R Cn Ds Rjαβ lmn l

Sustituyendo esta relaci´on obtenemos α β t s α β s Cki Cth gih Clj Cm Cn Ds Rjαβ = Cki Clj Cm Cn gis Rjαβ

Por u ´ltimo, Cth Dst = δsh de modo que α β s α β s Cki gis Clj Cm Cn Rjαβ = Cki gis Clj Cm Cn Rjαβ

Y vemos que ambos miembros de la igualdad son iguales, de modo que queda demostrado.

2.7. PROBLEMAS

53

P.2.7. El razonamiento es similar al empleado en los problemas P.2.4 y P.2.5. Por simplicidad supondremos el producto de contracci´ on de dos tensores 2-covariante 2-contravariante con compoij mn nentes Akl y Brs , aunque el argumento puede extenderse a dos tensores de rangos arbitrarios. El producto de contracci´on de los dos tensores respecto de los ´ındices l y n tiene la forma ijm mα Ckrs = Aij kα Brs

y genera un tensor de rango 3 covariante 3-contravariante. Cuando las componentes de los tensores est´an referidas a otra base del espacio vectorial, tendr´a la forma: ijm ˜ mα C˜krs = A˜ij kα Brs

Para que este producto tenga un comportamiento tensorial bien definido debe cumplir la ley de transformaci´on tensorial αβχ χ ijm C˜εϕγ = Cεk Cϕr Cγs Diα Djβ Dm Ckrs

Para demostrar que es as´ı, utilizaremos el hecho de que los objetos A y B tienen un comportamiento tensorial bien definido, esto es, que son tensores. Sustituiremos en esta expresi´on los correspondientes productos de contracci´on arriba indicados: χ ij my ˜ χx = Cεk C r Cγs Diα Dβ Dm A˜αβ A Brs εx B ϕγ

ϕ

j

ky

A continuaci´on reemplazamos la ley de transformaci´on de los tensores que participan en el producto, prestando atenci´on en no repetir ´ındices mudos y as´ı evitar confusiones: k z α β ij A˜αβ εx = Cε Cx Di Dj Akz χ x mw ˜ χx = C r Cγs Dm B Dw Brs ϕ ϕγ

Para obtener r s χ x mw k r s α β χ ij my Cεk Cxz Diα Djβ Aij kz Cϕ Cγ Dm Dw Brs = Cε Cϕ Cγ Di Dj Dm Aky Brs x = δ z obtenemos Reorganizando trminos y teniendo en cuenta que Cxz Dw w χ z ij mw χ ij my Cεk Cϕr Cγs Diα Djβ Dm δw Akz Brs = Cεk Cϕr Cγs Diα Djβ Dm Aky Brs

Observamos que tenemos la misma expresi´on a ambos lados de la ecuaci´on ya que z ij mw my δw Akz Brs = Aij ky Brs

De modo que queda demostrado. P.2.8, P.2.10. Partimos del tensor 2-covariante Aij . Dado un cambio de base con matriz de cambio C las componentes de A en la nueva base son A˜ij = Cip Cjq Apq intercambiando los nombres de los ´ındices, i por j, p por q y viceversa encontramos A˜ji = Cjq Cip Aqp

CAP´ITULO 2. TENSORES

54

pero por hip´otesis Apq = ±Aqp (+1 para el caso sim´etrico (P.2.8) y −1 para el caso antisim´etrico (P.2.10)), entonces A˜ji = ±Cip Cjq Apq es decir si Aij = Aji entonces A˜ij = A˜ji si Aij = −Aji entonces A˜ij = −A˜ji como quer´ıamos demostrar. P.2.9, P.2.11. En este caso tenemos el tensor 2-contravariante Aij . Dado el cambio de base C las componentes de A en la nueva base son A˜ij = Dpi Dqj Apq intercambiando los nombres de los ´ındices, i por j, p por q y viceversa, como antes, encontramos A˜ji = Dqj Dpi Aqp por hip´otesis Apq = ±Aqp (+1 para el caso sim´etrico (P.2.9) y −1 para el caso anti-sim´etrico (P.2.11)), entonces A˜ji = ±Dpi Dqj Apq es decir si Aij = Aji entonces A˜ij = A˜ji si Aij = −Aji entonces A˜ij = −A˜ji como quer´ıamos demostrar. P.2.12. El enunciado no indica si se refiere a 2 ´ındices de cada tipo de un mismo tensor o de 2 tensores distintos, veamos esta cuesti´on en primer lugar. Si se trata de 2 tensores distintos, pongamos Aij y Bij , para realizar el producto de contracci´on construir´ıamos primero el tensor producto ij tensorial Ckℓ = Aij Bkℓ y posteriormente contraer´ıamos los 2 super´ındices con los 2 sub´ındices, para ello hacemos (p. ej.) i = k = p (introducimos el ´ındice mudo p) y j = ℓ = q (introducimos pq el ´ındice mudo q), de modo que calculamos Cpq . Tambi´en hubi´eramos podido contraer i con pq ℓ y j con k, en ese caso el resultado es Cqp . Por el contrario, si se trata de 2 ´ındices de cada ij tipo del mismo tensor, entonces partimos directamente del objeto Ckℓ (salt´andonos el paso de generar este tensor a partir de 2 tensores Aij y Bij ), de modo que en ambos casos el resultado es el mismo. pq Consideramos ahora el tema de la simetr´ıa. Calculamos Cpq suponiendo que los 2 superpq ´ındices son sim´etricos y los sub-´ındices antisim´etricos. En primer lugar, como en Cpq tanto p como q son ´ındices mudos los podemos cambiar de nombre, intercambiamos entonces los nombres de p y q pq qp Cpq = Cqp pq (la expresi´on anterior representa la suma de Cpq respecto a p y respecto a q, de modo que los nombres que demos a dichos ´ındices son irrelevantes). Ahora tenemos en cuenta que los super´ındices son sim´etricos, mientras que los sub´ındices son antisim´etricos, con esto deducimos pq qp pq pq Cpq = Cqp = Cqp = −Cpq pq pq pq es decir Cpq = −Cpq (a = −a), de donde deducimos Cpq = 0.

2.7. PROBLEMAS

55

pq Si contraemos los ´ındices de la otra forma posible, repitiendo estos pasos con Cqp llegamos a pq Cqp = 0, de manera totalmente an´aloga.

P.2.13. Se trata de un producto de contracci´on de dos ´ındices, donde los ´ındices del tensor Aij son sim´etricos. Lo primero que haremos ser´a descomponer el tensor T ij como suma de un tensor sim´etrico y uno antisim´etrico: ) 1 ( ij ) 1 ( ij ij ij T ij = T + T ji + T − T ji = Tsim + Tantisim 2 2 Sustituyendo tenemos que: ) ( ij ij Aij + Tantisim T ij Aij = Tsim Del ejercicio anterior sabemos que la contracci´on de dos ´ındices sim´etricos con dos ´ındices ij antisim´etricos es nula, por lo que Tantisim Aij = 0 y ij Aij = T ij Aij = Tsim

) 1 ( ij T + T ji Aij 2

que es lo que quer´ıamos demostrar. P.2.16. Hemos visto que los tensores is´otropos son aquellos objetos cuyas componentes no var´ıan al realizar un cambio de base ortogonal. Consideremos el caso covariante, su transformaci´on bajo el cambio de base de matriz C es δ˜ij = Cik Cjl δkl Operando con las componentes tenemos δ˜ij =

n ∑

Cik Cjk

k=1

Por otro lado, tenemos que

(C −1 )ik Cjk = δji

como el cambio de base es ortogonal, es decir, (C −1 )ij = (C T )ij = Cij , en componentes tendremos n n ∑ ∑ −1 i k −1 i k (C )k Cj = (C )k Cj = Cik Cjk = δji k=1

k=1

Con esto se demuestra que las componentes del tensor δ˜ij son iguales a las componentes del tensor δji , las cuales a su vez son las mismas que las del tensor δij . La demostraci´on para la delta de Kronecker doble contravariante se realiza de forma similar, pero utilizando la matriz inversa del cambio de base, D, en lugar de C. Este es uno de los pocos ejemplos en los que la notaci´on matricial simplifica la demostraci´on, pues la expresi´on δ˜ij = C k C l δkl i

j

puede escribirse en forma matricial de la forma ˜ = [C]T [δ][C] [δ] Como [δ] = 1 donde

1 es la matriz identidad, y [C]T = [C −1 ] llegamos al resultado ˜ =1 [δ]

CAP´ITULO 2. TENSORES

56

P.2.17. Tenemos que demostrar que las componentes del tensor δ˜ji dado por la transformaci´on δ˜ji = Dki Cjl δlk son

 1 si i = j δ˜ji = 0 si i = ̸ j

En efecto, las componentes de la expresi´on anterior se simplifican a δ˜ji = Dki Cjk = δji

2.8.

Bibliograf´ıa

Para profundizar sobre la aparici´on de tensores de orden superior en f´ısica se recomienda el libro de Feynman [14, 15] (volumen 2 temas 31, 38, 39 y 42), la introducci´on que hemos presentado aqu´ı se basa en cierta medida en la de Feynman. Para las aplicaciones del c´alculo tensorial en mec´anica de fluidos se recomienda el libro de Aris [18]. Adem´as de los anteriores, para escribir este cap´ıtulo se han consultado principalmente los textos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2].

Cap´ıtulo 3

Densidades tensoriales Existen magnitudes perfectamente bien definidas desde el punto de vista matem´atico que, sin embargo, no cumplen la ley tensorial de transformaci´on bajo cambios de base que hemos estudiado hasta ahora (ver Ec. (2.1)). Un ejemplo muy sencillo es el producto vectorial de dos vectores en R3 , cuyas componentes se transforman de acuerdo a la ley tensorial de objetos 1-covariantes, pero multiplicada por el signo (+1 o −1) del determinante de la matriz del cambio de base. En este cap´ıtulo veremos con todo detalle c´omo se define y c´omo se transforma bajo cambios de coordenadas el producto vectorial de dos vectores. Los objetos con comportamiento tensorial bajo cambios de base con determinante positivo, pero que siguen una ley de transformaci´on tensorial con un factor −1 extra si el determinante del cambio de base es negativo, se denominan tensores axiales, y con frecuencia se denominan tensores polares a los verdaderos tensores, para distinguirlos de los axiales. El producto vectorial de dos vectores y el rotacional de un campo vectorial en R3 son ejemplos importantes de vectores axiales. En general se denominan pseudo-tensores a los objetos que se transforman bajo cambios de coordenadas siguiendo una ley de transformaci´on tensorial, pero con alguna correcci´on, generalmente dada por alg´ un factor extra, como p. ej. el signo del determinante de la matriz del cambio de base en el caso de los tensores axiales, o el determinante de la matriz del cambio de base elevado a alguna potencia en el caso de las densidades tensoriales. Veamos otro ejemplo de comportamiento ligeramente distinto del comportamiento tensorial que hemos visto hasta ahora. Consideremos el caso del determinante del tensor m´etrico (det (gij )), que a partir de ahora denotaremos sencillamente por g ≡ det (gij ): ⋆ ¿C´omo se transforma el determinante del tensor m´etrico bajo cambios de coordenadas? De la ley de transformaci´on de las componentes del tensor m´etrico bajo el cambio de base C g˜ij = Ciα Cjβ gαβ

(3.1)

y de las propiedades de los determinantes deducimos inmediatamente det (˜ gij ) = |C|2 det (gαβ ) ,

es decir

g˜ = |C|2 g

(3.2)

donde |C| denota el determinante de la matriz del cambio C. Esto indica que g no es exactamente un escalar, ni tampoco un tensor de ning´ un tipo al menos seg´ un las leyes de transformaci´on que hemos visto hasta ahora, a menos que |C| = ±1, es decir, si el cambio de base es ortogonal, en cuyo caso g se comporta como un escalar. Otro ejemplo de este tipo de comportamiento es el que muestra la densidad de cualquier medio material, descrita por la funci´on ρ = ρ(x, y, z) (masa por unidad de volumen en el punto de 57

CAP´ITULO 3. DENSIDADES TENSORIALES

58

coordenadas x, y, z), o similarmente la densidad de cualquier otra magnitud f´ısica (como p. ej. energ´ıa o momento lineal) que resulta al considerar la cantidad de una cierta magnitud extensiva que existe en una regi´on del espacio “por unidad de volumen”. En principio podr´ıa parecer que la densidad deber´ıa ser un escalar, sin embargo esto no es cierto, al menos en el sentido estricto del t´ermino. Supongamos un observador que mide la densidad de un medio ρ = dm/dV de acuerdo a un determinado sistema de coordenadas x1 , x2 , x3 , y otro respecto a otro x′1 , x′2 , x′3 ; las medidas de estos observadores no coincidir´an si los “tama˜ nos” de los correspondientes elementos diferenciales de ′ volumen dV y dV no son iguales, por tanto ρ no es invariante bajo cualquier cambio de coordenadas, es decir, no es un escalar. En lo que necesariamente deber´an coincidir ambos observadores es en la cantidad de masa contenida en cualquier volumen finito, dada por ∫∫∫

∫∫∫ 1

m=

2

3

ρ(x , x , x ) dV = V

V



ρ˜(x′1 , x′2 , x′3 ) dV ′

Sustituyendo en esta relaci´on la regla para cambios de coordenadas bajo integrales m´ ultiples, encontramos que la ley de transformaci´on de la densidad bajo un cambio de coordenadas es ′1

′2

′3

[

ρ˜(x , x , x ) = abs det

(

∂xi ∂x′j

)] ρ(x1 , x2 , x3 )

( i) ∂x donde det ∂x es el determinante jacobiano del cambio de coordenadas. El valor absoluto del ′j determinante jacobiano representa precisamente la variaci´on de tama˜ no del elemento diferencial de volumen al pasar de un sistema de coordenadas al otro ( abs det

∂xi ∂x′j

) =

dV . dV ′

Ante una transformaci´on ortogonal no hay cambio en el elemento de volumen y en ese caso la densidad se transforma como un escalar, pero ante un cambio de coordenadas no ortogonal la densidad no se comporta exactamente como un escalar, como lo hace la masa total, sino que se multiplica por el valor absoluto del determinante de la matriz del cambio. Las magnitudes que cumplen esta ley de transformaci´on se denominan densidades escalares. A todo esto, en el ejemplo anterior hemos mencionado que bajo un cambio de coordenadas la matriz del cambio de base est´a dada por la matriz Jacobiana de la transformaci´on de coordenadas; en el cap´ıtulo pr´oximo veremos con todo detalle el origen y significado de esta afirmaci´on, cuando estudiemos el tema de los campos tensoriales. El ejemplo anterior no es en absoluto excepcional, en f´ısica hay multitud de magnitudes que se definen como la integral de la correspondiente densidad en un dominio espacial determinado. En todos esos casos encontrar´ıamos un comportamiento similar bajo transformaciones de coordenadas, de modo que parece conveniente generalizar la anterior ley de transformaci´on de magnitudes tensoriales (Ec. (2.1)) para incluir tambi´en estos tipos de comportamiento. De acuerdo a los ejemplos anteriores vemos que en general hay dos factores extra que debemos incluir para generalizar la ley de transformaci´on Ec. (2.1). En primer lugar hemos visto que en algunos casos aparece un factor extra dado por det C elevado a una cierta potencia w; en segundo lugar, en algunas ocasiones aparece un factor extra dado por el signo de det C. Dependiendo del tipo de factor extra que debamos a˜ nadir a la ley de transformaci´on tensorial Ec. (2.1) tenemos estos casos:

´ DE DENSIDADES TENSORIALES GENERALES 3.1. LEY DE TRANSFORMACION

59

Los objetos cuyas componentes se transforman bajo un cambio de base seg´ un una ley tensorial multiplicada por el determinante de la matriz del cambio elevado a una potencia w se denominan pseudotensores o densidades tensoriales de peso w, de modo que los verdaderos tensores corresponden a densidades tensoriales de peso nulo. En algunos textos se denomina tensores absolutos a los tensores y tensores relativos de peso w a los pseudotensores de peso w. Claramente los pseudotensores se transforman bajo rotaciones de los ejes (cambios de base con |C| = 1) como verdaderos tensores, de modo que si nos restringimos a este tipo de cambios de coordenadas no observaremos diferencias entre tensores absolutos y relativos. Por otra parte, los objetos cuyas componentes se transforman siguiendo una ley tensorial multiplicada por el signo del determinante del cambio de base se denominan pseudo-tensores axiales (con frecuencia sencillamente tensores axiales), mientras que los verdaderos tensores se denominan tensores polares.

3.1.

Ley de transformaci´ on de densidades tensoriales generales

Con el objeto de incluir tambi´en comportamientos bajo cambios de base como los que acabamos de mencionar, generalizamos la anterior ley de transformaci´on bajo cambios de base (Ec. (2.1)) por medio de la siguiente definici´on: ⋆ Se denomina densidad tensorial (tambi´en tensor relativo o pseudo-tensor) r-covariante scontravariante de peso w y paridad ε (ε = ±1) a cualquier objeto descrito respecto a una ... is base del espacio producto tensorial por medio de las componentes Tji11 ji22 ... jr , tales que bajo el −1 cambio de base C (con inversa D = C ) se transforman seg´ un la ley pr w p1 p2 ... is i1 i2 q1 q2 ... qs is T˜ji11 ji22 ... jr = ε |C| Cj1 Cj2 . . . Cjr Dq1 Dq2 . . . Dqs Tp1 p2 ... pr {z } {z } | | r veces

(3.3)

s veces

donde la paridad ε puede tomar los valores 1 o sign |C|, siendo |C| el determinante de la matriz del cambio de base. ⋆ Dependiendo del valor del coeficiente ε, se denominan tensores polares a aquellos para los que ε = 1 independientemente del cambio realizado, y tensores axiales a aquellos para los que ε es igual al signo del determinante de C, que denotaremos a partir de ahora por s s ≡ sign |C| =

|C| abs |C|

(3.4)

Claramente los tensores absolutos son tensores polares (ε = 1) de peso w = 0. Por otra parte, √ es f´acil ver que de acuerdo a esta definici´on g es un (pseudo-) tensor axial de peso 1 y rango tensorial nulo, es decir, una densidad escalar. Para hacerse una idea intuitiva del significado de los par´ametros de paridad y peso, de manera algo imprecisa podemos decir que dado un pseudo-tensor con peso w ̸= 0, realmente es la integral de este objeto en un cierto dominio lo que define un tensor absoluto, de tal forma que el peso de la densidad tensorial est´a relacionado con la dimensionalidad del dominio donde debe integrarse esta para obtener un tensor absoluto. En cuanto a la paridad, el valor ε = 1 o s depende de si las componentes del objeto que estamos describiendo se multiplican por −1, o no, bajo un cambio con determinante negativo, es decir, al cambiar la orientaci´on de la base.

CAP´ITULO 3. DENSIDADES TENSORIALES

60

Los comportamientos de tipo pseudo-tensorial como los que acabamos de definir son muy frecuentes en la pr´actica. De hecho, de todas las magnitudes f´ısicas con comportamiento tensorial bien definido aproximadamente la mitad son pseudotensores. Normalmente las denominaciones formales de este tipo de objetos (pseudo-tensores, densidades tensoriales, etc.) se emplean cuando se quiere recalcar las diferencias de comportamiento entre tensores absolutos y relativos o entre tensores polares y axiales, pero en el lenguaje coloquial es bastante frecuente omitir este nivel de detalle para simplificar la nomenclatura, de modo que suele denominarse sencillamente como tensor a cualquier objeto cuyas componentes se transforman de acuerdo a la ley de transformaci´on generalizada Ec. (3.3), quedando claro por el contexto si nos referimos a un tensor axial, a una densidad tensorial, o a un tensor absoluto. Por ejemplo, en la pr´actica es muy frecuente referirse a la funci´on densidad como un escalar en lugar de una densidad escalar. En el estudio de campos electromagn´eticos es frecuente referirse al campo el´ectrico como el vector E y al campo magn´etico como el vector B, omitiendo que en realidad E es un vector polar y B un vector axial. Cuando se estudia c´alculo tensorial y geometr´ıa diferencial es muy importante comprender los distintos tipos de comportamiento que pueden presentar estos objetos. No obstante, en la pr´actica los cambios de base m´as frecuentes corresponden a simples rotaciones, con |C| = +1, en cuyo caso todos estos comportamientos colapsan con el de los tensores absolutos (de hecho, en la pr´actica es raro emplear cambios de base con sign |C| = −1).

3.1.1.

Producto de densidades tensoriales

Dadas dos densidades tensoriales A y B (rA -covariante sA -contravariante y rB -covariante sB contravariante respectivamente), con paridades εA y εB y pesos wA y wB , el comportamiento bajo cambios de base de su producto tensorial est´a dado por i1 i2 ... is ˜ i1 i2 ... isB = εA εB |C|wA +wB C p1 C p2 . . . C prA Di1 Di2 . . . DqissA A˜j1 j2 ... jrA B q1 q2 j1 j2 ... jrB j1 j2 j rA A A {z } | {z } | sA veces

rA veces pr

is

q1 q2 ... qs

q1 q2 ... qs

Cjp11 Cjp22 . . . Cjr B Dqi11 Dqi22 . . . DqsBB Ap1 p2 ... prAA Bp1 p2 ... prBB B {z } | {z } | rB veces

(3.5)

sB veces

La paridad del producto tensorial es, por tanto, el producto de las paridades, mientras que el peso es la suma de los pesos. Tambi´en vemos que esta regla de composici´on no cambia si realizamos la contracci´on de cualquier par de ´ındices en el producto tensorial de A por B. Como consecuencia, el producto tensorial y/o de contracci´on de dos tensores de pesos opuestos genera un tensor absoluto, el producto (tensorial y/o de contracci´on) de dos tensores de paridad opuesta genera un tensor axial, mientras que el producto de dos tensores con la misma paridad genera un tensor polar, independientemente de la paridad de los tensores de partida, tal y como resumimos en la tabla 3.1. Por otra parte el producto vectorial de dos vectores no cumple esta regla, ya que el producto vectorial de dos vectores no involucra exclusivamente a los dos vectores considerados, sino que es la contracci´on del producto tensorial de estos vectores multiplicado tensorialmente por un tercer factor, dado por el tensor alternante de Levi-Civita, como veremos mas adelante en este cap´ıtulo.

3.2.

Espacios orientables

La paridad de un tensor (ε = 1, o s) est´a relacionada con el comportamiento de las componentes del tensor bajo cambios en la orientaci´on de la base del espacio vectorial al que pertenece.

3.2. ESPACIOS ORIENTABLES

61 Tensor B

Tensor A

axial

polar

axial

polar

axial

polar

axial

polar

Cuadro 3.1: Paridad del tensor dado por el producto tensorial o de contracci´on (respecto de cualquier par de ´ındices) de dos tensores A y B.

En la mayor´ıa de los casos los espacios vectoriales con los que trabajamos son orientables. Esto est´a relacionado con la topolog´ıa del espacio y significa que en general no es posible transformar cualquier objeto definido en este espacio en su imagen especular mediante rotaciones y traslaciones exclusivamente. Por ejemplo, R3 es un espacio orientable dado que no es posible hacer coincidir la mano derecha con la izquierda por medio de traslaciones y rotaciones, sino que es necesario introducir al menos una reflexi´on. En el an´alisis de curvas cerradas planas la orientabilidad de R2 nos permite distinguir los dos sentidos de giro posibles. Por otra parte, en el an´alisis de superficies en 3 dimensiones la orientabilidad de R3 nos permite distinguir las dos formas posibles de definir la normal a cualquier superficie (“hacia fuera” o “hacia dentro” si la superficie es cerrada), y en general nos permite distinguir un objeto de su imagen especular, en el caso en que esta no pueda superponerse con aquel. Los objetos que cumplen esta propiedad se llaman quirales, un cubo no es quiral porque puede superponerse con su imagen especular, pero la mano derecha y la izquierda s´ı son quirales. La existencia de objetos quirales tiene consecuencias muy importantes en el mundo f´ısico. Por ejemplo, en bioqu´ımica es frecuente que las mol´eculas quirales (denominadas enanti´omeros) presenten comportamientos biol´ogicos totalmente distintos. El ejemplo cl´asico de espacio no orientable es la banda de Moebius, dada por la superficie que se obtiene al pegar los extremos opuestos de una banda despu´es de girar uno de los extremos 180 grados respecto al eje longitudinal de la banda (Fig. 3.1). Si consideramos el vector normal a una banda de Moebius en un punto cualquiera, vemos que al desplazar este vector a lo largo de la superficie recorriendo el bucle una vez encontramos el vector de partida multiplicado por −1 (encontramos este resultado al recorrer el bucle un n´ umero impar de veces, y recuperamos el vector de partida al recorrer el bucle un n´ umero par de veces). Esto implica que la banda de Moebius tiene una u ´nica cara (y un u ´nico borde), y por tanto no es orientable. En un espacio con estructura similar a la banda de Moebius cualquier objeto es indistinguible de su imagen especular, ya que basta con hacer que dicho objeto recorra un cierto ciclo para hacerlo coincidir con su imagen especular. Esto no es posible en espacios orientables.

3.2.1.

Bases ordenadas y orientaci´ on

Hasta ahora nos hemos referido en muchas ocasiones a una base cualquiera ({ei }ni=1 ) de un espacio vectorial, sin prestar mayor atenci´on al orden con el que numeramos los vectores de la base. En un espacio vectorial orientable el orden de los vectores de la base es importante, ya que define la orientaci´ on de la base. Dadas dos bases ordenadas de un determinado espacio vectorial orientable, se dice que estas bases tienen la misma orientaci´ on si la matriz que pasa de una base a la otra tiene determinante positivo, y se dice que tienen orientaci´on contraria si el determinante de la matriz del cambio de base es negativo. En el cap´ıtulo primero hemos visto que las rotaciones son

62

CAP´ITULO 3. DENSIDADES TENSORIALES

Figura 3.1: Banda de Moebius.

transformaciones con determinante +1; el valor absoluto 1 indica que las rotaciones no introducen cambios en el elemento de volumen y el signo + que no introducen cambios en la orientaci´on del espacio. En general cuando una matriz de cambio de base tiene determinante negativo significa que en el cambio hay una inversi´ on de los ejes, o (equivalentemente) una permutaci´on impar de los vectores de la base (seguida posiblemente de una o varias rotaciones). De las propiedades de los determinantes se deduce que la relaci´on definida por la orientaci´ on es una relaci´on de equivalencia, de modo que las bases de un espacio vectorial orientable est´an clasificadas en dos clases de equivalencia, correspondientes a las dos orientaciones posibles. Se define como orientaci´ on positiva la de la base can´onica y su clase de equivalencia, y como orientaci´ on negativa la de todas las bases relacionadas con la base can´onica por medio de una matriz de cambio con determinante negativo. Es interesante observar que la orientaci´on de una base es una propiedad que no puede definirse de manera geom´etrica sin hacer referencia a la orientaci´on contraria. Es el contraste entre ambas orientaciones posibles lo que define esta propiedad. Tambi´en es interesante observar que todas las bases con orientaci´on positiva est´an conectadas mediante transformaciones invertibles que se pueden construir como composici´on de transformaciones infinitesimales a partir de la identidad, mientras que las transformaciones que cambian la orientaci´on de la base no pueden construirse como superposici´on de transformaciones infinitesimales invertibles a partir de la identidad. El motivo es que construir una matriz de cambio de base por medio de la superposici´on de transformaciones infinitesimales a partir de la identidad implica que C var´ıa de manera continua desde la identidad a medida que aplicamos estas transformaciones infinitesimales. Por tanto, si partimos de la identidad (C = 1, |C| = +1) y queremos llegar a una transformaci´on con |C| < 0, necesariamente en el camino hemos debido pasar en alg´ un punto por una matriz C con |C| = 0 (ya que el determinante var´ıa de manera continua con C), pero esa transformaci´on no es admisible como cambio de base ya que no es invertible. Esto hace que desde el punto de vista topol´ogico las aplicaciones lineales invertibles (es decir, con determinante no nulo) dan lugar a un espacio que tiene dos partes (correspondientes

3.3. S´IMBOLO ALTERNANTE DE LEVI-CIVITA

63

a los dos signos posibles del determinante) que no pueden conectarse por medio de aplicaciones continuas, es decir, dos partes no conexas. De estas dos partes, la parte con determinante positivo es la “componente conexa con la identidad” de este grupo de transformaciones, mientras que la parte con determinante negativo es la “componente no conexa con la identidad”.

3.3.

S´ımbolo alternante de Levi-Civita

En este apartado veremos el concepto de s´ımbolo alternante de Levi-Civita, dado en n dimensiones por ϵi1 ...in (ϵi1 ...in en su versi´on contravariante), y definido como la densidad tensorial totalmente antisim´etrica e is´otropa cuyos valores est´an dados por +1 si los ´ındices i1 . . . in son una permutaci´ on par de 12 . . . n, −1 si los ´ındices i1 . . . in son una permutaci´ on impar de 12 . . . n, y 0 si hay alg´ un ´ındice repetido   +1 si i1 . . . in es una permutaci´on par de 1 . . . n i1 ...in ϵi1 ...in = ϵ = −1 si i1 . . . in es una permutaci´on impar de 1 . . . n (3.6)   0 si hay alg´ un ´ındice repetido Es conveniente aclarar que la expresi´on anterior: ϵi1 ...in = ϵi1 ...in , tiene sentido cuando se interpreta “componente a componente”, en otras palabras ϵi1 ...in = ϵi1 ...in significa que “los valores de las componentes ϵi1 ...in coinciden con los correspondientes valores de las componentes ϵi1 ...in ”. Claramente la igualdad anterior no tiene sentido como igualdad entre tensores (o pseudo-tensores), s´olo tiene sentido cuando se interpreta como igualdad entre valores num´ericos de componentes. En lo sucesivo daremos esta aclaraci´on por sobre-entendida. Por definici´on es evidente que ϵi1 ...in son antisim´etricos bajo permutaci´on de cualquier par de ´ındices, y tambi´en por definici´on ϵi1 ...in es is´otropo, de modo que los valores de ϵi1 ...in y ϵi1 ...in son los mismos independientemente de la base que estemos empleando. Por otra parte, por las propiedades de los determinantes ϵi1 ...in es una densidad tensorial n-covariante de peso −1, mientras que ϵi1 ...in es una densidad tensorial n-contravariante de peso +1, como veremos a continuaci´on para el caso tridimensional. El s´ımbolo alternante de Levi-Civita se emplea en el estudio de las propiedades de los determinantes, en todo lo relacionado con rotaciones y productos vectoriales (en 3 dimensiones) y su generalizaci´on a espacios n-dimensionales. El s´ımbolo alternante de Levi-Civita aparece, por ejemplo, en la definici´on del determinante de matrices n-dimensionales: dada la matriz A con elementos Aji , su determinante est´a dado por det(A) =

n ∑

ϵi1 ···in Ai11 · Ai22 · · · Ainn .

(3.7)

i1 ,i2 ,...,in =1

Para fijar ideas veamos el s´ımbolo de Levi-Civita en 2 dimensiones, dado por ϵij . En este caso los ´ındices ij solo pueden tomar los valores 1 y 2, lo que hace que el caso bidimensional sea un poco trivial, ya que solo hay 2! = 2 maneras posibles de ordenar los valores 1 y 2 sin repetici´on: por un lado tenemos 12 que es la permutaci´on trivial y tiene paridad positiva y por otro 21, que tiene paridad negativa (es decir, es una permutaci´on impar) ya que para obtener la permutaci´on 21 a partir de la permutaci´on trivial 12 hemos tenido que realizar un n´ umero impar (1) de intercambios (o trasposiciones). En definitiva los valores posibles de ϵij son  12  ϵ12 = ϵ = +1 ij ϵij = ϵ = ϵ21 = ϵ21 = −1 (3.8)   11 22 ϵ11 = ϵ = ϵ22 = ϵ = 0

CAP´ITULO 3. DENSIDADES TENSORIALES

64

En espacios tridimensionales, el s´ımbolo alternante de Levi-Civita ϵijk se define como el objeto dado en cualquier base por

ϵijk

  +1 si ijk es una permutaci´on par de 123 = −1 si ijk es una permutaci´on impar de 123   0 si hay alg´ un ´ındice repetido

(3.9)

En este caso los ´ındices ijk pueden tomar los valores 1, 2 y 3, de modo que existen 3! = 6 permutaciones diferentes, 3 de ellas con paridad positiva (123, 231, 312) y las otras 3 con paridad negativa (132, 213, 321). De manera que los valores posibles de ϵijk son { ϵijk =

ϵ123 = ϵ231 = ϵ312 = +1 ϵ132 = ϵ213 = ϵ321 = −1

(3.10)

siendo nulos todos los restantes, ya que tienen alg´ un ´ındice repetido. Los valores de la versi´ on ijk contravariante (ϵ ) se definen de manera an´aloga. Para deducir c´omo se transforma este objeto bajo el cambio de base dado por la matriz C recordamos que, por definici´on, el determinante de C est´a dado por |C| = C1i C2j C3k ϵijk

(3.11)

Como las componentes de ϵijk son las mismas independientemente de la base encontramos ϵ˜pqr = |C|−1 Cpi Cqj Crk ϵijk

(3.12)

Por tanto el s´ımbolo ϵijk ser´ıa un tensor 3-covariante de no ser por el factor |C|−1 , este factor hace que ϵijk sea un pseudotensor 3-covariante de peso −1. Por otra parte, ϵijk s´ı se transforma como un tensor 3-covariante bajo transformaciones ortogonales (C −1 = C T ) propias (|C| = 1), es decir, bajo rotaciones de los ejes. La versi´on 3-contravariante del s´ımbolo alternante de Levi-Civita se define an´alogamente, como el objeto dado en cualquier base por

ϵijk

  +1 si ijk es una permutaci´on par de 123 = −1 si ijk es una permutaci´on impar de 123   0 si hay alg´ un ´ındice repetido

(3.13)

sus valores son los mismos que en la versi´on covariante, como ya hemos comentado, y puede comprobarse f´acilmente que ϵijk es un pseudotensor 3-contravariante de peso +1 (ver problema P.3.6). Por otra parte, por su propia definici´on est´a claro que los s´ımbolos alternantes de Levi-Civita ϵijk y ϵijk son antisim´etricos bajo permutaciones de cualquier par de ´ındices, y adem´as son is´otropos bajo cualquier cambio de base.

3.3.1.

Tensor alternante de Levi-Civita

Al comienzo de este tema hemos visto que el determinante del tensor m´etrico (g) es un pseudo√ tensor de peso 2 y rango nulo. Suponiendo que g > 0, esto implica que g es un pseudotensor axial √ de peso 1, de tal forma que si formamos el producto gϵijk los comportamientos pseudotensoriales

3.4. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES de peso opuesto de εijk

65

√ g y ϵijk se cancelan, resultando un tensor axial. Definimos entonces el objeto εijk ≡

√ gϵijk

(3.14)

como el tensor alternante de Levi-Civita. Claramente εijk es un tensor axial 3-covariante ε˜pqr = s Cpi Cqj Crk εijk

(3.15)

An´alogamente, por medio de la contracci´on con el tensor m´etrico dual de los 3 ´ındices de εijk encontramos la versi´on 3-contravariante de este objeto, dada por ϵijk εijk = g ip g jq g kr εpqr = √ g

(3.16)

que se comporta bajo cambios de base como un tensor axial 3-contravariante. Es importante observar que el s´ımbolo alternante de Levi-Civita no cumple exactamente la relaci´on habitual de subida y bajada de ´ındices, mientras que el tensor alternante de Levi-Civita s´ı la cumple. A partir de las definiciones de εijk y εijk es inmediato deducir que la relaci´on entre ϵijk y ϵijk est´a dada por ϵijk √ √ = g ip g jq g kr gϵpqr g



ϵijk = g g ip g jq g kr ϵpqr

(3.17)

Como dec´ıamos antes, todas las definiciones anteriores se generalizan al caso de n dimensiones de manera an´aloga. De todas formas en este cap´ıtulo nos centraremos en el caso de 3 dimensiones por su especial relevancia, en particular para la definici´on tensorial del conocido producto vectorial de dos vectores, tal y como veremos a continuaci´on.

3.4.

Producto vectorial en espacios tridimensionales

Los espacios tridimensionales son excepcionales en el sentido en que son el u ´nico caso en que el producto di´adico antisim´etrico de dos vectores cualesquiera (dado por xy − yx) tiene el mismo n´ umero de componentes no nulas que los vectores habituales del espacio. A partir de las 3 componentes no nulas de xy −yx puede definirse un vector axial del espacio dual (ω = ωi ei ), denominado producto vectorial de x por y (ω = x × y), tal que para cualquier vector del espacio z el producto escalar ω ·z = ωi z i es el volumen del paralelep´ıpedo formado por los vectores x, y y z. Esto implica que el vector ω = x × y est´a orientado seg´ un la direcci´on normal al plano definido por los vectores x e y y que su norma es igual al ´area del paralelogramo definido por x e y, lo cual constituye la definici´on del producto vectorial de x por y. Veamos esto con algo mas de detalle. En general el producto di´adico antisim´etrico de dos vectores, y por tanto tambi´en el producto vectorial, est´a relacionado con el c´alculo de vol´ umenes y con la aplicaci´on de rotaciones infinitesimales. En el caso particular de espacios tridimensionales es mucho m´as habitual trabajar con el producto vectorial que con el producto di´adico antisim´etrico. En f´ısica se describen por medio de productos vectoriales muchas magnitudes relacionadas con rotaciones, como por ejemplo el momento de una fuerza, la velocidad angular, o el rotacional de un campo vectorial. Tal y como veremos a continuaci´on, el producto vectorial de dos vectores se comporta como un verdadero vector s´olo bajo cambios de base con determinante positivo, pero sus componentes son invariantes bajo inversiones de los ejes (al contrario que las componentes de los vectores polares), lo que lo convierte en un vector axial.

CAP´ITULO 3. DENSIDADES TENSORIALES

66

3.4.1.

Definici´ on de producto vectorial

Dados dos vectores x e y pertenecientes a un espacio vectorial con dimensi´on 3, el producto vectorial de x por y (denotado por x × y) se define como: el vector perpendicular al plano formado por x e y, con m´odulo dado por la superficie del paralelogramo definido por los vectores x e y, y con sentido tal que la terna ordenada {x, y, x × y} tiene orientaci´on positiva. Claramente, en dimensi´on 1 y 2 la anterior definici´on no es aplicable, mientras que en dimensi´on 4 (o mayor) el subespacio perpendicular al plano formado por x e y tiene dimensi´on 2 (o mayor) y por tanto esta definici´on no determina un vector, de modo que el producto vectorial es una operaci´on exclusiva de espacios vectoriales de 3 dimensiones. El producto exterior de p-formas proporciona la generalizaci´on al caso n-dimensional, pero de momento consideraremos s´olo el producto vectorial habitual. Seg´ un la definici´on anterior la norma del producto vectorial est´a dada por c ∥x × y∥ = ∥x∥∥y∥ sin xy

(3.18)

c el ´angulo formado por x e y. Por otra parte, la condici´on que determina el sentido de siendo xy x × y implica la propiedad anticonmutativa del producto vectorial x × y = −y × x, que a su vez implica x × x = 0, ∀x ∈ R3 . Esta condici´on tambi´en implica que las componentes del producto vectorial permancen invariantes bajo una inversi´on de los ejes, es decir, bajo el cambio de base definido por la matriz con componentes Cji = −δji , lo que convierte al producto vectorial en un vector axial. Definici´ on tensorial de producto vectorial Dado que el producto vectorial es una operaci´on lineal, para calcular el producto vectorial de 2 vectores cualesquiera basta con conocer la tabla de productos vectoriales de los vectores de la base. En el caso habitual de R3 con m´etrica Eucl´ıdea y coordenadas cartesianas, aplicando directamente la definici´on de producto vectorial encontramos las conocidas relaciones i × j = k,

k × i = j,

j×k =i

(3.19)

En ese caso, esta informaci´on junto con la propiedad anticonmutativa es suficiente para calcular el producto vectorial de cualquier par de vectores. Pero ⋆ ¿c´omo podemos calcular el producto vectorial en coordenadas arbitrarias y con m´etrica no necesariamente Eucl´ıdea? En algunos textos se cita sin mayor justificaci´on la f´ormula que permite calcular productos vectoriales en coordenadas arbitrarias (Ec. (3.21), equivalentemente Ec. (3.22)), sin embargo resulta instructivo deducir esta f´ormula a partir de la definici´on, tal y como se muestra a continuaci´on. Como ya hemos dicho m´as arriba, dado que este producto es lineal basta conocer la tabla de productos vectoriales de los vectores de la base, independientemente de la m´etrica y de la base que estemos empleando. Consideremos entonces el producto vectorial de los vectores ei por ej , pertenecientes a una base arbitraria {e1 , e2 , e3 }. Suponiendo que i ̸= j (en caso contrario el producto es nulo), aplicando la definici´on vemos que el producto ei × ej ser´a proporcional a ek , con

3.4. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES

67

k ̸= i y k ̸= j, de esta forma garantizamos las relaciones de ortogonalidad (ei × ej ) · ei = (ei × ej ) · ej = 0, que por definici´on debe cumplir ei × ej . Suponiendo que ijk forman una permutaci´on con paridad positiva de 123, podemos escribir ei × ej = ωek , donde ω es un n´ umero positivo. Para calcular ω imponemos ∥ωek ∥ = ∥ei ∥∥ej ∥ sin α, siendo α el ´angulo formado por ei y ej . Elevando esta relaci´on al cuadrado y aplicando cos2 α + sin2 α = 1 encontramos g g ω 2 = g ii g ij /g kk ji

jj

donde hemos aplicado las definiciones de tensor m´etrico y tensor m´etrico inverso. Pero el elemento g kk de la inversa del tensor m´etrico est´a dado precisamente por el menor que resulta de suprimir la fila y la columna con ´ındice k en dicha matriz, dividido por el determinante (g) gii gij kk g = g g /g ji

jj

√ ya que estamos suponiendo que ijk son una permutaci´on par de 123. Entonces ei × ej = gek para cualquier combinaci´on de ´ındices ijk dada por una permutaci´on par de 123. Como el producto vectorial es antisim´etrico esta relaci´on puede escribirse como ei × ej =

√ gϵijk ek = εijk ek

(3.20)

que es v´alida para cualquier valor de i, j y k. A partir de esta relaci´on el producto vectorial de 2 vectores cualesquiera x e y puede calcularse por medio de x × y = (xj ej ) × (y k ek ) = εijk xj y k ei

(3.21)

independientemente de la base y m´etrica consideradas. La anterior relaci´on Ec. (3.21) es la definici´on tensorial de producto tensorial. A la vista de este resultado es evidente que las coordenadas del producto vectorial de dos vectores definen un vector axial 1-covariante, ya que est´an dadas por la contracci´on del tensor axial 3-covariante εijk con el tensor absoluto 2-contravariante xj y k x × y = ωi ei ,

ωi = εijk xj y k

(3.22)

como adelant´abamos al comienzo de este tema. En el problema P.3.13 repasamos con algo m´as de detalle la deducci´on de Ec. (3.21). Propiedades del producto vectorial El producto vectorial cumple las siguientes propiedades cuya demostraci´on se deja para los ejercicios: propiedad distributiva respecto a la suma de vectores en ambos argumentos x × (y 1 + y 2 ) = x × y 1 + x × y 2

(3.23)

(x1 + x2 ) × y = x1 × y + x2 × y

(3.24)

propiedad asociativa respecto al producto por escalares ∀λ ∈ R,

λ (x × y) = (λx) × y = x × (λy)

(3.25)

CAP´ITULO 3. DENSIDADES TENSORIALES

68 propiedad anticonmutativa

x × y = −y × x

(3.26)

producto triple escalar (volumen de paralelep´ıpedos) a · (b × c) = b · (c × a) = c · (a × b)

(3.27)

producto triple vectorial, tambi´en conocido como identidad BAC–CAB de Lagrange a × (b × c) = b (a · c) − c (a · b)

(3.28)

(a × b) × c = b (a · c) − a (b · c)

(3.29)

Obs´ervese que si a, b y c son vectores polares, entonces a × (b × c) tambi´en es un vector polar, ya que es el producto vectorial de un vector polar por un vector axial. El producto vectorial de dos vectores cambia el car´acter axial/polar de manera contraria a como lo hace el producto tensorial. Es decir, el producto vectorial de dos vectores polares (o de dos vectores axiales) genera un vector axial, mientras que el producto vectorial de dos vectores de paridades opuestas genera un vector polar. identidad de Jacobi El producto vectorial no es asociativo, pero cumple la identidad de Jacobi, que se obtiene de forma trivial calculando cada t´ermino por medio de la identidad BAC–CAB x × (y × z) + y × (z × x) + z × (x × y) = 0

(3.30)

De las propiedades anteriores se deduce que el producto vectorial tambi´en cumple las siguientes propiedades interesantes: identidad de Binet-Cauchy (a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c)

(3.31)

producto (a × b) × (c × d) (a × b) × (c × d) = c (a · (b × d)) − d (a · (b × c)) = b (a · (c × d)) − a (b · (c × d))

3.4.2.

(3.32)

C´ alculo de vol´ umenes

Como consecuencia directa de la definici´on del producto vectorial, est´a claro que (x × y) · z es igual al volumen del paralelep´ıpedo definido por estos 3 vectores en R3 . Por tanto, como aplicaci´on directa de Ec. (3.21) vemos que el volumen del paralelep´ıpedo definido por los vectores x, y y z puede escribirse como x1 x2 x3 √ √ (3.33) V = (x × y) · z = gϵijk z i xj y k = g y 1 y 2 y 3 z 1 z 2 z 3 independientemente del sistema de coordenadas empleado.

3.4. PRODUCTO VECTORIAL EN ESPACIOS TRIDIMENSIONALES

69

Vector normal a una superficie En particular, si t1 y t2 representan dos vectores ortonormales tangentes a una superficie definida en R3 , su producto vectorial n = t1 ×t2 es un vector unitario normal a dicha superficie. Claramente, las dos orientaciones posibles del vector normal a una superficie dada corresponden a definir esta como n = t1 × t2 o como n = t2 × t1 .

3.4.3.

Rotaciones infinitesimales

Como es bien sabido, el producto vectorial est´a relacionado con rotaciones infinitesimales en 3 dimensiones. En general cualquier rotaci´on en un espacio n-dimensional est´a dada por un elemento del grupo especial ortogonal SO(n), definido como la componente con determinante +1 del grupo de aplicaciones ortogonales en n dimensiones O(n) (es decir, la componente conexa con la identidad de O(n)). Consideremos una rotaci´on de ´angulo infinitesimal dα en 3 dimensiones, claramente esta aplicaci´on estar´a dada por una cierta matriz ortogonal R(dα). Dado que rotamos un ´angulo infinitesimal, el resultado de aplicar esta rotaci´on sobre cualquier vector x ser´a igual al vector de partida mas una peque˜ na variaci´on R(dα)x = x + dx

(3.34)

por tanto la aplicaci´on R(dα) es igual a la identidad mas una peque˜ na perturbaci´on proporcional al ´angulo dα, que definimos como Adα R(dα) = 1 + Adα

(3.35)

Por definici´on esta aplicaci´on es ortogonal, de modo que (1 + Adα)−1 = cuencia, despreciando t´erminos del orden de (dα)2 encontramos

1 + AT dα. Como conse-

A + AT = 0

(3.36)

(por simplicidad en este apartado consideramos s´olo espacios con m´etrica Eucl´ıdea) de modo que A es una aplicaci´on antisim´etrica. En un espacio tridimensional A s´ olo tendr´a 3 componentes no nulas. Si suponemos que la rotaci´on R(dα) corresponde a una rotaci´on de ´angulo dα = ωdt, donde t representa el tiempo y ω la velocidad angular, y definimos las 3 componentes no nulas de A como dα A = dt

(

0 −ω3 ω2 ω3 0 −ω1 −ω2 ω1 0

) (3.37)

vemos que la velocidad con la que var´ıa x est´a dada por dx = (Adα) x = (ω × x) dt,

es decir

v≡

dx =ω×x dt

(3.38)

donde el vector axial ω, dado por las componentes ω1 , ω2 , ω3 , est´a orientado seg´ un el eje de giro y su norma es igual a la velocidad angular ω = dα/dt.

CAP´ITULO 3. DENSIDADES TENSORIALES

70

3.5.

Introducci´ on al producto exterior de p-formas

A continuaci´on presentamos algunos comentarios referentes al importante tema del c´alculo exterior en variedades diferenciables. Este apartado queda fuera del principal hilo de discusi´on, y puede omitirse sin p´erdida de continuidad en la exposici´on. El producto vectorial s´olo est´a definido para el caso de espacios tridimensionales, pero ⋆ ¿existe alg´ un producto que generalice esta operaci´on al caso de n dimensiones? La respuesta es afirmativa, pero para definir esta generalizaci´on, dada por el producto exterior de p-formas, debemos considerar objetos distintos de los familiares vectores. Las p-formas son aplicaciones multilineales de rango p totalmente antim´etricas (es decir, antim´etricas bajo permutaci´on de cualquier par de ´ındices), en otras palabras, las p-formas se corresponden con los tensores covariantes totalmente antim´etricos de rango p. Por ejemplo, los escalares son 0-formas, los vectores covariantes son 1-formas, los tensores covariantes antisim´etricos de rango tensorial 2 son 2-formas, etc. En el caso de los tensores hemos definido una operaci´on “producto tensorial” que nos permite definir objetos tensoriales de rango superior como producto tensorial de objetos tensoriales. Con las p-formas existe una operaci´on an´aloga, llamada producto exterior de p-formas, que se define como el producto tensorial antisimetrizado en todos los ´ındices. El motivo por el cual el producto exterior no coincide con el producto tensorial es el siguiente: si calculamos el producto tensorial de dos tensores covariantes totalmente antisim´etricos (p. ej. Aij y Bpq ) el objeto resultante es un tensor covariante cuyo rango es la suma de los de A y B (Aij Bpq = Cijpq en este caso) antisim´etrico respecto a permutaciones de los ´ındices heredados de cada uno de los factores por separado (ij por un lado y pq por otro en este caso), pero nada nos garantiza que sea totalmente antisim´etrico, es decir, Aij Bpq = Cijpq podr´ıa no ser sim´etrico bajo permutaciones de ´ındices cruzados, como j con p por ejemplo, de modo que el producto tensorial de dos p-formas no es necesariamente una p-forma. Con el objeto de definir un producto de p-formas cuyo resultado sea otra p-forma se define el producto exterior (denotado por ∧, exterior product o wedge producto en la literatura en lengua inglesa) como el producto tensorial antisimetrizado en todos los ´ındices. Por ejemplo, el producto exterior de dos vectores est´a dado por x∧y =x⊗y−y⊗x

(3.39)

(x ∧ y)ij = xi yj − xj yi

(3.40)

en componentes covariantes esto es

que claramente recuerda al producto vectorial. El producto vectorial de los vectores covariantes xi y yj contiene la contracci´on del tensor xj yk con el tensor antisim´etrico en todos sus ´ındices εijk . Si descomponemos el tensor xj yk en sus partes sim´etrica y antisim´etrica xj yk =

1 1 (xj yk + xk yj ) + (xj yk − xk yj ) 2 2

(3.41)

es evidente que s´olo la parte antisim´etrica produce una contribuci´on no nula, de forma que las componentes ω i del producto vectorial pueden escribirse como ωi =

1 ϵijk √ ωjk 2 g

(3.42)

´ AL PRODUCTO EXTERIOR DE P -FORMAS 3.5. INTRODUCCION

71

donde hemos definido el tensor absoluto 2-contravariante totalmente antisim´etrico ωjk como ωjk ≡ xj yk − xk yj

(3.43)

Como consecuencia vemos que, esencialmente, el producto vectorial de dos vectores x e y est´ a relacionado con el producto tensorial antisimetrizado de dichos vectores, dado por x ⊗ y − y ⊗ x, con componentes covariantes ωjk = xj yk − xk yj , es decir, con el producto exterior. En espacios n-dimensionales los tensores covariantes totalmente antisim´etricos (antisim´etricos en todos sus ´ındices), junto con la operaci´on de producto exterior ∧ (producto tensorial antisimetrizado en todos los ´ındices) definen un ´algebra, llamada ´ algebra exterior o ´ algebra de Grassmann. Las relaciones de simetr´ıa que cumplen los tensores covariantes totalmente antisim´etricos hacen que un tensor covariante antisim´etrico de rango p, que en principio tiene np componentes respecto de la base ei1 ⊗ · · · ⊗ eip , pueda describirse por medio de un n´ umero reducido de componentes respecto de la base ei1 ∧ · · · ∧ eip , donde los ´ındices i1 . . . ip cumplen la relaci´on i1 < i2 < . . . < in−1 < ip . Esto se debe a que (debido a la anti-simetr´ıa del tensor) todas las componentes no incluidas en este conjunto o bien son nulas, o bien pueden escribirse en funci´on dicho conjunto. Las componentes de los tensores antisim´etricos respecto de la base ei1 ∧ · · · ∧ eip (con i1 < . . . < ip ) forman el conjunto de componentes m´ınimo necesario para manejar este tipo de objetos, y se denominan componentes estrictas. Por ejemplo, en 3 dimensiones las componentes estrictas de wjk = xj yk − xk yj son ω12 ω13 y ω23 , ya que todas las restantes son, o bien nulas, o bien iguales a estas multiplicadas por −1. Las densidades tensoriales covariantes rango p totalmente antisim´etricas, descritas por medio de sus componentes estrictas, cumplen todas las propiedades necesarias para formar un espacio vectorial, cuyos elementos se denominan p-formas. El n´ umero de componentes estrictas que tiene un tensor totalmente antisim´etrico de rango p en un espacio de n dimensiones est´a dado por el n´ umero de opciones que existen para escoger p objetos sin repetici´on, de un conjunto de n objetos, es decir, por el coeficiente binomial ( ) n n! = p!(n − p)! p por(tanto las p-formas definidas sobre un espacio n-dimensional pertenecen a un espacio vectorial ) n de p dimensiones. Es importante observar que no puede haber tensores antisim´etricos no nulos ( ) de rango mayor que n, ya que el coeficiente binomial np es nulo para cualquier p > n (el n´ umero de posibilidades distintas de escoger p objetos sin repetici´on en un conjunto de n objetos es nulo si p > n). Por otra parte, en vista de la simetr´ıa de los coeficientes binomiales ( ) ( ) n n = p n−p el espacio de p-formas es isomorfo al de (n − p)-formas. El isomorfismo “∗” que relaciona ambos espacios (y que cumple que Ax = (∗A)x) se conoce como operaci´on ∗ de Hodge (operaci´on estrella de Hodge), de manera que dos formas relacionadas por esta operaci´on son Hodge-duales. En espacios tridimensionales la relaci´on Ec. (3.42) entre la 1-forma ωi y la 2-forma ωjk es un ejemplo de este tipo de dualidad, de manera que el producto vectorial de dos vectores x e y es el Hodge-dual de su producto exterior, y viceversa x × y = ∗ (x ∧ y) ,

x ∧ y = ∗ (x × y)

(3.44)

La gran diferencia es que el producto vectorial s´olo est´a definido para el caso de espacios de 3 dimensiones, mientras que el producto exterior es aplicable en cualquier dimensionalidad.

CAP´ITULO 3. DENSIDADES TENSORIALES

72

El producto exterior de 2 vectores generaliza al caso n-dimensional el producto vectorial y, an´alogamente a como sucede con el producto vectorial, est´a relacionado con el c´alculo de vol´ umenes y con rotaciones infinitesimales. En( un ) espacio de n dimensiones el producto exterior de 2 vectores tiene una dimensionalidad igual a n2 = n(n−1) , que coincide con la dimensionalidad n del espacio 2 s´olo para el caso n = 3, que resulta por tanto excepcional. En espacios de dimensionalidad distinta a 3 no puede definirse el producto vectorial, ya que en esos casos la dimensionalidad de x ∧ y no se corresponde con la de un vector. De acuerdo a la dimensionalidad de x ∧ y tenemos que (ver tabla 3.2) en 1 dimensi´on no puede haber rotaciones, mientras que en 2 dimensiones basta con un escalar para describir cualquier rotaci´on (dado por el ´angulo que rotamos) y en 3 dimensiones es necesario emplear un vector, cuyas componentes describen la orientaci´on del eje de rotaci´on y el ´angulo que rotamos. Finalmente, el n´ umero de grados de libertad de las rotaciones en espacios de dimensionalidad n > 3 aumenta de manera cuadr´atica con n. De la misma forma que (x × y) · z nos da el volumen del paralelep´ıpedo definido por estos 3 vectores en R3 , el producto exterior tambi´en est´a relacionado con el c´alculo de vol´ umenes en variedades diferenciables de dimensi´on arbitraria. El estudio de aplicaciones relacionadas con rotaciones infinitesinales o con integraci´on en variedades diferenciables de dimensi´on arbitraria suele hacerse en el contexto de ´algebras de Grassmann, por medio del c´alculo exterior. El c´alculo exterior resulta m´as potente que el c´alculo tensorial para todo lo relacionado con manipulaci´on de tensores antisim´etricos, ya que aprovecha al m´aximo las relaciones de (anti-) simetr´ıa caracter´ısticas de estos objetos. Por supuesto que para poder hacer un uso ventajoso del c´alculo exterior es necesario estar familiarizado previamente con el c´alculo tensorial. n (n ) 2

1

2

3

4

5

...

0

1

3

6

10

...

Cuadro 3.2: Dimensionalidad del producto exterior de dos vectores en funci´on de la dimensionalidad (n) del espacio vectorial al que pertenecen.

3.6.

Problemas

P.3.1. Calcule la matriz del cambio de base correspondiente a intercambiar dos vectores cualesquiera de la base can´onica en n dimensiones ¿qu´e determinante tiene esta matriz de cambio de base? P.3.2. Repita el ejercicio anterior para el caso de una permutaci´on con paridad positiva de los vectores de la base. P.3.3. Repita el ejercicio anterior para el caso de una permutaci´on con paridad negativa. √ P.3.4. Demostrar que g es un pseudo-tensor axial de peso 1. √ P.3.5. Demostrar que 1/ g es un pseudo-tensor axial de peso −1. P.3.6. Demostrar que ϵijk es un pseudotensor 3-contravariante de peso 1. √ P.3.7. Demostrar que εijk = gϵijk es un tensor axial 3-covariante. √ P.3.8. Demostrar que εijk = g ip g jq g kr εpqr est´a dado por ϵijk / g.

3.6. PROBLEMAS

73

√ P.3.9. Demostrar que εijk = ϵijk / g es un tensor axial 3-contravariante. P.3.10. Demostrar que el producto vectorial de dos vectores polares produce un vector axial. P.3.11. Demostrar que el producto vectorial de un vector axial por un vector polar produce un vector polar. P.3.12. Verifique que se cumplen todas las propiedades generales del producto vectorial (Ec. (3.23)– Ec. (3.32)) usando un sistema de coordenadas arbitrarias. P.3.13. Deduzca la relaci´on (3.20) a partir de la definici´on de producto vectorial.

3.6.1.

Soluciones a problemas seleccionados (Tema 3)

P.3.1. La definici´on de cambio de base se encuentra en el apartado 1.4.1, concretamente en Eq. (1.84) y el p´arrafo que la precede. En virtud de esta definici´on de matriz de cambio de base vemos que la matriz de cambio de base correspondiente a intercambiar los vectores i y j de la base can´onica en n dimensiones est´a dada por la matriz identidad n-dimensional con las columnas i y j intercambiadas entre s´ı. Por las propiedades de los determinantes es evidente que el determinante de dicha matriz es −1. P.3.2. La forma m´as sencilla de hacer una permutaci´on de paridad positiva es por medio de un n´ umero par (p. ej. 2) de transposiciones (es decir intercambios i por j y viceversa). Por tanto una posible permutaci´on con paridad positiva de la base can´onica consiste en intercambiar entre s´ı dos vectores i y j y posteriormente intercambiar entre s´ı otros dos vectores p y q. La matriz de cambio de base correspondiete est´a dada por la matriz identidad n-dimensional donde en primer lugar intercambiamos las columnas i y j, y a continuaci´on intercambiamos las columnas p y q. Por las propiedades de los determinantes el signo del determinante de dicha matriz de cambio de base es +1. Para fijar ideas ponemos un ejemplo concreto en 3 dimensiones, la base de partida es la habitual {i, j, k}. Intercambiamos en primer lugar los vectores 1 y 2 de la base y en segundo lugar los 2 y 3, la nueva base es {j, k, i}, la matriz de cambio de base es   0 0 1     C = 1 0 0    0 1 0 que claramente tiene determinante +1. P.3.3. Si partimos de la matriz identidad n-dimensional y realizamos una permutaci´on con paridad negativa de columnas (es decir, un n´ umero impar de transposiciones sucesivas) la matriz resultante es la matriz del cambio de base correspondiente a la permutaci´on realizada sobre las columnas, es decir, sobre los vectores de la base (recordar la definici´on de matriz de cambio de base, apartado 1.4.1). Por las propiedades de los determinantes el determinante de dicha matriz ser´a −1. P.3.4. Partimos de la ley de transformaci´on del determinante del tensor m´etrico bajo el cambio de base C: g˜ = |C|2 g

CAP´ITULO 3. DENSIDADES TENSORIALES

74

Elevando ambos miembros de la igualdad a un medio llegamos a √ √ √ √ √ g˜ = |C|2 g = abs |C| g = s |C| g donde s es el signo del determinante de la matriz de cambio de base s = sign |C|. Comparando el resultado con la expresi´on general (Ec. 3.3) queda demostrada la afirmaci´on del enunciado. P.3.5. A partir de los resultados del ejercicio anterior es evidente que 1 1 √ = s |C|−1 √ g g˜ √ de modo que 1/ g˜ es un pseudotensor axial de peso −1. P.3.6. Tenemos que demostrar que ϵ˜pqr = |C| Dip Djq Dkr ϵijk . Por definici´on, las componentes del s´ımbolo alternante de Levi-Civita son las mismas para cualquier base, tanto en su forma 3-covariante como en su forma 3-contravariante. Para encontrar la transformaci´on de la forma contravariante podemos emplear un desarrollo an´alogo al utilizado para la forma covariante, pero considerando la matriz inversa del cambio de base: |D| = Di1 Dj2 Dk3 ϵijk De nuevo, como las componentes deben ser las mismas para cualquier base podemos escribir: ϵ˜pqr = |D|−1 Dip Djq Dkr ϵijk = |C| Dip Djq Dkr ϵijk demostrando as´ı la ley de transformaci´on de la forma contravariante. Tambi´en es posible llegar a este mismo resultado a partir de la relaci´on entre ϵijk y ϵijk . Sabiendo que la versi´on 3-contravariante del tensor alternante de Levi-Civita se obtiene subiendo los 3 ´ındices de su versi´on 3-covariante (Eq. (3.16)) deducimos que ϵijk = g g ip g jq g kr ϵpqr En una base distinta esta relaci´on se lee como ϵ˜ijk = g˜ g˜ip g˜jq g˜kr ϵ˜pqr Sustituyendo el cambio de base correspondiente a cada uno de los factores que aparecen en el lado derecho encontramos ϵ˜ijk = |C|2 g Dai Dbp g ab Dcj Ddq g cd Dek Dfr g ef |C|−1 Cpα Cqβ Crγ ϵαβγ Operamos los productos DC = 1 que aparecen ϵ˜ijk = |C| g Dai δbα g ab Dcj δdβ g cd Dek δfγ g ef ϵαβγ operamos los productos por las deltas de Kronecker ϵ˜ijk = |C| g Dai g ab Dcj g cd Dek g ef ϵbdf = |C| Dai Dcj Dek ϵace obteni´endose el resultado esperado.

3.6. PROBLEMAS

75

P.3.7. Partimos de la definici´on de εijk dada en el enunciado. La expresi´on de εijk tras un cambio de base vendr´a dada por √ ε˜ijk = g˜ϵ˜ijk √ Teniendo en cuenta las leyes de transformaci´on de g (problema P.3.4) y de ϵijk (Eq. (3.12)) llegamos a ε˜ijk = sCip Cjq Ckr ϵpqr con lo que queda demostrado el comportamiento tipo pseudotensor tensor axial 3-covariante. P.3.8. Partimos de la expresi´on inicial y sustituimos el objeto εijk por su definici´on √ εijk = g ip g jq g kr εpqr = g ip g jq g kr gϵpqr Ahora podemos utilizar el valor del determinante del tensor m´etrico dual g −1 = det(g ij ): g −1 = g 1p g 2q g 3r ϵpqr y escribir

g −1 ϵijk = g ip g jq g kr ϵpqr

Sustituyendo en la expresi´on de arriba llegamos al resultado pedido √ g ijk ϵijk ijk ip jq kr √ ε =g g g gϵpqr = ϵ = √ g g P.3.9. El resultado pedido se obtiene de manera trivial multiplicando las leyes de transformaci´on obtenidas en los ejercicios P.3.5 y P.3.6. P.3.10. Si expresamos el producto vectorial como x × y = ωi ei esto quiere decir que sus componentes ωi se transforman bajo el cambio de base C seg´ un la ley ω ˜ i = sCij ωj , donde s es el signo del determinante de la matriz de cambio de base s = sign |C|. En el texto hemos visto que ωi =

√ gϵijk xj y k

por lo tanto, el aspecto del tensor desde la nueva base vendr´a dado por sus nuevas componentes √ √ j m n ω ˜ i = g˜ϵ˜ijk x ˜j y˜k = g˜ϵ˜ijk Dnk Dm x y Si aplicamos ahora la transformaci´on del s´ımbolo de Levi-Civita ϵ˜ijk = |C|−1 Cip Cjq Ckr ϵpqr y la de la ra´ız cuadrada del determinante del tensor m´etrico √ √ g˜ = s |C| g

CAP´ITULO 3. DENSIDADES TENSORIALES

76 tendremos



g˜ϵ˜ijk x ˜j y˜k √ j m n = s gCip Cjq Ckr ϵpqr Dnk Dm x y √ p q r m n = s gCi δm δn ϵpqr x y √ = sCip gϵpqr xq y r

ω˜i =

= sCip ωp y as´ı queda demostrado que el producto vectorial es un tensor axial. P.3.11. Consideramos los vectores x e y, su producto vectorial est´a dado por √ ωi = εijk xj y k = gϵijk xj y k Suponemos que el vector x es un vector polar, mientras que el vector y es axial. Por tanto, bajo un cambio de base C las componentes de estos vectores cambian de acuerdo a xi = Cji x ˜j y i = sCji y˜j Sustituyendo estos cambios encontramos √ ˜p y˜q ωi = s gCpj Cqk ϵijk x Multiplicando esta expresi´on por la matriz del cambio y recordando las reglas de transformaci´on del tensor alternante de Levi-Civita obtenemos √ Cri ωi = s gCri Cpj Cqk ϵijk x ˜p y˜q = ε˜rpq x ˜p y˜q pero el lado derecho de esta u ´ltima expresi´on es precisamente la definici´on de w ˜r , entonces vemos que w ˜r = Cri ωi tal y como corresponde a las componentes covariantes de un vector polar. Con esto queda demostrando que el producto vectorial de un vector axial por un vector polar produce un vector polar. P.3.12. Demostraci´on de las propiedades generales del producto vectorial Seg´ un hemos visto el producto vectorial de dos vectores x e y est´a dado por x × y = εijk xj y k ei • propiedad distributiva x × (y 1 + y 2 ) = x × y 1 + x × y 2 (x1 + x2 ) × y = x1 × y + x2 × y La demostraci´on de estas dos propiedades es trivial, para la primera basta poner y = y 1 + y 2 , con componentes y1k e y2k respectivamente (donde el sub´ındice indica que nos referimos a las componentes de y 1 en el primer caso y de y 2 en el segundo). Sustituyendo estas componentes en la definici´on del producto, operando y agrupando los resultados se llega al resultado pedido. Para la segunda propiedad basta con operar de manera similar con el vector x.

3.6. PROBLEMAS

77

• propiedad asociativa ∀λ ∈ R,

λ (x × y) = (λx) × y = x × (λy)

Sustituyendo directamente ( ) ( ) ( ) λ εijk xj y k = εijk λxj y k = εijk xj λy k identificando las componentes λxj con el vector λx, y an´alogamente con λy j y el vector y, se llega al resultado pedido. • propiedad anticonmutativa

x × y = −y × x

Partimos de εijk xj y k , como los ´ındices j y k son mudos podemos cambiarlos de nombre. Por ejemplo al j le podemos llamar a y al k le llamamos b. Posteriormente al a le llamamos k y al b le llamamos j, con lo que llegamos a εijk xj y k = εikj xk y j = −εijk y j xk donde en el u ´ltimo paso hemos aplicado que εikj = −εijk , que se cumple por definici´on de s´ımbolo alternante de Levi-Civita. • volumen del paralelep´ıpedo formado por tres vectores a · (b × c) = b · (c × a) = c · (a × b) En la relaci´on ec. (3.33) hemos visto que a · (b × c) representa el volumen del paralelep´ıpedo formado por a, b y c, cuyo valor est´a dado por el determinante indicado en dicha f´ormula. Por las propiedades de los determinantes el resultado permance invariante bajo permutaciones c´ıclicas de los vectores. • regla BAC–CAB de Lagrange a × (b × c) = b (a · c) − c (a · b) (a × b) × c = b (a · c) − a (b · c) La demostraci´on de esta propiedad no es del todo trivial, y proporciona una buena oportunidad para adquirir experiencia con el manejo de expresiones con ´ındices y con el convenio de suma de Einstein. En primer lugar calculamos la componente contravariante k del producto vectorial b × c b × c = εslm bl cm es = g sk εslm bl cm ek A continuaci´on calculamos el producto a × (b × c) ( ) ( ) a × (b × c) = εijk aj g ks εslm bl cm ei = εijk aj g ks εslm bl cm g iq eq agrupando a × (b × c) = g ks g iq εijk εslm aj bl cm eq El producto g ks g iq εijk puede calcularse por medio de la relaci´on εαβγ = g αx g βy g γz εxyz

CAP´ITULO 3. DENSIDADES TENSORIALES

78

(donde los ´ındices x, y, z son s´olo ´ındices, no est´an relacionados con las coordenadas cartesianas). Multiplicando esta relaci´on por gαπ encontramos gαπ εαβγ = g βy g γz επyz Teniendo en cuenta este resultado, que g ij es sim´etrico y que εijk permanece invariante bajo permutaciones c´ıclicas de sus ´ındices encontramos g ks g iq εijk = g sk g qi εjki = gαj εαsq donde para llegar a este resultado hemos sustituido en la relaci´on anterior los cambios de ´ındices siguientes: β → s,

y → k,

γ → q,

z → i,

π→j

Sustituyendo encontramos a × (b × c) = gαj εαsq εslm aj bl cm eq = εαsq εslm aα bl cm eq Para continuar necesitamos calcular el producto εαsq εslm = ϵαsq ϵslm = ϵslm ϵsqα (donde √ hemos tenido en cuenta que las g se cancelan y que ϵijk es invariante bajo permutaciones c´ıclicas de los ´ındices). Sustituyendo en la identidad ϵijk ϵimn = δjm δkn − δjn δkm los cambios i → s,

j → l,

k → m,

m → q,

n→α

encontramos α q εαsq εslm = ϵslm ϵsqα = δlq δm − δlα δm

Sustituyendo en la relaci´on de arriba y operando llegamos finalmente a a×(b × c) =

(

α δlq δm



q δlα δm

)

(

aα b c eq = am b c eq −al b c eq = (b eq ) (am c )−(c eq ) al b l m

q m

l q

q

m

q

y por tanto a × (b × c) = b (a · c) − c (a · b) con lo que queda demostrada la conocida identidad BAC–CAB independientemente de la base empleada y de la m´etrica de R3 . Una vez hemos demostrado esta identidad, para demostrar la otra relaci´on basta con aplicar dos veces la propiedad antisim´etrica del producto vectorial a × (b × c) = (c × b) × a = b (a · c) − c (a · b) y posteriormente intercambiar los vectores a y c. • identidad de Jacobi: x × (y × z) + y × (z × x) + z × (x × y) = 0

l

)

3.6. PROBLEMAS

79

La identidad de Jacobi tambi´en puede demostrarse operando directamente, pero es m´as sencillo demostrarla por medio de la identidad BAC–CAB: x × (y × z) = y (x · z) − z (x · y) y × (z × x) = z (y · x) − x (y · z) z × (x × y) = x (z · y) − y (z · x) Sumando estas tres ecuaciones y recordando que el producto escalar es sim´etrico obtenemos la identidad de Jacobi de manera trivial. • identidad de Binet-Cauchy (a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c) Calculamos el lado izquierdo a partir de la relaci´on Eq. (3.27) para productos triples (a × b) · (c × d) = c · [d × (a × b)] a continuaci´on calculamos el producto d × (a × b) por medio de la relaci´on BAC-CAB d × (a × b) = a(b · d) − b(a · d) finalmente aplicamos la propiedad distributiva y re-ordenamos. • producto (a × b) × (c × d) (a × b) × (c × d) = c (a · (b × d)) − d (a · (b × c)) = b (a · (c × d)) − a (b · (c × d)) Desarrollamos el lado izquierdo por medio de la regla BAC-CAB de las dos formas posibles (a × b) × (c × d) = c [(a × b) · d] − d [(a × b) · c] (a × b) × (c × d) = b [a · (c × d)] − a [b · (c × d)] La segunda de estas relaciones corresponde directamente a la segunda igualdad que quer´ıamos demostrar. Para obtener la primera igualdad basta con calcular los productos triples que han aparecido en la primera de las relaciones anteriores por medio de la relaci´on Eq. (3.27). P.3.13. Deduzca la relaci´on (3.20) a partir de la definici´on de producto vectorial. Consideramos una base cualquiera en un espacio tridimensional no necesariamente Eucl´ıdeo. √ Se trata de demostrar la relaci´on ei × ej = gϵijk ek . Por definici´on de producto vectorial (ei × ej )·ei = (ei × ej )·ej = 0. Entonces, como el espacio es tridimensional la condici´on de ser perpendicular a ei y ej define una u ´nica direcci´on, dada por ek con k ̸= i y k ̸= j (evidentemente, estamos suponiendo que i ̸= j, de lo contrario ei × ej es nulo). Escribimos entonces ei × ej = ωek , donde a´ un nos queda por determinar el valor del factor de proporcionalidad ω. Suponiendo que ijk son una permutaci´on par de 123, tenemos que ω es un n´ umero positivo. La relaci´on anterior implica directamente que el m´odulo al cuadrado del producto vectorial es (ei × ej ) · (ei × ej ) = ω 2 ek · ek = ω 2 g kk .

CAP´ITULO 3. DENSIDADES TENSORIALES

80

A continuaci´on recordamos que gii = ei · ei = ∥ei ∥2 y an´alogamente para ej . Por otra parte, si llamamos α al ´angulo formado por ei y ej tenemos gij = gji = ei · ej = ∥ei ∥∥ej ∥ cos α. De esto se deduce que gij gji = gii gjj cos2 α Por definici´on el m´odulo de ei × ej es el producto de m´odulos por el seno del ´angulo α. Elevando esto al cuadrado encontramos ω 2 g kk = ∥ei ∥2 ∥ej ∥2 sin2 α = gii gjj sin2 α Sustituyendo sin2 α por medio de la identidad trigonom´etrica sin2 α + cos2 α = 1 obtenemos ω 2 g kk = gii gjj − gij gji Claramente gii gjj − gij gji puede escribirse como el determinante de la matriz   gii gij   gji gjj que se obtiene al eliminar del tensor m´etrico la fila k y la columna k, ya que estamos en un espacio tridimensional y por hip´otesis k es distinto de i y de j (y adem´as i ̸= j). Finalmente nos queda relacionar este resultado con el elemento g kk del tensor m´etrico dual. Como el tensor m´etrico dual est´a dado por la inversa del tensor m´etrico, el elemento g kk es el cociente resultante de dividir el menor que se obtiene al suprimir la fila y la columna con ´ındice k en el tensor m´etrico, dividido por el determinante del tensor m´etrico (g), ya que por hip´otesis ijk son una permutaci´on par de 123 (de lo contrario ω ser´ıa negativo y en esta u ´ltima relaci´on 2 aparecer´ıa un factor −1). Teniendo esto en cuenta deducimos que ω = g y tomando la ra´ız cuadrada llegamos a √ ei × ej = gek que es v´alida siempre y cuando ijk sea una permutaci´ on par de 123. En caso contrario basta con recordar que ei × ej = −ej × ei donde jik son (en este caso) una permutaci´on par de 123, de modo que en ese caso se obtiene el resultado anterior multiplicado por −1. A todo esto hasta ahora hemos asumido que i ̸= j, en caso contrario por definici´on sabemos que ei × ej = 0. Poniendo en com´ un estas 3 posibilidades llegamos a la relaci´on pedida √ ei × ej = gϵijk ek = εijk ek donde el factor ϵijk es +1 (o −1) si ijk es una permutaci´on par (respectivamente impar) de 123, o cero si hay 2 ´ındices repetidos. De esta forma esperamos haber justificado de una manera constructiva el origen de la relaci´on √ ei × ej = gϵijk ek , que generalmente suele presentarse como la definici´on tensorial de la operaci´on producto vectorial, sin justificaci´on alguna.

3.7.

Bibliograf´ıa

Este cap´ıtulo se basa principalmente en el texto de Bowen y Wang [2], junto con los de Lichnerowicz [10] y Bishop y Goldberg [1]. Para mayor profundidad sobre p-formas y c´alculo exterior se recomienda el texto de Frankel [7].

Cap´ıtulo 4

Campos tensoriales El c´alculo tensorial es relevante en f´ısica por sus aplicaciones en teor´ıas de campos, es decir, teor´ıas donde las variables f´ısicas pueden representarse por medio de funciones del espacio y el tiempo. Este tipo de descripci´on de la realidad apareci´o con la teor´ıa de la gravitaci´on de Newton (1643–1727) y se extendi´o considerablemente a lo largo del s:xix con el electromagnetismo de Maxwell (1831–1879) y las ecuaciones de Navier-Stokes para la mec´anica de fluidos (Euler (1707– 1783), Lagrange (1736–1813), Navier (1785–1836), Stokes (1819–1903), etc.). Desde inicios del s:xx este tipo de descripci´on del mundo f´ısico tambi´en se ha aplicado en relatividad (Einstein (1879– 1955)) y en mec´anica cu´antica (Schr¨odinger (1887–1961), Heisenberg (1901–1976), etc.). Generalmente los campos tensoriales se definen sobre conjuntos de puntos que no cumplen todas las propiedades necesarias como para formar un espacio vectorial, pero que localmente s´ı tienen una estructura similar a un espacio vectorial. Este tipo de conjuntos se denominan variedades (manifolds en la literatura en ingl´es). Normalmente trabajaremos con variedades diferenciables, es decir, variedades lo suficientemente regulares como para que en ellas sea posible definir operaciones de c´alculo, como derivadas e integrales. Cuando se habla de un campo tensorial definido sobre una variedad diferenciable, V, se da por hecho que cada punto r ∈ V es el origen de un espacio vectorial denominado espacio tangente, definido como la envolvente lineal de las tangentes en r a todas las curvas contenidas en V que pasen por r. El espacio tangente a V en r es, por tanto, el espacio definido por todas las direcciones posibles que podemos tomar para pasar por dicho punto sin salirnos de la variedad. El conjunto de los espacios tangentes definidos sobre todos los puntos de la variedad forma el fibrado tangente. Cada espacio tangente tiene su correspondiente espacio dual, denominado espacio co-tangente, y la colecci´on de espacios cotangentes que obtenemos al recorrer toda la variedad forma el fibrado cotangente. El producto tensorial de s copias de cada espacio tangente por r copias de su dual genera una familia de espacios producto tensorial definidos sobre la variedad de partida como funci´on del punto. A este espacio producto tensorial es al que pertenecen los tensores r-covariantes s-contravariantes definidos sobre la variedad como campos tensoriales. En este cap´ıtulo comenzaremos con una breve introducci´on a las variedades diferenciables y los espacios tangente y cotangente. Veremos las parametrizaciones que se emplean para describir las variedades y las bases a que estas dan lugar en los fibrados tangente y cotangente. Finalmente extenderemos los conceptos definidos en los cap´ıtulos precedentes al caso de campos tensoriales en variedades diferenciables. 81

CAP´ITULO 4. CAMPOS TENSORIALES

82

4.1.

Variedades diferenciables

Con mucha frecuencia los espacios sobre los que se definen los campos tensoriales de inter´es en f´ısica no cumplen todas las propiedades necesarias para ser espacios vectoriales, sino que son espacios con una estructura m´as general, conocidos como variedades diferenciables. ⋆ ¿Qu´e es una variedad diferenciable? Una variedad n-dimensional es cualquier colecci´on de puntos localmente similar a un espacio vectorial de n dimensiones. En esta definici´on “localmente” significa en un cierto entorno alrededor de cualquier punto de la variedad y “similar” quiere decir topol´ ogicamente equivalente. Para entender esta definici´on es necesario entender qu´e significa ser “topol´ogicamente equivalente”. Dos conjuntos de puntos son topol´ogicamente equivalentes cuando se puede definir entre ellos una funci´on continua con inversa continua que transforme un conjunto en el otro. Por ejemplo, una esfera es topol´ogicamente equivalente a un cubo porque podemos deformar una esfera para hacerla coincidir con un cubo (y viceversa) de manera continua (ver, p. ej., Fig. 4.1). Por el contrario, una esfera no es equivalente a un toro, ya que para convertir la esfera en un toro es necesario introducir un corte en la esfera, lo cual no cumple la condici´on de continuidad. Un toro, por su parte, es topol´ogicamente equivalente a una rosquilla (con un u ´nico agujero), o a cualquier objeto con una sola asa, como por ejemplo una taza.

Figura 4.1: Deformaci´on continua de una esfera en un cubo.

Dos conjuntos son topol´ogicamente equivalentes cuando podemos convertir uno en otro y viceversa de manera continua, es decir, mediante deformaciones pero sin introducir “cortes” ni “pegar” regiones que no estuviesen inicialmente en contacto, ya que esto u ´ltimo implica introducir un corte en la funci´on inversa. La condici´on de continuidad impone que dos puntos pr´oximos en el conjunto de partida (es decir, que pertenezcan a un cierto entorno en el conjunto de partida), est´en tambi´en pr´oximos en el conjunto de llegada, lo cual no se cumple si la funci´on de transformaci´on (o su inversa) introduce cortes. La condici´on de continuidad tambi´en presupone que los dos conjuntos de puntos considerados son espacios topol´ ogicos, es decir, espacios en los que se pueden definir nociones como proximidad y continuidad. Las transformaciones continuas con inversa continua entre espacios topol´ogicos se denominan homeomorfismos. Una variedad n-dimensional puede definirse, por tanto, como un espacio topol´ogico que admite un sistema de coordenadas n-dimensional en un cierto entorno abierto de cada punto. Desde el punto de vista topol´ogico una variedad n-dimensional es localmente id´entica al correspondiente espacio vectorial de n dimensiones (Rn en la mayor´ıa de los casos). Es decir, cada entorno de la variedad puede deformarse de manera continua hasta hacerlo coincidir con el correspondiente

4.1. VARIEDADES DIFERENCIABLES

83

Figura 4.2: Ejemplos de variedades monodimensionales contenidas en el plano.

entorno del espacio vectorial y viceversa. La gran diferencia es que, en general, esta correspondencia (homeomorfismo) entre la variedad y el espacio vectorial s´olo puede definirse localmente, pero no globalmente, de forma que globalmente considerada la variedad puede no ser topol´ogicamente equivalente a ning´ un espacio vectorial. Otra diferencia importante es la m´etrica: en general la distancia entre dos puntos de la variedad medida a lo largo de la variedad ser´a diferente de la distancia entre estos dos puntos medida a lo largo del espacio vectorial al que esta variedad es localmente equivalente, ya que en general los homeomorfismos introducen deformaciones que no conservan las distancias. En particular esto suceder´ a siempre que consideremos variedades dotadas de cierta curvatura localmente homeomorfas al espacio Eucl´ıdeo Rn , que es plano. Esto es lo que sucede p. ej. en los mapas terrestres. Al hacer corresponder una superficie esf´erica con una regi´on del plano, el mapa no solo introduce un factor de escala, sino tambi´en una distorsi´ on en las distancias, y por tanto tambi´en en las ´areas. Muchos mapas terrestres se basan en la proyecci´on Mercator, que introduce una distorsi´on creciente a medida que nos alejamos del ecuador, que finalmente se traduce en que las regiones pr´oximas a los polos tengan sobre el mapa un tama˜ no aparente muy superior al real. Dependiendo de la funci´on de proyecci´on empleada las regiones distorsionadas ser´an distintas y tambi´en el tipo de distorsi´on introducida, pero sea cual sea el tipo de proyecci´on, siempre que representemos una superficie con curvatura en un mapa plano habr´ a regiones distorsionadas.

4.1.1.

Curvas y superficies

Las variedades n-dimensionales aparecen de manera natural al generalizar a n dimensiones los conceptos de curva y superficie (variedad uni- y bi-dimensional respectivamente). Una curva contenida en cualquier espacio proporciona el ejemplo no trivial m´as sencillo de variedad. Por ejemplo la recta real, o la gr´afica de cualquier funci´on y = y(x) son variedades unidimensionales. Con frecuencia el conjunto de puntos (x, y) que cumple una ecuaci´on tipo f (x, y) = 0 para una cierta funci´on de dos variables f forma una variedad unidimensional (Fig. 4.2). Esto incluye tanto los casos en que podemos despejar una variable en funci´on de la otra de manera expl´ıcita y univaluada (p. ej. ax + by + c = 0 implica que y = − (ax + c) /b) como aquellos casos en los que esto no es posible, bien porque la forma funcional de f no lo permite o bien porque al despejar una variable en funci´on de la otra obtenemos una funci´ on multivaluada. Por ejemplo, la soluci´on 2 2 2 de x + y − R = 0 es una circunferencia de radio R centrada en el origen, pero si despejamos y ( )1/2 en funci´on de x encontramos la funci´on bi-valuada y = ± R2 − x2 . Muchas variedades unidi-

CAP´ITULO 4. CAMPOS TENSORIALES

84

mensionales se definen como las curvas de nivel de funciones de dos variables f (x, y), dadas por los puntos del plano que cumplen f (x, y) = k, lo cual puede visualizarse como la intersecci´on entre la superficie z = f (x, y) y el plano z = k. Aunque cualquier variedad unidimensional contenida en el plano puede definirse como el conjunto de puntos que cumple una relaci´on tipo f (x, y) = 0, el rec´ıproco no es cierto. Dependiendo de la funci´on f considerada hay casos en los que la ecuaci´on anterior no define una variedad unidimensional, p. ej., dada la funci´on “plana” f (x, y) = a (que a cualquier punto (x, y) le hace corresponder el n´ umero constante a, siendo a un n´ umero real arbitrario), el conjunto de puntos que cumple f (x, y) = 0 es el conjunto vac´ıo para cualquier valor de a, excepto para a = 0 en cuyo caso obtenemos todo el plano. En los ejemplos anteriores nos hemos centrado en curvas planas, pero tambi´en existen curvas que no est´an contenidas en un plano, sino que recorren espacios de dimensionalidad superior. Por ejemplo, las ecuaciones param´etricas x = R cos θ,

y = R sin θ,

definen una espiral infinita de radio R contenida en

z = θ,

θ∈R

R3 .

⋆ En general una variedad unidimensional es cualquier conjunto de puntos tal que que en un entorno de cada punto pueda parametrizarse por medio de un u ´nico par´ametro. Las superficies proporcionan el siguiente ejemplo interesante de variedad. De manera an´aloga al caso unidimensional, la gr´afica de una funci´on de 2 variables, z = f (x, y), es una variedad bidimensional. Con mucha frecuencia las superficies de nivel de las funciones de 3 variables, dadas por la soluci´on de f (x, y, z) = k, o el conjunto de puntos de R3 definido por una relaci´on del tipo f (x, y, z) = 0, forman variedades bidimensionales (v´ease Fig. 4.3). Por ejemplo, dada la funci´on f (x, y, z) = x2 + y 2 + z 2 , las superficies de nivel de esta funci´on son superficies esf´ericas de radio k 1/2 centradas en el origen. Este ejemplo tambi´en es interesante para observar que, en general, una superficie cualquiera considerada globalmente no ser´a topol´ogicamente equivalente a R2 , pero localmente s´ı, ya que si nos fijamos en un entorno suficientemente peque˜ no alrededor de cualquier punto de la superficie tenemos un conjunto de puntos bastante similar (es decir, topol´ogicamente equivalente) al correspondiente entorno en R2 . En los ejemplos anteriores hemos mencionado variedades bidimensionales contenidas en un espacio tridimensional, pero an´alogamente a como suced´ıa con las curvas, una variedad bidimensional no tiene porqu´e estar contenida en R3 , sino que puede ocupar un espacio de dimensionalidad superior. ⋆ Una variedad bidimensional se define como cualquier conjunto de puntos que pueda parametrizarse (al menos localmente) por medio de dos par´ametros. Con mucha frecuencia el conjunto de puntos que forma una variedad se define como el conjunto de puntos de un cierto espacio de variables que cumple una determinada condici´on, dada por una ecuaci´on o sistema de ecuaciones. Por ejemplo, la s-esfera de radio unidad es la hipersuperficie s-dimensional dada por el conjunto de puntos de Rs+1 que cumple ( 1 )2 ( )2 x + · · · + xs+1 = 1. El concepto de variedad es muy general: una variedad no tiene por qu´e ser necesariamente conexa, tampoco tiene por qu´e ser cerrada o finita. Por ejemplo, el conjunto de puntos de R2 que cumple la ecuaci´on xy = 1 es una hip´erbola, con dos ramas no conexas ( cada) una de ellas con extensi´on infinita; el conjunto de puntos de R2 que cumple la ecuaci´on y − x2 · (y + 1) = 0 est´a formado por dos curvas, la par´abola y = x2 y la recta y = −1.

4.1. VARIEDADES DIFERENCIABLES

85

R

Figura 4.3: Ejemplos de variedades bidimensionales contenidas en 3 . En la imagen central se ha representado tambi´en el plano z = 1 y en la u ´ltima el plano z = 0.

4.1.2.

Geometr´ıa intr´ınseca y extr´ınseca

En el estudio de variedades diferenciables existen dos puntos de vista opuestos: o bien podemos considerar la variedad de manera abstracta, sin hacer referencia a ning´ un espacio de dimensionalidad superior donde pueda estar contenida, o bien podemos considerar que la variedad es un subconjunto de un cierto espacio ambiente que la contiene. Las propiedades que pueden estudiarse sin hacer referencia a ning´ un espacio ambiente dependen exclusivamente de la variedad y se denominan propiedades intr´ınsecas y su estudio geometr´ıa intr´ınseca de la variedad. Por el contrario, las propiedades para cuyo estudio es necesario considerar a la variedad como parte de un espacio ambiente se denominan propiedades extr´ınsecas, ya que no s´olo dependen de la variedad sino tambi´en del espacio ambiente. Desde el punto de vista matem´atico la geometr´ıa intr´ınseca es especialmente relevante. En general la dimensionalidad de una variedad es una propiedad intr´ınseca; en el caso de una curva su longitud es una propiedad intr´ınseca, pero no lo son su curvatura o torsi´on; en cuanto a las variedades bidimensionales, en la segunda parte del curso veremos que la primera forma fundamental (que determina medidas de longitudes, ´angulos y ´areas sobre una superficie) es una propiedad intr´ınseca, as´ı como la curvatura de Gauss (que determina localmente la forma de una superficie). El punto de vista intr´ınseco es el que se adopta en relatividad general para estudiar la geometr´ıa del espaciotiempo (su curvatura etc.), sin hacer referencia a un hipot´etico espacio de dimensionalidad superior que lo contenga, lo cual resultar´ıa muy artificial. De todas formas tambi´en existen multitud de problemas en f´ısica en los que es relevante el punto de vista extr´ınseco, que resulta m´as sencillo e intuitivo. De hecho, en el desarrollo de la geometr´ıa diferencial el punto de vista extr´ınseco fue el primero que se consider´o. Desde el punto de vista extr´ınseco una variedad diferenciable n-dimensional puede definirse como el conjunto de puntos de un cierto espacio vectorial de n + r dimensiones (p. ej. Rn+r ) que

CAP´ITULO 4. CAMPOS TENSORIALES

86 cumple un cierto sistema de r ecuaciones impl´ıcitas

( ) f1 x1 , x2 , . . . , xn+r = 0 ( ) f2 x1 , x2 , . . . , xn+r = 0 ... ... ... ( 1 2 ) n+r fr x , x , . . . , x =0

(4.1)

donde las r funciones fi anteriores son independientes entre s´ı y cumplen ciertas propiedades adicionales. Por ejemplo, dos condiciones f (x, y, z) = 0 y g(x, y, z) = 0 en R3 determinan una curva, dada por la intersecci´on de las superficies definidas por cada una de estas condiciones. Es evidente que el conjunto de puntos definido por un sistema como el anterior (Eq. (4.1)) no siempre define una variedad. Por ejemplo, el conjunto de puntos de R2 que cumplen la condici´on xy = 0 est´a dado por los ejes x e y, este conjunto no es una variedad 1-dimensional, ya que cualquier entorno abierto que contenga el origen no es topol´ogicamente equivalente a un entorno de la recta o a ning´ un espacio vectorial. ⋆ ¿Qu´e condiciones debe cumplir el sistema Ec. (4.1) para definir una variedad? { } Supongamos que el punto x0 = x10 , x20 , . . . , xn+r cumple el sistema Ec. (4.1) y que las r 0 funciones fi son (1) continuas y (2) diferenciables en un entorno de x0 . Entonces, seg´ un el teorema de la funci´on impl´ıcita el sistema Ec. (4.1) define una variedad n-dimensional, al menos en un cierto entorno de x0 , si y s´olo si (3) el rango de la matriz jacobiana del sistema (J) 

∂f1 ∂x1

  J =  ... 

∂fr ∂x1

...

∂f1 ∂xn

∂f1 ∂xn+1

...

∂f1 ∂xn+r

...

...

...

...

...

...

∂fr ∂xn

∂fr ∂xn+1

...

∂fr ∂xn+r

    

(4.2)

en el punto x0 es r. Si se cumple esta condici´on el teorema de la funci´on impl´ıcita garantiza que, al menos en un cierto entorno de x0 , podemos despejar r variables en funci´on de las restantes n ( ) xn+1 = xn+1 x1 , . . . , xn ( ) xn+2 = xn+2 x1 , . . . , xn ... xn+r

...

... ... ( ) = xn+r x1 , . . . , xn

(4.3)

donde hemos tomado las r variables que podemos despejar como las r u ´ltimas. De esta forma en n+r un entorno de x0 los puntos { de R que } cumplen el sistema Ec. (4.1) pueden parametrizarse en t´erminos de las coordenadas x1 , . . . , xn , y por tanto en dicho entorno constituyen una variedad n-dimensional. Si estas 3 condiciones se cumplen en un cierto entorno de todos los puntos x0 que verifican el sistema Ec. (4.1), entonces esta colecci´on de condiciones define una variedad diferenciable ndimensional contenida en Rn+r . De hecho, aproximando en Ec. (4.1) cada fi por su desarrollo en serie de Taylor hasta orden 1 en torno a x0 , es muy sencillo demostrar que la condici´on necesaria para poder despejar

4.1. VARIEDADES DIFERENCIABLES

87

{ n+1 } { } x , . . . , xn+r como funci´on de las restantes x1 , . . . , xn en un entorno del punto x0 es precisamente que la matriz   ∂f1 ∂f1 . . . n+r n+1 ∂x  ∂x    (4.4)  ... ... ...    ∂fr r . . . ∂x∂fn+r ∂xn+1 sea invertible. El mismo razonamiento que acabamos de emplear puede repetirse suponiendo que el espacio en el que est´a definido el sistema Ec. (4.1) no es un espacio vectorial, sino una variedad n + rdimensional parametrizada (localmente) por unas coordenadas xi . En ese caso, cuando se cumplen las condiciones (1), (2) y (3) el sistema Ec. (4.1) define una sub-variedad. Codimensi´ on e hipersuperficies Dada una variedad n-dimensional contenida en un espacio vectorial N -dimensional, se define la co-dimensi´ on de la variedad como la diferencia N − n. En el caso de una variedad definida por un sistema de ecuaciones como el anterior (Eq. (4.1)) la co-dimensi´on est´a dada por el n´ umero de restricciones que define la variedad dentro del espacio ambiente. De manera an´aloga al caso de una superficie contenida en R3 , que es una variedad de codimensi´on 1, se denomina hipersuperficie a cualquier variedad n-dimensional contenida en un espacio de n + 1 dimensiones, es decir, cualquier variedad de codimensi´on 1, y se denomina hiperplano a cualquier hipersuperficie con curvatura nula.

4.1.3.

Ejemplos de variedades en f´ısica

En f´ısica constantemente manejamos ecuaciones que dan lugar a variedades definidas en el espacio de variables del sistema. En algunos casos estas variedades pueden tener una estructura sencilla, en otros puede ser muy complicada y en cualquier caso ser´an dif´ıciles de visualizar si la dimensionalidad es alta. Todas las ramas de la f´ısica proporcionan ejemplos interesantes de variedades. Por ejemplo, en mec´anica de fluidos tenemos las l´ıneas de corriente de un campo de velocidades v = {vx , vy , vz }, dadas por la soluci´on de dy dz dx = = vx vy vz Cada l´ınea de corriente es una variedad uni-dimensional contenida en R3 ; en electromagnetismo tenemos las superficies equipotenciales de un campo el´ectrico (dadas por V (x, y, z) = k), que definen una familia de variedades bi-dimensionales. A nada que pensemos en ello est´a claro que surgen multitud de ejemplos. Veamos algunos ejemplos de variedades en mec´anica cl´asica y termodin´amica. Mec´ anica cl´ asica Para visualizar de manera global el comportamiento de sistemas mec´anicos suele emplearse el plano de fases, definido como el conjunto de todas las trayectorias posibles en el espacio de posiciones r y momentos lineales p = m dr/dt del sistema. En el caso de sistemas conservativos las trayectorias en el plano de fases est´an dadas por los puntos (r, p) que cumplen la ecuaci´on de conservaci´on de la energ´ıa K + U = E (siendo K = p2 /(2m) la energ´ıa cin´etica, U = U (r) la

CAP´ITULO 4. CAMPOS TENSORIALES

88

energ´ıa potencial y E la energ´ıa total del sistema), es decir, las curvas de nivel de la funci´on energ´ıa total. Haciendo que var´ıen las condiciones iniciales (r(0) y p(0)) podemos ir calculando todas las trayectorias posibles, y su representaci´on en el plano de fases proporciona mucha informaci´on sobre los posibles comportamientos del sistema. Un ejemplo interesante y muy sencillo es el oscilador arm´onico unidimensional. En ese caso el potencial es V (x) = kx2 /2 y la ecuaci´on de conservaci´on de la energ´ıa (p2 /(2m) + V (x) = E) da lugar a la familia de elipses con semiejes xmax y pmax x2 p2 + =1 x2max p2max

√ en el plano de fases, donde la elongaci´ o n m´ a xima es x = 2E/k y el momento m´aximo es max √ pmax = 2mE. Conceptualmente el mapa de fases es muy u ´til, pero la visualizaci´on de las trayectorias puede ser complicada en algunos casos, ya que la dimensionalidad de la variedad K + U = E depende del sistema considerado, pudiendo llegar a ser muy elevada. Para el movimiento unidimensional de una part´ıcula puntual el plano de fases es bi-dimensional y la condici´on de conservaci´on de la energ´ıa define una variedad uni-dimensional; para una part´ıcula puntual en 2 (respectivamente 3) dimensiones el “plano” de fases tiene 4 (respectivamente 6) dimensiones y la variedad K + U = E es una hipersuperficie de 3 (respectivamente 5) dimensiones. En general, si tenemos n grados de libertad en lo que respecta a la posici´on, la dimensionalidad del plano de fases ser´a 2n y la condici´on de conservaci´on de la energ´ıa define una variedad (2n − 1)-dimensional (o de co-dimensi´on 1), en algunos casos esta dimensionalidad puede ser alta. Por ejemplo, un s´olido r´ıgido en 3 dimensiones tiene 6 grados de libertad en lo que respecta a su posici´on (3 coordenadas para la posici´on del centro de masas y otras 3 para la orientaci´on del cuerpo en el espacio); otros ejemplos con dimensionalidad elevada son un s´olido articulado con muchos grados de libertad, o, por supuesto, un sistema de muchas part´ıculas puntuales. Otro caso interesante y f´acil de visualizar es el p´endulo simple bajo la acci´on de la gravedad (figura 4.4). El momento lineal en este caso es mLθ˙ y la energ´ıa potencial (mgh) queda como mgL (1 − cos θ), de modo θ L que la trayectoria en el plano de fases correspondiente a una energ´ıa total E est´a dada por la curva p2 1 − cos θ + 2 =1 1 − cos θmax pmax donde el√ momento m´aximo pmax vuelve a estar dado por 2mE y 1 − cos θmax es igual a 2E/Es , sienh do Es = 2mgL la energ´ıa m´ınima necesaria para que mg el p´endulo llegue a dar una vuelta completa. Para energ´ıas por debajo de Es las curvas que obtenemos en el plano de fases son cerradas, lo que significa que el p´endulo oscila siendo θmax el ´angulo m´aximo alcanzaFigura 4.4: El p´endulo simple. do. Por el contrario, para E > Es estas curvas ya no son cerradas, el p´endulo no oscila sino que da vueltas completas, de forma que no existe ´angulo m´aximo. En el l´ımite E/Es ≪ 1 las oscilaciones tienen amplitud muy peque˜ na, y la anterior variedad se aproxima a la familia de elipses θ2 2 θmax

+

p2 p2max

=1

4.1. VARIEDADES DIFERENCIABLES

89

Figura 4.5: Plano de fases de un p´endulo simple. La trayectoria marcada en rojo (E = Es ) es la separatriz entre las trayectorias cerradas (E < Es ) y las abiertas (E > Es ).

(tal y como puede comprobarse por medio del desarrollo en serie de Taylor de cos θ) que corresponde a un oscilador arm´onico de constante recuperadora k = mg/L. En la figura 4.5 se ha representado el plano de fases de un p´endulo simple, mostrando el tipo de comportamiento que observaremos en funci´on del par´ametro adimensional E/Es . Aparte de la dimensionalidad, otra dificultad que existe en mec´anica cl´asica para visualizar las hipersuperficies de nivel E(r, p) = E en el plano de fases es la propia estructura de estas variedades. En particular, si la dimensionalidad del plano de fases es superior a 2 existe la posibilidad de encontrar comportamiento ca´otico (teorema de Poincar´e-Bendixson), en cuyo caso la estructura de las hipersuperficies correspondientes a un determinado nivel de energ´ıa ser´a extraordinariamente complicada. Como ya hemos mencionado antes una condici´on como K + U = E no siempre generar´a una variedad diferenciable, sino que en algunos casos puede dar lugar a estructuras m´as complicadas, no equivalentes a ning´ un espacio vectorial ni siquiera localmente. En el caso de un sistema con din´amica ca´otica las hipersuperficies K + U = E se retuercen sobre s´ı mismas de manera extraordinariamente complicada, generando estructuras que llenan densamente el espacio de fases, con una topolog´ıa diferente a la de un espacio vectorial, incluso localmente. En algunos casos estas estructuras son auto-similares bajo cambios de escala, lo que las convierte en estructuras fractales. Termodin´ amica Las variables de presi´on p, temperatura absoluta T y densidad ρ de una sustancia pura en equilibrio termodin´amico est´an relacionadas entre s´ı por una ecuaci´ on de estado del tipo f (p, T, ρ) = 0, donde la forma de la funci´on f depende de la naturaleza del sistema considerado. Por ejemplo, para un gas ideal con masa molar m tenemos f (p, T, ρ) = pm − ρRT . La condici´on de equilibrio termodin´amico da lugar por tanto a una superficie en el espacio de variables (p, T, ρ). Por ejemplo, la ecuaci´on de estado de van der Waals para una sustancia pura es ( v )2 p 8T /Tc c = −3 pc 3v/vc − 1 v

CAP´ITULO 4. CAMPOS TENSORIALES

90

Figura 4.6: Isotermas de un fluido de van der Waals. Las l´ıneas rojas corresponden al fluido supercr´ıtico, las azules a la fase l´ıquida y las verdes a la fase gas.

donde v es el volumen molar y el sub´ındice c se refiere al punto cr´ıtico de la transici´on l´ıquido-vapor. La figura 4.6 muestra la superficie a que da lugar esta ecuaci´on de estado. Como puede apreciarse, para v/vc suficientemente elevado recuperamos el comportamiento de un gas ideal, mientras que para temperaturas subcr´ıticas existe un corte correspondiente al cambio de fase l´ıquido-vapor. Si en lugar de una sustancia pura tenemos una mezcla bi-componente la ecuaci´on de estado depender´a tambi´en de una variable adicional, que describa la composici´on de la mezcla. En ese caso los estados de equilibrio forman una variedad tri-dimensional en el espacio de presi´on, temperatura, densidad y composici´on. Si consideramos mezclas de m´as de dos sustancias, cada sustancia adicional incrementa en una unidad el n´ umero de variables termodin´amicas del sistema, de forma que para una mezcla multi-componente el conjunto de puntos correspondientes a estados de equilibrio forma una variedad de dimensionalidad elevada, cuya forma puede ser muy complicada. Aparte de la variedad correspondiente a estados de equilibrio, en termodin´amica se manejan constantemente variedades definidas por multitud de restricciones aplicadas sobre las variables termodin´amicas. Los casos de transformaciones isobaras (presi´on constante), isocoras (volumen constante) e isotermas (temperatura constante) son especialmente frecuentes. Es interesante observar que fue precisamente Josiah Willard Gibbs, una de las principales figuras en la historia de la termodin´amica y la mec´anica estad´ıstica, quien desarroll´o gran parte del c´alculo vectorial moderno al formular el aparato matem´atico necesario en termodin´amica. Relatividad La teor´ıa de la relatividad emplea tambi´en el concepto de variedad diferenciable, siendo el espacio-tiempo que habitamos una de las variedades de mayor inter´es en f´ısica te´orica. Las obser-

4.1. VARIEDADES DIFERENCIABLES

91

vaciones de que disponemos en la actualidad parecen indicar que el espacio-tiempo es una variedad diferenciable pseudo-Riemanniana de 4 dimensiones. El anterior prefijo “pseudo-” refleja que seg´ un la teor´ıa de la relatividad la m´etrica del espacio-tiempo no cumple todas las propiedades que normalmente se exigen a una funci´on distancia. La gran diferencia est´a en que la m´etrica del espacio-tiempo relativista no es definida positiva, sino que existen ciertos vectores (llamados de g´enero luz) que a pesar de no ser nulos tienen “norma” nula; por otra parte existen tambi´en vectores llamados de g´enero tiempo con “norma” negativa y vectores llamados de g´enero espacio con norma positiva, de tal forma que la distancia espacio-temporal entre dos sucesos separados por un vector de g´enero (respectivamente) tiempo, luz o espacio es (respectivamente) negativa, nula o positiva (todo esto empleando la convenci´on tipo espacio, con signatura m´etrica −+++, los signos se invierten si empleamos la convenci´on tipo tiempo). Como consecuencia la geometr´ıa del espacio-tiempo relativista es distinta de la habitual geometr´ıa de Rn , incluso en el caso del espacio-tiempo “plano” de la relatividad especial (el espacio de Minkowski). En u ´ltima instancia esto hace que en el l´ımite no relativista (a velocidades bajas comparadas con la de la luz y lejos de singularidades espacio-temporales, como agujeros negros) la coordenada temporal aparezca como una variable cualitativamente distinta de las espaciales, que por su parte forman un espacio vectorial que en la pr´actica es indistinguible del espacio Eucl´ıdeo de 3 dimensiones.

4.1.4.

Diferenciabilidad y parametrizaciones

Hasta ahora hemos hablado de variedades sin prestar demasiada atenci´on a la condici´on de diferenciabilidad. Desde el punto de vista de las aplicaciones en f´ısica estamos interesados principalmente en variedades sobre las que es posible definir operaciones como derivadas e integrales, de manera an´aloga a como se definen estas operaciones en el familiar espacio Eucl´ıdeo Rn . Estas operaciones son necesarias para calcular multitud de magnitudes habituales en f´ısica, como por ejemplo velocidades y gradientes (definidos en funci´on de derivadas direccionales), o longitudes y ´areas (definidas en t´erminos de integrales). Las variedades en las que es posible definir este tipo de operaciones se denominan variedades diferenciables. Para definir operaciones como derivaci´on e integraci´on en variedades diferenciables es necesario definir antes un sistema de coordenadas generalizadas que parametrice la variedad (al menos localmente), y que nos permita describir desplazamientos a lo largo de la variedad. Por ejemplo, en Rn podemos calcular derivadas direccionales en t´erminos de derivadas respecto de las coordenadas espaciales que describen la posici´on de cada punto del espacio. En un espacio vectorial cualquier punto del espacio queda descrito por sus coordenadas respecto de una base cualquiera, en el caso de una variedad diferenciable este concepto no es aplicable. ⋆ ¿C´omo asignamos coordenadas a los puntos de una variedad diferenciable? En un entorno alrededor de cada punto de una variedad n-dimensional sabemos que esta es similar (topol´ogicamente equivalente) al correspondiente entorno de un espacio vectorial de n dimensiones (en la mayor´ıa de los casos Rn ). Por tanto, en un entorno de cualquier punto podemos definir una colecci´on de n funciones reales continuas con inversa continua (homeomorfismos) tales que a cada punto de dicho entorno le hagan corresponder un punto del espacio vectorial Rn , cuyas coordenadas en Rn (o cualquier funci´on continua y diferenciable con inversa continua y diferenciable de las mismas) pueden emplearse como coordenadas del punto de la variedad. En una variedad diferenciable n-dimensional esta colecci´on de n homeomorfismos define por tanto unas coordenadas generalizadas que parametrizan una determinada regi´on finita de la varie-

CAP´ITULO 4. CAMPOS TENSORIALES

92

y x

Figura 4.7: Parametrizaci´on de una variedad diferenciable.

dad. Un conjunto de funciones como el mencionado se denomina mapa, por analog´ıa con los mapas geogr´aficos, que hacen corresponder cada punto de una zona de la superficie terrestre con un punto de una representaci´ on bidimensional plana. En general para describir una variedad no bastar´a con un u ´nico mapa, v´alido a lo largo de toda la variedad, sino que ser´a necesario emplear una colecci´on de cierto n´ umero de mapas, cada uno de ellos v´alido s´olo en una determinada regi´on, de tal forma que el conjunto completo de todos estos mapas llegue a cubrir la totalidad de la variedad. Dicho conjunto completo de mapas se denomina l´ogicamente atlas. La condici´on que distingue a una variedad diferenciable es que todos los mapas que relacionan cada regi´on de la variedad con la correspondiente regi´on de Rn deben ser diferenciables (adem´as de continuos con inversa continua). De esta forma, al mover un punto a lo largo de la variedad de manera continua y diferenciable, sus coordenadas en el mapa que representa esta variedad en Rn var´ıan de forma continua y diferenciable, lo cual nos permite calcular derivadas e integrales a lo largo de la variedad en t´erminos de derivadas e integrales respecto de las coordenadas generalizadas que estemos empleando. Los mapas empleados para definir las coordenadas generalizadas en una variedad diferenciable son por tanto homeomorfismos diferenciables, este tipo de funciones se denominan difeomorfismos. Para garantizar que sobre la variedad podemos realizar derivadas espaciales de orden arbitrariamente alto, los difeomorfismos que mapean la variedad en Rn deben tener infinitas derivadas continuas, es decir, deben ser funciones de clase C ∞ . En este curso denominaremos funciones suaves a las funciones de clase C ∞ . Por otra parte, si sobre una determinada regi´on en una variedad diferenciable es posible definir dos parametrizaciones diferentes, la condici´on de diferenciabilidad impone que estas deben ser compatibles entre s´ı, es decir, debe existir una funci´on invertible de clase C ∞ que transforme un mapa en el otro, al menos en la regi´on donde ambos son simult´ aneamente v´alidos, dicha funci´on se denomina cambio de coordenadas. Esto u ´ltimo es especialmente importante en aquellos casos en los que resulta imposible describir la variedad completa por medio de una sola parametrizaci´on. En esos casos ser´a necesario emplear distintas parametrizaciones v´alidas en distintas regiones de la variedad, y la condici´on de diferenciabilidad de la variedad impone que dichos mapas deben ser compatibles en la intersecci´ on entre los dominios de definici´on correspondientes. ⋆ Las condiciones anteriores pueden resumirse de la siguiente forma. Dada la variedad diferenciable n-dimensional V, localmente homeomorfa a Rn : • Coordenadas generalizadas:

4.1. VARIEDADES DIFERENCIABLES

93

La variedad est´a parametrizada por un atlas, dado por un cierto n´ umero de homeomorfismos definidos sobre determinadas regiones Ωi de la variedad en Rn fi : Ωi → Rn

(4.5)

de forma que cada uno de estos mapas fi define un sistema de coordenadas generalizadas v´ alido en una cierta regi´on Ωi ⊂ V fi (v) = {xk (v)}nk=1 ∀v ∈ Ωi

(4.6)

donde la superposici´on de los dominios de definici´on de todos estos mapas recubre la variedad en su conjunto ⊕ Ωi . (4.7) V= i

• Condici´ on de diferenciabilidad de las coordenadas generalizadas: Si la variedad es diferenciable todos estos mapas deben ser homeomorfismos diferenciables, es decir, difeomorfismos. En general en este curso supondremos que las funciones que definen las coordenadas generalizadas sobre una variedad diferenciable son funciones invertibles de clase C ∞ . • Condici´ on de compatibilidad entre coordenadas generalizadas: Dados los mapas f y g v´alidos en las regiones Ωf y Ωg , que definen respectivamente las coordenadas generalizadas {xk (v)}nk=1 = f (v)

y

{yk (v)}nk=1 = g(v),

(4.8)

si la intersecci´on Ωf ∩Ωg no es nula entonces la condici´on de diferenciabilidad impone que existen dos funciones invertibles de clase C ∞ (ϕ y ϕ−1 ) que transforman las coordenadas generalizadas {yk (v)}nk=1 en las {xk (v)}nk=1 y viceversa {xk (v)}nk=1 = ϕ ({yk (v)}nk=1 ) ,

{yk (v)}nk=1 = ϕ−1 ({xk (v)}nk=1 ) .

Es muy f´acil ver que ϕ y su inversa est´an dadas respectivamente por ( ) [ ] ϕ = f ◦ g −1 , ϕ ({yk (v)}nk=1 ) = f g −1 ({yk (v)}nk=1 ) ( ) [ ] ϕ−1 = g ◦ f −1 , ϕ−1 ({xk (v)}nk=1 ) = g f −1 ({xk (v)}nk=1 ) .

(4.9)

(4.10) (4.11)

Las variedades diferenciables son los dominios m´as generales sobre los que es posible definir operaciones de c´alculo. Cuando se cumplen todas las condiciones anteriores podemos emplear las coordenadas generalizadas para calcular derivadas o integrales sobre la variedad por medio de las correspondientes derivadas o integrales respecto de las coordenadas generalizadas. Al hacer esto debemos tener en cuenta que si la variedad considerada tiene cierta curvatura, su m´etrica no coincidir´a con la del espacio Eucl´ıdeo Rn . Esto tiene importantes consecuencias a la hora de medir distancias, ´angulos o ´areas sobre una variedad y tambi´en a la hora de calcular derivadas direccionales. En general el c´alculo de derivadas direccionales a lo largo de variedades diferenciables n-dimensionales y el an´alisis de su m´etrica (incluyendo medidas de curvaturas, distancias, ´angulos, ´areas, vol´ umenes, etc.) son los objetos de estudio de la geometr´ıa diferencial. En el pr´oximo cap´ıtulo veremos c´omo se calculan derivadas direccionales en variedades diferenciables y en la segunda parte del curso veremos c´omo se calculan curvaturas, distancias, ´angulos y ´areas en el caso de variedades de una y dos dimensiones, es decir, curvas y superficies.

CAP´ITULO 4. CAMPOS TENSORIALES

94

g y2 y1

ϕ

x2 x1

f Figura 4.8: Compatibilidad entre coordenadas generalizadas de una variedad diferenciable.

Variedades Riemannianas El concepto de variedad generaliza el concepto de espacio vectorial a conjuntos de puntos con estructuras m´as complicadas. Con mucha frecuencia consideraremos variedades diferenciables localmente homeomorfas al espacio Rn con m´etrica no Eucl´ıdea en el plano tangente. En general se define una variedad Riemanniana como cualquier variedad diferenciable n dimensional con m´etrica de Riemann en el espacio tangente, de tal forma que la m´etrica est´a descrita por un tensor m´etrico gij que var´ıa de forma continua y diferenciable a lo largo de la variedad.

4.1.5.

Ejemplos de variedades y parametrizaciones

El espacio

Rn

Es evidente que el propio espacio vectorial Rn constituye una variedad diferenciable n-dimensional. Como parametrizaci´on trivial de esta variedad podemos considerar las propias coordenadas cartesianas xi , y como coordenadas generalizadas cualquier funci´on (invertible y C ∞ ) de las anteriores. Veamos algunos ejemplos: En dos dimensiones por ejemplo podemos definir las coordenadas polares (r, θ) dadas por √ x = r cos θ; r = x2 + y 2 , r ∈ [0, ∞]; y y = r sin θ; θ = arctan , θ ∈ [0, 2π] (4.12) x En tres dimensiones son muy habituales las coordenadas cil´ındricas (ρ, θ, z) √ x = ρ cos θ; ρ = x2 + y 2 , ρ ∈ [0, ∞]; y y = ρ sin θ; θ = arctan , θ ∈ [0, 2π] x y las coordenadas esf´ericas (r, θ, φ) x = r sin θ cos φ; y = r sin θ sin φ; z = r cos θ;



x2 + y 2 + z 2 , r ∈ [0, ∞]; z θ = arc cos , θ ∈ [0, π] r y φ = arctan , φ ∈ [0, 2π] x r=

(4.13)

(4.14)

4.1. VARIEDADES DIFERENCIABLES

95

Parametrizaci´ on de curvas En general una curva en Rn puede definirse mediante las n ecuaciones param´etricas que definen las coordenadas de un punto sobre la curva en funci´on de un par´ametro λ, x1 = x1 (λ) x2 = x2 (λ) ... ... ... xn = xn (λ)

(4.15)

de tal forma que cuando λ recorre un cierto intervalo de la recta real (p. ej. λ ∈ [0, 1]) el punto x(λ) recorre la curva completa, desde el punto inicial (x(λ = 0)) hasta el final (x(λ = 1)). De esta manera el par´ametro λ es la coordenada generalizada que define la posici´on de cualquier punto sobre la curva. En algunos casos se pueden tomar par´ametros que tengan un significado geom´etrico evidente. Por ejemplo, las relaciones x = cos θ,

y = sin θ,

θ ∈ [0, 2π]

(4.16)

definen una circunferencia de radio unidad en la que la coordenada generalizada θ es el ´angulo formado por el punto considerado con el eje x. Otro ejemplo, la relaci´on y = y(x) define la curva dada por la gr´afica de la funci´on y(x) en t´erminos del par´ametro x, lo que equivale a las ecuaciones param´etricas x = λ, y = y(λ). Otro ejemplo muy importante es el par´ ametro longitud de arco, definido como la longitud recorrida a lo largo de la curva a partir de un cierto punto que tomamos como origen. Como veremos en geometr´ıa diferencial, en el estudio de curvas el par´ametro longitud de arco es el que genera la descripci´on m´as sencilla posible de la curva. Parametrizaci´ on de superficies Las superficies se caracterizan por tener 2 grados de libertad, lo que implica que para recorrer una superficie debemos emplear 2 coordenadas generalizadas. Las ecuaciones param´etricas de una superficie contenida en Rn tendr´an por tanto la forma general siguiente x1 = x1 (λ, µ) x2 = x2 (λ, µ) ... ... ... xn = xn (λ, µ)

(4.17)

de manera que cuando los par´ametros λ y µ recorren sus correspondientes dominios de definici´on el punto x(λ, µ) recorre la superficie. Los par´ametros λ y µ definen de esta forma unas coordenadas generalizadas que nos permiten describir la superficie. Por ejemplo, la definici´on de las coordenadas esf´ericas en R3 con r = const. proporciona una parametrizaci´on de la superficie esf´erica de radio r centrada en el origen en t´erminos de las coordenadas generalizadas θ y φ (aunque este mapa no es v´alido cerca de los “polos” θ = 0 y θ = π). Otro ejemplo, en la gr´afica de una funci´on de dos variables z = f (x, y) las propias variables x e y proporcionan las coordenadas generalizadas necesarias para la parametrizaci´on de la superficie.

96

CAP´ITULO 4. CAMPOS TENSORIALES

La parametrizaci´on global de la superficie por medio de un u ´nico mapa no ser´a posible en aquellos casos en los que tengamos una superficie definida de manera impl´ıcita por una condici´on del tipo f (x, y, z) = 0 en la que resulte imposible despejar ninguna de las variables en funci´on de las restantes de manera suave y univaluada. En esos casos no ser´a posible parametrizar la superficie con un u ´nico mapa, tal y como se ha asumido en Eq. (4.17) sino que ser´a necesario emplear varios mapas para describir distintas regiones de la superficie. Esto es lo que sucede por ejemplo si queremos describir una superficie esf´erica (con r = 1, centrada en el origen) empleando las coordenadas√ x e y como coordenadas generalizadas, en ese√caso es necesario emplear al menos 2 mapas: z = + x2 + y 2 − 1 para la mitad superior y z = − x2 + y 2 − 1 para la mitad inferior.

4.2.

Fibrados tangente y cotangente

El espacio tangente a una variedad diferenciable n-dimensional V en el punto r ∈ V se define como la envolvente lineal de las tangentes en r a todas las curvas contenidas en la variedad que pasen por dicho punto. Por supuesto, estamos dando por hecho que las curvas a las que nos referimos son continuas y diferenciables. El ejemplo m´as visual en f´ısica consiste en identificar la curva param´etrica r(λ) con la trayectoria de un punto y el par´ametro λ con el tiempo; en ese caso la derivada de r respecto del par´ametro λ es el vector velocidad, de modo que el espacio tangente es el definido por los vectores velocidad de todas las trayectorias, continuas, diferenciables y contenidas en la variedad, que pasen por el punto en consideraci´on. Intuitivamente el espacio tangente a una variedad en un punto representa todas las direcciones posibles que podemos tomar en V para pasar por dicho punto sin salirnos de la variedad. Por ejemplo, si la variedad de partida es la superficie de una esfera, el espacio tangente en un punto es el plano tangente a la esfera en dicho punto; si la variedad de partida es una superficie en R3 , el espacio tangente en cualquier punto es el plano tangente a la superficie en dicho punto. Esto implica que la dimensionalidad del espacio tangente coincide con la de la variedad considerada. Una vez definido el espacio tangente en un punto, se define el fibrado tangente como el conjunto de todos los espacios tangentes que se obtiene al recorrer la variedad completa (∀r ∈ V). Por otra parte, el dual al espacio tangente en cada punto se define como el espacio co-tangente en dicho punto, y el conjunto de todos los espacios cotangentes definidos sobre toda la variedad se define como el fibrado cotangente. El producto tensorial de s copias de cada espacio tangente por r copias de su dual genera un espacio producto tensorial definido como funci´on del punto en V. A este espacio pertenecen los tensores (o, en general, las densidades tensoriales) definidas como funci´on del punto sobre la variedad. Todos los conceptos definidos en los cap´ıtulos precedentes sobre comportamiento tensorial son aplicables, sin ninguna modificaci´on, al caso de tensores definidos como funci´on del punto sobre una variedad diferenciable. La u ´nica diferencia es que ahora, en lugar de un u ´nico espacio vectorial, tenemos una colecci´on de espacios vectoriales definidos como funci´on del punto sobre la variedad diferenciable.

4.2.1.

Espacio tangente a un espacio vectorial

Para familiarizarnos m´as con el concepto de espacio tangente veamos primero el caso en que la variedad diferenciable considerada es, ella misma, un espacio vectorial. Dado un espacio vectorial E de n dimensiones y la base {ei }ni=1 , cualquier punto del espacio queda descrito por sus coordenadas xi respecto de dicha base. Una curva param´etrica contenida en E est´a dada por la colecci´on de n funciones xi (λ) (continuas y diferenciables), con λ definido en un cierto intervalo (p. ej. λ ∈ [0, 1]).

4.2. FIBRADOS TANGENTE Y COTANGENTE

v(t)

97

z

r(t)

y x

Figura 4.9: Part´ıcula m´ovil en

R3 .

El vector dado por la diferencia entre los valores de x sobre esta curva correspondientes a dos valores de λ infinitamente pr´oximos vdλ = x(λ + dλ) − x(λ)

(4.18)

es un vector que pertenece a un espacio vectorial id´entico a E, ya que es combinaci´ on lineal de vectores de E. Dicho vector diferencia, situado con origen en el punto x(λ), es tangente a la curva considerada y por tanto pertenece al espacio tangente a E en el punto x(λ). Por otra parte, est´a claro que considerando distintas curvas x(λ) podemos generar cualquier vector de E como vector velocidad. Como consecuencia: ⋆ El espacio tangente a un espacio vectorial E en el punto r ∈ dicho espacio E pero con origen en el punto r.

E est´a dado por una copia de

Con esto recuperamos la imagen intuitiva habitual, seg´ un la cual para pasar de un espacio vectorial al espacio tangente en un determinado punto basta con desplazar el origen del espacio a dicho punto. El espacio dual al espacio tangente en un punto se define como espacio co-tangente en ese punto. Por tanto el espacio co-tangente a un espacio vectorial en un punto determinado es un espacio id´entico al dual del espacio vectorial de partida, pero con origen en el punto considerado. Una vez definidos los espacios tangente y cotangente como funci´on del punto, el conjunto de estos espacios que obtenemos al recorrer el espacio de partida completo define (respectivamente) los fibrados tangente y el cotangente. El fibrado tangente de un espacio vectorial es algo muy familiar, ya que es lo que se ha estado manejando t´acitamente al estudiar, p. ej., trayectorias de part´ıculas puntuales en R3 , donde el vector velocidad es un vector perteneciente al fibrado tangente a R3 en el punto en donde se encuentre la part´ıcula (Fig. 4.9).

4.2.2.

Espacio tangente de una variedad diferenciable

El espacio tangente a un espacio vectorial es un espacio vectorial, seg´ un acabamos de ver. Veamos que el espacio tangente tambi´en es un espacio vectorial si el espacio de partida es solamente una variedad diferenciable: Consideramos una curva param´etrica r(λ) definida sobre la variedad V. El vector velocidad de esta curva es v = dr(λ)/dλ, que es tangente a la curva. Supongamos que en un entorno del

CAP´ITULO 4. CAMPOS TENSORIALES

98

punto de inter´es hemos definido un sistema de coordenadas generalizadas xi , por medio de un difeomorfismo (U ) entre la variedad V y un espacio vectorial E de n dimensiones. En este sistema de coordenadas r = U (x), donde x ∈ E est´a dado por las coordenadas cartesianas xi . La curva param´etrica r(λ) ⊂ V est´a dada por la imagen resultado de aplicar U sobre la correspondiente curva param´etrica x(λ) ⊂ E r(λ) = U (x(λ)) (4.19) El vector tangente v puede calcularse, entonces, por medio de la regla de la cadena v(λ) =

∂U (x) dxi ∂xi dλ

(4.20)

Considerar diferentes curvas r(λ) implica, claramente, considerar diferentes valores para dxi /dλ, pero la expresi´on gen´erica anterior es v´alida para cualquier curva, es decir, el vector tangente v a cualquier curva contenida en V se puede expresar como combinaci´on lineal de la base ∂U (x)/∂xi . Como consecuencia, dada la parametrizaci´on U (v´alida al menos en un entorno del punto considerado), el espacio tangente a V en r est´a dado por la envolvente lineal de la base ti =

∂U (x) , ∂xi

i = 1, . . . , n

(4.21)

Como puede verse, esta base est´a dada por los vectores tangentes a las l´ıneas coordenadas U (xi ), dadas por la intersecci´on de las hipersuperficies definidas por U (xj ) = const. ∀j ̸= i. Es muy sencillo verificar que esta base define, efectivamente, un espacio vectorial. Para ello basta comprobar que cualquier combinaci´on lineal de la base pertenece tambi´en al espacio tangente, es decir, que existe una curva (continua, diferenciable y contenida en V) cuyo vector velocidad coincide con dicha combinaci´on lineal. Por otra parte tambi´en existe el elemento nulo, el elemento opuesto, y, en resumen, se puede comprobar f´acilmente que se verifican todas las propiedades mencionadas en el primer cap´ıtulo. Cambios de coordenadas Aunque es trivial verificar que la envolvente lineal de la base Ec. (4.21) cumple todas las propiedades necesarias para ser un espacio vectorial, todav´ıa no es del todo evidente que un objeto definido como v = v i ti sea, realmente, un vector. Esto no es del todo evidente ya que los ti se han definido a partir de una parametrizaci´on concreta U que es totalmente arbitraria. Para convencernos de que v i ti es, efectivamente, un vector, debemos verificar que este objeto es invariante sea cual sea el sistema de coordenadas generalizadas empleado para describir la variedad. Consideremos entonces una parametrizaci´on arbitraria V , tal que a cada r ∈ V le asigna las n coordenadas generalizadas y i (es decir, r = U (x) = V (y)). De manera an´aloga a como hemos definido la base Ec. (4.21), los vectores tangentes a las l´ıneas coordenadas de este nuevo sistema definen la base “nueva” ˜ti = ∂V (y) , i = 1, . . . , n (4.22) ∂y i Por definici´on, este cambio de coordenadas es invertible, es decir, existen n funciones suaves que relacionan las coordenadas “nuevas” con las “viejas” y viceversa xi = xi (y 1 , . . . , y n ),

y i = y i (x1 , . . . , xn ),

i = 1, . . . , n

al menos en la intersecci´on de los dominios de definici´on de ambos mapas.

(4.23)

4.2. FIBRADOS TANGENTE Y COTANGENTE

99

Teniendo esto en cuenta y aplicando la regla de la cadena encontramos j ˜ti = ∂V (y) ∂x = C j tj , i ∂xj ∂y i

i = 1, . . . , n

(4.24)

donde hemos definido la matriz C del cambio de base como la matriz jacobiana del cambio de coordenadas, evaluada en el punto considerado   ∂x1 ∂x1 . . . ∂y n   ∂y1 ∂xi   i , C =  ... ... ...  (4.25) Cj = j ∂y   n ∂xn . . . ∂x ∂y n ∂y 1 Vemos por tanto que los vectores base Ec. (4.21), dados por las tangentes a las l´ıneas coordenadas, se comportan como objetos 1-covariante bajo el cambio de base inducido en el espacio tangente como consecuencia de realizar un cambio de coordenadas en la variedad. Para terminar de convencernos de que los elementos del espacio tangente son realmente vectores, debemos comprobar que, dada la curva param´etrica arbitraria r(λ) ⊂ V, la “velocidad” de esta curva es realmente un vector, es decir, un objeto independiente de las coordenadas generalizadas empleadas para describir la variedad. Veamos que efectivamente es as´ı. En la parametrizaci´on U el vector velocidad de esta curva (v) es v=

dr(λ) dxi = ti = v i ti dλ dλ

(4.26)

y por tanto tiene componentes v i = dxi /dλ. En la parametrizaci´on V el vector velocidad es v=

dr(λ) dy i ˜ = ti = v˜i˜ti dλ dλ

(4.27)

Identificando ambos resultados vemos que las coordenadas de v respecto de la base “vieja” (v i ) y respecto de la base “nueva” (˜ v i ) est´an relacionados por v˜i = Dji v j donde la matriz D es la matriz jacobiana de la transformaci´on inversa  1 ∂y ∂y 1 . . . ∂x n 1 ∂x  ∂y i  i −1 Dj = , D = C =  ... ... ... ∂xj  ∂y n ∂y n . . . ∂x n ∂x1

(4.28)     

(4.29)

Este mismo resultado (Ec. (4.28)) puede obtenerse directamente aplicando la regla de la cadena v˜i =

dy i ∂y i ∂xj = = Dji v j dλ ∂xj dλ

(4.30)

Por tanto vemos que las componentes dxi /dλ de la velocidad de cualquier curva param´etrica se comportan bajo un cambio de coordenadas como un objeto 1-contravariante, tal y como corresponde a las componentes de un vector. Con esto queda comprobado que el espacio tangente a una variedad diferenciable tiene estructura de espacio vectorial. Como corolario tambi´en resulta evidente que la dimensionalidad del espacio tangente coincide con el n´ umero de coordenadas generalizadas necesarias para describir la variedad, es decir, con la dimensionalidad de la variedad.

CAP´ITULO 4. CAMPOS TENSORIALES

100 M´ etrica del espacio tangente

Dados dos vectores del espacio tangente u = ui ti y v = v i ti , su producto escalar est´a dado por u · v = gij ui v j

(4.31)

donde el tensor m´etrico gij se define como la tabla de productos escalares de los vectores de la base gij = ti · tj ,

i, j = 1, . . . , n

(4.32)

El tensor m´etrico nos permite medir distancias a lo largo de la variedad. Por ejemplo, dada la curva param´etrica r(λ) la “longitud” al cuadrado (dr)2 recorrida en el intervalo de “tiempo” dλ es (dr)2 = gij v i v j (dλ)2 .

(4.33)

A partir de las leyes de transformaci´on de los vectores ti es inmediato verificar que las componentes del tensor m´etrico se transforman bajo un cambio de base como un objeto 2-covariante g˜ij = Cip Cjq gpq

(4.34)

En este curso s´olo consideraremos variedades diferenciables con m´etrica Riemanniana en el fibrado tangente (con mucha frecuencia Eucl´ıdea, como caso particular de Riemanniana), por tanto suponemos que gij es sim´etrico e invertible y que var´ıa de forma suave a lo largo del fibrado tangente. Una vez definida la m´etrica del espacio tangente quedan definidas las correspondientes relaciones entre el espacio tangente y su dual, en particular la base del fibrado co-tangente est´a dada por los vectores ti = g ij tj , i = 1, . . . , n (4.35) donde las componentes 2-contravariantes g ij forman el tensor m´etrico inverso. Esto permite aplicar en los fibrados tangente y cotangente las relaciones estudiadas en los cap´ıtulos precedentes sobre tensores y densidades tensoriales de cualquier rango tensorial. En particular quedan extendidas a los fibrados tangente y contangente las operaciones de “subida y bajada de ´ındices”, mediante el correspondiente producto de contracci´on con el tensor m´etrico o su dual. Base natural y componentes hol´ onomas Dada una variedad diferenciable n-dimensional V, parametrizada en un entorno determinado { }n por medio de un difeomorfismo cualquiera U en t´erminos de las coordenadas generalizadas xi i=1 , el conjunto de vectores tangentes a las l´ıneas coordenadas ti =

∂r , ∂xi

i = 1, . . . , n

(4.36)

se define como la base natural del fibrado tangente a V. Para cualquier vector v del espacio tangente, las componentes de v respecto de la base natural correspondiente a cualquier sistema de coordenadas generalizadas se denominan componentes hol´ onomas. La base dual a la base Ec. (4.36), dada por ti = g ij tj , es la base natural del fibrado cotangente, y en general, se denominan componentes hol´ onomas a las componentes de cualquier tensor af´ın relativas a la base definida como cualquier potencia tensorial de la base natural y su dual.

4.3. EL ESPACIO VECTORIAL

RN EN COORDENADAS CURVIL´INEAS

101

{ }n Como las coordenadas generalizadas xi i=1 var´ıan de forma suave (es decir, C ∞ ) a medida que recorremos la variedad, tambi´en lo hacen sus vectores tangentes, de modo que la base natural var´ıa de forma suave a medida que recorremos el fibrado tangente. Desde el punto de vista tensorial la base natural tiene muchas ventajas, paro hay ocasiones en que es preferible emplear otras bases distintas, como veremos m´as adelante. Por el contrario, se denominan componentes no hol´ onomas a las componentes de los vectores del espacio tangente respecto de cualquier base distinta de la base natural. Esta definici´on se hace extensiva a las componentes de cualquier campo tensorial definido sobre la variedad relativas a cualquier base distinta de la correspondiente potencia tensorial de la base natural y su dual. Un ejemplo de componentes no hol´onomas de gran inter´es en f´ısica son las llamadas componentes f´ısicas, dadas por las componentes respecto a la base natural normalizada, tal y como veremos posteriormente.

4.3.

El espacio vectorial

Rn en coordenadas curvil´ıneas

Como aplicaci´on directa de los resultados anteriores vamos a estudiar el espacio vectorial Rn en un sistema arbitrario de coordenadas. Finalmente aplicaremos estos resultados al caso habitual del espacio R3 Eucl´ıdeo en coordenadas cartesianas, cil´ındricas y esf´ericas. Consideremos el espacio vectorial Rn con m´etrica de Riemann dada por Gij = ei · ej , siendo ei los vectores de la base cartesiana (o can´onica). El espacio tangente a esta variedad en un punto arbitrario es una copia del espacio de partida (con la misma m´etrica) con centro en dicho punto. Sea x un punto perteneciente a Rn , descrito por sus componentes xi = {x1 , . . . , xn } respecto de la base cartesiana habitual. En general, un sistema de coordenadas curvil´ıneas (y j = {y 1 , . . . , y n }) es una colecci´on de n funciones suaves ( ) y 1 = y 1 x1 , . . . , xn ...

... ... ( 1 ) y = y x , . . . , xn n

n

(4.37)

invertibles ( ) x1 = x1 y 1 , . . . , y n ...

... ... ( 1 ) x = x y , . . . , yn n

n

(4.38)

de tal manera que la posici´on de cualquier punto del espacio vectorial queda un´ıvocamente definida tanto por xi como por y i . La condici´on que garantiza que podamos invertir el cambio de coordenadas es que el jacobiano de la transformaci´on   ∂x1 ∂x1 . . . ∂yn  ∂y1  ∂xi   i Jj = , J = (4.39)  ... ... ...  ∂y j   n ∂xn . . . ∂x ∂y n ∂y 1 sea invertible, lo cual queda garantizado si el determinante de J es distinto de cero en todo el dominio de definici´on de las coordenadas generalizadas y i .

CAP´ITULO 4. CAMPOS TENSORIALES

102

Normalmente las coordenadas y i ser´an funciones complicadas (no lineales) de las xi y el jacobiano no ser´a constante, sino que ser´a una funci´on del punto. Por tanto el cambio de coordenadas definido por Ec. (4.37) y Ec. (4.38) es una operaci´on m´as complicada que un simple cambio de base en el espacio. En particular, las coordenadas generalizadas y i ni siquiera tendr´an (en general) las mismas dimensiones que las xi . Por ejemplo, al pasar a coordenadas cil´ındricas o esf´ericas en R3 la coordenada radial tiene las mismas dimensiones que las coordenadas cartesianas de partida, pero las coordenadas angulares no, ya que son adimensionales. M´as adelante volveremos sobre esta cuesti´on, que motiva la definici´on de las componentes f´ısicas.

4.3.1.

Base natural y m´ etrica del espacio tangente

La base cartesiana habitual es la base natural de las coordenadas cartesianas ei =

∂x ∂xi

(4.40)

La base natural del sistema de coordenadas generalizadas y i est´a dada por ti =

∂x = Jij ej ∂y i

(4.41)

donde la matriz jacobiana est´a dada por Ec. (4.39), tal y como puede comprobarse aplicando la regla de la cadena para calcular ∂x/∂y i en t´erminos de ∂x/∂xj . El tensor m´etrico en t´erminos de la base nueva est´a dado por gij = ti · tj = Jip Jjq Gpq

(4.42)

Para verificar que gij define una m´etrica de Riemann es necesario comprobar que es sim´etrico, invertible, y que var´ıa de forma suave a medida que recorremos el fibrado tangente. Lo cual es inmediato suponiendo que Gij cumple todas las propiedades necesarias para definir una m´etrica Riemanniana y que J es invertible y suave. Caso de

Rn Eucl´ıdeo

En el caso m´as habitual la m´etrica de Rn ser´a Eucl´ıdea Gij = δij (al menos en alguna base). En ese caso el tensor m´etrico del espacio tangente en la base natural definida por el sistema de coordenadas y j es n ∑ gij = Jik Jjk (4.43) k=1

que matricialmente puede ponerse como [g] = [J]T [J]. Incluso si el espacio de partida es Eucl´ıdeo vemos que, dependiendo del sistema de coordenadas empleado, el tensor m´etrico del espacio tangente en t´erminos de la base natural puede no ser la identidad. En general, en un espacio Eucl´ıdeo el tensor m´etrico s´olo es la identidad si empleamos una base ortonormal, pero no lo ser´a en caso contrario. Esto no significa que el espacio deje de ser Eucl´ıdeo, una m´etrica es no Eucl´ıdea solamente en el caso en que no exista ninguna base tal que en ella el tensor m´etrico sea la identidad. En el caso de Rn Eucl´ıdeo el espacio tangente es, obviamente, Eucl´ıdeo.

4.3. EL ESPACIO VECTORIAL

RN EN COORDENADAS CURVIL´INEAS

103

Coordenadas ortogonales En general se denominan sistemas de coordenadas ortogonales a aquellos en que las l´ıneas coordenadas son mutuamente perpendiculares, de forma que el tensor m´etrico en el espacio tangente es diagonal: { 0 si i ̸= j gij = ti · tj = (4.44) h2i si i = j donde los factores de escala hi est´an dados por la norma de los correspondientes vectores tangentes a las l´ıneas coordenadas hi = (ti · ti )1/2 = ∥ti ∥ (4.45) que en general no ser´an unitarios (hi ̸= 1). En el caso de un espacio Eucl´ıdeo descrito en t´erminos de un sistema de coordenadas ortogonales los factores de escala est´an dados por )2 n ( ∑ ∂xk 2 (hi ) = (4.46) ∂y i k=1

En general el uso de coordenadas curvil´ıneas ortogonales simplifica enormemente las expresiones. Por ejemplo, el tensor m´etrico inverso en coordenadas ortogonales est´a sencillamente dado por g ij = (hi )−2 δ ij (sin suma en i).

4.3.2.

Componentes f´ısicas

Un m´ovil en el espacio Rn , descrito por las coordenadas cartesianas habituales xi , est´a dado por la curva param´etrica con componentes xi (t). El vector velocidad de esta part´ıcula puntual es un vector del espacio tangente dado por v=

dxi ei dt

(4.47)

⋆ ¿C´ ual es la expresi´on del vector velocidad en coordenadas generalizadas? Seg´ un hemos visto previamente, en t´erminos de la base natural correspondiente a las coordenadas y i , este vector se expresa sencillamente como v=

dy i ti dt

(4.48)

Desde el punto de vista tensorial el vector Ec. (4.48) est´a perfectamente bien definido, pero desde el punto de vista f´ısico puede ser poco conveniente. Supongamos que las coordenadas xi tienen dimensiones de longitud, de tal forma que las componentes de v en la base cartesiana tienen dimensiones de longitud/tiempo. Parece razonable pensar que las componentes de un vector velocidad siempre deben tener dimensiones de velocidad, sin embargo, esto no tiene porqu´e cumplirse con las componentes dy i /dt. De hecho es inmediato comprobar que dy i /dt s´olo tendr´a dimensiones de velocidad si la correspondiente coordenada generalizada y i tiene dimensiones de longitud, lo cual no tiene por qu´e cumplirse, y de hecho no se cumple en numerosos sistemas de coordenadas empleados habitualmente (como las variables angulares de las coordenadas cil´ındricas y esf´ericas). El problema est´a en la definici´on de la base natural. En principio en f´ısica parece preferible que los vectores de la base sean adimensionales, de forma que las dimensiones del tensor en consideraci´on recaigan sobre sus componentes, tal y como sucede cuando se emplea la base cartesiana.

CAP´ITULO 4. CAMPOS TENSORIALES

104

Sin embargo, la base natural de un sistema de coordenadas generalizadas no es adimensional, sino que el vector ti = ∂r/∂y i tiene dimensiones de [r]/[y i ], y por tanto s´olo ser´a adimensional si la coordenada generalizada y i tiene las mismas dimensiones que r. Este problema suele resolverse empleando la base natural normalizada correspondiente a las coordenadas y i , definida por ∂r i ˆti = ∂y = 1 ti ,

∂r hi

∂y i

i = 1, . . . , n

(4.49)

(sin suma en i). Por construcci´on est´a claro que cada uno de estos vectores es unitario, y por tanto tambi´en adimensional. Las componentes de vectores y tensores respecto de esta base se denominan componentes f´ısicas, y se caracterizan por tener las mismas dimensiones que el objeto tensorial que representan. Las leyes de transformaci´on de tensores en componentes f´ısicas son algo m´as complicadas que en componentes hol´onomas, ya que incluyen contracciones con el tensor m´etrico y con su inversa. Por este motivo es usual usar las coordenadas respecto de la base natural para todo lo que son transformaciones de coordenadas y emplear las componentes f´ısicas, calculadas en funci´on de las anteriores, s´olo cuando ya no se van a realizar m´as cambios de coordenadas. Las componentes f´ısicas son las que se usan en la pr´actica en todos los casos en que la m´etrica en el espacio tangente sea Eucl´ıdea. En particular, si la m´etrica es Eucl´ıdea y se emplean coordenadas ortogonales, la base natural normalizada tiene la gran ventaja de ser una base ortonormal (cosa que en general no sucede con la base natural), lo cual simplifica enormemente todas las expresiones. Esto hace que las componentes f´ısicas sean las empleadas en las aplicaciones del c´alculo tensorial en ingenier´ıa. De hecho, las componentes f´ısicas son las que se emplean cuando se suministran expresiones para el c´alculo de divergencias, gradientes, etc. en sistemas de coordenadas curvil´ıneas ortogonales, como cil´ındricas o esf´ericas. Vector velocidad en componentes f´ısicas A partir de Ec. (4.49) es muy sencillo comprobar que la relaci´on entre la base cartesiana de partida (vectores ei , coordenadas xi ) y la base formada por los vectores tangentes unitarios (que en lo sucesivo denotaremos por ˆti ) est´a dada por i ˆtj = 1 ∂x ei , hj ∂y j

ej = hi

∂y i ˆ ti , ∂xj

sin suma en j (4.50)

con suma en i

Como puede verse la matriz del cambio de base en este caso est´a dada por [J][h−1 ], donde [J] es la matriz jacobiana y [h−1 ] es una matriz diagonal cuyos elementos son los los inversos de los factores de escala. Consecuentemente las componentes f´ısicas de un vector del espacio tangente est´an dadas por u = ui ei = ui hj

∂y j ˆ tj = u ˆj ˆtj ; ∂xi

u ˆ j = hj

∂y j i u, ∂xi

tal y como corresponde a un comportamiento 1-contravariante.

sin suma en j

(4.51)

4.3. EL ESPACIO VECTORIAL

RN EN COORDENADAS CURVIL´INEAS

105

i i La base dual a {ˆti }ni=1 est´a dada por los vectores {ˆt }ni=1 que cumplen (ˆt , ˆtj ) = δji . Puede comprobarse f´acilmente que esta base est´a dada por i

ˆti = hi ∂y ej , sin suma en i (4.52) ∂xj Consecuentemente las componentes f´ısicas de un vector del espacio cotangente est´an dadas por 1 ∂xi ˆj 1 ∂xi ˆtj ; u ˆ = t = u ˆ ui , j j hj ∂y j hj ∂y j tal y como corresponde a una una ley tensorial 1-covariante. u = ui ei = ui

sin suma en j

(4.53)

Producto escalar y tensor m´ etrico en componentes f´ısicas Dados dos vectores u y v del espacio tangente, su producto escalar estar´a dado por u · v = Gij ui v j = gˆij u ˆi vˆj

(4.54)

donde el tensor m´etrico en componentes f´ısicas est´a dado por la ley 2-covariante 1 ∂xk 1 ∂xl gˆij = ˆti · ˆtj = Gkl , hi ∂y i hj ∂y j

sin suma en ij

(4.55)

An´alogamente, el producto escalar en t´erminos de las coordenadas covariantes est´a dado por u · v = Gij ui vj = gˆij u ˆi vˆj

(4.56)

donde gˆij est´a dado por la ley de transformaci´on 2-contravariante ∂y i ∂y j i j gˆij = ˆt · ˆt = hi k hj l Gkl , sin suma en ij (4.57) ∂x ∂x y por supuesto se verifica que gˆik gˆkj = δji . Tambi´en se puede comprobar que el tensor m´etrico relaciona las componentes co- y contra-variantes en esta nueva base u ˆi = gˆij u ˆj ,

u ˆi = gˆij u ˆj

(4.58)

ˆti = gˆij ˆtj

(4.59)

y los vectores de la base con los de su dual ˆti = gˆij ˆtj , Componentes f´ısicas en espacios Eucl´ıdeos Las componentes f´ısicas se emplean, como regla general, siempre que estemos trabajando en espacios Eucl´ıdeos. El motivo es que si el espacio vectorial de partida es Eucl´ıdeo (Gij = δij , Gij = δ ij ) y empleamos un sistema de coordenadas ortogonales, entonces el tensor m´etrico en la base de los vectores tangentes unitarios vuelve a ser, l´ogicamente, la identidad (ˆ gij = δij , gˆij = δ ij ) lo que simplifica enormemente el c´alculo. Para comprobarlo basta recordar la definici´on de los factores de escala hi (Ec. (4.45)). Como consecuencia las componentes f´ısicas co- y contra-variantes respecto de un sistema de coordenadas ortogonales en un espacio Eucl´ıdeo coinciden, y por este motivo es muy frecuente no hacer distici´on alguna entre unas y otras. Esto es lo que sucede generalmente cuando se suministran tablas con expresiones para los operadores diferenciales habituales (gradiente, divergencia, rotacional, . . . ) en coordenadas cil´ındricas o esf´ericas (o en cualquier otro sistema de coordenadas curvil´ıneas ortogonales). Siempre que se suministran estas expresiones sin hacer referencia al car´acter co- o contra-variante de las componentes empleadas se sobre-entiende que estamos manejando componentes f´ısicas en un espacio Eucl´ıdeo.

CAP´ITULO 4. CAMPOS TENSORIALES

106

4.3.3.

El espacio Eucl´ıdeo

R3 en coordenadas cil´ındricas

En el resumen de resultados generales presentado en esta secci´on y en la siguiente emplearemos la notaci´on (˜) para todas las magnitudes referidas a la base natural y (ˆ) para la base natural normalizada.

z uz uθ ur

r r

y θ

x Figura 4.10: Coordenadas cil´ındricas.

Las coordenadas cil´ındricas est´ an definidas por el cambio de variable y1 y2 y3

= = =

r θ

= =



x2 + y 2

arctan

y x

z

Matriz jacobiana

 Ji j

cos(θ)   =  sin(θ)  0

x1

=

x

= r cos θ

x2

=

y

= r sen θ

x3

=

z

− (r sin(θ)) r cos(θ) 0

 0   0  1

Vectores tangentes 

 cos(θ)    ˜t1 =   sin(θ)  ,   0



 − (r sin(θ))    ˜t2 =   r cos(θ)  ,   0

  0    ˜t3 =  0 ,   1



 cos(θ)    ˜t1 =   sin(θ)  ,   0

  ˜t2 =   



(

sin(θ) r cos(θ) r

)

0

  , 

  0    ˜t3 =  0    1

Vectores tangentes unitarios 

 cos(θ)    ˆt1 =   sin(θ)  ,   0



 − sin(θ)    ˆt2 =   cos(θ)  ,   0

Tensor m´ etrico

  0    ˆt3 =  0 ,   1

 g˜ij

1   = 0  0

0 r2 0



 cos(θ)    ˆt1 =   sin(θ)  ,   0





  0 ,  1

1   = 0  0

0

g˜ij



 − sin(θ)    ˆt2 =   cos(θ)  ,   0 

0 r−2 0

0

  0  1

  0    ˆt3 =  0    1

4.3. EL ESPACIO VECTORIAL

RN EN COORDENADAS CURVIL´INEAS

z ur uϕ

r r θ



y x

ϕ

Figura 4.11: Coordenadas esf´ericas.

4.3.4.

El espacio Eucl´ıdeo

R3 en coordenadas esf´ericas

Las coordenadas esf´ ericas est´ an definidas por el cambio de variable √ y1 = r = x2 + y 2 + z 2 x1 √ 2 +y 2 x x2 y 2 = θ = arctan z y3

=

ϕ

Matriz jacobiana

=

arctan

y x

x3

 cos(ϕ) sin(θ)

  Ji j =  sin(ϕ) sin(θ)  cos(θ)

r cos(ϕ) cos(θ)

=

x

= r sen θ cos ϕ

=

y

= r sen θ sen ϕ

=

z

= r cos θ

− (r sin(ϕ) sin(θ))



  r cos(ϕ) sin(θ)   0

r cos(θ) sin(ϕ) − (r sin(θ))

Vectores tangentes      − (r sin(ϕ) sin(θ)) r cos(ϕ) cos(θ) cos(ϕ) sin(θ)            ˜t1 =   sin(ϕ) sin(θ)  , ˜t2 =  r cos(θ) sin(ϕ)  , ˜t3 =  r cos(ϕ) sin(θ)        0 − (r sin(θ)) cos(θ)      ( ) cos(ϕ) cos(θ) csc(θ) sin(ϕ) − cos(ϕ) sin(θ) r r       2 3   cos(θ) sin(ϕ)    ˜t1 =   sin(ϕ) sin(θ)  , ˜t =   , ˜t =  cos(ϕ) csc(θ)  r r    (   ) sin(θ) − cos(θ) 0 r 

Vectores tangentes unitarios 

 cos(ϕ) sin(θ)    ˆt1 =   sin(ϕ) sin(θ)  ,   cos(θ)   cos(ϕ) sin(θ)    ˆt1 =   sin(ϕ) sin(θ)  ,   cos(θ)



 cos(ϕ) cos(θ)    ˆt2 =   cos(θ) sin(ϕ)  ,   − sin(θ)   cos(ϕ) cos(θ)    ˆt2 =   cos(θ) sin(ϕ)  ,   − sin(θ)



Tensor m´ etrico g˜ij

1   = 0  0

0

0

r2

0

0

r2 sin(θ)2





  , 

1   = 0  0

g˜ij



 − sin(ϕ)    ˆt3 =   cos(ϕ)    0   − sin(ϕ)    ˆt3 =   cos(ϕ)    0  0

0

r−2

0

0

    2

csc(θ) r2

107

CAP´ITULO 4. CAMPOS TENSORIALES

108

4.4.

Problemas

P.4.1. Dado el sistema Ec. (4.1), demostrar que la condici´on necesaria { n+1 } { 1 paran }poder despejar las n+r coordenadas x ,...,x como funci´on de las restantes x , . . . , x en un entorno del punto x0 es que la matriz Ec. (4.4) sea invertible en un entorno de dicho punto. P.4.2. Demostrar que un vector v cualquiera, con origen en un punto r ∈ V, pertenece al espacio tangente a la variedad V en el punto r si y solo si v es el vector “velocidad” de alguna curva γ(s) contenida en V que pase por r. P.4.3. Demostrar que el tensor m´etrico gij definido por Ec. (4.42) define una m´etrica de Riemann en el fibrado tangente al espacio vectorial Rn con m´etrica de Riemann dada por Gij . P.4.4. Demostrar que la m´etrica gij definida por Ec. (4.42) es esencialmente id´entica a Gij . P.4.5. Dado el vector v = v i ti del espacio tangente a Rn , calcular las componentes co-variantes de este vector suponiendo que la base natural ti corresponde a un sistema de coordenadas curvil´ıneas ortogonales. P.4.6. Calcular las componentes del tensor 2-covariante asociado al tensor 2-contravariante T ij respecto de la base natural correspondiente a un sistema de coordenadas ortogonales. P.4.7. Verificar las relaciones Ec. (4.51) y Ec. (4.53) relativas a componentes f´ısicas de vectores. P.4.8. Verificar las relaciones Ec. (4.55) y Ec. (4.57) relativas a las componentes f´ısicas del tensor m´etrico. P.4.9. Verificar que el tensor m´etrico de un espacio Eucl´ıdeo en componentes f´ısicas es la identidad. P.4.10. Verificar las relaciones referentes al espacio Eucl´ıdeo R3 en coordenadas cil´ındricas y esf´ericas mencionadas al final del cap´ıtulo.

4.4.1.

Soluciones a problemas seleccionados (Tema 4)

P.4.1. Partimos del conjunto de ecuaciones impl´ıcitas dado en la Ec. (4.1), que recordamos definen una variedad n-dimensional espacio }vectorial de n + r dimensiones, y lo linealizamos { 1en un 2 alrededor del punto x0 = x0 , x0 , . . . , xn+r . Para ello realizamos la expansi´on de Taylor de 0 cada funci´on en torno al punto x0 hasta orden 1: ∂f1 (x) ∂f1 (x) 1 f1 (x0 ) + x + x2 + · · · + ∂x1 x=x0 ∂x2 x=x0 ∂f2 (x) ∂f2 (x) 1 f2 (x0 ) + x + x2 + · · · + ∂x1 x=x0 ∂x2 x=x0 ... ... ∂fr (x) ∂fr (x) x1 + x2 + · · · + fr (x0 ) + 1 ∂x ∂x2 x=x0 x=x0

∂f1 (x) xn+r = 0 ∂xn+r x=x0 ∂f2 (x) xn+r = 0 ∂xn+r x=x0 ... ... ... ∂fr (x) xn+r = 0 ∂xn+r x=x0

4.4. PROBLEMAS

109

Como el punto x0 pertenece a la variedad debe satisfacer las ecuaciones { Ec. (4.1), de modo } que fi (x0 ) = 0, i = 1, . . . , r. Ahora podemos despejar los t´erminos con xn+1 , . . . , xn+r : ( ) ∂f1 (x) ∂f (x) ∂f (x) ∂f (x) 1 1 1 xn+1 + · · · + xn+r = − x1 + · · · + xn ∂xn+1 x=x0 ∂xn+r x=x0 ∂x1 x=x0 ∂xn x=x0 ( ) ∂f (x) ∂f2 (x) ∂f (x) ∂f (x) 2 2 2 xn+1 + · · · + xn+r = − x1 + · · · + xn ∂xn+1 x=x0 ∂xn+r x=x0 ∂x1 x=x0 ∂xn x=x0 ... ... ... ... ... ( ) ∂fr (x) ∂fr (x) ∂fr (x) ∂fr (x) n+1 n+r 1 n x + ··· + x =− x + ··· + x ∂xn+1 x=x0 ∂xn+r x=x0 ∂x1 x=x0 ∂xn x=x0 y obtenemos un sistema lineal de ecuaciones que puede expresarse en forma matricial del siguiente modo: Ay = y 0 con el vector columna y para la inc´ognitas, e y 0 para los t´erminos independientes:   ∑   ∂f1 (x) n 1 n+1 x − i=1 ∂x1 x  x=x0        , y =  ... , y0 =  ...       ∑ ∂fr (x) n 1 n+r − i=1 ∂x1 x x x= x0 y donde la matriz A de los coeficientes es, precisamente, la matriz Ec. (4.4) evaluada en el punto en cuesti´on. Este sistema lineal tiene soluci´on cuando la matriz A es invertible: y = A−1 y 0 , { n+1 } y esa soluci´on corresponde x , . . . , xn+r de coordenadas expresadas como { 1 al conjunto } funci´on de las restantes x , . . . , xn , es decir: ( ) xn+1 = g1 x1 , . . . , xn ( ) xn+2 = g2 x1 , . . . , xn ... x

n+r

... ... ( 1 ) = gr x , . . . , xn

P.4.2. Para verificar que se cumple la doble implicaci´on indicada consideramos primero un vector v perteneciente al espacio tangente en el punto r. Como v pertenece al espacio tangente podemos escribirlo en t´erminos de sus componentes contravariantes v = v i ti . Consideremos ahora la curva param´etrica γ(s) dada por los puntos U (xi + v i s) siendo U el difeomorfismo existente entre la variadad considerada y las coordenadas generalizadas empleadas para describirla, xi las coordenadas generalizadas del punto r, s un par´ametro cualquiera y v i las componentes contravariantes del vector v de partida. Es evidente que para s = 0 esta curva pasa por el punto con coordenadas generalizadas xi , es decir, por r. Por otra parte, derivando respecto del par´ametro s y teniendo en cuenta las relaciones Ec. (4.20 & 4.21) vemos que el vector

CAP´ITULO 4. CAMPOS TENSORIALES

110

velocidad de esta curva en s = 0 es v, con esto hemos visto que dado un vector del espacio tangente hemos podido encontrar una curva param´etrica tal que su velocidad coincide con el vector dado. Para verificar la implicaci´on inversa basta con recordar las relaciones Ec. (4.20 & 4.21), las cuales implican que el vector velocidad de cualquier curva param´etrica en un punto dado es expresable como combinaci´on lineal de la base del espacio tangente en el punto considerado, y por tanto pertenece a dicho espacio.

4.5.

Bibliograf´ıa

Para escribir este cap´ıtulo se ha consultado [1], [2], [5], [7] y [11].

Cap´ıtulo 5

Derivaci´ on de campos tensoriales En este cap´ıtulo veremos los conceptos de transporte paralelo y derivada covariante. Esto nos permitir´a generalizar las operaciones basadas en derivaci´on direccional habituales en c´alculo al caso de campos tensoriales definidos sobre variedades diferenciables.

5.1.

Transporte paralelo

Una vez hemos definido los campos tensoriales sobre variedades diferenciables aparece la cuesti´on de su an´alisis. En particular nos encontramos con la siguiente cuesti´on: dado un campo vectorial definido sobre una variedad ⋆ ¿podemos comparar el valor del campo en un punto A con el valor en otro punto B? La relevancia de esta cuesti´on es obvia. Por ejemplo, el campo al que nos referimos podr´ıa representar un campo de fuerzas, o de velocidades, de modo que nos preguntamos si la fuerza a la que est´an sometidos dos puntos distintos sobre la variedad es la misma, o si las velocidades a las que se desplazan dos part´ıculas puntuales sobre una variedad son iguales o no, y en caso de no serlo nos preguntamos en cu´anto difieren, es decir, cu´al es el vector diferencia. Tambi´en es evidente que esta misma cuesti´on que estamos analizando para el caso de un campo vectorial se da de manera an´aloga para un campo tensorial de cualquier rango. A primera vista la pregunta anterior puede parecer trivial, pero no lo es. La dificultad est´a en que el valor del campo en el punto A es un vector del espacio tangente a la variedad en el punto A, mientras que el correspondiente valor en el punto B pertenece al espacio tangente en B, es decir, los dos vectores que queremos comparar pertenecen a espacios vectoriales distintos: ⋆ ¿podemos comparar dos vectores que no pertenecen al mismo espacio vectorial? Est´a claro que la pregunta de si dos vectores son o no iguales s´olo est´a bien planteada cuando ambos vectores pertenecen al mismo espacio vectorial, con lo que podr´ıa parecer que la pregunta que hac´ıamos m´as arriba no tiene respuesta. Sin embargo, si la variedad en consideraci´on es el espacio Eucl´ıdeo Rn descrito en t´erminos de la base cartesiana la operaci´on de comparar un v(A) con un v(B) es trivial: basta con trasladar el vector v(A) sin modificarlo desde A hasta B, hecho esto podemos compararlos (en particular calcular su diferencia) sin ninguna dificultad. ⋆ ¿Podemos generalizar esta operaci´on al caso de una variedad diferenciable cualquiera? 111

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

112

La respuesta a esta pregunta est´a condicionada por la presencia de curvatura en la variedad. Para entender esta cuesti´on es necesario estudiar con algo m´as de profundidad lo que se est´a haciendo cuando “trasladamos” el origen de un vector a lo largo de una variedad. Los espacios tangentes a una variedad en dos puntos distintos son espacios vectoriales distintos, pero est´an conectados por el hecho de ser ambos tangentes a la misma variedad diferenciable. Dada una variedad diferenciable y un sistema de coordenadas generalizadas (y i ), el espacio tangente en un punto r puede definirse como la envolvente lineal de los vectores tangentes a las l´ıneas coordenadas en ese punto (es decir, la envolvente lineal de la base natural en ese punto). Si ahora consideramos un desplazamiento infinitesimal en torno a r tenemos que la base natural ti habr´a variado de forma infinitesimal para convertirse en ti + dti , si el desplazamiento es infinitesimal esta variaci´on puede describirse en t´erminos de la base natural en r por medio de ( ) ∂ti j k ∂ti dti = j dy = t , j tk dy j (5.1) ∂y ∂y donde las derivadas se eval´ uan en el punto r de partida. Como consecuencia de esto los espacios tangentes en r y r + dr no son independientes, sino que est´an conectados por ser ambos tangentes a la misma variedad diferenciable. Esta conexi´on es lo que permite trasladar vectores a lo largo del fibrado tangente. En el caso de Rn Eucl´ıdeo en t´erminos de la base cartesiana la operaci´on de trasladar vectores es trivial debido a que el tensor m´etrico y la base del espacio tangente son constantes a lo largo de toda la variedad, de modo que para trasladar vectores sin modificarlos basta con desplazar su origen sin modificar los valores de sus componentes. La operaci´on de desplazar un vector (o un campo tensorial de cualquier orden) a lo largo de una variedad, de manera paralela a s´ı mismo y a la variedad, se denomina transporte paralelo. Esta operaci´on implica que el vector que trasladamos se desplaza a lo largo de la variedad seg´ un una determinada curva param´etrica: de manera paralela a la variedad, es decir, sin salirse del fibrado tangente, de manera paralela a s´ı mismo y sin modificar su norma. El transporte paralelo se generaliza al caso de campos tensoriales de cualquier orden. La idea en todos los casos es la misma, se trata de desplazar un tensor desde el punto A al punto B de forma paralela a la variedad, sin modificarlo (m´as bien modific´ andolo lo menos posible), a lo largo de una curva determinada que una dichos puntos. Antes de entrar en los detalles t´ecnicos sobre c´ omo se hace, est´a claro que esto estar´a condicionado por el rango tensorial de la magnitud que queremos transportar, por las propiedades de la variedad diferenciable sobre la que vamos a hacer el transporte (en particular por su curvatura), por el sistema de coordenadas empleado (ya que este determina la base natural del fibrado tangente) y por la curva param´etrica a lo largo de la que realizamos el transporte. En este sentido hay dos casos en los que el transporte paralelo es trivial, el transporte paralelo de escalares y el de tensores de cualquier orden en Rn Eucl´ıdeo en t´erminos de la base cartesiana: Es evidente que el transporte paralelo de escalares es trivial. Dado un campo escalar f definido sobre una variedad diferenciable, los valores de este campo en dos puntos (f (A) y f (B)) pueden compararse directamente, es decir, el transporte paralelo de la magnitud del campo en A (f (A)) a cualquier otro punto de la variedad est´a dado por f (A).

5.1. TRANSPORTE PARALELO

113

En el caso de Rn Eucl´ıdeo en t´erminos de la base cartesiana el transporte paralelo de tensores de cualquier orden es trivial, dado que en este caso la base del espacio tangente no var´ıa al desplazarnos a lo largo de la variedad, de forma que para transportar de manera paralela cualquier tensor basta con desplazar su origen sin modificar los valores de las componentes (Fig. 5.1 izda.). En cualquier otro caso el transporte paralelo es una operaci´on no trivial en la que entra en juego el rango tensorial de la magnitud transportada y la curvatura de la variedad. La presencia de curvatura en una variedad tiene consecuencias importantes en el transporte paralelo, ya que al realizarse este de manera paralela a la variedad, si la variedad tiene curvatura se introduce inevitablemente una cierta rotaci´on en el tensor, dependiente del camino considerado, a medida que se realiza el transporte. Por tanto la presencia de curvatura hace que el transporte paralelo dependa del camino. Esto se pone de manifiesto de manera expl´ıcita si consideramos la variedad desde el punto de vista extr´ınseco, como se muestra p. ej. en la figura 5.1 (dcha.) para el transporte de un vector sobre una superficie esf´erica (al final de este apartado volveremos sobre esta cuesti´on).

Figura 5.1: Transporte paralelo de un vector a lo largo de una curva cerrada en un plano y en una esfera.

5.1.1.

S´ımbolos de Christoffel

Si nos desplazamos de manera continua y diferenciable a lo largo de una variedad diferencible observamos que la base natural va variando tambi´en de manera continua y diferenciable, lo cual define una conexi´on entre los espacios tangentes a la variedad en distintos puntos, es decir, en todo el fibrado tangente. Esta conexi´on en el fibrado tangente induce la correspondiente conexi´on en el fibrado co-tangente y por tanto tambi´en en el espacio producto tensorial de cualquier potencia tensorial del primero por cualquier potencia tensorial del segundo. Esta conexi´on se denomina conexi´ on de Levi-Civita y est´a definida localmente por las derivadas de los vectores de la base natural respecto de cada una de las l´ıneas coordenadas.

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

114 Conexi´ on de Levi-Civita

Si describimos la variedad por medio de un determinado sistema de coordenadas (definido al menos localmente en un cierto entorno), la conexi´on de Levi-Civita queda descrita en dicho sistema de coordenadas por medio de un conjunto de coeficientes, llamado coeficientes de la conexi´on, dados por las derivadas direccionales de los vectores de la base natural del espacio tangente en t´erminos de esa misma base, es decir, por las componentes que aparec´ıan en la ec. (5.1). Estos coeficientes se denominan s´ımbolos de Christoffel de segunda especie, con frecuencia simplemente s´ımbolos de Christoffel, y se denotan habitualmente por Γkij Γkij = tk · { (a veces se emplea la notaci´on

k i

∂ti ∂ti = g kℓ tℓ · j ∂y j ∂y

(5.2)

} ıdas con j ). Normalmente las componentes que aparecen contra´

g kℓ

al final de la expresi´on anterior se definen como s´ımbolos de Christoffel de primera especie, y se denotan como Γijℓ (a veces se emplea la notaci´on [ij, ℓ]) Γijℓ = [ij, ℓ] = tℓ ·

∂ti ∂y j

(5.3)

de modo que los s´ımbolos de Christoffel de segunda especie est´an dados por { } k k Γij = = g kℓ Γijℓ (5.4) i j { } Las notaciones i k j y [ij, ℓ] se emplean a veces para recalcar que estos coeficientes no se transforman bajo cambios de base como las componentes de un tensor, tal y como veremos m´as adelante. Los s´ımbolos de Christoffel est´an totalmente determinados por las derivadas parciales del tensor m´etrico respecto de las coordenadas generalizadas empleadas. Para convencernos de esto observamos en primer lugar que como consecuencia de la propia definici´on de la base natural (ec. (4.36)) se cumple ∂tj ∂ti ∂2r = = (5.5) ∂y j ∂y i ∂y i ∂y j y por tanto los s´ımbolos de Christoffel de primera y segunda especie cumplen las reglas de simetr´ıa Γkij = Γkji ,

Γijk = Γjik

(5.6)

por este motivo se dice que la conexi´on de Levi-Civita es sim´etrica. Para calcular los s´ımbolos de Christoffel en t´erminos de las derivadas del tensor m´etrico observamos que ∂gij ∂tj ∂ti gij,ℓ ≡ = · tj + ℓ · ti (5.7) ℓ ℓ ∂y ∂y ∂y donde hemos introducido la notaci´on “,i ” para denotar la derivada parcial respecto de la coordenada generalizada y i . En lo sucesivo emplearemos esta notaci´on constantemente. Permutando de manera c´ıclica los ´ındices ijℓ en la anterior expresi´on es inmediato comprobar que Γijℓ =

1 (gℓi,j + gℓj,i − gij,ℓ ) 2

(5.8)

5.1. TRANSPORTE PARALELO

115

Como consecuencia los s´ımbolos de Christoffel de segunda especie pueden calcularse por medio de 1 Γkij = g kℓ (gℓi,j + gℓj,i − gij,ℓ ) 2

(5.9)

en t´erminos (exclusivamente) del tensor m´etrico y sus primeras derivadas respecto de cada coordenada. Por tanto los s´ımbolos de Christoffel son una propiedad intr´ınseca de la variedad, ya que pueden calcularse sin hacer referencia a nada externo a la propia variedad en consideraci´on. Esto hace que el transporte paralelo y la derivada covariante, ambos definidos a partir de la conexi´on de Levi-Civita, sean tambi´en propiedades intr´ınsecas de la variedad. La propiedad m´as importante que define los s´ımbolos de Christoffel de segunda especie es que expresan c´omo var´ıan los vectores de la base, en t´erminos de esa misma base, al desplazarnos por la variedad. Re-escribiendo la ec. (5.2) esto queda como ∂ti = Γkij tk ∂y j

(5.10)

que expresa la conexi´on del fibrado tangente. Estos mismos coeficientes determinan tambi´en la conexi´on del fibrado co-tangente. Para verlo basta con derivar respecto de la coordenada y j la expresi´on tk · ti = δik

(5.11)

que es constante a lo largo del fibrado tangente, de donde se deduce inmediatamente ∂tk = −Γkij ti ∂y j

(5.12)

que expresa c´omo var´ıa la base dual, en t´erminos de la propia base dual, al desplazarnos por la variedad. Los s´ımbolos de Christoffel describen por tanto la conexi´on en los fibrados tangente y co-tangente de manera local, es decir, en un cierto entorno alrededor de cada punto de la variedad. Ley de transformaci´ on de los s´ımbolos de Christoffel { } Tal y como ya hemos mencionado la notaci´on [ij, k] y i k j se usa a veces para resaltar el car´acter no tensorial de los s´ımbolos de Christoffel. De hecho, si pasamos a un nuevo sistema de coordenadas curvil´ıneas y¯j se puede ver que los s´ımbolos de Christoffel en las nuevas coordenadas est´an dados por la ley de transformaci´on p q n 2 p n ¯ n = ∂y ∂y ∂ y¯ Γrpq + ∂ y ∂ y¯ Γ lm ∂ y¯l ∂ y¯m ∂y r ∂ y¯l ∂ y¯m ∂y p

(5.13)

Esta ley ser´ıa una ley de transformaci´on tensorial 2-covariante 1-contravariante de no ser por el t´ermino af´ın que aparece en el segundo sumando de ec. (5.11). Como puede verse este t´ermino aparecer´a siempre que la transformaci´on de coordenadas y i = y i (¯ y j ) sea no lineal, siendo nulo s´olo en el caso de una transformaci´on de coordenadas lineal. Por tanto los s´ımbolos de Christoffel no son las componentes de un tensor. El car´acter no tensorial de los s´ımbolos de Christoffel est´a relacionado con el car´acter no tensorial de la derivaci´on parcial respecto de la coordenadas generalizadas, tal y como veremos al final de este cap´ıtulo.

116

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

S´ımbolos de Christoffel en coordenadas curvil´ıneas ortogonales Si empleamos un sistema de coordenadas curvil´ıneas ortogonales los u ´nicos elementos no nulos 2 del tensor m´etrico son los de la diagonal, dados por gii = hi , en ese caso los s´ımbolos de Christoffel est´an dados por    1 ∂h2i   , si k = i +   2 ∂y j    1 ∂h2j (5.14) Γijk = , si k = j +   2 ∂y i     1 ∂h2i    − δij , si k ̸= i y k ̸= j 2 ∂y k   1 ∂hi   + , si k = i    hi ∂y j    1 ∂hj (5.15) Γkij = + , si k = j i  h  j ∂y     h ∂h    − 2i ki δij , si k ̸= i y k ̸= j hk ∂y donde, l´ogicamente, no hay suma ni en i ni en j.

5.1.2.

S´ımbolos de Christoffel en componentes f´ısicas

Siempre que se trabaja en espacios Eucl´ıdeos lo m´as habitual es emplear las componentes f´ısicas de vectores y tensores, dadas por las componentes respecto de la base natural normalizada. La conexi´on de Levi-Civita descrita en t´erminos de la base natural normalizada est´a dada por los s´ımbolos de Christoffel en componentes f´ısicas, o simplemente s´ımbolos de Christoffel f´ısicos. A partir de la definici´on de la base natural normalizada es f´acil deducir las relaciones 1 ∂ˆti ˆ k ˆtk =Γ ij hj ∂y j

(5.16)

i 1 ∂ˆt ˆ i ˆtk = −Γ kj hj ∂y j

(5.17)

donde los s´ımbolos de Christoffel f´ısicos est´an dados por ( ) h ∂ ln h i k k k k ˆ = Γ Γij − δi ij hi hj ∂y j

(5.18)

donde no hay suma en ning´ un ´ındice. La expresi´on anterior puede calcularse en t´erminos del tensor m´etrico como √ gkk giℓ k ˆ (5.19) Γij = √ √ Γkij − δik √ Γℓij gii gjj gii gjj donde s´olo se aplica el convenio de suma de Einstein al ´ındice ℓ, no hay suma respecto de los dem´as ´ındices.

5.1. TRANSPORTE PARALELO

117

Observaci´ on: Es importante darse cuenta de que los Christoffel f´ısicos no son sim´etricos bajo intercambio de sub-´ındices i ↔ j, es decir Γkij = Γkji ,

pero en general

ˆ kij ̸= Γ ˆ kji Γ

(5.20)

Por otra parte, derivando respecto de la coordenada generalizada y j en ˆti · ˆti = 1 (sin suma en i), que se cumple por definici´on de base natural normalizada, encontramos que los Christoffel f´ısicos cumplen la propiedad gik ˆ k Γ = 0, sin suma en i (5.21) hk ij donde s´olo se aplica el convenio de suma de Einstein al ´ındice k. S´ımbolos de Christoffel f´ısicos en coordenadas curvil´ıneas ortogonales En el caso particular de un sistema de coordenadas curvil´ıneas ortogonales los s´ımbolos de Christoffel f´ısicos est´an dados por      si k = i  0, k ˆ Γij = (5.22)  hk k    Γij , si k ̸= i 

hi hj

que por medio de (5.15) se puede poner como ( ) δij ∂hj 1 δjk ∂hk k ˆ Γij = − hj hi ∂y i hk ∂y k

5.1.3.

(5.23)

Transporte paralelo de vectores y tensores

La conexi´on de Levi-Civita que acabamos de definir nos permite realizar el transporte paralelo de vectores y tensores a lo largo del fibrado tangente. Supongamos el vector v perteneciente al espacio tangente en el punto A y la curva param´etrica γ(λ) que une dos puntos A y B de la variedad (supondremos que γ(0) = A y γ(1) = B). Para realizar el transporte paralelo de v desde A hasta B a lo largo de la curva γ(λ) tenemos que calcular la funci´on v(λ), tal que a cada valor de λ le asigna el vector (del fibrado tangente) resultado del transporte paralelo de v desde A hasta el correspondiente punto γ(λ). La condici´on que define el transporte paralelo seg´ un la curva γ(λ) es que la magnitud transportada se desplaza seg´ un dicha curva sin modificarse, es decir, para el transporte paralelo del vector v esto se traduce en la condici´on dv(λ) =0 dλ Por medio de la regla de la cadena esta condici´on puede ponerse como ∂v j V =0 ∂y j

(5.24)

(5.25)

donde hemos definido V j como la componente j del vector velocidad de la curva γ respecto de la base natural correspondiente al sistema de coordenadas generalizadas y i . Expresando el vector en componentes respecto de dicha base (v = v i ti ) la anterior condici´on queda como [ i ] ∂v k i j + v Γ (5.26) kj ti V = 0 ∂y j

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

118

que expresa la condici´on de no variaci´on del vector v a lo largo de la curva γ. Esta condici´on se cumple de manera independiente de la curva considerada, al menos localmente, siempre que se cumpla v,ji + v k Γikj = 0 (5.27) por tanto esta condici´on define, al menos localmente, c´omo var´ıan las componentes del vector v = v i ti al transportarlo de manera paralela en un entorno del punto A. Si en lugar del desarrollo en t´erminos de la base del espacio tangente expresamos v por medio de las componentes co-variantes v = vi ti el resultado equivalente a la anterior ec. (5.27) es vi,j − vk Γkij = 0

(5.28)

Las condiciones anteriores permiten realizar el transporte paralelo en un entorno infinitesimal alrededor del punto A. Integrando la relaci´on ec. (5.27) a lo largo de una curva γ(λ) que una los puntos A y B podemos (al menos en principio) calcular el transporte paralelo de cualquier vector v desde A hasta B. En este sentido es importante observar que al integrar ec. (5.27) a lo largo de una curva con longitud finita, el resultado del transporte paralelo s´olo ser´a independiente del camino empleado si la variedad considerada es plana, pero para variedades dotadas de curvatura el resultado depender´a, en general, de la curva γ(λ) considerada (ver m´as abajo). El transporte paralelo en el espacio Eucl´ıdeo Rn , descrito en t´erminos de la base can´onica, proporciona un ejemplo interesante especialmente sencillo. En ese caso la base del espacio tangente es constante, todos los Christoffel son nulos, y la condici´on que define el transporte paralelo se reduce a v,ji = 0, es decir, se traslada el origen del vector v sin modificar los valores de sus componentes, tal y como mencion´abamos al inicio del cap´ıtulo. En este caso particular vemos tambi´en que el transporte paralelo entre dos puntos no depende del camino, lo cual es consecuencia de que el espacio Eucl´ıdeo Rn es plano. En el caso general la base del espacio tangente no es constante a lo largo de la variedad, sino que var´ıa de manera suave, estando esta variaci´on descrita por los s´ımbolos de Christoffel. En ese caso la regla para realizar el transporte paralelo de un vector ya no puede ser “constancia de las componentes”, ya que al variar la base de un punto a otro, los valores de las componentes del vector deben variar de manera que se compense la variaci´on de la base, de tal forma que el resultado neto del transporte paralelo sea transportar el vector sin modificarlo a lo largo del camino γ(λ) considerado. La condici´on que define el transporte paralelo de un tensor de rango arbitrario se define de manera an´aloga a como hemos hecho para el caso, m´as intuitivo, de un vector. En el caso de un tensor r-covariante s-contravariante ... is j1 j2 jr T = Tji11 ji22 ... jr ti1 ⊗ ti2 ⊗ . . . ⊗ tis ⊗ t ⊗ t ⊗ . . . ⊗ t

(5.29)

imponiendo la condici´on dT (λ) =0 dλ

(5.30)

para cualquier curva γ(λ) que una los puntos A y B, al menos localmente, deducimos que la condici´on que define el transporte paralelo de este tensor es ...is Tji11ji22...j r ,k

+

s ∑ m=1

...pm ...is im Tji11ji22...j Γpm k r



r ∑ n=1

...is Tji11ji22...q Γqn = 0 n ...jr jn k

(5.31)

5.1. TRANSPORTE PARALELO

119

tal y como puede deducirse f´acilmente siguiendo los mismos pasos que nos han llevado a las relaciones ec. (5.27) y ec. (5.28). Como puede verse, cada componente contravariante introduce un t´ermino adicional dado por la derivada de cada ti y cada componente covariante introduce a su vez un t´ermino adicional dado por la derivada de cada ti . Por otra parte, por medio de ec. (5.16) y ec. (5.17) podemos obtener las relaciones, totalmente equivalentes a las anteriores, que definen el transporte paralelo en t´erminos de las componentes f´ısicas. Como caso particular, si el tensor T es un escalar (0 componentes covariantes y 0 componentes contravariantes) la relaci´on anterior se reduce de manera trivial a T,k = 0, independientemente de la variedad y del sistema de coordenadas empleado, tal y como mencion´abamos al inicio del cap´ıtulo para el transporte paralelo de escalares. Esto significa que el transporte paralelo del producto escalar u · v es igual al producto escalar de estos dos vectores en el punto de partida.

5.1.4.

Curvatura

Estrictamente hablando las anteriores relaciones (ec. (5.27), ec. (5.28), o en general ec. (5.30)) permiten realizar el transporte paralelo de un tensor cualquiera solamente de manera local, es decir, desde un punto A hasta un punto infinitamente pr´oximo A+dA. Para realizar el transporte paralelo desde A hasta un punto B, que diste de A una cierta distancia finita, ser´a necesario integrar la ecuaci´on diferencial ordinaria ec. (5.30) a lo largo de alguna curva γ(λ) que una los dos puntos de inter´es. En este caso nos preguntamos si el resultado del transporte paralelo depende o no de la curva γ(λ) empleada para calcularlo, en particular si realizamos el transporte paralelo en un circuito cerrado: ⋆ ¿recuperamos el tensor de partida? En general el transporte paralelo s´olo es independiente del camino en variedades diferenciables planas, y en ese caso est´a claro que el transporte paralelo de un tensor en cualquier circuito cerrado es igual al tensor de partida. En el caso de variedades dotadas de curvatura el transporte paralelo de A a B depende del camino empleado para unir A con B (ver fig. 5.1), y en ese caso se dice que la conexi´on del espacio tangente no es integrable. El motivo es que el transporte paralelo se realiza de manera paralela a la variedad, por tanto, si la variedad est´a curvada al transportar un tensor se introduce inevitablemente cierta rotaci´on en el tensor. Dado que la rotaci´on introducida por el transporte paralelo depende del camino γ(λ) considerado, el resultado del transporte en un circuito cerrado puede no reproducir el tensor de partida, sino el tensor de partida rotado un cierto ´angulo, dependiente del circuito cerrado recorrido (ver p. ej. fig. 5.1 dcha. para el caso de un vector transportado de manera paralela en una esfera). Por tanto, en general el transporte paralelo depende del camino. De todas formas, el transporte paralelo a lo largo de una curva dada siempre est´a bien definido, y la posibilidad de que el resultado no dependa de la curva considerada, sino s´olo de los extremos, depende de la presencia de curvatura en la variedad. Volviendo a la cuesti´on con la que abr´ıamos este cap´ıtulo, sobre la posibilidad de comparar vectores del fibrado tangente con origen en puntos distintos de una variedad, vemos que, en general, la noci´on de paralelismo de vectores depende del camino escogido para unir los dos puntos en consideraci´on. S´olamente en el caso de una variedad plana podemos determinar si dos vectores del fibrado tangente son o no parelelos independientemente del camino que tomemos para unir sus or´ıgenes. Por otra parte, las normas de estos vectores (o en general cualquier escalar) s´ı pueden compararse de manera independiente del camino, sea cual sea la variedad.

120

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

Tensor de curvatura de Riemann Veamos con algo m´as de detalle cu´al es la variaci´on que experimenta un vector contravariante v i al transportarlo de manera paralela en un circuito cerrado infinitesimal. Para ello transportamos en primer lugar el vector v i desde el punto r hasta el punto r ′ , resultado de incrementar la coordenada y p en una cantidad infinitesimal dy p . El vector resultado de este desplazamiento infinitesimal tiene componentes i v i + v,p dy p = v i − v k Γikp dy p (5.32) donde los coeficientes de la conexi´on Γikp est´an evaluados en el punto r, y donde no hay suma en el ´ındice p. A continuaci´on trasladamos este vector de forma paralela seg´ un la coordenada y q , obteniendo como resultado el vector ( ) ( )( ) ′ v i − v k Γikp dy p + v i − v k Γikp dy p dy q = v i − v k Γikp dy p − v ℓ − v k Γℓkp dy p Γiℓq dy q (5.33) ,q

( )′ donde no hay suma ni en p ni en q. En la anterior expresi´on hemos denotado por Γiℓq el coeficiente de la conexi´on Γiℓq evaluado en el punto r ′ , por medio de un desarrollo en serie este coeficiente est´a dado por ( i )′ Γℓq = Γiℓq + Γiℓq,p dy p (5.34) donde no hay suma en p. Por tanto, despreciando t´erminos de orden superior a 2 en dy j , el vector resultado de los desplazamientos sucesivos seg´ un dy p seguido de dy q est´a dado por ( ) v i − v k Γikp dy p − v k Γikq dy q − v k Γikq,p − Γiℓq Γℓkp dy p dy q (5.35) donde no hay suma ni en p ni en q. Intercambiando p con q en la expresi´on anterior encontramos el resultado correspondiente a realizar estos desplazamientos en orden inverso ( ) v i − v k Γikp dy p − v k Γikq dy q − v k Γikp,q − Γiℓp Γℓkq dy p dy q (5.36) La diferencia entre estos 2 resultados es igual a la variaci´on que experimenta el vector v i al

dy p −dy q

dy q −dy p

Figura 5.2: Transporte paralelo a lo largo del circuito dy q , dy p , −dy q , −dy p en una variedad con curvatura.

transportarse de manera paralela a lo largo del circuito cerrado definido por los desplazamientos sucesivos seg´ un dy q , dy p , −dy q , −dy p . El resultado puede escribirse como i v i (dy q , dy p ) − v i (dy p , dy q ) = Rkpq v k dy p dy q

(5.37)

5.2. DERIVADA COVARIANTE

121

i donde se define el tensor de curvatura de Riemann Rkpq como i Rkpq = ∂p Γikq − ∂q Γikp + Γiℓp Γℓkq − Γiℓq Γℓkp

(5.38)

de forma que el transporte paralelo de un vector en un circuito cerrado infinitesimal deja invariante al vector s´olo si el tensor de curvatura de Riemann es nulo. De manera an´aloga a como hemos hecho para el caso de un vector, se puede calcular c´omo var´ıa un tensor de rango arbitrario al recorrer un circuito cerrado infinitesimal, y puede verse f´acilmente que el resultado an´alogo a la ec. (5.38) para el caso de un tensor de rango arbitrario tambi´en puede escribirse en t´erminos del tensor de curvatura de Riemann. i El tensor Rkpq describe de manera local la curvatura de una variedad de Riemann con conexi´on k dada por Γij y es uno de los objetos centrales de estudio en geometr´ıa diferencial. Este objeto tambi´en se aplica a variedades pseudo-Riemannianas, siendo uno de los ingredientes b´asicos de la teor´ıa general de la relatividad de Einstein.

5.2.

Derivada covariante

La derivada covariante es la generalizaci´on de la derivada parcial habitual al caso de campos tensoriales definidos sobre variedades diferenciables, descritas en t´erminos de un sistema de coordenadas generalizadas. Si aplicamos la definici´on de derivada f (x + h) − f (x) df = l´ım dx h→0 h a una magnitud tensorial definida sobre una variedad diferenciable, vemos que esto implica comparar magnitudes pertenecientes a los espacios tangentes en dos puntos distintos: x + h y x. Por tanto para calcular una derivada direccional sobre una variedad necesitamos transportar de manera paralela la magnitud f (x) al punto x + h, para lo cual debemos tener en cuenta c´omo var´ıa la base del espacio tangente, tal y como hemos hecho en el apartado anterior. ⋆ En este curso emplearemos la siguiente notaci´ on: • f,i ≡ ∂i f ≡

∂f derivada parcial de f respecto de la coordenada generalizada y i . ∂y i

• f;i ≡ ∂;i f ≡ derivada covariante de f respecto de la coordenada generalizada y i . Conviene tener presente que en muchos textos se emplea la notaci´on f,i directamente para la derivada covariante (en ese caso no se define ninguna notaci´on especial para la derivada parcial). Otra notaci´on habitual en la literatura para la derivada covariante es f|i , o f/i , sobre todo en textos antiguos. Para las derivadas de orden superior emplearemos la notaci´on siguiente: ∂2f ∂y i ∂y j • f;ij = (f;i );j ( ) • f;i1 i2 ...in = . . . (f;i1 );i2 . . . • f,ij =

;in

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

122

La derivada covariante se define como la operaci´on de derivada direccional que tiene en cuenta las variaciones de la base del espacio tangente. Por ejemplo, tomando la derivada respecto de la coordenada curvil´ınea y j del vector a = ai ti encontramos ( i ) ∂a ∂ai ∂a i ∂ti i k a;j = = j ti + a = + Γkj a ti (5.39) ∂y j ∂y ∂y j ∂y j Por tanto, la derivada covariante del vector de componentes contravariantes ai se define como ai;j = ai,j + Γikj ak

(5.40)

y tal y como comprobaremos m´as adelante ai;j es un tensor 1-covariante 1-contravariante. An´alogamente, la derivada covariante del vector de componentes covariantes ai se define como ( ) ∂ti ∂ai i ∂ai ∂a k = t + ai j = − Γij ak ti (5.41) a;j = ∂y j ∂y j ∂y ∂y j por tanto definimos ai;j = ai,j − Γkij ak

(5.42)

y puede comprobarse que ai,j es un tensor 2-covariante. Aplicando esta operaci´on en el caso general de un tensor r-covariante s-contravariante ... is j1 j2 jr T = Tji11 ji22 ... jr ti1 ⊗ ti2 ⊗ . . . ⊗ tis ⊗ t ⊗ t ⊗ . . . ⊗ t

(5.43)

su derivada covariante respecto de la coordenada y k est´a dada ...is T ;k = Tji11ji22...j t ⊗ ti2 ⊗ . . . ⊗ tis ⊗ tj1 ⊗ tj2 ⊗ . . . ⊗ tjr r ;k i1

(5.44)

cuyas componentes est´an dadas por ...is Tji11ji22...j r ;k

=

...is Tji11ji22...j r ,k

+

s ∑ m=1

...pm ...is im Tji11ji22...j Γpm k r



r ∑

...is Tji11ji22...q Γqn n ...jr jn k

(5.45)

n=1

De esta forma la condici´on de constancia del tensor T a lo largo de una curva param´etrica γ(λ) con velocidad V j tj , dada por ec. (5.30), se reduce a ...is dTji11ji22...j r



...is = Tji11ji22...j Vk =0 r ;k

(5.46)

Por tanto dada una curva param´etrica, el producto de contracci´on de la derivada covariante con el vector velocidad de la curva proporciona la derivada del tensor a lo largo de la curva, denominada con frecuencia derivada absoluta a lo largo de la curva. Propiedades de la derivada covariante La derivada covariante es la generalizaci´on al caso de coordenadas curvil´ıneas de la derivada parcial en coordenadas cartesianas, tiene el mismo significado y las mismas propiedades, entre ellas resumimos las siguientes: La derivada covariante conserva el car´acter tensorial aumentando en 1 el orden covariante del tensor.

5.2. DERIVADA COVARIANTE

123

La derivada covariante de un tensor constante es nula. La derivada covariante en el espacio Eucl´ıdeo derivada parcial habitual.

Rn en coordenadas cartesianas se reduce a la

La derivada covariante cumple las propiedades algebraicas habituales de una operaci´on de derivaci´on, en particular es una operaci´on lineal (A + B);i = A;i + B ;i

(5.47)

y cumple la regla de Leibnitz para la derivaci´on de productos (A ⊗ B);i = A;i ⊗ B + A ⊗ B ;i

(5.48)

La variaci´on de T a lo largo de un desplazamiento infinitesimal dy i est´a dada por dT = T ;i dy i . La derivada covariante del tensor m´etrico es nula gij;k = 0,

ij g;k =0

(5.49)

Como consecuencia de esto la operaci´on de derivada covariante conmuta con las operaciones de subida y bajada de ´ındices. Aplicaci´ on al caso de escalares, vectores y tensores de orden 2 Los casos de mayor inter´es en f´ısica corresponden a los tensores de orden bajo habituales. Como puede verse, la derivada covariante de una funci´on escalar coincide con la derivada parcial habitual f;i = f,i En el caso de un vector contravariante

vi,

(5.50)

su derivada covariante est´a dada por

v;ji = v,ji + Γikj v k

(5.51)

y para un vector covariante vi encontramos vi;j = vi,j − Γkij vk

(5.52)

Para la derivada covariante de un operador lineal (tensor 1-covariante 1-contravariante) encontramos Aji;k = Aji,k + Γjpk Api − Γqik Ajq (5.53) El resultado para tensores 2-contravariante o 2-covariante est´a dado por ij j i pj ip Aij ;k = A,k + Γpk A + Γpk A

Aij;k = Aij,k −

Γpik Apj



Γpjk Aip

(5.54) (5.55)

respectivamente. Como puede verse, cada ´ındice covariante o contravariante de un tensor introduce un t´ermino af´ın en la derivada covariante, dado por la contracci´on de ese ´ındice con el s´ımbolo de Christoffel correspondiente, +Γ para los ´ındices contravariantes y −Γ para los ´ındices covariantes. La ecuaci´on general (5.45) puede parecer complicada, sin embargo para deducirla basta tener en cuenta las ecuaciones (5.51) y (5.52) para el caso de tensores de orden 1. Para calcular la derivada covariante respecto de y j de un tensor de rango arbitrario lo u ´nico que hay que hacer es calcular la derivada parcial correspondiente y a˜ nadir un t´ermino an´alogo a Γikj v k por cada ´ındice •i contravariante y un t´ermino an´alogo a −Γkij vk por cada ´ındice •i covariante. Las relaciones anteriores para el caso de tensores de orden 2 (ecs. (5.53-5.55)) proporcionan un ejemplo.

124

5.2.1.

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

Comportamiento tensorial de la derivada covariante

La derivada covariante es una operaci´on bien definida desde el punto de vista tensorial. Esto significa que, dado un tensor de rango arbitrario T , el objeto dado por T ;k tk (con suma en k) es un tensor, es decir, un objeto geom´etrico independiente del sistema de referencia empleado para calcularlo. Concretamente, el tensor T ;k tk est´a dado por ...is T ;k tk = Tji11ji22...j t ⊗ ti2 ⊗ . . . ⊗ tis ⊗ tj1 ⊗ tj2 ⊗ . . . ⊗ tjr ⊗ tk r ;k i1

(5.56)

y se define como el gradiente del tensor T (a veces se dice gradiente covariante), de esta manera generalizamos el concepto de gradiente, familiar para el caso de escalares, al caso de tensores de rango arbitrario. En los primeros cap´ıtulos de este curso hemos estudiado el significado del concepto de tensor, y hemos visto que la invariancia de un tensor bajo cambios de base implica que sus componentes se transforman de una determinada forma al realizar un cambio de base en el espacio. En el caso de la derivada covariante esto implica que si T es un tensor de orden r-covariante ...is ) se transforman seg´ un una s-contravariante, las componentes de su derivada covariante (Tji11ji22...j r ;k ley tensorial tipo r + 1-covariante s-contravariante bajo reparametrizaciones de la variedad. Por tanto, la derivada covariante incrementa en una unidad el orden covariante del objeto sobre el que se aplica. En particular, las componentes de la derivada covariante de una funci´on escalar forman un vector, las componentes de la derivada covariante de orden 2 de un escalar definen un tensor de orden 2, de igual manera que la derivada covariante de un vector tambi´en define un tensor de orden 2. Es evidente que una ley f´ısica, para ser v´alida, debe ser independiente del sistema de coordenadas empleado para formularla. Por tanto, el car´acter invariante de la derivada covariante bajo cambios de coordenadas hace que esta sea la operaci´on de derivaci´on direccional adecuada para formular leyes f´ısicas que involucren variaciones espaciales de campos tensoriales. Derivada covariante de escalares En el caso de un escalar (f ) la derivada covariante coincide con la derivada parcial habitual. Como consecuencia de esto el objeto dado por f,i ti

(5.57)

es invariante bajo cambios de coordenadas, lo que implica que f,i son las componentes de un vector covariante, que se define como el vector gradiente del escalar f . Dado que la demostraci´on de estas cuestiones no es demasiado complicada, la dejamos para los ejercicios. Sin embargo las segundas derivadas parciales de f no definen un tensor, es decir, el objeto definido por f,ij ti tj no est´a bien definido desde el punto de vista tensorial ya que depende del sistema de coordenadas empleado. Esto se debe a que para calcular las segundas derivadas del escalar f , es decir, las derivadas de orden 1 del vector gradiente, debemos tener en cuenta tambi´en c´omo var´ıa la base natural del espacio co-tangente. Si tenemos esto en cuenta es f´acil verificar que el objeto dado por las segundas derivadas covariantes del escalar f f;ij ti tj

(5.58)

s´ı es invariante bajo reparametrizaciones de la variedad, por tanto las componentes f;ij corresponden a un tensor 2-covariante.

5.2. DERIVADA COVARIANTE

125

Derivada covariante de vectores En este apartado verificaremos paso a paso la ley de transformaci´on de la derivada covariante de vectores. Para ello recordamos en primer lugar la ley de transformaci´on (no tensorial) de los coeficientes de la conexi´on de Levi-Civita bajo la reparametrizaci´on y i → y¯i , dada por p q n 2 p n ¯ n = ∂y ∂y ∂ y¯ Γrpq + ∂ y ∂ y¯ Γ ℓm ℓ m r ℓ m ∂ y¯ ∂ y¯ ∂y ∂ y¯ ∂ y¯ ∂y p

Multiplicando por la matriz inversa de ∂ y¯n /∂y p (es decir, teniendo en cuenta que δps ) y despejando deducimos s p q ∂ 2ys ¯ n ∂y − ∂y ∂y Γspq = Γ ℓm ∂ y¯ℓ ∂ y¯m ∂ y¯n ∂ y¯ℓ ∂ y¯m

(5.59) ∂y s ∂ y¯n ∂ y¯n ∂y p

=

∂y s ∂y p

=

(5.60)

relaci´on que emplearemos m´as abajo. Veamos primero el caso de un vector covariante Ti . Por definici´on las componentes de este vector se transforman seg´ un ∂y k T¯i = Tk (5.61) ∂ y¯i Derivando esta relaci´on respecto de la coordenada y¯j (nos referimos a la derivada parcial ordinaria) y aplicando la regla de la cadena encontramos ∂ T¯i ∂ 2yk ∂y k ∂Tk = Tk + j i j ∂ y¯ ∂ y¯ ∂ y¯ ∂ y¯i ∂ y¯j

(5.62)

La derivada parcial de la componente “antigua” Tk respecto de las coordenadas “nuevas” y¯j puede calcularse por medio de la regla de la cadena como ∂Tk ∂Tk ∂y q = ∂ y¯j ∂y q ∂ y¯j

(5.63)

Teniedo esto en cuenta y sustituyendo la derivada segunda de y k por medio de ec. (5.60) llegamos a ( ) k p q ∂ T¯i ∂y k ∂y q ∂Tk n ∂y k ∂y ∂y ¯ = Γ − Γ T + (5.64) k ij pq ∂ y¯j ∂ y¯n ∂ y¯i ∂ y¯j ∂ y¯i ∂ y¯j ∂y q de donde despejamos

es decir

∂ T¯i ¯ n ¯ − Γij Tn = ∂ y¯j

(

∂Tp − Γnpq Tn ∂y q

)

∂y p ∂y q ∂ y¯i ∂ y¯j

∂y p ∂y q T¯i;j = Tp;q i j ∂ y¯ ∂ y¯

(5.65)

(5.66)

Por tanto las componentes Ti;j se transforman bajo un cambio de sistema de coordenadas como un objeto tensorial 2-covariante, es decir, la derivada covariante de un vector covariante es un tensor 2-covariante. Veamos ahora el caso de un vector contravariante, para ello partimos de la ley de transformaci´on ∂ y¯i k T , T¯i = ∂y k

Ti =

∂y i ¯k T ∂ y¯k

(5.67)

126

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

Derivando respecto de la coordenada y¯j y operando como hemos hecho en el caso anterior llegamos a ( ) i p q i ¯k ∂T i ∂y k n ∂y i ∂y ∂y ¯ ¯k + ∂y ∂ T = Γ − Γ T (5.68) pq jk ∂y k ∂ y¯j ∂ y¯n ∂ y¯j ∂ y¯k ∂ y¯k ∂ y¯j i



Multiplicando por la matriz inversa de ∂∂yy¯k (dada por ∂∂yy¯i ), reordenando y renombrando los ´ındices encontramos ( p ) i q ∂ T¯i ¯ i ¯k ∂T ∂ y¯ ∂y p k + Γ T = + Γ T (5.69) kj kq ∂ y¯j ∂y q ∂y p ∂ y¯j es decir

i

q

∂ y¯ ∂y T¯;ji = T;qp p j ∂y ∂ y¯

(5.70)

tal y como corresponde a un objeto 1-covariante 1-contravariante. Para tensores de rango tensorial superior se pueden deducir relaciones an´alogas.

5.2.2.

Derivada covariante en componentes f´ısicas

En aplicaciones de c´alculo tensorial en espacios Eucl´ıdeos es frecuente trabajar con tensores empleando las componentes f´ısicas, por los motivos expuestos en el cap´ıtulo precedente. La derivada covariante del tensor de rango arbitrario T est´a dada por el tensor T ;k tk (con suma en k), expresando este objeto por medio de sus coordenadas respecto de la base natural normalizada vemos que las componentes f´ısicas de la derivada covariante est´an dadas por s r ∑ ∑ 1 ˆi1 i2 ...is i1 i2 ...pm ...is ˆ im ...is i1 i2 ...is ˆ ˆ qn ˆ Tj1 j2 ...jr ,k + Tj1 j2 ...jr Γpm k − Tˆji11ji22...q Γ Tj1 j2 ...jr ;k = n ...jr jn k hk m=1

(5.71)

n=1

(sin suma en k) donde las componentes f´ısicas de la conexi´on se han estudiado antes en este cap´ıtulo.

5.3.

Vector aceleraci´ on

Como aplicaci´on directa de la derivada absoluta a lo largo de una curva veamos la expresi´on del vector aceleraci´on de una part´ıcula puntual en coordenadas generalizadas. Supongamos un m´ovil cuya posici´on est´a contenida en una cierta variedad diferenciable n-dimensional descrita por las coordenadas generalizadas y i . La posici´o{n de este m´ovil est´a descrita por la curva param´etrica } r(λ), dada en coordenadas por las funciones y 1 (λ), y 2 (λ), . . . , y n (λ) , donde el par´ametro λ juega el papel de “tiempo”. En el cap´ıtulo precedente vimos que el vector velocidad de este m´ovil est´a dado por v = y˙ i ti , donde y˙ i representa la derivada respecto del par´ametro λ y los ti forman la base natural correspondiente a este sistema de coordenadas. El vector aceleraci´on est´a dado por la derivada respecto al tiempo del vector velocidad, estando esta derivada evaluada a lo largo de la trayectoria del m´ovil. Denotando como a el vector aceleraci´on tenemos que a=

dv = v ;j v j dλ

(5.72)

para calcular esta expresi´on aplicamos la regla de la cadena dti ∂ti dv = y¨i ti + y˙ i = y¨i ti + j y˙ i y˙ j dλ dλ ∂y

(5.73)

5.4. PROBLEMAS

127

Expresando la variaci´on de los vectores de la base por medio de los s´ımbolos de Christoffel este resultado puede escribirse como ) ( a = y¨k + Γkij y˙ i y˙ j tk (5.74) donde y¨i denota la segunda derivada respecto de λ. En consecuencia vemos que las componentes del vector aceleraci´on a = ak tk est´an dadas por ak = y¨k + Γkij y˙ i y˙ j = v˙ k + Γkij v i v j y la expresi´on en coordenadas generalizadas de la conocida ley de Newton F = ma es ( ) f k = m y¨k + Γkij y˙ i y˙ j

(5.75)

(5.76)

Esta forma de expresar la ley de Newton es m´as complicada que la habitual en coordenadas cartesianas, pero tiene la gran ventaja de ser v´alida independientemente del sistema de coordenadas empleado, lo que hace posible la comparaci´on de resultados entre observadores que empleen sistemas de coordenadas distintos.

5.4.

Problemas

P.5.1. Verificar la relaci´on ec. (5.10). P.5.2. Verificar la relaci´on ec. (5.11). P.5.3. Verificar la relaci´on ec. (5.14). P.5.4. Verificar la relaci´on ec. (5.12). P.5.5. Verificar la relaci´on ec. (5.15). P.5.6. Verificar la relaci´on ec. (5.17). P.5.7. Verificar la relaci´on ec. (5.18). P.5.8. Verificar la relaci´on ec. (5.19). P.5.9. Verificar la relaci´on ec. (5.21). P.5.10. Verificar la relaci´on ec. (5.22). P.5.11. Calcular los s´ımbolos de Christoffel de primera y segunda especie y f´ısicos correspondientes al espacio R3 Eucl´ıdeo en coordenadas cartesianas. P.5.12. Calcular los s´ımbolos de Christoffel de primera y segunda especie y f´ısicos correspondientes al espacio R3 Eucl´ıdeo en coordenadas cil´ındricas. P.5.13. Calcular los s´ımbolos de Christoffel de primera y segunda especie y f´ısicos correspondientes al espacio R3 Eucl´ıdeo en coordenadas esf´ericas. P.5.14. Deducir la ley de transformaci´on del tensor de curvatura de Riemann bajo un cambio de coordenadas.

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

128

P.5.15. Dado el escalar f , demostrar que f;i ti define un objeto invariante bajo cambios de coordenadas, es decir, un tensor. P.5.16. Verificar la ley tensorial correspondiente para la derivada covariante de un vector covariante y de uno contravariante. P.5.17. Si sabemos que un campo vectorial v cumple v;ji = 0 ¿qu´e podemos afirmar sobre vi;j ? P.5.18. Las derivadas parciales tradicionales de una funci´on escalar conmutan f,ij = f,ji . ¿Qu´e puede decirse en este sentido sobre las derivadas covariantes cruzadas? ¿Se cumple la relaci´on f;ij = f;ji ? Razone la respuesta. P.5.19. Calcule la expresi´on del vector aceleraci´on en R3 Eucl´ıdeo en coordenadas cartesianas, cil´ındricas y esf´ericas. P.5.20. Exprese los resultados del ejercicio anterior en componentes f´ısicas.

5.4.1.

Soluciones a problemas seleccionados (Tema 5)

P.5.4. Verificar la relaci´on ec. (5.12).

) ( En primer lugar partimos de la relaci´on tk · ti = δik , derivando respecto de la coordenada y j encontramos ∂tk ∂ti · ti + j · tk = 0 j ∂y ∂y

Recordando que cualquier vector v puede expresarse como v = vi ti = (ti , v) ti , vemos que en la relaci´on anterior el primer t´ermino es precisamente la coordenada covariante i-´esima del desarrollo del vector ∂tk /∂y j en t´erminos de la base dual ti . En cuanto al segundo t´ermino tenemos: ∂ti k · t = Γpij tp · tk = Γkij j ∂y Sustituyendo y despejando llegamos a la relaci´on pedida ∂tk = −Γkij ti ∂y j P.5.5–P.5.7. En este ejercicio vamos a deducir la expresi´on de los s´ımbolos de Christoffel en componentes f´ısicas: Ecs. (5.16)-(5.19) del texto. Como sabemos, los s´ımbolos de Christoffel se definen por medio de ( ) ∂ti k k k ∂ti = Γij tk donde Γij ≡ t , j ∂y j ∂y Por otro lado, la base natural normalizada del espacio tangente tiene la forma ˆti = ti , hi

es decir

ti = hiˆti

mientras que para el espacio dual del espacio tangente, o espacio cotangente, tendremos ˆti = gˆij ˆtj = hi hj g ij ˆtj = hi ti

5.5. BIBLIOGRAF´IA

129

ya que gˆij =

1 gij , hi hj

gˆij = hi hj g ij ,

sin suma en i, j

Podemos reemplazar estas expresiones en la ecuaci´on inicial ( ) ˆti ∂ h ∂ti i → = Γkij tk = hk Γkij ˆtk ∂y j ∂y j y desarrollar ∂ˆti ∂hi ˆ ti + hi j = hk Γkij ˆtk j ∂y ∂y Despejando obtenemos ∂ˆti ∂hi hi j = hk Γkij ˆtk − j ˆti = ∂y ∂y

( ) ( ) k k ∂hi ˆ k k ∂ ln hi ˆ hk Γij − δi j tk = hk Γij − hk δi tk ∂y ∂y j

Reordenando t´erminos llegamos a las expresiones Ec. (5.16) y Ec. (5.18) 1 ∂ˆti hk = hj ∂y j hi hj

( ) k k ∂ ln hi ˆ ˆ k ˆtk Γij − δi tk = Γ ij ∂y j

ˆ k en funci´on del tensor m´etrico (Ec. (5.19)) sustituimos los facPara obtener la expresi´on de Γ ij tores de escala por sus correspondientes componentes en el tensor m´etrico: hs = (ts , ts )1/2 = √ gss , lo que da ( ( ) ) √ g h ∂ ln h 1 ∂h kk i i k k k k k k ˆ ˆtk = Γ Γij − δi Γij − δi √ =√ √ ij hi hj ∂y j gii gjj gii ∂y j Por u ´ltimo, queda calcular la derivada direccional del factor de escala √ ∂ gii 1 1 ∂gii 1 ∂ti 1 ( p ) ∂hi Γij tp · ti = √ Γpij gip = = = · t = √ √ √ i ∂y j ∂y j 2 gii ∂y j gii ∂y j gii gii Sustituyendo este resultado en la ecuaci´on anterior y operando llegamos finalmente a la expresi´on Ec. (5.19) ( ( ) ) √ √ gkk gkk gip hk k k k ∂ ln hi k k 1 p ˆ Γij = Γij − δi Γij − δi Γij gip = √ √ Γkij − δik √ Γpij =√ √ j hi hj ∂y gii gjj gii gii gjj gii gjj

5.5.

Bibliograf´ıa

Para este cap´ıtulo se ha consultado principalmente [1], [2], [7] , [8] y [13].

130

´ DE CAMPOS TENSORIALES CAP´ITULO 5. DERIVACION

Cap´ıtulo 6

Operadores diferenciales habituales En este cap´ıtulo presentamos las versiones con comportamiento tensorial bien definido de los operadores diferenciales habituales en f´ısica, basadas en la derivada covariante definida en el cap´ıtulo precedente. Los resultados se presentan de forma general para un caso arbitrario. En el caso de un espacio Eucl´ıdeo se presentan tambi´en las expresiones correspondientes a un sistema de coordenadas ortogonales. Al final del cap´ıtulo aplicamos estos resultados para generar las expresiones de los operadores diferenciales habituales en el caso del espacio Eucl´ıdeo R3 en coordenadas cartesianas, cil´ındricas y esf´ericas. Aunque estos sistemas de coordenadas son, con diferencia, los que m´as se usan, el material presentado en este cap´ıtulo permite deducir la expresi´on de los operadores diferenciales habituales en cualquier sistema de coordenadas, no necesariamente ortogonales. De esta forma, el material que presentamos aqu´ı completa el objetivo de esta primera parte del curso.

6.1.

Operadores diferenciales

La generalizaci´on a coordenadas curvil´ıneas de los operadores diferenciales habituales se obtiene a partir de su expresi´on en coordenadas cartesianas sustituyendo las derivadas parciales ∂A/∂xi por las correspondientes derivadas covariantes A;i .

6.1.1.

Gradiente covariante

El gradiente de un escalar f es el vector definido, en funci´on de sus componentes covariantes, como ∂f i 1 ∂f ˆi ∇f = t = t (6.1) i ∂y hi ∂y i En t´erminos de sus componentes contravariantes este vector queda como ∇f = g ij

∂f gˆij ∂f ˆ t = tj j ∂y i hi ∂y i

(6.2)

En el caso particular de un sistema de coordenadas curvil´ıneas ortogonales (suponiendo que el espacio es eucl´ıdeo) esto queda como ∇f =

1 ∂f 1 ∂f ˆ ti = ti 2 i hi ∂y i hi ∂y 131

(6.3)

CAP´ITULO 6. OPERADORES DIFERENCIALES HABITUALES

132

En todas las expresiones anteriores se sobre-entiende que la base ti es la base natural del sistema de coordenadas generalizadas empleado, mientras que la base ˆti es la base natural normalizada, siendo los hi los factores de escala correspondientes. Como puede verse las componentes covariantes y contravariantes del vector gradiente son, en general, distintas, incluso si el espacio es eucl´ıdeo y la base es ortogonal. Las componentes co- y contra-variantes s´olo coinciden si el espacio es eucl´ıdeo y si la base es ortonormal, tal y como sucede con las componentes f´ısicas cuando se usa un sistema de coordenadas curvil´ıneas ortogonales. El gradiente de un vector v es un tensor de orden 2. A partir de las componentes contravariantes de v este tensor est´a definido por ( ∇v =

v;jk tk tj

=

) ∂v k k i + Γij v tk tj ∂y j

(6.4)

En funci´on de sus componentes f´ısicas este tensor queda como ∇v =

6.1.2.

j vˆ;jk ˆtkˆt

( =

) 1 ∂ˆ v k ˆ k i ˆ ˆj + Γij vˆ tk t hj ∂y j

(6.5)

Divergencia covariante

La divergencia covariante de un vector v se define como el escalar resultante de la contracci´ on del tensor gradiente de v 1 ∂ (√ i ) ∇ · v = v;ii = √ gv (6.6) g ∂y i donde para deducir la u ´ltima expresi´on se ha tenido en cuenta la relaci´on √ 1 ∂g 1 ∂ g j Γij = =√ 2g ∂y i g ∂y i A partir de las componentes f´ısicas de v esto queda como (√ ) 1 ∂ g i ∇·v = √ v ˆ g ∂y i gii

(6.7)

(6.8)

En el caso particular de un sistema de coordenadas curvil´ıneas ortogonales tenemos que √ g = h1 h2 h3 y por tanto en ese caso 1 ∂ ∇·v = h1 h2 h3 ∂y i

6.1.3.

(

h1 h2 h3 i vˆ hi

(6.9) ) (6.10)

Rotacional covariante

A partir de la definici´on de producto vectorial en coordenadas curvil´ıneas, el rotacional covariante de un vector A se define como el vector dado por 1 ∇ × A = εijk Ak;j ti = √ ϵijk Ak;j ti g

(6.11)

6.2. COORDENADAS CURVIL´INEAS ORTOGONALES HABITUALES

133

En componentes f´ısicas esto est´a dado por ∇×A=

hi hj hk ijk ˆ ˆ √ ϵ Ak;j ti g

(6.12)

En coordenadas curvil´ıneas ortogonales esto se simplifica finalmente a h1ˆt1 h2ˆt2 h3ˆt3 ˆ hi ∂h A 1 ∂ k kˆ ∂ ∂ ∇×A= ϵijk t = i j ∂y 2 ∂y 3 h1 h2 h3 ∂y h1 h2 h3 ∂y1 h1 Aˆ1 h2 Aˆ2 h3 Aˆ3



(6.13)

donde la u ´ltima expresi´on debe entenderse como una regla nemot´ecnica, no como una definici´on.

6.1.4.

Laplaciano covariante

El laplaciano covariante de un escalar f es el escalar definido como la divergencia del gradiente (

∇ f= f 2

;i

)

(

;i

ij

= g f;j

) ;i

1 ∂ =√ g ∂y i

( ) √ ij ∂f gg ∂y j

En coordenadas curvil´ıneas ortogonales esto queda como ( ) 1 ∂ h1 h2 h3 ∂f 2 ∇ f= h1 h2 h3 ∂y i h2i ∂y i

6.2.

(6.14)

(6.15)

Coordenadas curvil´ıneas ortogonales habituales

Tomando como punto de partida los resultados precedentes, deducir la expresi´on (en componentes f´ısicas por ejemplo) de cualquier operaci´on tensorial en cualquier sistema de coordenadas es una tarea puramente mec´anica, que puede programarse f´acilmente en cualquier entorno de c´alculo simb´olico, como p. ej. Mathematica. A continuaci´on se presenta un resumen de f´ormulas aplicable para las coordenadas curvil´ıneas ortogonales m´as habituales en el espacio R3 Eucl´ıdeo. Todos los vectores y tensores que aparecen a continuaci´on est´an definidos por sus correspondientes componentes f´ısicas.

6.2.1.

Coordenadas cartesianas

Los resultados de este apartado son triviales, pero se presentan Matriz jacobiana  1 0   J i j = 0 1  0 0

tambi´ en por completitud.  0

  0  1

Vectores tangentes   1     t1 = 0 ,   0

  0     t 2 = 1  ,   0

  0     t3 = 0 ,   1

  1     t1 = 0 ,   0

  0     t2 = 1 ,   0

  0     t3 = 0   1

CAP´ITULO 6. OPERADORES DIFERENCIALES HABITUALES

134

z k j i r

y x Figura 6.1: Coordenadas cartesianas.

Vectores tangentes unitarios   1    ˆt1 =  0  ,   0 Tensor m´ etrico

  1    ˆt1 =  0  ,   0

  0    ˆt3 =  0 ,   1

  0    ˆt2 =  1 ,   0 



 1

0

  gij = 0  0

1 0

 1

0

  g ij = 0  0

  0 ,  1

  0    ˆt3 =  0    1

  0    ˆt2 =  1 ,   0

0

0

  0  1

1 0

S´ımbolos de Christoffel de primera especie 



  0 ,  0

0   = 0  0

 Γi1k

0   = 0  0

0

0

0 0

Γi2k

0





  0 ,  0

0   = 0  0

0

0 0

Γi3k

 0

0

  0  0

0 0

S´ımbolos de Christoffel de segunda especie 

 0

  Γi k 1 = 0  0

0 0 0

0

  0 ,  0



 0

  Γ i k 2 = 0  0

0 0 0

0

  0 ,  0



 0

0

  Γ i k 3 = 0  0

0

  0  0

0 0

S´ımbolos de Christoffel f´ısicos  0

 ˆk =  Γ 0 i1  0

 0   0 ,  0

0 0 0



 0

 ˆk =  Γ 0 i2  0

0 0 0

0

  0 ,  0

Gradiente

 ∇f =

(

∂f ∂x

∂f ∂y

∂f ∂z

) ,

∇v =



 0

 ˆk =  Γ 0 i3  0

∂v1  ∂x  ∂v2  ∂x  ∂v3 ∂x

∂v1 ∂y ∂v2 ∂y ∂v3 ∂y

0 0 0

0

  0  0 

∂v1 ∂z  ∂v2   ∂z  ∂v3 ∂z

6.2. COORDENADAS CURVIL´INEAS ORTOGONALES HABITUALES Divergencia



∇·v =

∂ ∂ ∂ (v1 ) + (v2 ) + (v3 ) , ∂x ∂y ∂z ( 2 ∇ × v = − ∂v + ∂z

Rotacional Laplaciano

∇2 f =

6.2.2.

∂ ∂x

(

∂v3 ∂y

∂f ∂x

∂ ∂y ∂ ∂y ∂ ∂y

∂ (T ) +  ∂x 11  ∂ ∇ · T =  ∂x (T21 ) +  ∂ (T31 ) + ∂x ∂v1 ∂z

) +

∂ ∂y



(

∂v3 ∂x

∂f ∂y

1 − ∂v + ∂y

) +

∂ ∂z

(

∂f ∂z

(T12 ) + (T22 ) + (T32 ) +

∂v2 ∂x

∂ ∂z ∂ ∂z ∂ ∂z

135  (T13 )   (T23 )  (T33 )

)

)

Coordenadas cil´ındricas

z uz uθ ur

r r

y θ

x Figura 6.2: Coordenadas cil´ındricas.

Las coordenadas cil´ındricas est´ an definidas por el cambio de variable

y1 = r =



x1 = x = r cos θ

x2 + y 2

y 2 = θ = arctan xy

x2 = y = r sen θ

y3 = z

x3 = z

Matriz jacobiana

 cos(θ)

  Ji j =  sin(θ)  0

− (r sin(θ)) r cos(θ) 0

 0

  0  1

Vectores tangentes 

 cos(θ)     t1 =  sin(θ)  ,   0



 − (r sin(θ))     t2 =  r cos(θ)  ,   0

  0     t3 = 0 ,   1

Vectores tangentes unitarios     cos(θ) − sin(θ)        ˆt1 =   sin(θ)  , ˆt2 =  cos(θ)  ,     0 0

  0    ˆt3 =  0 ,   1



 cos(θ)     t1 =  sin(θ)  ,   0



 cos(θ)    ˆt1 =   sin(θ)  ,   0

   t2 =  



(

sin(θ) r cos(θ) r

)

0



 − sin(θ)    ˆt2 =   cos(θ)  ,   0

  , 

  0     3 t = 0   1

  0    ˆt3 =  0   1

CAP´ITULO 6. OPERADORES DIFERENCIALES HABITUALES

136



Tensor m´ etrico

 1

0

  gij = 0  0 S´ımbolos de Christoffel de primera especie  0 0   Γi1k = 0 r  0 0

0

S´ımbolos de Christoffel de segunda especie   0 0 0     Γi k 1 = 0 r1 0 ,   0 0 0

0

  g ij = 0  0

0   = −r  0



r 0 0

  Γi k 2 = −r  0

  0  1

0

Γi3k

0   = 0  0

0

  0 ,  0

0

0 0 0



0

0

 0   0  0





1 r

0

0

r−2

 0   0 ,  0

 Γi2k

 1

  0 ,  1

r2

 0   0 ,  0



0

  Γ i k 3 = 0  0

 0   0  0

0 0 0

S´ımbolos de Christoffel f´ısicos 



 0

0

 ˆk =  Γ 0 i1  0

0

 ˆk =  Γ − i2 

  0 ,  0

0 0

0

0

0

 ˆk =  Γ 0 i3  0

  0 ,  0

0

r

0 

Gradiente ∇f =

(

∂f ∂θ

∂f ∂r

∂f ∂z

r

 ∂v ∇v =   ∂r2 

,

r



v2 r

r

+

v1 r

∂v2 ∂θ

∂v3 ∂θ

∂v3 ∂r

0

0

  0  0

0 0



∂v1 ∂θ

∂v1  ∂r

)







1 r

0 (1)

∂v1 ∂z 



∂v2  ∂z   ∂v3 ∂z

r

Divergencia  ∇·v =

∂ ∂θ

(v2 ) r

+

∂ ∂r

(r v1 )

+

r

∂ ∂z

(r v3 ) r

(

Rotacional ∇×v =

∇2 f =

∂ ∂θ

(

∂ (r T ) 11 ∂r

+

 ( r)  ∂ T22 ∇ · T =  ∂θ + r  ∂

+

r ∂ ∂ (T21 ) + ∂z ∂r ∂ (r T ) (T ) 32 31 ∂θ + ∂r r r

∂v3 ∂θ

2 − ∂v + ∂z

Laplaciano

6.2.3.

,

∂ (T ) 12 ∂θ

∂v1 ∂z

r

1 ∂f r ∂θ

r

) +

∂ ∂r

− (

∂v3 ∂r

r ∂f ∂r

∂v2 ∂r

)

r

+

∂ ∂z

∂v1 ∂θ



r

(

r ∂f ∂z

∂ (r T ) 13 ∂z

r

T12 r ∂ (r T ) 33 ∂z r

(T23 ) + +



T22 r

+

) +

v2 r

)

r

Coordenadas esf´ ericas

Las coordenadas esf´ ericas est´ an definidas por el cambio de variable

y1 = r = y2



x1 = x = r sen θ cos ϕ

x2 + y 2 + z 2 √ x2 +y 2 = θ = arctan z

x2 = y = r sen θ sen ϕ

y 3 = ϕ = arctan xy Matriz jacobiana

x3 = z = r cos θ

 cos(ϕ) sin(θ)

  Ji j =  sin(ϕ) sin(θ)  cos(θ)

r cos(ϕ) cos(θ) r cos(θ) sin(ϕ) − (r sin(θ))

 − (r sin(ϕ) sin(θ))   r cos(ϕ) sin(θ)   0

 

T21   r 

6.2. COORDENADAS CURVIL´INEAS ORTOGONALES HABITUALES

137

z ur uϕ

r r θ



y x

ϕ

Figura 6.3: Coordenadas esf´ericas.

Vectores tangentes      − (r sin(ϕ) sin(θ)) r cos(ϕ) cos(θ) cos(ϕ) sin(θ)             t1 =  sin(ϕ) sin(θ)  , t2 =  r cos(θ) sin(ϕ)  , t3 =  r cos(ϕ) sin(θ)        0 − (r sin(θ)) cos(θ)     (  ) cos(ϕ) cos(θ) csc(θ) sin(ϕ) − cos(ϕ) sin(θ) r r             t1 =  sin(ϕ) sin(θ)  , t2 =  cos(θ)rsin(ϕ)  , t3 =  cos(ϕ) csc(θ)  r  (     ) sin(θ) − cos(θ) 0 r 

Vectores tangentes unitarios 

 cos(ϕ) sin(θ)    ˆt1 =   sin(ϕ) sin(θ)  ,   cos(θ)   cos(ϕ) sin(θ)    ˆt1 =   sin(ϕ) sin(θ)  ,   cos(θ) Tensor m´ etrico



 1

  gij = 0  0 S´ımbolos de  0   Γi1k = 0  0

 cos(ϕ) cos(θ)    ˆt2 =   cos(θ) sin(ϕ)  ,   − sin(θ)   cos(ϕ) cos(θ)    ˆt2 =   cos(θ) sin(ϕ)  ,   − sin(θ) 

Christoffel de primera especie   0 0 0      , Γi2k = −r r 0   0 r sin(θ)2 0

S´ımbolos de Christoffel de segunda especie    0 0 0 0       k Γi k 1 = 0 1r 0  , Γi 2 = −r    1 0 0 0 r

0

0

r2

0

0

r2 sin(θ)2



 1

  , 

  g ij = 0  0 

r

0

0

0

0

r2 cos(θ) sin(θ)



1 r

0

0

0

0

cot(θ)

  , 

 − sin(ϕ)    ˆt3 =   cos(ϕ)    0   − sin(ϕ)    ˆt3 =   cos(ϕ)    0 

  , 

0

0

r−2

0

0

    2

csc(θ) r2

 Γi3k

  = 

0

0

0

0

( ) − r sin(θ)2

( ) − r2 cos(θ) sin(θ)

   Γi k 3 =  

0

0

0

0

( ) − r sin(θ)2

r sin(θ)2

− (cos(θ) sin(θ))

1 r



  cot(θ)  0



  r2 cos(θ) sin(θ)  0

CAP´ITULO 6. OPERADORES DIFERENCIALES HABITUALES

138 S´ımbolos de Christoffel f´ısicos 



 0

0

 ˆk =  Γ 0 i1  0

0

  0 ,  0

0 0

 ˆk =  Γ − i2 

 0   0 ,  0

1 r

0 (1)

0

r

0

0

Gradiente

  ˆk =  Γ  i3 

 ( ∇f =

∂f ∂ϕ

∂f ∂θ

∂f ∂r

) csc(θ)

r

r

 ∂v ∇v =   ∂r2 

,

r

∂v1 ∂θ

∂v1  ∂r

∂v2 ∂θ

r

∇·v = 

∂ ∂r

( 2 ) r v1 sin(θ) csc(θ) r2

( ) T22 −  − r  T T ∇·T =  r12 + r21 −  ∂

∇×v =

∂v3 ∂θ

r

Laplaciano ∇ f = 2

6.3.

∂ ∂θ



v2 r

+

v1 r

0 (1) r

− v1 r

r

(r v2 sin(θ)) csc(θ) r2

(



− (

)

0

( v3 )

∂v1



csc(θ)

+ ∂ϕ r ∂v2 ) cot(θ) + ∂ϕ r r

v3

+

0 cot(θ) r

v2 cot(θ) r

+

∂ ∂ϕ

csc(θ)

∂v3 ∂ϕ

+

r csc(θ)

    

r

(r v3 ) csc(θ) r2 

∂ (r T ) csc(θ) ∂ (r T sin(θ)) csc(θ) 13 12 sin(θ)) csc(θ) + ∂θ + ∂ϕ  r2 r2 r2  ∂ ∂ (T ∂ (r T (T23 ) csc(θ) T33 cot(θ) 22 sin(θ)) csc(θ) 21 sin(θ)) csc(θ)  ∂ϕ ∂θ ∂r + + +  r r r r  ∂ (T ∂ (r T ) (T32 ) 33 csc(θ)) T23 cot(θ) T32 cot(θ) 31 T13 T31 ∂ϕ ∂θ ∂r + + + r + r + + r r r r r

(

Rotacional

+



1 r  cot(θ)   r 

0

∂v3 ∂θ

∂v3 ∂r

Divergencia



0

∂ ∂ϕ

+

T33 r

+

∂ ∂r

v3 cot(θ) r

(r2 T11



∂v2 ∂ϕ

( ) ∂f csc(θ) ∂ϕ csc(θ) r2

csc(θ) r

+

∂ ∂r

3 − ∂v ∂r



v3 r

+

∂v1 ∂ϕ

( ) r2 sin(θ) ∂f csc(θ) ∂r r2

csc(θ)

∂v2 ∂r

r

+

∂ ∂θ

(



sin(θ) ∂f ∂θ

∂v1 ∂θ

r

) +

v2 r

) csc(θ)

r2

Bibliograf´ıa

Para este cap´ıtulo se han consultado los textos generales de c´alculo tensorial, geometr´ıa diferencial y ´algebra [3, 5, 4, 8, 12, 13], as´ı como [18].

Ap´ endice A

F´ ormulas de an´ alisis vectorial En este apartado presentamos una colecci´on de f´ormulas de uso frecuente, v´alidas en el caso habitual de R3 con m´etrica Eucl´ıdea. De las expresiones que incluimos a continuaci´on, las que est´an escritas como ecuaciones vectoriales sin ´ındices son v´alidas en cualquier sistema de coordenadas; por el contrario, las ecuaciones de este cap´ıtulo en las que aparecen ´ındices, s´olo son v´alidas en el sistema de coordenadas cartesianas.

A.1.

Notaci´ on

La notaci´on empleada en este apartado es la habitual: Las cantidades en negrita representan vectores o, en general, magnitudes tensoriales no escalares (es decir, de rango tensorial superior a cero). Si en alg´ un momento es necesario distinguir entre las componentes covariantes y contravariantes de un tensor (por ejemplo A), las componentes covariantes se denotar´an por sub´ındices (Ai ) y las contravariantes por super´ındices (Ai ). A menos que se diga lo contrario supondremos que se est´an empleando coordenadas cartesianas, de tal forma que Ai denota la i−´esima componente cartesiana del vector A: Ai = ei · A. Dado que la base dual a la base cartesiana {i, j, k} coincide con ella misma, las componentes covariantes y contravariantes respecto de esta base coinciden. Convenio de suma de Einstein: A menos que se diga lo contrario se sobreentiende que si en una expresi´on aparece un ´ındice repetido la expresi´on representa la suma respecto de ese ´ındice, que por tanto es un ´ındice mudo. Delta de Kronecker:

  1 si j ij δij = δ = δi =  0 si

i=j i ̸= j

S´ımbolo alternante de Levi-Civita:    +1 si ijk es una permutaci´on par de 123   ϵijk = −1 si ijk es una permutaci´on impar de 123     0 si hay alg´ un ´ındice repetido 139

(A.1)

(A.2)

´ ´ ´ APENDICE A. FORMULAS DE ANALISIS VECTORIAL

140

A.2.

Productos escalares y vectoriales A · B = Ai Bi

(A.3)

A × B = ϵijk Ai Bj ek

(A.4)

A · (B × C) = B · (C × A) = C · (A × B)

(A.5)

A × (B × C) = B (A · C) − C (A · B)

(A.6)

(A × B) × C = B (A · C) − A (B · C)

(A.7)

(A × B) · (C × D) = (A · C) (B · D) − (A · D) (B · C)

(A.8)

F´ ormulas u ´ tiles

(A × B) × (C × D) = C (A · (B × D)) − D (A · (B × C)) = B (A · (C × D)) − A (B · (C × D))

A.3.

(A.9)

Gradiente, divergencia, rotacional y laplaciano { ∇ = ∂ i ei =

∂ ∂ ∂ , , ∂x ∂y ∂z

} (A.10)

∂U ei ∂xi ∂Ai div A = ∇ · A = ∂xi ∂Aj rot A = ∇ × A = ϵijk ek ∂xi

grad U

=

∇U

(A.11)

=

( lap A = ∆A = ∇ A = ∇ · (∇A) = 2

∂2 ∂2 ∂2 + + ∂x2 ∂y 2 ∂z 2

(A.12) (A.13) ) A

(A.14)

F´ ormulas u ´ tiles

∇ × (∇U ) = 0

(A.15)

∇ · (∇ × A) = 0

(A.16)

∇ · (∇ϕ × ∇φ) = 0

(A.17)

1 ( 2) ∇ A + (∇ × A) × A 2 ∇2 A = ∇ (∇ · A) − ∇ × (∇ × A)

(A · ∇) A =

(A.18) (A.19)

A.4. TEOREMAS INTEGRALES

141

∇ · (U A) = (∇U ) · A + U (∇ · A)

(A.20)

∇ × (U A) = (∇U ) × A + U (∇ × A)

(A.21)

∇ · (A × B) = B · (∇ × A) − A · (∇ × B) ∇ × (A × B) = (B · ∇) A − B (∇ · A) − (A · ∇) B + A (∇ · B) ∇ (A · B) = (B · ∇) A + (A · ∇) B + B × (∇ × A) + A × (∇ × B)

A.4.

(A.22)

(A.23) (A.24)

Teoremas integrales

Los teoremas integrales habituales (del gradiente, de la divergencia, del rotacional) son casos particulares del conocido Teorema de Stokes para formas diferenciales sobre variedades ∫ ∫ dω = ω (A.25) M

∂M

donde M es una variedad diferenciable n-dimensional con frontera ∂M , ω es una forma diferencial y d denota la derivada exterior.

A.4.1.

Teorema del gradiente

Tambi´en conocido como Teorema Fundamental del C´ alculo. La integral del gradiente de una funci´on escalar f a lo largo de una curva γ, con extremos γ1 y γ2 est´a dada por ∫ ∫ ∇f · dl = df = f (γ2 ) − f (γ1 ), (A.26) γ

A.4.2.

γ

Teorema de la divergencia

Tambi´en conocido como Teorema de Gauss-Ostrogradsky o sencillamente Teorema de Gauss. La integral de la divergencia de un vector f en el volumen Ω est´a dada por ∫ ∫ ∇ · f dV = f · n dΣ (A.27) Ω

∂Ω

donde ∂Ω es la superficie que limita a Ω y n la normal a ∂Ω orientada hacia el exterior.

A.4.3.

Teorema del rotacional

Tambi´en conocido como Teorema de Stokes. La integral del rotacional de un vector f en la superficie S est´a dada por ∫ ∫ (∇ × f ) · n dΣ = f · dl (A.28) S

donde ∂S es la l´ınea que limita a S.

∂S

´ ´ ´ APENDICE A. FORMULAS DE ANALISIS VECTORIAL

142 Expresi´ on alternativa

Dado que no es tan est´andar como los teoremas integrales anteriores, en este apartado se incluye la deducci´on de la expresi´on alternativa del teorema del rotacional empleada para calcular la fuerza de tensi´on superficial ejercida sobre un elemento de superficie. En primer lugar, dado el campo vectorial f definimos f = F ×b, donde b es un vector arbitrario constante. Con esto el Teorema de Stokes queda como ∫ ∫ (∇ × (F × b)) · n dΣ = (F × b) · dl (A.29) S

∂S

Sustituyendo en la identidad vectorial (Ec. A.23) encontramos ∇ × (F × b) = (b · ∇) F − b (∇ · F )

(A.30)

ya que b es un vector constante. Aplicando la identidad vectorial (Ec. A.5) y sustituyendo (Ec. A.30) en (Ec. A.29) encontramos ∫ ∫ b· F × dl = [b (∇ · F ) − (b · ∇) F ] · n dΣ (A.31) ∂S

S

Recordando que el vector b es arbitrario, la expresi´on alternativa del teorema del rotacional queda finalmente como ∫ ∫ F × dl = [(∇ · F ) n − (∇F ) · n] dΣ (A.32) ∂S

A.4.4.

S

Otros teoremas integrales ∫

∫ ∇ × A dV =

n dΣ × A







n dΣ × ∇φ = S

A.4.5.

(A.33)

∂Ω

φ dl

(A.34)

∂S

Identidades de Green

Dadas dos funciones escalares φ y ψ se cumple: Primera identidad de Green ∫

(

) φ∇2 ψ + (∇φ) · (∇ψ) dV =



∫ (φ∇ψ) · n dΣ

(A.35)

∂Ω

donde ∂Ω es la superficie que limita a Ω y n la normal a ∂Ω orientada hacia el exterior. Segunda identidad de Green ∫ Ω

(

)



φ∇ ψ − ψ∇ φ dV = 2

2

(φ∇ψ − ψ∇φ) · n dΣ ∂Ω

donde ∂Ω es la superficie que limita a Ω y n la normal a ∂Ω orientada hacia el exterior.

(A.36)

A.4. TEOREMAS INTEGRALES

143

Bibliograf´ıa Para elaborar este ap´endice se ha consultado [19] y [24] junto con las enciclopedias en internet [26] y [29].

144

´ ´ ´ APENDICE A. FORMULAS DE ANALISIS VECTORIAL

Bibliograf´ıa En este apartado se incluye la lista de referencias consultadas para elaborar estos apuntes. Algunas de estas referencias se mencionan en el texto y pueden consultarse como bibliograf´ıa complementaria avanzada de los temas en que se mencionan, las restantes se citan para dar el debido cr´edito a todas las fuentes consultadas.

C´ alculo tensorial y geometr´ıa diferencial [1] Bishop, R. L. and S. I. Goldberg: Tensor Analysis on Manifolds. Dover, 1980. [2] Bowen, R. M. and C. C. Wang: Introduction to Vectors and Tensors. Dover, 1976. ´ [3] Burgos, J.: Curso de Algebra y Geometr´ıa. Alhambra, 1980. [4] Danielson, D. A.: Vectors and Tensors in Engineering and Physics. Perseus, 2003. [5] do Carmo, M. P.: Geometr´ıa Diferencial de Curvas y Superficies. Alianza Universidad Textos, 1995. [6] Flanders, H.: Differential Forms with Applications to the Physical Sciences. Dover, 1990. [7] Frankel, T.: The Geometry of Physics: An Introduction. Cambridge University Press, 1997. [8] Kay, D. C.: C´ alculo Tensorial. McGraw-Hill, 1989. [9] Lang, S.: Differential and Riemannian Manifolds. Springer-Verlag, 1995. [10] Lichnerowicz, A.: Elementos de C´ alculo Tensorial. Aguilar, 1972. [11] Lipschutz, M. M.: Differential Geometry. McGraw-Hill, 1969. [12] Lovelock, D. and H. Rund: Tensors, Differential Forms, and Variational Principles. Dover, 1989. [13] Synge, J. L. and A. Schild: Tensor Calculus. Dover, 1978.

145

BIBLIOGRAF´IA

146

Aplicaciones de tensores en f´ısica F´ısica General [14] Feynman, R. P., R. B. Leighton, and M. L. Sands: The Feynman Lectures on Physics (3 vols.). Addison-Wesley, 1989. [15] Feynman, R. P., R. B. Leighton y M. L. Sands: F´ısica (3 vols.). Addison-Wesley, 1999.

Mec´ anica Cl´ asica [16] Arnold, V. I.: Mathematical Methods of Classical Mechanics. 1990.

Springer-Verlag, second ed.,

[17] Crawford, F.: Curso de F´ısica de Berkeley (T.3): Ondas. Revert´e, 1971.

Mec´ anica de Fluidos [18] Aris, R.: Vectors, Tensors and the Basic Equations of Fluid Mechanics. Dover, 1990. [19] Emanuel, G.: Analytical Fluid Dynamics. Lewis Publishers, second ed., 2000.

Relatividad [20] Misner, C. W., K. S. Thorne, and J. A. Wheeler: Gravitation. W. H. Freeman and Company, 1973. [21] Wald, R. M.: General Relativity. The University of Chicago Press, 1984. [22] Weinberg, S.: Gravitation and Cosmology: Principles and Applications of the General Theory of Relativity. Wiley, 1972.

Libros de tablas y enciclopedias en Internet [23] Abramowitz, M. and I. A. Stegun: Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables. Dover, New York, tenth ed., 1974. [24] Spiegel, M. R. y L. Abellanas: F´ ormulas y Tablas de Matem´ atica Aplicada. McGraw-Hill, 1997. [25] Wales, J. y cols. (eds.): Wikipedia, la enciclopedia libre. The Wikimedia Foundation, Inc., since 2001. http://es.wikipedia.org/. [26] Wales, J. et al. (eds.): Wikipedia, the free encyclopedia. since 2001. http://www.wikipedia.org/.

The Wikimedia Foundation, Inc.,

[27] Weisstein, E. (ed.): Eric Weisstein’s World of Physics. Wolfram Research Inc., since 1999. http://scienceworld.wolfram.com/physics/.

147 [28] Weisstein, E. (ed.): Eric Weisstein’s World of Science. Wolfram Research Inc., since 1999. http://scienceworld.wolfram.com/. [29] Weisstein, E. (ed.): Mathworld: the web’s most extensive mathematics resource. Research Inc., since 1999. http://mathworld.wolfram.com/.

Wolfram

Otras referencias LATEX [30] http://wikipedia.org/wiki/LaTeX. [31] Cascales Salinas, B. y cols.: LATEX una imprenta en sus manos. Aula Documental de Investigaci´on, 2000. [32] Kopka, H. and P. W. Daly: A Guide to LATEX: Document Preparation for Beginners and Advanced Users. Addison-Wesley, third ed., 1999. [33] Oetiker, T. et al.: The Not So Short Introduction To LATEX 2ε . Or LATEX 2ε in 157 minutes. Free Software Foundation., 5.01 ed., 2011. http://www.ctan.org/tex-archive/info/ lshort/english/lshort.pdf.

Linux [34] http://www.linux.org. [35] http://www.gnu.org. [36] http://wikipedia.org/wiki/Linux. [37] Siever, E. et al.: Linux in a Nutshell. O’Reilly, sixth ed., 2009.

148

BIBLIOGRAF´IA

´Indice alfab´ etico aplicaci´on lineal, 17, 20, 34 multilineal, 42

dual, 14 Eucl´ıdeo, 12 m´etrico, 8 no Eucl´ıdeo, 13 normado, 8 orientable, 60 pre-Hilbert, 10 producto tensorial, 39 tangente, 81 topol´ogico, 82 vectorial, 1

base, 4 cambio de, 17 dual, 14, 19 ortonormal, 13 producto tensorial, 39 componentes contravariantes, 19, 20, 31, 59 covariantes, 19, 20, 31, 59 convenio de suma de Einstein, 11 coordenadas, 5 delta de Kronecker, 13 dependencia lineal, 4 derivada covariante, 38 parcial, 38 desigualdad triangular, 7, 8 diada, 39 dimensi´on, 4 del conjunto de coordenadas, 31 finita, 5 infinita, 5 distancia, 7 elemento neutro, 4 nulo, 3, 4 opuesto, 3, 4 envolvente lineal, 5 espacio completo, 10 cotangente, 81 de Banach, 10 de Hilbert, 10 de Riemann, 12

fibrado cotangente, 81 tangente, 81 grados de libertad, 31 Gram-Schmidt, 13 homeomorfismo, 82 identidad BAC–CAB, 68 independencia lineal, 4 ´ındices contracci´on de, 42 contravariantes, 31 covariantes, 31 libres, 11 mudos, 11 permutaci´on de, 47 subida y bajada de, 20, 46 inversiones, 22 Levi-Civita, 63, 64 ley de transformaci´on tensorial, 31, 59 m´etrica Riemanniana, 12 matriz 149

´INDICE ALFABETICO ´

150 adjunta, 22 ortogonal, 22 unitaria, 22 norma, 7, 9 orientaci´on, 60, 61 paridad, 59 permutaciones, 22 peso, 59 potencia tensorial, 40 Producto de densidades tensoriales, 60 producto de contracci´on, 43 di´adico, 39 escalar, 8 exterior, 70 interior, 8 por escalares, 1, 3, 41 tensorial, 39, 41 triple escalar, 68 triple vectorial, 68 vectorial, 65, 66 propiedad anticonmutativa, 68, 77 asociativa, 3, 4, 39, 40, 67, 77 Binet-Cauchy, 68 conmutativa, 3 distributiva, 4, 8, 39, 67, 76 herm´ıtica, 8 Jacobi, 68, 78 proyecci´on ortogonal, 13 pseudotensor, 57, 59 rotaciones, 22 subespacio independiente, 6 vectorial, 6 suma de tensores, 41 de vectores, 1, 3 directa, 6 tensor, 29 absoluto, 57, 59

af´ın, 40 antisim´etrico, 47 asociado, 46 axial, 57, 59 campo tensorial, 38 Cartesiano, 48 contravariante, 47 covariante, 47 criterios de tensorialidad, 44 de esfuerzos, 34 de tensiones, 34 definici´on, 39 densidad tensorial, 57, 59 is´otropo, 48 m´etrico, 10, 16, 21 orden, 31 polar, 57, 59 rango tensorial, 31, 32 relativo, 57, 59 sim´etrico, 47 teorema de Riesz-Fr´echet, 14 topologa m´etrica, 12 transformaci´on ortogonal, 22 unitaria, 22 variedad, 81 vector, 3, 19

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF