Matematica para la física 1
May 2, 2017 | Author: david teran | Category: N/A
Short Description
Descripción: Introducción para métodos matemáticos...
Description
Matem´ aticas Avanzadas: de los espacios lineales al an´alisis vectorial
in ar
H. Hern´ andez Departamento de F´ısica, Facultad de Ciencias, Universidad de Los Andes, M´erida-Venezuela
re lim
L. A. N´ un ˜ ez Escuela de F´ısica, Facultad de Ciencias, Universidad Industrial de Santander, Bucaramanga-Colombia
Bo rr
ad o
rP
1 de junio de 2016
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bo rr
ad o
rP
re lim
1. Los vectores de siempre 1.1. Vectores, escalares y ´ algebra vectorial . . . . . . . . . . . . . 1.1.1. Escalares y vectores . . . . . . . . . . . . . . . . . . . ´ 1.1.2. Algebra de vectores . . . . . . . . . . . . . . . . . . . 1.1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Independencia lineal, vectores base y el producto de vectores 1.2.1. Vectores linealmente independientes . . . . . . . . . . 1.2.2. Productos de vectores . . . . . . . . . . . . . . . . . . 1.2.3. Producto escalar . . . . . . . . . . . . . . . . . . . . . 1.2.4. Producto vectorial . . . . . . . . . . . . . . . . . . . . 1.2.5. Producto triple o mixto . . . . . . . . . . . . . . . . . 1.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Componentes, coordenadas y cosenos directores . . . . . . . . 1.3.1. Bases, componentes y coordenadas . . . . . . . . . . . 1.3.2. Cosenos directores . . . . . . . . . . . . . . . . . . . . 1.3.3. Una divisi´ on fallida . . . . . . . . . . . . . . . . . . . . 1.3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Algebra vectorial y coordenadas . . . . . . . . . . . . . . . . . 1.4.1. Suma y resta de vectores . . . . . . . . . . . . . . . . 1.4.2. Dependencia e independencia lineal . . . . . . . . . . . 1.4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Aplicaciones del ´ algebra vectorial . . . . . . . . . . . . . . . . 1.5.1. Rectas y vectores . . . . . . . . . . . . . . . . . . . . . 1.5.2. Planos y vectores . . . . . . . . . . . . . . . . . . . . . 1.5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . ´ 1.6. Algebra vectorial con ´ındices . . . . . . . . . . . . . . . . . . 1.6.1. Convenci´ on de Einstein . . . . . . . . . . . . . . . . . 1.6.2. Los vectores y los ´ındices . . . . . . . . . . . . . . . . 1.6.3. Un par de c´ alculos ilustrativos . . . . . . . . . . . . . 1.6.4. Escalares, pseudoescalares, vectores y pseudovectores . 1.6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.7. Un comienzo a la derivaci´ on e integraci´on de vectores . . . . 1.7.1. Vectores variables . . . . . . . . . . . . . . . . . . . .
in ar
´Indice general
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5 6 6 7 9 9 10 11 12 12 13 14 15 15 16 17 17 17 17 18 20 21 21 23 24 24 24 26 27 27 29 30 30
´INDICE GENERAL
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
31 33 35 37 39 43 45 45 46 47 49 52 53 58
2. Espacios Vectoriales Lineales 2.1. Grupos, cuerpos y espacios vectoriales . . . . . . . . . . . . . . . . . . 2.1.1. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3. Espacios vectoriales lineales . . . . . . . . . . . . . . . . . . . . 2.1.4. Ejemplos espacios vectoriales . . . . . . . . . . . . . . . . . . . 2.1.5. La importancia de la conceptualizaci´on y la notaci´on . . . . . . 2.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Espacios m´etricos, normados y con producto interno . . . . . . . . . . 2.2.1. M´etricas y espacios m´etricos . . . . . . . . . . . . . . . . . . . 2.2.2. Normas y espacios normados . . . . . . . . . . . . . . . . . . . 2.2.3. Espacios vectoriales con producto interno: Espacios euclidianos 2.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Dependencia/Independencia lineal . . . . . . . . . . . . . . . . 2.3.2. Bases de un espacio vectorial . . . . . . . . . . . . . . . . . . . 2.3.3. El determinante de Gram . . . . . . . . . . . . . . . . . . . . . 2.3.4. Ortogonalidad y bases ortogonales . . . . . . . . . . . . . . . . 2.3.5. Ortogonalizaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.6. Complementos ortogonales y descomposici´on ortogonal . . . . . 2.3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Aproximaci´ on de funciones . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1. Condiciones para la aproximaci´on de funciones . . . . . . . . . 2.4.2. El m´etodo de m´ınimos cuadrados . . . . . . . . . . . . . . . . . 2.4.3. Interpolaci´ on polinomial de puntos experimentales . . . . . . . 2.4.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . .
66 67 67 69 69 70 72 72 74 74 75 76 81 81 81 83 84 85 89 94 96 97 97 100 105 109 111 115
in ar
. . . . . . . . . . . . . .
Bo rr
ad o
rP
re lim
1.7.2. Derivaci´ on . . . . . . . . . . . . . . . 1.7.3. Velocidades y aceleraciones . . . . . 1.7.4. Vectores y funciones . . . . . . . . . 1.7.5. El operador ∇ . . . . . . . . . . . . 1.7.6. Integraci´ on . . . . . . . . . . . . . . 1.7.7. Ejercicios . . . . . . . . . . . . . . . 1.8. Vectores y n´ umeros complejos . . . . . . . . 1.8.1. Los n´ umeros complejos y su ´algebra 1.8.2. Vectores y el plano complejo . . . . 1.8.3. F´ ormulas de Euler y De Moivre . . . 1.8.4. Algunas aplicaciones inmediatas . . 1.8.5. Ejercicios . . . . . . . . . . . . . . . 1.9. Algunos ejemplos resueltos . . . . . . . . . . 1.10. Ejercicios propuestos . . . . . . . . . . . . .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
3
´INDICE GENERAL
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4. Matrices, Determinantes y Autovectores 4.1. Operadores Lineales . . . . . . . . . . . . . . . . . . . . 4.1.1. Espacio vectorial de operadores lineales . . . . . 4.1.2. Composici´ on de operadores lineales . . . . . . . . 4.1.3. Proyectores . . . . . . . . . . . . . . . . . . . . . 4.1.4. Funciones de operadores . . . . . . . . . . . . . . 4.1.5. Espacio Nulo e Imagen . . . . . . . . . . . . . . . 4.1.6. Operadores biyectivos e inversos . . . . . . . . . 4.1.7. Operadores herm´ıticos conjugados . . . . . . . . 4.1.8. Operadores herm´ıticos . . . . . . . . . . . . . . . 4.1.9. Operadores unitarios . . . . . . . . . . . . . . . . 4.1.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 4.2. Representaci´ on matricial de operadores . . . . . . . . . 4.2.1. Bases y la representaci´ on matricial de operadores
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121 122 124 124 124 126 128 129 130 134 135 138 143 144 144 145 147 151 153 154 156 163 163 164 168 169 169 171 175 178 179 181 187
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
191 192 194 195 197 198 199 201 202 203 203 204 205 206
in ar
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bo rr
ad o
rP
re lim
3. Vectores Duales y Tensores 3.1. Funcionales lineales . . . . . . . . . . . . . . . . . . . . . 3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.2. Par´entesis tensorial . . . . . . . . . . . . . . . . . . . . . 3.2.1. Tensores, una definici´ on funcional . . . . . . . . 3.2.2. Producto tensorial . . . . . . . . . . . . . . . . . 3.2.3. La tentaci´ on del producto interno . . . . . . . . . 3.2.4. Bases para un producto tensorial . . . . . . . . . 3.2.5. Tensores, sus componentes y sus contracciones . 3.2.6. Tensor m´etrico, ´ındices y componentes . . . . . . 3.2.7. Teorema del cociente . . . . . . . . . . . . . . . . 3.2.8. Un par de tensores . . . . . . . . . . . . . . . . . 3.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.3. Repensando los vectores nuevamente . . . . . . . . . . . 3.3.1. Vectores, covectores y leyes de transformaci´on . . 3.3.2. Transformaci´ on de los vectores base . . . . . . . 3.3.3. Cartesianas y polares, otra vez . . . . . . . . . . 3.3.4. Repensando las componentes . . . . . . . . . . . 3.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.4. Transformaciones, vectores y tensores . . . . . . . . . . 3.4.1. Un ejemplo detallado . . . . . . . . . . . . . . . 3.5. Vectores, tensores y espacios pseudo-euclideanos . . . . 3.5.1. Espacios minkowskianos . . . . . . . . . . . . . . 3.5.2. Un toque de Relatividad Especial . . . . . . . . . 3.5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.6. Espacios de funciones . . . . . . . . . . . . . . . . . . . 3.6.1. La funci´ on delta de Dirac . . . . . . . . . . . . . 3.6.2. Bases continuas . . . . . . . . . . . . . . . . . . . 3.6.3. Transformada de Fourier. Bases de ondas planas 3.6.4. Las representaciones |ri y |pi . . . . . . . . . . . 3.6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.7. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . 3.8. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
4
´INDICE GENERAL
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
rP
ad o
Bo rr Hern´ andez & N´ un ˜ez
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
209 210 212 213 214 216 217 217 218 221 221 222 222 222 222 223 223 223 223 224 225 228 229 229 232 233 233 233 242 243 243 247 250 254 254 260 261 261 262 263 264 265 267
in ar
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
re lim
4.2.2. Cambio de bases para vectores . . . . . . . . . . . 4.2.3. Traza de operadores . . . . . . . . . . . . . . . . . 4.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.3. Diferenciaci´ on de operadores y algebra matricial . . . . . 4.3.1. Reglas de diferenciaci´ on de operadores lineales . . 4.3.2. La f´ ormula de Glauber . . . . . . . . . . . . . . . . 4.3.3. Algebra de matrices . . . . . . . . . . . . . . . . . 4.3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.4. Un par´entesis determinante . . . . . . . . . . . . . . . . . 4.4.1. F´ ormula de Laplace . . . . . . . . . . . . . . . . . 4.4.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.5. Un zool´ ogico de matrices cuadradas . . . . . . . . . . . . 4.5.1. Matriz unitaria y la matriz nula . . . . . . . . . . 4.5.2. Matriz diagonal a bloques . . . . . . . . . . . . . . 4.5.3. Matriz transpuesta . . . . . . . . . . . . . . . . . . 4.5.4. Matriz de cofactores . . . . . . . . . . . . . . . . . 4.5.5. Matriz adjunta . . . . . . . . . . . . . . . . . . . . 4.5.6. Matriz singular . . . . . . . . . . . . . . . . . . . . 4.5.7. Matriz inversa . . . . . . . . . . . . . . . . . . . . 4.5.8. Matriz ortogonal . . . . . . . . . . . . . . . . . . . 4.5.9. Matrices complejas . . . . . . . . . . . . . . . . . . 4.5.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.6. Autovectores y Autovalores . . . . . . . . . . . . . . . . . 4.6.1. Definiciones y teoremas preliminares . . . . . . . . 4.6.2. Autovalores, autovectores e independencia lineal . 4.6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.7. Autovalores y autovectores de un operador . . . . . . . . . 4.7.1. El polinomio caracter´ıstico. . . . . . . . . . . . . . 4.7.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.8. Autovalores y autovectores de matrices importantes . . . 4.8.1. Autovalores y autovectores de matrices similares . 4.8.2. Autovalores y autovectores de matrices herm´ıticas 4.8.3. Autovalores y autovectores de matrices unitarias . 4.8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.9. Conjunto completo de observables que conmutan . . . . . 4.9.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.10. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . 4.10.1. Eliminaci´ on de Gauss Jordan . . . . . . . . . . . . 4.10.2. El m´etodo de la matriz inversa . . . . . . . . . . . 4.10.3. Factorizaci´ on LU . . . . . . . . . . . . . . . . . . 4.10.4. M´etodo de Cramer . . . . . . . . . . . . . . . . . . 4.10.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.11. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . .
Universidad de los Andes / Universidad Industrial de Santander
5
´INDICE GENERAL
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
277 278 280 282 293 297 298 299
Bo rr
ad o
rP
re lim
in ar
5. Ap´ endice 5.1. Introducci´ on a los CAS . . . . 5.2. Maxima: Sintaxis b´ asica . . . . 5.2.1. C´ alculos elementales . . 5.2.2. Bibliotecas . . . . . . . 5.2.3. Maxima en modo texto 5.2.4. Invocando la ayuda . . . 5.3. Ejercicios . . . . . . . . . . . .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
6
1
Bo rr
ad o
rP
re lim
Los vectores de siempre
in ar
Cap´ıtulo
7
´ 1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL
1.1.
Vectores, escalares y ´ algebra vectorial
Desde los primeros cursos de F´ısica en educaci´on media, venimos hablando de vectores como cantidades que tienen que ser representadas con m´ as de un n´ umero. Son varias las razones que obligan a introducir este (y otro) tipo de cantidades “multidimensionales”. Enumeraremos algunas que, a nuestro criterio personal, son las m´ as representativas. 1. Necesidad de modelos matem´ aticos de la naturaleza. Desde los albores del renacimiento, con Galileo Galilei a la cabeza, nos es imperioso representar cantidades de manera precisa. Las matem´ aticas nos apoyan en esta necesidad de precisi´on y desde ese entonces son el lenguaje de la actividad cient´ıfica.
in ar
2. Los modelos tienen que tener contrastaci´ on experimental. Las ciencias y sus modelos, en u ´ltima instancia, tienen que ver con la realidad, con la naturaleza y por ello debemos medir y contrastar las hip´ otesis con esa realidad que modelamos. Necesitamos representar cantidades medibles (observables) y que, por lo tanto, tienen que ser representadas de la forma m´as compacta, pero a la vez m´as precisa posible.
re lim
3. Las leyes de los modelos deben ser independiente de los observadores. Cuando menos a una familia significativa de observadores, el comportamiento de la naturaleza no puede depender de la percepci´ on de un determinado observador, por lo tanto, los modelos que construimos para describirla tampoco pueden depender de los observadores. Es com´ un que tropecemos con: escalares, vectores, tensores y espinores, dependiendo del n´ umero de cantidades que necesitemos para representar determinado objeto matem´atico. Podremos constatar que las leyes de la F´ısica vienen escritas en forma vectorial (o tensorial) y, por lo tanto, ser´a la misma ley para la familia de observadores equivalentes.
Escalares y vectores
rP
1.1.1.
Dejaremos para m´ as adelante caracterizar objetos como tensores y espinores, por ahora nos contentaremos con refrescar nuestros recuerdos con cantidades como:
ad o
Escalares: Ser´ an aquellas cantidades las cuales se representan con UN solo n´ umero, una magnitud: temperatura, volumen, masa, entre otras. Es costumbre no denotarlas de manera especial, as´ı T = 5o C representar´ a una temperatura de 5 grados cent´ıgrados.
Bo rr
Vectores: Ser´ an cantidades las cuales, para ser representadas por un objeto matem´aticos requieren m´as de una cantidad: requieren de UN n´ umero, UNA direcci´on y UN sentido. Entre las cantidades que t´ıpicamente reconocemos como vectores est´ an: la velocidad, la aceleraci´on, la fuerza. En t´erminos gr´aficos podremos decir que un vector ser´ a un segmento orientado, en el cual la dimensi´on del segmento representar´ a su m´ odulo y su orientaci´ on la direcci´ on y el sentido. Para diferenciarlos de las cantidades escalares hay una variedad de representaciones, entre ellas: en negrita a; con una flecha arriba de la cantidad ~a; con −−→ una tilde arriba o abajo a ˜; o explicitando el origen del segmento orientado OP . El m´odulo del vector lo representaremos dentro de la funci´ on valor absoluto, o sencillamente sin la flecha arriba a = |a| = |~a| . Los vectores son independientes del sistema de coordenadas. Sus caracter´ısticas (m´odulo, direcci´ on y sentido) se preservar´ an en todos los sistemas de coordenadas. M´as a´ un, habr´a vectores que podremos desplazarlos (conservando su m´ odulo direcci´ on y sentido) paralelos a ellos mismos, en el espacio y seguir´ an siendo los mismos, por ello encontraremos el t´ermino de vectores deslizantes. Un ejemplo son las fuerzas que act´ uan en un determinado cuerpo, como se muestra el cuadrante I en la Figura 1.1. Tambi´en habr´a vectores Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
8
re lim
in ar
´ 1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL
Figura 1.1: Vectores y sus operaciones
1.1.2.
rP
atados a un punto en el espacio, por cuanto representan una de sus propiedades: la velocidad del viento, el campo el´ectrico, o sus variaciones son algunos ejemplos de estos vectores atados (observe la Figura 1.2 como ejemplos ilustrativos).
´ Algebra de vectores
ad o
Enumeraremos r´ apidamente el ´ algebra de vectores sin hacer referencia a un sistema de coordenadas. Desde cursos anteriores nos ense˜ naron a representar gr´aficamente este ´algebra, as´ı tenemos que: Vector nulo. Es aquel que tiene por m´ odulo cero y no se le pude asignar direcci´on ni sentido. El frecuente representar al vector nulo por 0.
Bo rr
Vector unitario. Es aquel que tiene por m´odulo la unidad, es muy u ´til por cuanto, para efectos algebraicos, “contiene” u ´nicamente direcci´ on y sentido. Lo denotaremos con un acento circunflejo, com´ unmente llamado a ˆ a = |a| , con lo cual todo vector se podr´a expresar por un m´odulo en la direcci´on y sentido de “sombrero” u ˆ a = aˆ un vector unitario: a = |a| u ua .
Comparaci´ on de vectores. Al comparar sus m´odulos diremos que pueden ser mayores, menores o iguales. Por lo tanto, tal y como mostramos en el cuadrante IIa de la Figura 1.1, dos vectores ser´an iguales, a = b, si tienen la misma direcci´ on y sentido.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
9
re lim
in ar
´ 1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL
rP
Figura 1.2: Ejemplos de vectores atados
ad o
Multiplicaci´ on por un escalar. Un vector multiplicado por un escalar, α, cambiar´a su m´odulo si α > 0 y cambiar´ a su sentido, y eventualmente su m´odulo, si α < 0. Tal y como puede apreciarse en el cuadrante IIa de la Figura 1.1. Claramente dos vectores proporcionales ser´an colineales. Diremos adem´as, que el inverso del vector a ser´ a la multiplicaci´ on de a por (−1). Esto es: (−1) a = −a.
Bo rr
Suma de vectores. Aprendimos que para sumar vectores utilizamos la regla del paralelogramo, es decir, desplazamos paralelamente uno de los vectores y lo colocamos a continuaci´on del otro, de tal forma que la diagonal del paralelogramo, que tiene por lados los vectores sumandos, constituye el vector suma (ver cuadrantes IIa y IIb de la Figura 1.1). Este esquema se puede generalizar para varios vectores tal y como lo mostramos en el cuadrante III de la Figura 1.1. All´ı construimos un pol´ıgono cuyos lados los constituyen los vectores sumandos a, b, c, d y n con n = a + b + c + d. N´ otese que a´ un en el caso tridimensional, el vector suma siempre ser´a coplanar (estar´a en el mismo plano) a los sumandos que lo generaron. Igualmente, podemos definir la resta de vectores al sumar el inverso. Esto es a − b ≡ a + (−b)
⇒ 0 = a − a ≡ a + (−a) .
En t´erminos gr´ aficos la resta de dos vectores se representa colocando los vectores (minuendo y sustraendo) con el mismo origen y uniendo las cabezas de flecha. Dependiendo de cual vector es el minuendo y cual sustraendo el vector resta apuntar´ a del sustraendo hacia el minuendo, esto es, (a + b + c) − a = b + c.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
10
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES
Claramente, el m´ odulo del vector resta representa la distancia entre los dos extremos de los vectores minuendo y el sustraendo. Un resumen de propiedades.
Podemos resumir las propiedades del ´algebra de vectores como sigue:
La suma de vectores: • tiene un u ´nico elemento neutro 0 + a = a + 0 = a, ∀ a, • existe un elemento sim´etrico −a (uno para cada vector) tal que 0 = a − a ≡ a + (−a), • es conmutativa a + b = b + a,
in ar
• es asociativa (a + b) + c = a + (b + c),
• es distributiva respecto a la multiplicaci´on por escalares: α (a + b) = αa + αb; La multiplicaci´ on de escalares por vectores:
• es asociativa α (βa) = (αβ) a, • es distributiva (α + β) a = αa + βa.
1.1.3.
Ejercicios
re lim
• es conmutativa aα = αa,
1. Un paralelogramo tiene un ´ angulo agudo de π/3 y lados de longitud a = 1 y b = 2. Si pensamos que esos lados como vectores a y b encuentre a) Encuentre los vectores: a + b y a − b
rP
b) Encuentre los vectores: 2a + 3b y 5a − 7b
ad o
2. Se tiene un sistema de n part´ıculas de masas {mn }, y sea ri el radio vector para la i-es´ıma part´ıcula respecto al origen de coordenadas. El centro de masa del sistema estar´a indicado por el vector: Pn mi ri rCM = Pi=1 n i=1 mi Encuentre el centro de masas para los siguientes sistemas: a) Masas iguales a: 1, 2, 3 ubicadas en los v´ertices de un tri´angulo equil´atero cuyos lados son de longitud a = 2.
Bo rr
b) Masas iguales a: 1, 2, 3, 4 en los v´ertices de un cuadrado de lados a = 2. c) Masas iguales a: 1, 2, 3, 4 en los v´ertices inferiores de un cubo cuyos lados son de longitud a = 2 y masas iguales a: 5, 6, 7, 8 en la v´ertices superiores.
1.2.
Independencia lineal, vectores base y el producto de vectores
Armados con el ´ algebra y explicitando sus propiedades podemos construir la primera aproximaci´on a uno de los conceptos fundamentales del ´ algebra lineal. La noci´on de independencia o dependencia lineal.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
11
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES
1.2.1.
Vectores linealmente independientes
Diremos que tres vectores a, b, c son linealmente independientes si se cumple que α a+β b+γ c=0
⇒
α=β=γ=0
in ar
es decir, que la u ´nica manera que al sumar cualquier m´ ultiplo de a, b y c de manera que la suma se anule es obligando a que los escalares sean necesariamente nulos. Si no se cumple lo anterior entonces diremos que uno de los vectores ser´ a linealmente dependiente y por lo tanto se podr´a expresar como combinaci´on lineal de los otros dos α 6= 0 β 6= 0 α a + β b + γ c = 0 alguno de ⇒ c=α ¯ a + β¯ b γ 6= 0 Es muy importante se˜ nalar que los vectores linealmente independientes formar´an una base para el espacio donde estos vectores “viven” y el n´ umero m´aximo de vectores linealmente independientes ser´a la dimensi´ on de ese espacio de “residencia”. M´ as adelante estudiaremos con m´as detalle el concepto de bases. Tratemos de concretar algunas de estas afirmaciones.
re lim
Dos vectores linealmente dependientes son colineales. Es claro que:
α a + β b = 0 con alguno de
α 6= 0 β 6= 0
β a = −αb ⇒ b = −αa β
el contrario tambi´en ser´ a cierto: si dos vectores son colineales ellos ser´ an linealmente dependientes.
rP
a = λb ⇒ αa + βb = 0 ⇒ αλb + βb = 0 ⇒ (αλ + β) b = 0 ⇒ λ = −
β , α
con lo cual podremos afirmar que si dos vectores son linealmente independientes ellos no son colineales. Tres vectores linealmente dependientes son coplanares.
ad o
Por ser los tres vectores linealmente dependientes al menos uno de los escalares tiene que ser distinto de cero, digamos γ, esto es α β α a + β b + γ c = 0 ⇒ c = − a − b = ξ1a + ξ2b , γ γ
Bo rr
pero como ξ 1 a ∝ a y ξ 2 b ∝ b, esto significa que ξ 1 a y a son colineales, de la misma manera que ξ 2 b y b, y por lo tanto, la suma estar´ a en el mismo plano. Dos vectores linealmente independientes expanden todos los vectores coplanares.
Dado dos vectores a y b linealmente independientes, entonces cualquier vector c, coplanar con a y b, podr´ a expresarse como una combinaci´on lineal de ´estos. Diremos que c se expresa en t´erminos de a y b como c = ξ 1 a + ξ 2 b y esa expresi´ on es u ´nica. La primera de las afirmaciones es directa por cuanto hemos visto que si a y b son linealmente independientes y c es coplanar con a y b, entonces, necesariamente a, b y c son linealmente dependientes. Esto es: β α α a + β b + γ c = 0 ⇒ c = − a − b = ξ1a + ξ2b γ γ
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
12
re lim
in ar
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES
Figura 1.3: Productos de Vectores
rP
La demostraci´ on de que la expansi´ on es u ´nica viene de suponer que existen dos maneras distintas de representar al mismo vector c 1 c = ξ1a + ξ2b ξ − ζ 1 = 0 ⇒ ξ1 = ζ 1 ⇒ 0 = ξ1 − ζ 1 a + ξ2 − ζ 2 b ⇒ 2 c = ζ 1a + ζ 2b ξ − ζ 2 = 0 ⇒ ξ2 = ζ 2 debido a que a y b son linealmente independientes.
ad o
La demostraci´ on para el caso tridimensional es equivalente. Es decir tres vectores linealmente independientes a, b y c expanden, de manera un´ıvoca, todos los vectores del espacio. Esta demostraci´on queda para el lector. Vectores Base.
Bo rr
Cuando un vector c se pueda expresar en t´erminos de dos vectores linealmente independientes, a y b, por ejemplo: c = ξ 1 a + ξ 2 b, diremos que a y b forman una base para todos los vectores coplanares a ´estos. Igualmente para el caso tridimensional: tres vectores linealmente independientes a, b y c conformar´ an una base para los vectores del espacio. Los n´ umeros ξ 1 y ξ 2 para el caso bidimensional se denominan las componentes de c a lo largo de a y b, respectivamente. Equivalentemente, ξ 1 , ξ 2 , ξ 3 ser´ an las componentes de cualquier vector para el caso 3D a lo largo de a, b y c, respectivamente. Esta nomenclatura ser´ a m´ as evidente luego de la pr´oxima secci´on.
1.2.2.
Productos de vectores
Hemos sumado y restado vectores, el siguiente paso es multiplicarlos. B´asicamente existen dos formas de multiplicar vectores: el producto escalar y el producto vectorial, veremos a continuaci´on de que se trata y sin especificar un sistema de coordenadas para referirlos.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
13
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES
1.2.3.
Producto escalar
Denominaremos producto escalar de dos vectores a y b a un escalar cuyo valor ser´a igual al producto de los m´ odulos multiplicado por el coseno del ´angulo que ellos forman ζ = a · b = |a| |b| cos(θ)ha,bi El significado geom´etrico del producto escalar es evidente, cuadrante I de la Figura 1.3. El producto escalar representa la proyecci´ on de a sobre b y equivalentemente la proyecci´on de b sobre a. De esta definici´ on se derivan varias consecuencias las cuales por obvias no dejan de ser importantes:
in ar
El producto escalar de un vector consigo mismo, siempre es positivo: 2 ζ = a · a = |a| ≥ 0,√y s´ olo ser´ √a nulo si a es el vector nulo. Esto es, ζ = 0 ⇒ a = 0. Con esto podemos concluir que |a| = a · a = ζ. El producto escalar es conmutativo: ζ = a · b = b · a, ya que el ´ angulo entre los vectores es el mismo y la multiplicaci´on entre escalares es conmutativa.
re lim
El producto escalar es distributivo: Esto es, a · (b + c) = a · b + a · c. La demostraci´on (gr´afica) puede apreciarse en el cuadrante II de la Figura 1.3. La multiplicaci´ on por un escalar : ζ¯ = αζ = |α| (a · b) = (αa) · b = a · (αb) = |αa| |b| cos(θ)ha,bi = |a| |αb| cos(θ)ha,bi . Desigualdad de Cauchy-Schwarz. A partir de la definici´ on de producto interno es inmediata la comprobaci´on de la siguiente desigualdad: 2
ya que 0 ≤ cos2 (θ)ha,bi ≤ 1.
2
2
2
2
⇒ (a · b) ≤ |a| |b|
rP
(a · b) = |a| |b| cos(θ)ha,bi
⇔ a · b ≤ |a| |b|
ad o
Del producto escalar surge el Teorema del Coseno. Es inmediato calcular el producto escalar de un vector consigo mismo, para ello vamos a suponer que c = a − b, con lo cual 2
2
2
c = a − b ⇒ c · c = (a − b) · (a − b) ⇒ |c| = |a| + |b| − 2 |a| |b| cos(θ)ha,bi que no es otra cosa que el teorema del coseno y est´a ilustrado en el cuadrante III de la Figura 1.3.
Bo rr
Dos vectores no nulos son ortogonales (perpendiculares) si su producto escalar es nulo. Esta afirmaci´ on es inmediata a ⊥ b ⇒ θha,bi =
1.2.4.
π ⇒ a · b = |a| |b| cos(θ)ha,bi = 0 . 2
Producto vectorial
A diferencia del producto escalar que genera un escalar, el producto vectorial tiene como resultado otro vector: c = a × b (realmente un pseudovector o vector axial en contraposici´on a los vectores polares, pero eso lo veremos m´ as adelante en la secci´ on 1.6.4), con las siguientes caracter´ısticas:
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
14
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES
El m´ odulo de c, ser´ a |c| = |a| |b| sen(θ)ha,bi . Es claro que el m´odulo de c representa el ´area del paralelogramo cuyos lados est´ an formados por a y b (ver el cuadrante V de la Figura 1.3). Tal y como muestran los cuadrantes IV y V de la Figura 1.3, c tendr´a como direcci´on la perpendicular al plano que forman a y b, y como sentido la regla del pulgar derecho, regla de la mano derecha, o de manera m´ as elegante, ser´ a positiva cuando la multiplicaci´on de a×b corresponda al sentido antihorario. Podemos deducir algunas consecuencias de esta definici´on.
in ar
El producto vectorial es anticonmutativo. a × b = −b × a, y se sigue de la definici´on que expresa el cuadrante IV de la Figura 1.3. El producto vectorial es distributivo respecto a la suma. a × (b + c) = a × b + a × c. La demostraci´on de esto lo dejaremos para m´as adelante. La multiplicaci´ on por un escalar.
|c| = |α| |a × b| = |(αa) × b| = |a × (αb)| = |αa| |b| sen(θ)ha,bi = |a| |αb| sen(θ)ha,bi
re lim
Dos vectores ser´ an colineales si su producto vectorial se anula. Como en el caso cuando se anulaba el producto escalar identific´abamos a dos vectores ortogonales, cuando se anula el producto vectorial tendremos dos vectores paralelos. Es claro que esto se cumple de inmediato a k b ⇒ θha,bi = 0 ⇒ |c| = |a × b| = |a| |b| sen(θ)ha,bi = 0
1.2.5.
rP
Si el m´ odulo del vector es cero, obvio que es el vector nulo. Ahora bien, tambi´en de aqu´ı deducimos que c = a × b ⇒ c · a = (a × b) · a = c · b = (a × b) · b = 0 .
Producto triple o mixto
Analicemos ahora el n´ umero (pseudoescalar) que proviene de la multiplicaci´on
ad o
V = c · (a × b) = |c| |(a × b)| cos(θ)hc,a×bi Este producto tambi´en cumple con algunas propiedades que enunciaremos ahora y demostraremos m´as tarde El producto mixto representa el volumen del paralelep´ıpedo cuyos lados son los vectores a, b y c. |a × b| representa el ´ area de la base y la altura est´a representada por la proyecci´on del vector c sobre la perpendicular al plano de la base que es, precisamente |c| cos(θ)hc,a×bi .
Bo rr
El producto mixto es c´ıclico respecto a sus factores. (a × b) · c = (c × a) · b = (b × c) · a
Esta afirmaci´ on se ver´ a demostrada m´as adelante.
El producto mixto se anula cuando se repite alguno de sus factores. (a × b) · a = (a × b) · b = (a × a) · c = (b × b) · c = 0 .
Claramente, si (a × b) ⊥ a ⇒ (a × b) · a = 0. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
15
1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES
Si los tres vectores a, b y c son coplanares (linealmente dependientes) entonces: (a × b) · c = 0 , dicho de manera m´ as elegante, u ´til e impactante: tres vectores que cumplen con: (a × b) · c 6= 0 ,
1.2.6.
in ar
son linealmente independientes y forman una base para el espacio tridimensional. Esa base se denominar´ a lev´ ogira (contraria al giro de las manecillas del reloj) si el producto (a × b) · c < 0 y dextr´ ogira (la convencional base de la mano derecha) si (a × b) · c > 0.
Ejercicios
1. Las componentes de un vector y la regla para sumar vectores se combinan para introducir la forma m´ as simple de representar un vector como una combinaci´on lineal de los vectores m´as elementales que podemos tener. Estos vectores forman lo que conocemos la base can´onica: {i, j, k}, vectores de longitud unitaria que apuntan en la direcci´ on positiva de los ejes x, y y z.
a) e1 = 2i + j − 3k ,
e2 = i − 4k ,
b) e1 = i − 3j + 2k ,
re lim
Diga, entonces, si los siguientes vectores forman una base
e3 = 4i + 3j − k
e2 = 2i − 4j − k ,
e3 = 3i + 2j − k
2. ¿Los siguientes vectores son linealmente independientes?
rP
a = (0, 2, −1) , b = (0, 1/2, −1/2) , c = (0, −2/3, −1/3) . 3. Un paralelogramo tiene un ´ angulo agudo de π/4 y lados a = 1, b = 2. Si consideramos que los lados son vectores, encuentre:
ad o
a) El ´ area del paralelogramo.
b) La proyecci´ on de cada lado sobre la direcci´on del otro.
Bo rr
4. Considere un tri´ angulo cuyos lados est´an conformados por los vectores a, b y c = a+b. Con el producto vectorial entre ellos demuestre la ley del seno: b c a = = sin(α) sin(β) sin(γ)
donde α, β, γ son los ´ angulos opuestos a los lados a, b, c respectivamente.
5. Demuestre que el volumen de un tetraedro puede escribirse de la manera siguiente:
Hern´ andez & N´ un ˜ez
V =
1 |a · (b × c)| 6
Universidad de los Andes / Universidad Industrial de Santander
16
re lim
in ar
1.3. COMPONENTES, COORDENADAS Y COSENOS DIRECTORES
Figura 1.4: Vectores, bases y componentes
1.3.
Componentes, coordenadas y cosenos directores
Bases, componentes y coordenadas
ad o
1.3.1.
rP
La formulaci´ on de las leyes f´ısicas debe hacerse en t´ermino de cantidades vectoriales (tensoriales). Esto independiza su formulaci´ on de un sistema particular de coordenadas, pero llegado el momento de calcular valores y utilizar estas leyes, es mucho m´ as conveniente referirla a un sistema de coordenadas particularmente adaptado a la geometr´ıa del problema. En ese caso la ecuaci´on vectorial se convertir´a en tantas ecuaciones como componentes (referidas al sistema de coordenadas utilizado) tengan los vectores en ese sistema de coordenadas.
Bo rr
Tal y como mencionamos anteriormente, tres vectores no coplanares cualesquiera son linealmente independientes y constituyen una base para el espacio tridimensional. Denominaremos a estos vectores base como {wi }, y por ser linealmente independientes podremos expresar cualquier vector A como una combinaci´ on lineal u ´nica, tal y como lo mostramos en el cuadrante I de la Figura 1.4. Con los vectores base {w1 , w2 , w3 } podemos construir un sistema (oblicuo en general) de coordenadas al colocarlos con un mismo origen, esto es A = ξ 1 w1 + ξ 2 w2 + ξ 3 w3
donde las cantidades ξ 1 , ξ 2 , ξ 3 son n´ umeros (no son escalares) que representan las componentes del vector A a lo largo de cada uno de los vectores base {w1 , w2 , w3 }. N´otese que por costumbre (la cual ser´a evidente m´ as adelante) etiquetamos estos n´ umeros con super´ındices y la letra que identifica el vector. −−→ M´ as a´ un, cada punto P del espacio viene definido por un radiovector r (P ) ≡ OP que une el origen de coordenadas con el punto P y se le asocian tres n´ umeros x1 , x2 , x3 , los cuales son las proyecciones
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
17
1.3. COMPONENTES, COORDENADAS Y COSENOS DIRECTORES
a lo largo de cada uno de los ejes coordenados
n o 0x1 , 0x2 , 0x3 . Los n´ umeros x1 , x2 , x3 se denominar´ an
in ar
componentes de r (P ) en el sistema de referencia {w1 , w2 , w3 }. Existe una familia de sistemas de coordenadas en la cual sus vectores base son ortogonales (o mejor ortonormales), es decir los vectores base {e1 , e2 , e3 } son perpendiculares entre si. Tal y como mostraremos m´ as adelante, siempre se puede construir un sistema ortogonal {e1 , e2 , e3 } u ortonormal {i1 , i2 , i3 } a partir de una base gen´erica de vectores linealmente independientes {w1 , w2 , w3 }. Cuando el sistema sea ortogonal sus componentes se denominar´ an rectangulares. Dependiendo del signo del triple producto mixto el sistema de coordenadas ser´ a dextr´ ogiro ((e1 × e2 ) · e3 > 0) o lev´ogiro ((e1 × e2 ) · e3 < 0), tal y como se muestra en el cuadrante III de la Figura 1.4. Es costumbre ancestral, por relaciones de dominaci´on de los derechos sobre los izquierdos (en lat´ın e italiano los zurdos son siniestros) utilizar la convenci´on dextr´ogira donde el producto: (e1 × e2 ) · e3 > 0, y en ese caso utilizamos el bien conocido conjunto de vectores unitarios {i, j, k} con los que ya hemos estado familiarizados a = ax i + ay j + az k y r (P ) = x i + y j + z k .
a = a1 i1 + a2 i2 + a3 i3
y
re lim
Tambien es costumbre representar este sistema de coordenadas ortonormal como: i ≡ i1 , j ≡ i2 y k ≡ i3 para recordar que estamos en un sistema de coordenadas cartesianas y utilizaremos los super´ındices 1, 2, 3 para indicar las componentes del vector. r (P ) = x1 i1 + x2 i2 + x3 i3 .
Obviamente el m´ odulo del vector se podr´a expresar con la utilizaci´on del Teorema de Pit´agoras p p |a| = (a1 )2 + (a2 )2 + (a3 )2 y |r (P )| = (x1 )2 + (x2 )2 + (x3 )2
Igualmente para un vector unitario
rP
y la multiplicaci´ on por un escalar ser´ a αa = α a1 i1 + a2 i2 + a3 i3 = αa1 i1 + αa2 i2 + αa3 i3
p
(a1 )2 + (a2 )2 + (a3 )2
a1 i1 + a2 i2 + a3 i3 a =p |a| (a1 )2 + (a2 )2 + (a3 )2
ad o
ˆa = u
⇒ |αa| = α
con lo cual todo vector
ˆa = a = |a| u
1.3.2.
p ˆa . (a1 )2 + (a2 )2 + (a3 )2 u
Cosenos directores
Bo rr
Como se puede apreciar en el cuadrante IV de la Figura 1.4, podemos construir tres tri´angulos rect´angulos con el radiovector A (P ) como hipotenusa de cada uno de ellos. Los ´angulos que forma el radiovector A (P ) con cada uno de los ejes coordenados {x, y, z} son {α, β, γ} respectivamente, con lo cual Ax = |A| cos(α) ,
Ay = |A| cos(β)
y
Az = |A| cos(γ) ⇒ cos2 (α) + cos2 (β) + cos2 (γ) = 1
pero adem´ as
Hern´ andez & N´ un ˜ez
ˆA = u
A = cos(α) i + cos(β) j + cos(γ) k . |A|
Universidad de los Andes / Universidad Industrial de Santander
18
1.4. ALGEBRA VECTORIAL Y COORDENADAS
1.3.3.
Una divisi´ on fallida
Uno esperar´ıa que para cada una de las definiciones de productos vectoriales, existiera el vector cociente, es decir, que pudi´eramos “despejar” uno de los multiplicados en t´erminos del otro. La situaci´on es que esta operaci´ on no est´ a definida un´ıvocamente y lo podemos intuir a partir de una de las definiciones de producto. Supongamos que tenemos un producto escalar: ζ = a · b con lo cual, si pudi´eramos “despejar”,digamos ζ ζ b = ¿Tendr´ıamos entonces definido b de una manera un´ıvoca? La respuesta es NO, ya que ζ = a· +d a a ζ donde a ⊥ d, por lo cual existen infinitos b = + d que cumplen ζ = a · b. a
Ejercicios
in ar
1.3.4.
1. Encuentre la distancia del punto P al origen si P viene dado por el vector posici´on r = 2i + 4j − 3k. Y si para un punto arbitrario el vector posici´on es r = xi + yj + zk ¿Qu´e superficie describe ´este vector cuando |r| = 3? 2. Encuentre los cosenos directores y los correspondientes ´angulos para los siguientes vectores
re lim
a) a = i + j + k b) b = i − 2j + 2k c) c = 4i − 2j + 3k
3. Sea {i1 , i2 , i3 } una base ortonormal dextr´ogira. Verifique que los vectores
a = i + 2j + 3k , b = i + 5j , c = 3i + 2j + k
1.4.
rP
forman una base ¿Esta base ser´ a del tipo dextr´ogiro o lev´ogiro?
Algebra vectorial y coordenadas
1.4.1.
ad o
Es posible reescribir toda el ´ algebra vectorial que hemos visto mediante operaciones referidas a sistemas de coordenadas, como mostraremos a continuaci´on. Por simplicidad, anclaremos nuestro sistema de coordenadas a la base can´ onica {ii }.
Suma y resta de vectores
Para los vectores a = a1 i1 + a2 i2 + a3 i3 y b = b1 i1 + b2 i2 + b3 i3 , la suma ser´a representada por
Bo rr
a + b = a1 i1 + a2 i2 + a3 i3 + b1 i1 + b2 i2 + b3 i3 = a1 + b1 i1 + a2 + b2 i2 + a3 + b3 i3
y obviamente, la resta
a − b = a1 i1 + a2 i2 + a3 i3 − b1 i1 + b2 i2 + b3 i3 = a1 − b1 i1 + a2 − b2 i2 + a3 − b3 i3
con lo cual la distancia entre dos puntos P y M ser´a q 2 2 2 d (P, M ) = |(r (P ) = a) − (r (M ) = b)| = (x1 − y 1 ) + (x2 − y 2 ) + (x3 − y 3 ) .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
19
1.4. ALGEBRA VECTORIAL Y COORDENADAS
1.4.2.
Dependencia e independencia lineal
Ahora es f´ acil estudiar la dependencia o independencia lineal en coordenadas. Otra vez, tres vectores: a = a1 i1 + a2 i2 + a3 i3 , b = b1 i1 + b2 i2 + b3 i3 y c = c1 i1 + c2 i2 + c3 i3 , ser´an linealmente independientes si se cumple que α a+β b+γ c=0 ⇒ α=β =γ =0 Antes de proseguir en forma general, veamos algunos casos particulares La base can´ onica: i1 = i ≡ (1, 0, 0) , i2 = j ≡ (0, 1, 0) , i3 = k ≡ (0, 0, 1). Estos vectores son claramente linealmente independientes y por lo tanto constituyen una base.
in ar
Consideremos los vectores: e1 = i ≡ (1, 0, 0) , e2 = i + j ≡ (1, 1, 0) , e3 = i + j + k ≡ (1, 1, 1), al escribir el sistema de ecuaciones resulta: α = 0, α + β = 0, α + β + γ = 0 ⇒ α = 0, β = 0, γ = 0,
con lo cual demostramos que son linealmente independientes y por lo tanto constituyen una base para los vectores tridimensionales.
re lim
En general tendremos que 0 = α a1 i1 + a2 i2 + a3 i3 + β b1 i1 + b2 i2 + b3 i3 + γ c1 i1 + c2 i2 + c3 i3
αa1 + βb1 + γc1 = 0 1 1 1 2 2 2 3 3 3 αa2 + βb2 + γc2 = 0 = αa + βb + γc i1 + αa + βb + γc i2 + αa + βb + γc i3 ⇒ αa3 + βb3 + γc3 = 0
ad o
Producto escalar
rP
Esto no es otra cosa que un sistema de 3 ecuaciones lineales con 3 inc´ognitas: {α, β, γ} y la soluci´on que estamos buscando α = β = γ = 0 se cumplir´a si 1 1 1 a b c 2 2 2 a b c = a1 b2 c3 − b3 c2 + a2 b3 c1 − b1 c3 + a3 b1 c2 − b2 c1 6= 0 . 3 3 3 a b c
Bo rr
Ahora refrasearemos, en t´ermino de una base de vectores ortogonales, lo expresado en la secci´on 1.2.3. Representaremos el producto escalar de dos vectores en una base cartesiana {i1 , i2 , i3 }, que es una base ortonormal, de la siguiente manera: a · b = a1 i1 + a2 i2 + a3 i3 · b1 i1 + b2 i2 + b3 i3 = a1 b1 + a2 b2 + a3 b3 ya que por ser ortogonales se tiene que: i1 · i1 = i2 · i2 = i3 · i3 = 1 ,
y
i1 · i2 = i2 · i1 = 0 i1 · i3 = i3 · i1 = 0 i2 · i3 = i3 · i2 = 0
Las propiedades del producto escalar en coordenadas cartesianas se comprueban f´acilmente
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
20
1.4. ALGEBRA VECTORIAL Y COORDENADAS
El producto escalar de un vector consigo mismo, siempre es positivo. 2
ζ = a · a = |a| = (a1 )2 + (a2 )2 + (a3 )2 ≥ 0 y (a1 )2 + (a2 )2 + (a3 )2 = 0 ⇒ a1 = a2 = a3 = 0 p √ √ Adicionalmente |a| = ζ = a · a = (a1 )2 + (a2 )2 + (a3 )2
⇔
a=0
El producto escalar es conmutativo
in ar
ζ = a · b = b · a = a1 b1 + a2 b2 + a3 b3 = b1 a1 + b2 a2 + b3 a3 . El producto escalar es distributivo: a · (b + c) = a1 i1 + a2 i2 + a3 i3 · b1 + c1 i1 + b2 + c2 i2 + b3 + c3 i2 , por lo tanto:
La multiplicaci´ on por un escalar.
a1 b1 + a1 c1 + a2 b2 + a2 c2 + a3 b3 + a3 c3
re lim
a1 b1 + c1 + a2 b2 + c2 + a3 b3 + c3 = 1 1 2 2 3 3 1 1 2 2 3 3 = a b +a b +a b + a c +a c +a c =
a·b+a·c
|α| (a · b) = (αa) · b = a · (αb) = αa1 b1 + αa2 b2 + αa3 b3 = a1 αb1 + a2 αb2 + a3 αb3 Desigualdad de Cauchy Schwarz. p
(a1 )2 + (a2 )2 + (a3 )2
rP
a · b = a1 b1 + a2 b2 + a3 b3 ≤
p (b1 )2 + (b2 )2 + (b3 )2 = |a| |b|
Diremos que dos vectores, no nulos son ortogonales (perpendiculares) si su producto escalar es nulo. Esta afirmaci´ on es inmediata
por lo cual
ad o
a ⊥ b ⇒ θha,bi =
π ⇒ a · b = |a| |b| cos(θ)ha,bi = 0 , 2
a1 b1 + a2 b2 + a3 b3 = |a| |b| cos(θ)ha,bi ⇒ cos(θ)ha,bi = p
a1 b1 + a2 b2 + a3 b3 p (a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2
Bo rr
de donde se deduce que para dos vectores perpendiculares a⊥b ⇒ 0 = a1 b1 + a2 b2 + a3 b3 .
Del producto escalar surge el Teorema del Coseno. Es inmediato generalizar el producto escalar de un vector consigo mismo, para ello suponemos que c = a − b, con lo cual 2
2
2
c = a − b ⇒ c · c = (a − b) · (a − b) ⇒ |c| = |a| + |b| − 2 |a| |b| cos(θ)ha,bi ,
que no es otra cosa que el teorema del coseno y est´a ilustrado en el cuadrante III de la Figura 1.3. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
21
1.4. ALGEBRA VECTORIAL Y COORDENADAS
Producto vectorial De igual manera, lo que aprendimos en la secci´on 1.2.4 ahora lo expresamos en t´erminos de las componentes de los vectores en una base ortonormal de la forma c = a × b = a2 b3 − a3 b2 i1 + a3 b1 − a1 b3 i2 + a1 b2 − a2 b1 i3 matriz i2 a2 b2
i3 a3 b3
con lo cual q
2
2
in ar
lo anterior se puede organizar como el determinante de la i1 c = a × b = a1 b1
2
(a2 b3 − a3 b2 ) + (a3 b1 − a1 b3 ) + (a1 b2 − a2 b1 ) p p = (a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2 sen(θ)ha,bi
|c| =
re lim
Triple producto mixto
Finalmente, analicemos el n´ umero (pseudoescalar) que proviene de la 1 c V = c · (a × b) = |c| |a × b| cos(θ)hc,a×bi = a1 b1
multiplicaci´on c2 c3 a2 a3 . b2 b3
1.4.3.
Ejercicios
1. Dados los vectores
B = 4i1 + 5i2 + 6i3 ,
ad o
A = i1 + 2i2 + 3i3 ,
rP
Obviamente, este n´ umero representa del volumen del paralelep´ıpedo cuyos lados quedan definidos por a, b y c.
C = 3i1 + 2i2 + i3 ,
D = 6i1 + 5i2 + 4i3
a) Encuentre
A + B + C + D,
A + B − C − D,
A − B + C − D,
−A + B − C + D
b) El ´ angulo entre los vectores A, B, C, D y los vectores base i1 , i2 , i3 .
Bo rr
c) La magnitud de los vectores A, B, C, D. d ) El ´ angulo entre A y B y entre C y D. e) La proyecci´ on de A sobre B. f ) ¿Son los vectores A, B, C, D coplanares?
g) Encuentre (A + B) · (C + D)
h) Los productos A × B, B × C, C × D y los ´angulos que estos forman con D. i ) C · (A × B).
2. Encuentre la intensidad del campo magn´etico H = 5i + 3j + 7k en la direcci´on del vector s = 2i − j + 2k. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
22
´ 1.5. APLICACIONES DEL ALGEBRA VECTORIAL
3. Verifique la desigualdad triangular: |a + b| ≤ |a| + |b|, para los siguientes vectores a) a = i + 2j + 3k y b = 2i + j + 7k b) a = 2i − j − 2k y b = 3i + 2j + 3k 4. Si a y b son vectores arbitrarios y α y β escalares, demuestre que |αa + βb|2 ≤ α2 |a|2 + 2αβ(a · b) + β 2 |b|2
α(b × c) + β(c × a) + γ(a × b) + d = 0 demuestre que si a, b y c son linealmente independientes, entonces a·d , a · (b × c)
α=−
β=−
b·d , a · (b × c)
γ=−
in ar
5. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen
c·d a · (b × c)
re lim
6. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen αa + βb + γc + d = 0
demuestre que si a, b y c son linealmente independientes, entonces α=−
d · (b × c) , a · (b × c)
β=−
d · (c × a) , a · (b × c)
γ=−
d · (a × b) a · (b × c)
rP
Ayuda: tome el producto escalar de la ecuaci´on con b × c, a × c y a × b.
7. Demuestre que los vectores a = i+2j+k, b = 2i−j−k y c = 4i+3j+k son linealmente independientes. Escoja un vector d y verifique los resultados de los dos u ´ltimos ejercicios.
Aplicaciones del ´ algebra vectorial
ad o
1.5.
Uno de los terrenos m´ as exitosos de las aplicaciones del ´algebra vectorial es la geometr´ıa anal´ıtica. Esto se realiza en base a la definici´ on que hici´eramos de radio vector, en la cual a cada punto, P, del espacio le asoci´ abamos un radiovector posici´ on tal y como lo mostramos en el cuadrante I de la Figura 1.4 . P ←→ (x, y, z) ≡ x1 , x2 , x3 ⇒ r (P ) = x i + y j + z k = x1 i1 + x2 i2 + x3 i3 = xi ii
Bo rr
A partir de esta definici´ on todas las propiedades geom´etricas del espacio las podemos construir con vectores.
1.5.1.
Rectas y vectores
La ecuaci´ on de la recta en t´ermino de vectores la definiremos fijando uno de sus puntos, digamos: r (P1 ) ≡ X (P1 ) = X1 = x1 i + y1 j + z1 k = x1(1) i1 + x2(1) i2 + x3(1) i3 ←→ (x1 , y1 , z1 ) ,
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
23
in ar
´ 1.5. APLICACIONES DEL ALGEBRA VECTORIAL
re lim
Figura 1.5: Geometr´ıa anal´ıtica y vectores cartesianos
rP
y un vector que indique su direcci´ on, digamos A = A1 i + A2 j + A3 k (ver cuadrante I de la Figura 1.5) con lo cual la ecuaci´ on de una recta en lenguaje vectorial ser´a: x = x1 + λA1 y = y1 + λA2 X = X1 + λA ⇒ x1 i + y1 j + z1 k+ λ (A1 i + A2 j + A3 k) ⇒ z = z1 + λA3 donde X = x i + y j + z k es el conjunto de puntos gen´ericos que cumple con la ecuaci´on de la recta en 3D. Existe una manera m´ as elegante, como veremos en la secci´on siguiente, de reescribir las ecuaciones anteriores utilizando la notaci´ on de ´ındices, las ecuaciones ahora son m´as evidentes:
Bo rr
ad o
X = X1 + λA ⇒ xi ii = xi(1) ii + λAi ii ⇒ xi = xi(1) + λAi para i = 1, 2, 3 . donde: (x, y, z) ≡ x1 , x2 , x3 y (i, j, k) ≡ (i1 , i2 , i3 ). N´ otese que efectivamente se cumplen tres ecuaciones escalares y cada una de ellas tiene la forma de una recta. Adem´ as, tal y como se muestra la Figura 1.5 el punto gen´erico (x, y, z) lo describe (sobre la recta) la variaci´ on del m´ odulo de A mediante la constante de proporcionalidad λ. Si se requiere describir una recta que pase por dos puntos: (x1 , y1 , z1 ) y (x2 , y2 , z2 ) entonces una vez seleccionado uno de los puntos (digamos (x1 , y1 , z1 )) seleccionamos el vector A = r (P2 ) − r (P1 ) como la resta de los dos radiovectores a los puntos P2 y P1 . Esto es X1 + δX2 X1 − X X = X1 + λ (X2 − X1 ) ⇒ X = , con δ = . 1−δ X2 − X Aqu´ı la divisi´ on entre vectores δ tiene sentido porque no es una divisi´on entre vectores gen´ericos es una divisi´ on entre vectores que tienen la misma direcci´on N´otese adem´as que, lo mismo ocurre cuando “despejamos” λ de la ecuaci´ on de la recta λ=
xi − xi(1) X − X1 x − x1 y − y1 z − z1 ⇒ xi = xi(1) + λAi ⇒ λ = = = = i A A Ax Ay Az
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
24
´ 1.5. APLICACIONES DEL ALGEBRA VECTORIAL
y equivalentemente ocurre cuando “despejamos” λ de la ecuaci´on de la recta que pasa por dos puntos. λ=
1.5.2.
xi − xi(1) X − X1 y − y1 z − z1 x − x1 ⇒ xi = xi(1) + λ xi(2) − xi(1) ⇒ λ = i = = = i X2 − X1 x2 − x1 y2 − y1 z2 − z1 x(2) − x(1)
Planos y vectores
B
Esto es, se tiene que cumplir la condici´ on
re lim
in ar
Ocurre exactamente lo mismo cuando construimos la ecuaci´on vectorial para un plano. En general una superficie la define su vector normal (perpendicular). En el caso de una superficie plana (un plano) tendr´ a una u ´nica normal que lo define, por lo tanto, un plano vendr´a definido por su vector perpendicular en un punto, digamos Q = P1 : (x1 , y1 , z1 ). La ecuaci´on vectorial del plano vendr´a definida por todos los vectores −−→ P Q tales que sean perpendiculares a un determinado vector A (ver cuadrante II de la Figura 1.5). Donde el punto P es un punto gen´erico (x, y, z) que define un radiovector. La ecuaci´on vectorial del plano ser´ a simplemente −−→ A · P Q = A · r (P ) − r (P1 ) = 0 ⇔ A · (r − r1 ) = 0 ⇔ A · r = A · r1 | {z } | {z } b
(A1 i + A2 j + A3 k) · [(x i + y j + z k) − (x1 i + y1 j + z1 k)] = 0 (A1 i + A2 j + A3 k) · [(x − x1 ) i + (y − y1 ) j + (z − z1 ) k] = 0
rP
A1 (x − x1 ) + A2 (y − y1 ) + A3 (z − z1 ) = 0 con lo cual la ecuaci´ on del plano queda como siempre la hemos conocido A1 x + A2 y + A3 z − A1 x1 − A2 y1 − A3 z1 = 0 ⇒ A1 x + A2 y + A3 z = b = A1 x1 + A2 y1 + A3 z1
ad o
es decir, de manera m´ as compacta
Ai xi − Aj xj1 = 0 ⇒ Ak xk = b = Al xl1
Bo rr
Es claro que A · r1 = b es la proyecci´ on del radiovector r (P1 ) sobre la perpendicular que define al plano. Por lo tanto ser´ a la distancia entre el plano y el origen de coordenadas. Si b = 0 el plano pasa por el origen de coordenadas. Consideremos ahora el cuadrante III de la Figura 1.5. All´ı est´an especificados tres puntos en el espacio caracterizados por sus correspondientes radiovectores posici´on: r (P1 ) = r1 , r (P2 ) = r2 y r (P3 ) = r3 . Estos tres puntos ser´ an coplanares si m n n l l (r1 − r2 ) · [(r2 − r3 ) × (r3 − r1 )] = 0 ⇔ εmnl (xm 1 − x2 ) (x2 − x3 ) x3 − x1 = 0 y la ecuaci´ on vectorial del plano vendr´ a dada por
Hern´ andez & N´ un ˜ez
(r − r1 ) · [(r2 − r1 ) × (r3 − r1 )] = 0 .
Universidad de los Andes / Universidad Industrial de Santander
25
´ 1.6. ALGEBRA VECTORIAL CON ´INDICES
1.5.3.
Ejercicios
1. Para las rectas dadas a continuaci´ on encuentre los vectores posici´on para dos puntos diferentes sobre la recta y un vector unitario paralelo a la recta L. a) L : b) L :
3x−1 4 2x+1 3
= =
2y+3 2 3y+2 3
= 2 − 3z =
2−4z −1
2. Dada una linea recta L1 que pasa a trav´es de los puntos (−2, 3, 1) y (1, 4, 6) encuentre:
in ar
a) El vector posici´ on de un punto sobre la recta y un vector paralelo a ´esta. b) Una recta L2 paralela a L1 y que pase por el punto (1, 2, 1) 3. Una linea recta tiene como ecuaci´ on vectorial: r = a + λb, donde a = 3j + 2k y b = 2i + j + 2k. Encuentre la ecuaci´ on cartesiana de la recta y las coordenadas de tres puntos sobre la recta. 4. Una linea recta pasa por el punto (3, 2, −3) y paralela al vector a = 2i + 3j − 3k. Encuentre la ecuaci´ on cartesiana de la recta y las coordenadas de tres puntos sobre la recta.
a) A = 2i − 3j + k, P = (1, 0, 1) b) A = i − 2j + 2k, P = (2, −3, 4)
re lim
5. Encuentre la ecuaci´ on del plano con normal A y que contiene el punto P cuando:
6. Dado un plano que pasa por el punto (2, 3, −5) y con vector normal A = 2i + k, encuentre la forma cartesiana de la ecuaci´ on del plano. 7. El ´ angulo entre dos planos se define como el ´angulo entre sus normales. Encuentre el ´angulo entre los siguientes planos
1.6.
rP
a) x + 3y + 2z = 4 y 2x − 5y + z = 2 b) 3x + 2y − 2z = 4 y 2x + y + 2z = 1
´ Algebra vectorial con ´ındices
1.6.1.
ad o
Antes de comenzar con la presentaci´ on de este esquema de c´alculo cabe aclarar algunas costumbres y convenciones con la notaci´ on de ´ındices.
Convenci´ on de Einstein
Bo rr
1. Los ´ındices repetidos (arriba y abajo) indicar´an suma por los valores que tomen los ´ındices. Las componentes de los vectores tendr´ an ´ındices arriba y los vectores base abajo: a = a1 e1 + a2 e2 + a3 e3 =
3 X
am em
⇔
a = am em = ai ei .
m=1
2. Los ´ındices repetidos son mudos (no importa la letra que lo etiquete) y representan suma. As´ı K j Aj = K m Am = K 1 A1 + K 2 A2 + K 3 A3 = B .
En este punto del discurso, la posici´ on de los ´ındices (arriba y abajo) solo tiene sentido est´etico y solo as´ı indican suma. M´ as adelante veremos que representan cantidades distintas.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
26
´ 1.6. ALGEBRA VECTORIAL CON ´INDICES
3. Llamaremos contracci´ on cuando sumamos respecto a un par de ´ındices, vale decir: X Aii = A11 + A22 + A33 =⇒ Aii = A11 + A22 + A33 i
in ar
Las cantidades con dos o m´ as ´ındices las llamaremos componentes de tensores, son arreglos bidimensionales (tridimensionales, tetradimensionales, seg´ un el n´ umero de ´ındices) y ser´an considerados en detalle posteriormente. Por ahora, content´emonos con saber qu´e cosas son cantidades con dos ´ındices. Es claro que la contracci´ on de ´ındices convierte un conjunto de n´ umeros (i × j) → 1, en un s´olo n´ umero. Los ´ındices libres (aquellos que no est´an sumados) indican el n´ umero de objetos disponibles y deben mantenerse. Por ejemplo: 1 K1 A1 + K12 A2 + K13 A3 = B1 K21 A1 + K22 A2 + K23 A3 = B2 Bi = Kik Ak ⇔ 1 K1 A1 + K12 A2 + K13 A3 = B1
=0 k Kij
δki
=
1 K1j
δ11
+
|{z} =1
1 K2j
=0
=0
re lim
con lo cual Bi = Kik Ak representa 3 ecuaciones. La operaci´on Bij = Kik Akj representa 9. La delta de Kronecker1 δik lleva un ´ındice arriba y uno abajo y representa δik = 1 si i = k, es nula en los otros casos. Por ejemplo: =0
=0
=0
z}|{ z}|{ z}|{ z}|{ z}|{ z}|{ 1 2 2 2 3 3 3 δ12 + K3j δ13 + K1j δ21 + K2j δ22 + K3j δ23 + K1j δ31 + K2j δ32 + K3j δ33 |{z} |{z} =1
es decir
=1
rP
k i k i 1 2 3 Kij δk = Kkj = Kij = K1j + K2j + K3j .
ad o
Adem´ as de la delta de Kronecker introduciremos el s´ımbolo de permutaci´on de Levi-Civita2 εijk para el caso de tres dimensiones, vale decir i, j, k = 1, 2, 3 +1 cuando {(i, j, k) = (1, 2, 3) ; (3, 1, 2) ; (2, 3, 1)} permutaci´on c´ıclica −1 cuando {(i, j, k) = (1, 3, 2) ; (3, 2, 1) ; (2, 1, 3)} permutaci´on impar o antic´ıclica εijk = εijk = 0 cuando {i = j , i = k ∧ j = k} y quiere decir que es distinto de cero cuando todos los ´ındices son diferentes: 1 si la permutaci´on de ´ındices es c´ıclicas (o par) y −1 si la permutaci´ on es antic´ıclica (o impar). Si queremos calcular, por ejemplo: ci = εijk aj bk , entonces resulta:
Bo rr
c1 = ε111 a1 b1 + ε112 a1 b2 + ε113 a1 b3 + ε121 a2 b1 + ε122 a2 b2 + ε123 a2 b3 + ε131 a3 b1 + ε132 a3 b2 + ε133 a3 b3 c2 = ε211 a1 b1 + ε212 a1 b2 + ε213 a1 b3 + ε221 a2 b1 + ε222 a2 b2 + ε223 a2 b3 + ε231 a3 b1 + ε232 a3 b2 + ε233 a3 b3 c3 = ε311 a1 b1 + ε312 a1 b2 + ε313 a1 b3 + ε321 a2 b1 + ε322 a2 b2 + ε323 a2 b3 + ε331 a3 b1 + ε332 a3 b2 + ε333 a3 b3
1 LEOPOLD KRONECKER (7 diciembre 1823 Legnica, Polonia, 29 diciembre 1891, Berlin, Alemania) Matem´ atico polaco con importantes contribuciones en teor´ıa de n´ umeros, funciones el´ıpticas y a ´lgebra, as´ı como la interrelaci´ on entre estas disciplinas. 2 TULLIO LEVI-CIVITA (1873 Padova, Veneto, 1941 Roma, Italia) Ge´ ometra italiano y uno de los desarrolladores del C´ alculo Tensorial que m´ as tarde ser´ıa utilizado por Einstein y Weyl como el lenguaje de la Relatividad General.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
27
´ 1.6. ALGEBRA VECTORIAL CON ´INDICES
con lo cual
1 c = ε123 a2 b3 + ε132 a3 b2 = a2 b3 − a3 b2 c2 = ε231 a3 b1 + ε213 a1 b3 = a3 b1 − a1 b3 ci = εijk aj bk ⇒ 3 c = ε312 a1 b2 + ε321 a2 b1 = a1 b2 − a2 b1
A continuaci´ on enumeramos algunas propiedades de la delta de Kronecker y del s´ımbolo de permutaci´ on de Levi-Civita, dejamos al lector su demostraci´on. Ellas son:
εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki , εjmn εimn = 2δji , εijk εijk = 6 .
1.6.2.
Los vectores y los ´ındices
in ar
δjj = 3 ,
re lim
Disponemos ahora de una manera m´ as elegante para escribir ecuaciones que involucren vectores. Veamos que forma toma el ´ algebra vectorial con esta nueva notaci´on. Sumas de vectores
La suma de vectores ser´ a expresada de la siguiente manera a + b = ai ei + bi ei = ai + bi ei = ci ei ⇒ ci = ai + bi
rP
Producto escalar
con i = 1, 2, 3
A partir da ahora y de forma equivalente, expresaremos el producto escalar en t´ermino de los ´ındices. De forma y manera que a · b = |a| |b| cos(θ)ab = ai bi con i = 1, 2, 3
ad o
Producto vectorial
En t´erminos de ´ındices, la componente i del producto vectorial se puede expresar como i
ci = (a × b) = εijk aj bk
con i, j, k = 1, 2, 3
Bo rr
todas las particularidades de producto vectorial ahora descansan en las propiedades del s´ımbolo de Levy Civita. Triple producto mixto
Analicemos ahora el n´ umero (pseudoescalar) que proviene de la multiplicaci´on 1 c i j k i j k c · (a × b) = |c| |a × b| cos(θ)hc,a×bi = c εijk a b = εijk c a b = a1 b1
Hern´ andez & N´ un ˜ez
c2 a2 b2
Universidad de los Andes / Universidad Industrial de Santander
c3 a3 b3
28
´ 1.6. ALGEBRA VECTORIAL CON ´INDICES
1.6.3.
Un par de c´ alculos ilustrativos
Mostraremos a continuaci´ on dos casos de identidades vectoriales que pueden ser f´acilmente demostradas mediante la utilizaci´ on de ´ındices. 1. a × (b × c) = (c · a) b − (a · b) c El resultado ser´ a un vector, por lo tanto i
(a × (b × c)) = εijk aj (b × c)k
= εijk aj εkmn bm cn = εijk εkmn aj bm cn = εijk εmnk aj bm cn i j j i i j j i = δm δn − δm δn aj bm cn = δm δn aj bm cn − δm δn aj bm cn
in ar
i m j j = δm b δn aj cn − δni cn δm aj bm = bi an cn − ci aj bj | {z } |{z} (c·a)
i
i
(a·b)
= b (c · a) − c (a · b) = b (c · a) − c (a · b) En la segunda l´ınea hemos hecho uso de la identidad
re lim
εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki 2. (a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c) El lado derecho es un escalar, por lo tanto: l
(a × b) · (c × d) = (a × b) (c × d)l
rP
= εljk aj bk εlmn cm dn = εljk εlmn aj bk cm dn j k k j = εjkl εmnl aj bk cm dn = δm δn − δm δn aj bk cm dn j k k j = δm δn aj bk cm dn − δm δn aj bk cm dn
j = δm aj cm δ k bk dn − δ k bk cm δ j aj dn | {z }|n {z } |m {z }|n {z } (a·c)
(b·d)
(b·c)
(a·d)
1.6.4.
ad o
= (a · c) (b · d) − (b · c) (a · d) .
Escalares, pseudoescalares, vectores y pseudovectores
Bo rr
La diferencia entre vectores polares y axiales proviene del siguiente comportamiento bajo transformaciones de coordenadas y bases. Un vector polar (normal, com´ un y corriente) queda invariante bajo la siguiente transformaci´ on (reflexi´ on) ei → −ei =⇒ a = ai ei → −ai (−ei ) = ai ei = a . ai → −ai Mientras que un pseudovector o vector axial cambia de signo cuando las componentes de los vectores y sus vectores base que lo generan tambi´en lo hacen: ei → −ei ai → −ai =⇒ c = a × b → εijk (−aj ) (−bk ) (−ei ) = −ci ei = −c bi → −bi
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
29
´ 1.6. ALGEBRA VECTORIAL CON ´INDICES
es decir a × b = a2 b3 − a3 b2 e1 + a3 b1 − a1 b3 e2 + a1 b2 − ay b1 e3 , luego de la reflexi´ on: −a2 −b3 − −a3 −b2 (−e1 ) + −a3 −b1 − −a1 −b3 (−e2 ) + −a1 −b2 − −a2 −b1 (−e3 ) = − a2 b3 − a3 b2 e1 + a3 b1 − a1 b3 e2 + a1 b2 − a2 b1 e3 = − (a × b)
in ar
a×b=
re lim
Existen varias e importantes cantidades f´ısicas que vienen representadas por pseudovectores, entre ellas mencionamos: Velocidad Angular: v =ω×r Cantidad de Movimiento Angular: L=r×p Torque: τ =r×F ∂B = −∇ × E Campo de Inducci´on Magn´etica: ∂t Adicionalmente el volumen, V = c · (a × b), como era de esperarse, no es invariante bajo el cambio del espacio ci → −ci ai → −ai =⇒ V = c · (a × b) = ci εijk aj bk → (−ci ) εijk (−aj ) (−bk ) = −V , bi → −bi
rP
el volumen es un pseudoescalar. Mientras que los escalares si son invariantes bajo esta transformaci´on ai → −ai =⇒ ζ = a · b = ai bi → −ai (−bi ) = ζ . bi → −bi
ad o
En general tambi´en tendremos multiplicaci´on entre algunos de estos objetos, con lo cual construiremos otros objetos.
Bo rr
Rotaci´ on de coordenadas: Ya que hablamos de invariancia de cantidades, existe otro tipo de transformaci´ on de coordenadas diferente a las reflexiones y que se denomina: rotaci´on de coordenadas. Consideremos un sistema de coordenadas cartesiano (x, y, z) y su base can´onica {i, j, k}. Si rotamos el sistema de coordenadas un ´ angulo φ alrededor del eje z tendremos un nuevo sistema de coordenadas (ˆ x, yˆ, zˆ) ˆ La regla de transformaci´on que relaciona ambos sistemas de coordenadas es y una nueva base {ˆi, ˆj, k}. ˆ cos(φ) − yˆ sen(φ) ˆ = x cos(φ) + y sen(φ) x = x x y = x ˆ sen(φ) + yˆ cos(φ) ⇐⇒ yˆ = −x sen(φ) + y cos(φ) z = zˆ zˆ = z Mientras que las bases transformar´ an, como ˆi = ˆj = ˆ k =
Hern´ andez & N´ un ˜ez
veremos m´as adelante, como: i cos(φ) + j sen(φ) −i sen(φ) + j cos(φ) k
Universidad de los Andes / Universidad Industrial de Santander
30
´ 1.6. ALGEBRA VECTORIAL CON ´INDICES
Diremos que un triplete de n´ umeros a1 , a2 , a3 definen las componente de un vector a = a1 i + a2 j + a3 k si estas cantidades transforman bajo la rotaci´on predicha de la siguiente manera:
in ar
a ˆ1 = a1 cos(φ) + a2 sen(φ) , a ˆ2 = −a1 sen(φ) + a2 cos(φ) , a ˆ3 = a3 Si a1 , a2 , a3 no transforman de esta manera, se dice que no son covariantes y no representan las componentes de un vector. Notemos tambi´en lo siguiente, al usar la notaci´on de ´ındices podemos escribir las ecuaciones de transformaci´ on de coordenadas as´ı ˆ = x cos(φ) + y sen(φ) x ˆ1 = α11 x1 + α21 x2 + α31 x3 x yˆ = −x sen(φ) + y cos(φ) ⇒ x ˆ2 = α12 x1 + α22 x2 + α32 x3 ⇒ x ˆi = α ˆ ji xj , i, j = 1, 2, 3 3 3 1 3 2 3 3 zˆ = z x ˆ = α1 x + α2 x + α3 x Se puede ver f´ acilmente que las cantidades α ˆ ji , en coordenadas cartesianas, vienen dadas por α ˆ ji =
∂x ˆi ∂xj
re lim
Como la transformaci´ on de coordenadas es invertible, se tiene que xj = αij x ˆi , con: αij =
∂xj ∂x ˆi
Y cumplen con la siguiente condici´ on de ortogonalidad:
α ˆ ki αij = δkj
Y por lo tanto, las componentes de un vector transformar´an de la manera siguiente:
1.6.5.
rP
a ˆi = α ˆ ji aj .
Ejercicios
1. Verifique las siguientes identidades
a) A × (B × C) + B × (C × A) + C × (A × B) = 0
ad o
b) (A × B) × (C × D) = B[A · (C × D)] − A[B · (C × D)] c) (A × B) · (C × D) + (B × C) · (A × D) + (C × A) · (B × D) = 0 d ) A · (B × A) = 0
Bo rr
e) (A × B) · (A × B) = A2 B 2 − (A × B)2 A·C A·D f ) (A × B) · (C × D) = B·C B·D
2. Demuestre la siguiente tabla de relaciones vector vector pseudovector vector vector pseudovector
Hern´ andez & N´ un ˜ez
· · · × × ×
vector pseudovector pseudovector vector pseudovector pseudovector
= escalar = pseudoescalar = escalar = pseudovector = vector = pseudovector
Universidad de los Andes / Universidad Industrial de Santander
31
re lim
in ar
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Figura 1.6: Vectores variables
3. Demuestre que
rP
α ˆ ki αij = δkj
y adem´ as que, como un caso especial, establecer la relaci´on con los cosenos directores que satisfacen cos(α)2 + cos(β)2 + cos(γ)2 = 1
a) (−y, x) b) (x, −y)
ad o
4. Demuestre si las siguientes componentes son componentes de un vector.
c) (x − y, x + y)
Bo rr
d ) (x + y, x − y)
1.7.
1.7.1.
Un comienzo a la derivaci´ on e integraci´ on de vectores Vectores variables
Los vectores podr´ an ser constantes o variables. Ahora bien, esta caracter´ıstica se verificar´a tanto en las componentes como en la base. Esto quiere decir que cuando un vector es variable podr´an variar su m´ odulo, su direcci´ on, su sentido, o todo junto o por separado. Obviamente esta variabilidad del vector depender´ a de
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
32
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
la base en la cual se exprese, por lo cual un vector podr´a tener una componente constante en una base y no constante en otra, vale decir 0 A (t) = Ak (t) ek (t) = Ak ek0 (t) . N´ otese que hemos utilizado una base {ek (t)} de vectores variables a diferencia de la tradicional base de vectores cartesianos, los cuales son constantes en m´odulo, direcci´on y sentido (ver los cuadrantes I y II de la Figura 1.6). M´ as a´ un, tal y como se muestra en cuadrante II de la Figura 1.6, todo vector variable podr´ a ser expresado como la suma de una variable, a (t), m´as otro constante c A (t) = a (t) + c .
Derivaci´ on
in ar
1.7.2.
Ahora bien, esto implica que
d d A (t) + B (t) , dt dt d d = α (t) A (t) + α (t) A (t) , dt dt d d = A (t) · B (t) + A (t) · B (t) , dt dt d d = A (t) × B (t) + A (t) × B (t) . dt dt =
rP
d [A (t) + B (t)] dt d [α (t) A (t)] dt d [A (t) · B (t)] dt d [A (t) × B (t)] dt
re lim
De esta manera, cuando uno piensa en un vector variable A (t) uno r´apidamente intenta establecer un cociente incremental: ∆A (t) dA (t) A (t + ∆t) − A (t) = l´ım = l´ım ∆t→0 ∆t→0 ∆t ∆t dt el cuadrante IV de la Figura 1.6 ilustra gr´ aficamente este cociente incremental. Como siempre, las propiedades de esta operaci´on derivaci´on ser´an:
d Ak (t) ek (t) dAk (t) dek (t) dA (t) = = ek (t) + Ak (t) A (t) = A (t) ek (t) ⇒ dt dt dt dt
ad o
k
Bo rr
con lo cual hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional de la base y componentes. Habr´ a sistemas de coordenadas (bases de vectores) que ser´an constantes y otros en los cuales sus vectores bases cambiar´ an en su direcci´on. El primer t´ermino de la u ´ltima ecuaci´on representa la variaci´ on del m´ odulo, y el segundo muestra la contribuci´on de los cambios en direcci´on del vector. M´as a´ un, mostraremos apoy´ andonos en la ilustraci´ on de el cuadrante III de la Figura 1.6 que, independientemente del sistema de coordenada, el cambio en el m´odulo apunta en la direcci´on del vector, mientras que las contribuciones en direcci´ on apuntan en la direcci´on perpendicular al vector. Esto es: dA (t) d |A (t)| ˆ k + |A (t)| u ˆ⊥ , = u dt dt
ˆk · u ˆ⊥ = 0 . con u
Es f´ acil convencernos de la forma del primer t´ermino. Siempre podemos representar un vector como su m´ odulo y un vector unitario en la direcci´ on apropiada. Esto es ˆ (t) ⇒ A (t) = |A (t)| u
Hern´ andez & N´ un ˜ez
ˆ (t)] dA (t) d [|A (t)| u d |A (t)| dˆ u (t) ˆ (t) + |A (t)| = = u , dt dt dt dt
Universidad de los Andes / Universidad Industrial de Santander
33
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
2
Adicionalmente: |A (t)| = A (t) · A (t), por lo tanto h i 2 d |A (t)| d [A (t) · A (t)] d |A (t)| dA (t) ≡ = 2 |A (t)| ≡ 2A (t) · , dt dt dt dt con lo cual, al despejar de esta u ´ltima ecuaci´on A (t) dA (t) dA (t) d |A (t)| ˆ (t) · ≡ · =u , dt |A (t)| dt dt | {z } para que finalmente
in ar
ˆ (t) u
d |A (t)| dA (t) ˆ (t) · = u dt dt
dA (t) d |A (t)| dˆ u (t) ˆ (t) · ˆ (t) · ˆ (t) + |A (t)| u =u u ⇒ dt dt dt
ˆ (t) · u
dˆ u (t) =0 dt
re lim
Es decir que el cambio en el m´ odulo de un vector se manifiesta en la direcci´on del mismo vector, tal y como era intuitivo suponer. Adicionalmente, vemos que el vector siempre ser´a perpendicular a su derivada. Gr´ aficamente podemos apreciarlo en el cuadrante IV de la Figura 1.6 , pero tambi´en surge anal´ıticamente si derivamos el vector unitario en la direcci´ on de A (t) 2 d |ˆ u (t)| ˆ (t)] d [ˆ u (t) · u d (1) dˆ u (t) dˆ u (t) ˆ (t) · ˆ (t) ⊥ ≡ = ≡0=u ⇒ u , dt dt dt dt dt es decir
rP
ˆ (t)] d [|A (t)| u d |A (t)| dˆ u (t) d |A (t)| dA (t) ˆ (t) + |A (t)| ˆ k + |A (t)| u ˆ⊥ . = = u = u dt dt dt dt dt Supongamos que ahora definimos un vector
ad o ˆ ∆θ = ∆θ v
con
ˆ×u ˆk = u ˆ⊥ v ˆ⊥ × v ˆ=u ˆk u ⇒ ˆk × u ˆ⊥ = v ˆ u
ˆ⊥u ˆk v
ˆ⊥u ˆ⊥ v
donde ∆θ es el ´ angulo de rotaci´ on del vector A (t) (ver cuadrante V de la Figura 1.6). Claramente
Bo rr
ˆ ⊥ ≈ [A (t + ∆t) ∆θ] u ˆ ⊥ ⇒ ∆A⊥ = ∆θ × A (t) , ∆A⊥ = [A (t + ∆t) sen (∆θ)] u
entonces
∆A⊥ ∆A ∆θ dA (t) dθ (t) ˆ⊥ u ˆ⊥ = ˆ × A (t) = ω × A (t) , ≡ · A⊥ A⊥ = × A (t) ⇒ ·u v ∆t ∆t ∆t dt dt
ˆ as all´a observando el cuadrante V de la Figura 1.6, donde hemos identificado ω = dθ(t) dt v. Podemos ir m´ vemos que si suponemos que el m´ odulo del vector es constante, entonces dA (t) dA (t) d |A (t)| ˆ⊥ ⇒ ˆ⊥ u ˆ ⊥ = ω × A (t) . =0 ⇒ = |A (t)| u ·u dt dt dt
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
34
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
1.7.3.
Velocidades y aceleraciones
El radio vector posici´ on de una part´ıcula genera los vectores velocidad y aceleraci´on r = r (t) ⇒ v (t) =
dr (t) dv (t) d2 r (t) , ⇒ a (t) = = dt dt dt2
ahora bien ˆ r = cos(θ) i + sen(θ) j . con: u
Si suponemos que la part´ıcula describe una trayectoria entonces r = r (t) x = x (t) ˆr = u ˆ r (t) ; y = y (t) ; u ⇐⇒ θ = θ (t) z = z (t)
i = const j = const k = const
in ar
r = rˆ ur = xi + yj + zk ,
dˆ ur dt
=
re lim
Es muy com´ un denotar a la derivada temporal sobre funciones de una variable con un punto, es decir, podemos utilizar la siguiente notaci´ on dg (t) , g(t) ˙ ≡ dt con lo cual d [cos(θ (t))i + sen(θ (t))j] ˙ ˙ uθ , = θ(t)[− sen(θ (t))i + cos(θ (t))j] = θ(t)ˆ | {z } dt ˆθ u
Ya que
p p ˆr · u ˆ r = [cos(θ (t)) i + sen(θ (t)) j] · [cos(θ (t)) i + sen(θ (t)) j] = 1 u
|ˆ uθ | =
p p ˆθ · u ˆ θ = [− sen(θ (t)) i + cos(θ (t)) j] · [− (sen(θ (t)))i + cos(θ (t))j] = 1 , u
rP
|ˆ ur | =
entonces: M´ as a´ un
ad o
ˆθ · u ˆr = u ˆr · u ˆ θ = [− sen(θ (t)) i + cos(θ (t)) j] · [cos(θ (t)) i + sen(θ (t)) j] = 0 . u
dˆ uθ d [−sen(θ (t)) i + cos(θ (t)) j] ˙ [cos(θ (t)) i + sen(θ (t)) j] = −θ(t)ˆ ˙ ur . = = −θ(t) dt dt
Bo rr
Para una part´ıcula que sigue un movimiento arbitrario, su trayectoria vendr´a descrita, en coordenadas cartesianas, por: r = x (t) i + y (t) j + z (t) k , Su velocidad ser´ a v (t) =
dr (t) d [x (t) i + y (t) j + z (t) k] = = x(t)i ˙ + y(t)j ˙ + z(t)k ˙ = vx (t) i + vy (t) j + vz (t) k , dt dt
Y su aceleraci´ on
a (t) = v˙ x (t)i + v˙ y (t)j + v˙ z (t)k = ax (t) i + ay (t) j + az (t) k .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
35
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Mientras que en coordenadas polares las ecuaciones son: ˆ r (t) ⇒ v (t) = r (t) = r (t) u
ˆ r (t)] d [r (t) u dˆ ur (t) = r(t)ˆ ˙ ur (t) + r (t) , dt dt
Velocidad: ˙ uθ (t) , ˆ r (t) + r (t) θ(t)ˆ v (t) = vr (t) u Aceleraci´ on: dv (t) = dt
= r¨(t)ˆ ur (t) + r(t) ˙
ˆ r (t)] d [vr (t) u + dt
dt
dˆ ur (t) uθ (t) ˙ uθ (t) + r (t) θ(t)ˆ ¨ uθ (t) + r (t) θ(t) ˙ dˆ + r(t) ˙ θ(t)ˆ dt dt
˙ r¨(t) − r (t) θ(t)
2
n o ˙ + r (t) θ(t) ¨ ˆ r (t) + 2 r(t) ˆ θ (t) . u ˙ θ(t) u
re lim
=
=
dt
h i ˙ uθ (t) d r (t) θ(t)ˆ
in ar
a (t) =
h i ˙ uθ (t) ˆ r (t) + r (t) θ(t)ˆ d vr (t) u
rP
Claramente para el caso de un movimiento circular ˆ r (t) r (t) = R u dR ˙ uθ v (t) = R θ(t)ˆ =0 ⇒ r = R = const ⇒ dt ˙ 2u ¨ uθ (t) ˆ r (t) + R θ(t)ˆ a (t) = −R θ(t)
ad o
De aqu´ı podemos ver claramente que el vector velocidad v (t) y el vector posici´on r (t) son ortogonales. La velocidad, v (t) , siempre es tangente a la trayectoria r (t) y en este caso la trayectoria es una circunferencia. En general el vector Z X X X ∆ r (ti ) = dr (t) = r (t) , rmed = ∆ r (ti ) = (r (ti + ∆ti ) − r (ti )) ⇒ l´ım i
i
es decir dr (t) = l´ım∆t→0
P
i
∆t→0
i
∆ r (ti ) es tangente a la trayectoria. Es claro que
dr (t) = d [x (t) i + y (t) j + z (t) k] ≡
dx (t) dy (t) dz (t) i+ j+ k. dt dt dt
Bo rr
Tal y como mencionamos arriba, para el sistema de coordenadas cartesiano podemos definir un vector (en este caso) velocidad angular ω tal que: ω ˆr = u ˆv ×u |ω| ω ˆr ˆv × =u u ⇒ v (t) = ω × r (t) |ω| ω ˆr × u ˆv = u |ω|
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
36
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Supongamos por simplicidad que elegimos el sistema de coordenadas cartesiano, donde r est´a en el plano x, y. En este caso es inmediato comprobar que v i = εijk ωj xk , y dado que r y v tienen u ´nicamente componentes 1 y 2 entonces, necesariamente ω tiene u ´nicamente componente 3, Es decir 1 r = ri ei v = ε1j2 ωj x2 ⇒ ⇒ ω = |ω| e3 = ωk , 2 v = v i ei v = ε2j1 ωj x1 como r = x (t) i + y (t) j , entonces
in ar
dr (t) ˙ = vx (t) i + vy (t) j = ω × r (t) = θ(t)k × [x (t) i + y (t) j] , dt se ver´ a m´ as claro en coordenadas polares, esto es v (t) =
dr (t) ˙ uθ (t) = [|ω| u ˆ n (t)] × [r (t) u ˆ r (t)] , |r (t)| = const =r (t) θ(t)ˆ dt ˙ u ˙ ≡ |ω| . ˆ θ (t) = |ω| r (t) u ˆ θ (t) ⇒ θ(t) =r (t) θ(t) | {z } v⊥
1.7.4.
Vectores y funciones
re lim
v (t) =
Antes de continuar con la integraci´ on repensemos algunas funciones de tipo φ (x, y, z) y V (x, y, z). Estas funciones son sin duda funciones de varias variables: φ = φ (x, y, z) ,
rP
V = V (x, y, z) = iVx (x, y, z) + jVy (x, y, z) + kVz (x, y, z) .
ad o
Un par de reflexiones se pueden hacer en este punto, primeramente, dado que hemos relacionado un punto del espacio con un radio vector posici´ on, entonces φ = φ (x, y, z) ≡ φ (r) P(x,y,z) ↔ (x, y, z) ↔ r = x i + y j + z k ⇒ V = V (x, y, z) ≡ V (r)
Bo rr
La primera funci´ on, φ (r), ser´ a una funci´ on escalar de argumento vectorial o, simplemente un campo escalar y la segunda, V (r), se conoce como una funci´on vectorial de argumento vectorial o campo vectorial. Como hemos dicho, este tipo de funciones y las operaciones que pueden ser realizadas con ellas, y su significado, ser´ an analizadas en detalle m´ as adelante durante el desarrollo de este curso. En segundo lugar, siempre podremos parametrizar las coordenadas y tendremos φ = φ (t) = φ (x (t) , y (t) , z (t)) , V = V (t) = V (x (t) , y (t) , z (t)) = Vx (x (t) , y (t) , z (t)) i + Vy (x (t) , y (t) , z (t)) j + Vz (x (t) , y (t) , z (t)) k .
Este caso lo hemos encontrado en montones de situaciones, por ejemplo, el movimiento parab´olico viene
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
37
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
descrito por vectores velocidad y posici´ on dados por: vx = v0x vy = v0y v(t) = −gt k + v0 = −gt k + (v0x i + v0y j + v0z k) ⇒ vz = v0z − gt
Derivada de funciones φ (r (t))
in ar
x = v0x t g 2 g 2 y = v0y t r(t) = − t k + v0 t = − t k + (v0x i + v0y j + v0z k) t ⇒ 2 2 z = v0z t − g2 t2
Al derivar una funci´ on de argumento vectorial tambi´en se aplica la “regla de la cadena”. Esto es, si φ (r (t)) = φ (x (t) , y (t) , z (t)) entonces:
=
re lim
∂φ (x (t) , y (t) , z (t)) dx (t) ∂φ (x (t) , y (t) , z (t)) dy (t) ∂φ (x (t) , y (t) , z (t)) dz (t) dφ (r (t)) = + + dt ∂x dt ∂y dt ∂z dt ∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) dx (t) dy (t) dz (t) i+ j+ k · i+ j+ k ∂x ∂y ∂z dt dt dt
donde hemos representado ∇φ (r (t)) ≡
dr (t) , dt
rP
= ∇φ (x (t) , y (t) , z (t)) ·
∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) i+ j+ k = ∂ i φ xj ii = φ,i xj ii , ∂x ∂y ∂z
Bo rr
ad o
y lo llamaremos el gradiente de la funci´ on φ (r (t)). El gradiente de un campo escalar es uno de los objetos m´as u ´tiles que encontraremos en el estudio de problemas de f´ısica-matem´ atica, el cual lo utilizaremos por ahora de manera operacional. Es bueno recordar que emerge como consecuencia de una derivaci´on contra un par´ametro. El gradiente mide el cambio de la funci´ on φ (x, y, z). La idea de gradiente nos lleva a considerar a ∇ como un operador vectorial que act´ ua sobre la funci´ on escalar de variable vectorial φ (r (t)). Es decir, y con un poquito de imaginaci´on ∂ ∂ ∂ ∇φ (r (t)) ≡ i+ j+ k φ (x, y, z) = ii ∂ i φ (x, y, z) ∂x ∂y ∂z ⇓
∇ (◦) =
Hern´ andez & N´ un ˜ez
∂ ∂ ∂ i+ j+ k (◦) = ii ∂ i (◦) . ∂x ∂y ∂z
Universidad de los Andes / Universidad Industrial de Santander
38
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Derivada de funciones V (r (t)) De modo que inspirados en la regla de la cadena de una funci´on escalar de variable vectorial podemos comprobar que dV dVx (x, y, z) dVy (x, y, z) dVz (x, y, z) dV i (x, y, z) = i+ j+ k= ii dt dt dt dt dt por consiguiente, si V, tiene por componentes cartesianas (Vx , Vy , Vz ) las componentes del vector derivado dVz x dVy ser´ an dV , , dt dt dt . Con lo cual cada componente
in ar
d V i (x (t) , y (t) , z (t)) d V i xj (t) ∂ V i xj dxk (t) dr (t) = = = · ∇ V i (x, y, z) , dt dt ∂xk dt dt en t´erminos vectoriales
dr (t) d (◦) · ∇ V ≡ (v · ∇) V ⇒ = (v · ∇) (◦) ≡ v i ∂i (◦) , dt dt
re lim
dV = dt
con v la derivada del radiovector posici´ on r (t), es decir, la velocidad. Entonces, estamos viendo que el cambio del vector V respecto al tiempo es el cambio de sus componentes en la direcci´on de la velocidad. Si se nos ocurre calcular la derivada del vector velocidad para encontrar la aceleraci´on tendremos que nos quedar´ a expresada como dv a= = (v · ∇) v ⇒ ai = (v · ∇) v i , dt
1.7.5.
El operador ∇
rP
donde las componentes cartesianas de los vectores velocidad y aceleraci´on son: v i = v i (x (t) , y (t) , z (t)) y ai = ai (x (t) , y (t) , z (t)), respectivamente.
El operador vectorial ∇ (◦) merece un poco de atenci´on en este nivel. Tal y como hemos visto: El Gradiante
ad o
∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) i+ j+ k, ∂x ∂y ∂z = ∂ 1 φ (x, y, z) i1 + ∂ 2 φ (x, y, z) i2 + ∂ 3 φ (x, y, z) i3 = ∂ i φ xj ii .
∇φ (x, y, z) =
Bo rr
Pero es posible construir otras combinaciones realizando operaciones igual como con un vector com´ un y corriente El Rotor
As´ı en el caso de ∇ × E, que se denomina rotor de E, este viene definido por ∂ ∂ ∂ ∇×E= i+ j+ k × (Ex i + Ey j + Ez k) ∂x ∂y ∂z
=
Hern´ andez & N´ un ˜ez
∂Ez ∂Ey − ∂y ∂z
i+
∂Ex ∂Ez − ∂z ∂x
j+
∂Ey ∂Ez − ∂x ∂y
k = εijk ∂j Ek ii .
Universidad de los Andes / Universidad Industrial de Santander
39
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Divergencia Tambi´en podemos hablar del “producto escalar” de nabla por un vector A. A esta operaci´on la llamaremos divergencia de A: ∂Ax (x, y, z) ∂Ay (x, y, z) ∂Az (x, y, z) ∂Ai xj ∇·A= ≡ ∂i Ai xj ≡ + + , i ∂x ∂x ∂y ∂z pero por ahora consideremos nabla ∇ como un vector. De este modo habr´ a una gran cantidad de relaciones vectoriales que involucran a ∇, las cuales se podr´ an demostrar. Veamos algunos ejemplos.
~ × b + εijk bj (∇ × a) bj ∂ j ai + εijk aj ∇ k k i j ijk m n ijk m n bj ∂ a + ε aj εkmn ∂ b + ε bj εkmn ∂ a bj ∂ j ai + εijk εmnk aj ∂ m bn + εijk εmnk bj ∂ m an i j j i i j j i bj ∂ j ai + δm δn − δm δn aj ∂ m bn + δm δn − δm δn bj ∂ m an
re lim
mientras que el lado derecho i (∇ (a · b)) = aj ∂ j bi + = aj ∂ j bi + = aj ∂ j bi + = aj ∂ j bi +
in ar
1. ∇ (a · b) = (a · ∇) b + (b · ∇) a + a × (∇ × b) + b × (∇ × a) El resultado es un gradiente, es decir un vector. El lado izquierdo ser´a i (∇ (a · b)) = ∂ i (a · b) = ∂ i aj bj = ∂ i aj bj + ∂ i bj aj
i j j i i j j i = aj ∂ j bi + bj ∂ j ai + δm δn aj ∂ m bn − δm δn aj ∂ m bn + δm δn bj ∂ m an − δm δn bj ∂ m an
= aj ∂ j bi + bj ∂ j ai + an ∂ i bn − am ∂ m bi + bn ∂ i an − bm ∂ m ai
rP
= aj ∂ j bi − am ∂ m bi + bj ∂ j ai − bm ∂ m ai + an ∂ i bn + bn ∂ i an {z } | {z } | =0 =0 = an ∂ i bn + bn ∂ i an = ∂ i aj bj = ∂ i (a · b) .
2. ∇ × (a · ∇) a = (∇ · a) (∇ × a) − [∇ · (∇ × a)] a + (a · ∇) (∇ × a) − [(∇ × a) · ∇] a
ad o
Iniciamos la traducci´ on a ´ındices por el lado izquierdo de la ecuaci´on, as´ı ∇ × (a · ∇) a = ijk ∂j (am ∂ m ) ak = ijk (∂j am ) ∂ m ak + ijk am ∂j ∂ m ak = ijk (∂j am ) ∂ m ak + am ∂ m ijk ∂j ak ,
el lado derecho lo traduciremos t´ermino por t´ermino
Bo rr
(∇ · a) (∇ × a) = (∂ m am ) ijk ∂j ak − [∇ · (∇ × a)] a = − ∂m mjk ∂j ak ai = − mjk ∂m ∂j ak ai = 0 (a · ∇) (∇ × a) = am ∂ m ijk ∂j ak − [(∇ × a) · ∇] a = − mjk ∂j ak ∂m ai .
El segundo t´ermino se anula por cuanto mjk es antisim´etrico respecto a los ´ındices m, j mientras que ∂m ∂j es sim´etrico. El tercer t´ermino del desarrollo del lado derecho corresponde con el segundo del desarrollo del lado izquierdo. Por lo tanto, llegamos a la siguiente igualdad ijk (∂j am ) ∂ m ak = (∂ m am ) ijk ∂j ak − mjk ∂j ak ∂m ai
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
40
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Para verificar la igualdad tendremos que evaluar componente a componente. Esto es, para el lado izquierdo: 1jk (∂j am ) ∂ m ak = 123 (∂2 am ) ∂ m a3 + 132 (∂3 am ) ∂ m a2 = (∂2 am ) ∂ m a3 − (∂3 am ) ∂ m a2 = (∂2 a1 ) ∂ 1 a3 + (∂2 a2 ) ∂ 2 a3 + (∂2 a3 ) ∂ 3 a3 − (∂3 a1 ) ∂ 1 a2 − (∂3 a2 ) ∂ 2 a2 − (∂3 a3 ) ∂ 3 a2 , mientras que para el primer t´ermino del lado derecho (∂ m am ) 1jk ∂j ak = (∂ m am ) 123 ∂2 a3 + (∂ m am ) 132 ∂3 a2 α
in ar
= ∂2 a3 ∂ 1 a1 + ∂2 a3 ∂ 2 a2 + ∂2 a3 ∂ 3 a3 − ∂3 a2 ∂ 1 a1 − ∂3 a2 ∂ 2 a2 − ∂3 a2 ∂ 3 a3 , | {z } | {z } β
y el segundo t´ermino se escribe como − mjk ∂j ak ∂m ai = − 1jk ∂j ak ∂1 a1 − 2jk ∂j ak ∂2 a1 − 3jk ∂j ak ∂3 a1
re lim
= − (∂2 a3 − ∂3 a2 ) ∂1 a1 − (∂3 a1 − ∂1 a3 ) ∂2 a1 − (∂1 a2 − ∂2 a1 ) ∂3 a1
= ∂3 a2 ∂1 a1 − ∂2 a3 ∂1 a1 + ∂1 a3 ∂2 a1 − ∂3 a1 ∂2 a1 + ∂2 a1 ∂3 a1 − ∂1 a2 ∂3 a1 . | {z } | {z } | {z } | {z } α
β
γ
γ
Al sumar ambos t´erminos se eliminan los sumandos indicados con letras griegas, y queda como (∂ m am ) 1jk ∂j ak − mjk ∂j ak ∂m ai = ∂2 a3 ∂2 a2 + ∂2 a3 ∂3 a3 Ξ
Υ
−∂3 a2 ∂2 a2 −∂2 a2 ∂3 a3 + ∂1 a3 ∂2 a1 −∂1 a2 ∂3 a1 ,
rP
Ω
Ψ
Λ
Σ
y al compararlo con el desarrollo del lado derecho e identificar t´ermino a t´ermino queda demostrada la igualdad 1jk (∂j am ) ∂ m ak = (∂2 a1 ) ∂1 a3 + (∂2 a2 ) ∂2 a3 + (∂2 a3 ) ∂3 a3 Λ
Ξ
Υ
ad o
− (∂3 a1 ) ∂1 a2 − (∂3 a2 ) ∂2 a2 − (∂3 a3 ) ∂3 a2 . Σ
Ω
Ψ
De igual manera se procede con i = 2 e i = 3.
1.7.6.
Integraci´ on
Bo rr
Despu´es de haber diferenciado campos escalares y vectoriales, el siguiente paso es integrarlos. Encontraremos algunos objetos vectoriales a integrar y ser´an: Integraci´ on de un vector por un escalar Z V (u) du
Integraci´ on de un escalar a lo largo de un vector Z φ (x, y, z) dr c
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
41
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Integraci´ on de un vector a lo largo de otro vector Z V (x, y, z) · dr c
El primero de los casos es el tipo de integral que siempre hemos utilizado para encontrar la posici´ on a partir de la velocidad. Los siguientes tres casos se conocen con el nombre de integrales de l´ınea por cuanto es importante la “ruta” o trayectoria que sigamos al integrar. Esto aparece indicado por la letra C en la integral y ser´ a evidente m´ as adelante. En general la integral de l´ınea depender´a de la trayectoria. R
V (u) du
in ar
Un vector por un escalar:
El primer caso de este tipo integrales es el trivial que ya sabemos calcular: Z Z Z Z Z i V (u) du = i Vx (u) du + j Vy (u) du + k Vz (u) du = V (u) du ii .
re lim
La integral de un vector (en un sistema de coordenadas cartesianas) por un escalar se convierte en la suma de tres integrales, cada una a lo largo de las componentes cartesianas del vector. As´ı integramos la aceleraci´ on de un movimiento parab´olico Z Z dv = a = −g k ⇒ v = a dt = k −g dt = −k gt + v0 = −k gt + iv0x + jv0y + kv0z dt
rP
Ahora bien, existen sutilezas en este caso que debemos tener en cuenta. Por ejemplo, considere la integral Z Z Z d da da da d da da d2 a a× − × = dt a× =a× + c. dt a × 2 = dt dt dt dt dt dt dt dt dt Pero en general los casos quedan resueltos integrando componente a componente con la ayuda de la notaci´ on de ´ındices Z Z ijk dt (a × b) = dt ε aj bk ii .
ad o
Ejemplo: Tal vez, uno de los problemas que ilustra mejor esta situaci´on es el movimiento bajo fuerzas centrales. La Ley de Gravitaci´ on de Newton nos dice que para un sistema de dos masas, m y M se tiene: X
F = m a ⇒ mG
M
2 rmM
u ˆr = m
dv dv GM ⇒ = 2 u ˆr . dt dt rmM
Bo rr
Es costumbre definir la velocidad aerolar, va , como el ´area barrida por el radio vector posici´on, r (t) que describe la trayectoria de la part´ıcula dr d (r u ˆr ) dr dˆ ur dˆ ur dˆ ur 2va = r × =ru ˆr × = rˆ ur × u ˆr + r =ru ˆr × r = r2 u ˆr × . dt dt dt dt dt dt N´ otese que:
d dt
dˆ ur dˆ ur dˆ ur u ˆr × =0 ⇒ u ˆr × = c ⇒ 2va = r2 u ˆr × = const , dt dt dt
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
42
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
donde c es un vector constante, con lo cual d dv GM GM (v × va ) = × va = 2 u ˆ r × va = dt dt rmM 2 d GM (v × va ) = dt 2
dˆ ur u ˆr × u ˆr × dt
dˆ ur dˆ ur GM dˆ ur u ˆr · u ˆ r − (ˆ ur · u ˆr ) = , dt dt 2 dt
integrando GM u ˆr + p 2 donde p es un vector arbitrario que aparece como constante de integraci´on. Finalmente nos damos cuenta que GM GM u ˆr + p = r + rp cos(θ) r · (v × va ) = r u ˆr · 2 2
in ar
v × va =
y entonces va2
re lim
= εijk ri vj vak ≡ va · (r × v) = va · va = va2
GM r + rp cos(θ) ⇒ r = = 2
GM 2
va2 ≡ + p cos(θ) 1+
2 2va GM 2p GM cos(θ)
que constituye la ecuaci´ on de una curva c´ onica ¿Cu´al curva? R C
φ (r) dr
rP
Un escalar a lo largo de un vector:
El segundo objeto que “tropezaremos” es la integraci´on de funciones de varias variables a lo largo de una curva determinada. Esto es Z Z Z Z Z φ (x, y, z) dr = φ (x, y, z) (dxi + dyj + dzk) = i φ (x, y, z) dx + j φ (x, y, z) dy + k φ (x, y, z) dz . C
C
C
C
ad o
C
La integral se nos ha convertido en tres integrales, las cuales son ahora componentes de un vector. Esto es posible dado que la base (i, j, k) es una base constante. Ahora bien, cada una de estas integrales son interdependientes, dado que hay que seguir la misma curva C. Consideremos el caso bidimensional que es m´ as simple y contiene toda la riqueza conceptual del tridimensional.
Bo rr
Ejemplo:
φ (x, y) = 3x2 + 2y ⇒
Z
(1,2)
(0,0)
3x2 + 2y dr = i
Z
(1,2)
(0,0)
3x2 + 2y dx + j
Z
(1,2)
3x2 + 2y dy
(0,0)
Se requiere especificar la curva C a lo largo de la cual integraremos desde el punto P1 → (0, 0) al punto P2 → (1, 2).
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
43
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Si recorremos la ruta C1 : (0, 0) → (1, 0) → (1, 2) podemos hacerlo de la manera m´as sencilla: Z (1,0) Z (1,0) Z 1 2 2 (0, 0) → (1, 0) ⇒ y = cte = 0 ⇒ 3x + 2y dr = i 3x + 2y dx = i 3x2 dx = i (0,0)
(0,0)
(1,0)
3x2 + 2y dr = j
(1,2)
Z
3x2 + 2y dy = j
Z
(3 + 2y) dy = 10j 0
(0,0)
(0,0)
con lo cual Z C1 ←→ (0, 0) → (1, 0) → (1, 2) ⇒ −−−−−→ −−−−−→ C1A
C1B
2
(1,2)
3x2 + 2y dr = i + 10j
in ar
Z (1, 0) → (1, 2) ⇒ x = cte = 1 ⇒
0
(0,0)
Si hubi´eramos seleccionado la recta que une a estos dos puntos como la curva C2 entonces C2 : y = 2x ⇒ dy = 2dx , entonces (1,2)
3x2 + 2y dr = i
(0,0)
Z
(1,2)
3x2 + 2y dx + j
(0,0) 1
Z =i
(1,2)
Z
re lim
Z
3x2 + 2y dy
(0,0) 1
3x2 + 2 (2x) dx + j
0
Z
3x2 + 2 (2x) 2dx = 3i + 6j
0
En general la curva C se puede param´etrizar y las integrales en varias variables se convertir´an en integrales a lo largo del par´ ametro que caracteriza la curva
rP
C : {x = x (τ ) , y = y (τ ) , z = z (τ )}
ad o
Por lo tanto: Z Z ∂x (τ ) ∂y (τ ) ∂z (τ ) φ (x, y, z) dr = φ (x (τ ) , y (τ ) , z (τ )) dτ i + dτ j + dτ k ∂τ ∂τ ∂τ C C Z Z ∂x (τ ) ∂y (τ ) =i φ (x (τ ) , y (τ ) , z (τ )) dτ + j φ (x (τ ) , y (τ ) , z (τ )) dτ ∂τ ∂τ C C Z ∂z (τ ) dτ . +k φ (x (τ ) , y (τ ) , z (τ )) ∂τ C
Bo rr
Las parametrizaciones para las curvas anteriores son muy simples x=τ x=2 x=τ C1A = ; C1B = ; C2 = y=0 y=τ y = 2τ
Un vector a lo largo de otro vector:
R C
F (r) · dr
R Quiz´ a la integral de l´ınea m´ as conocida sea una del tipo C F (r) · dr por cuanto nos la hemos “tropezado” en el c´ alculo del trabajo que realiza una fuerza. Todo lo que hemos considerado al parametrizar la curva en el caso anterior, sigue siendo v´ alido. Z Z Z Z Z F (r) · dr = Fx (x, y, z) dx + Fy (x, y, z) dy + Fz (x, y, z) dz = F i xj dxi C
Hern´ andez & N´ un ˜ez
C
C
C
C
Universidad de los Andes / Universidad Industrial de Santander
44
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
Ejemplo:
Si consideramos F (r) = 3x2 + 2xy 3 i + 6xy j ,
entonces Z (1, 43 √2)
Z (1, 34 √2)
3x2 + 2xy 3 i + 6xy j (dx i + dy j)
F (r) · dr = (0,0)
Z (1, 34 √2) =
2
3x + 2xy
3
Z (1, 43 √2) dx +
(0,0)
6xy dy , (0,0)
in ar
(0,0)
y si la curva que une esos puntos viene parametrizada por ∂x(τ ) x = 2τ 2 ∂τ = 4τ ⇒ ∂y(τ ) y = τ3 + τ = 3τ 2 + 1 ∂τ
Z (1, 34 √2)
√
2
3x + 2xy
3
Z
2 2
dx =
3 2τ 2
2
0
(0,0)
√
Z
2 2
= 0
Y la segunda
Z
√ 2 2
Z (1, 43 √2)
1.7.7.
τ3 + τ
3x2 + 2xy
3
3
(4τ ) dτ
65 , 3τ 2 + 1 dτ = 32
Z (1, 43 √2)
dx +
(0,0)
ad o
(0,0)
6 2τ 2
0
Z (1, 34 √2) F (r) · dr =
τ3 + τ
rP
6xy dy = (0,0)
+ 2 2τ 2
9305 √ 16 τ 12 + 48 τ 10 + 48 τ 8 + 16 τ 6 + 48 τ 5 dτ = 1 + 2. 24024
Z (1, 43 √2)
con lo cual
re lim
entonces la primera de las integrales resulta
6xy dy = (0,0)
97 9305 √ + 2. 32 24024
Ejercicios
1. Demuestre que
dB [A · (B × C)] = dA dt · (B × C) + A · dt × C + A · B × h i d d2 A d3 A b) dt A · dA = A · dA dt × dt2 dt × dt3 d dt
dC dt
Bo rr
a)
c) ∇ × (∇ × A) = ∇∇ · A − ∇ · ∇A
d ) ∇ × (φ∇φ) = 0
e) ∇ × [A × (∇ × A)] = 0, si A = (y, z)i.
2. Para los vectores dados a continuaci´ on, encuentre dr/ds a) r = ti + 3t2 j − (t − 1)k, y t = ln(1 + s2 ) b) r = sen(t)i + cos(t)j + tan(t)k, y t = 2 + s2
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
45
´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION
3. Una part´ıcula describe un movimiento dado por el vector posici´on r. Encuentre la componente de su velocidad en la direcci´ on del vector indicado a) r = t2 i + 4 cos(2t)j + 3sen(2t)k,
2i + j + 2k.
2
b) r = 3 cos(t)i + 3sen(t)j + (t − 2)k,
i + 2j − k
4. Si u, v y w son funciones que dependen del par´ametro t, demuestre que du d dv a) dt [u · (v × w)] = u · v × dw dt + u · dt × w + dt · (v × w) du d dv b) dt [u × (v × w)] = u × v × dw dt + u × dt × w + dt × (v × w)
in ar
5. Si u = 2ti − t2 j + k, v = 2i + 3tj + tk y w = ti + 2tj − tk. Utilice el resultado del ejercicio anterior (a) d [u · (v × w)]. para encontrar dt 6. Si u = ti − tj + t2 k, v = −ti + 2tj − t2 k y w = 2ti − 2tj + tk. Utilice el resultado del ejercicio anterior d [u × (v × w)]. (b) para encontrar dt a) φ(x, y, z) = x2 + 3xyz − yz 2 −1 b) φ(x, y, z) = x2 + 2y 2 + 4z 2
re lim
7. Encuentre el gradiente de los siguientes campos
8. Encuentre la divergencia de los siguientes campos a) V(x, y, z) = x2 yi + y 2 z 2 j + xz 3 k b) V(x, y, z) = (1 − x2 )i + sen(yz)j + exyz k 9. Encuentre el rotor de los siguientes campos
rP
a) V(x, y, z) = xyz 2 i + x2 yzj + xy 2 k
b) V(x, y, z) = senh(xy)i + cosh(yz)j + xyzk
ad o
10. Eval´ ue las siguientes integrales R a) tsen(t)i + 2t2 j − 7tk dt R b) cosh2 (t)i + 2sen2 (2t)j − k dt
11. Un campo de fuerza act´ ua sobre un oscilador descrito por: F = −kxi − kyj Compare el trabajo hecho al moverse en contra de este campo al ir desde el punto (1, 1) al punto (4, 4) siguiendo los siguientes caminos:
Bo rr
a) (1, 1) → (4, 1) → (4, 4)
b) (1, 1) → (1, 4) → (4, 4)
y 12. Dado el campo de fuerza: F = − x2 +y 2i +
c) (1, 1) → (4, 4) siguiendo el camino x = y
x x2 +y 2 j
Calcule el trabajo hecho en contra de este campo de fuerza al moverse al rededor de un circulo de radio uno y en el plano x − y a) desde 0 a π en sentido contrario a la agujas del reloj. b) desde 0 a −π en sentido de las agujas del reloj.
13. Evaluar la siguiente integral I r · dr .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
46
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
1.8.
Vectores y n´ umeros complejos
Desde los primeros cursos de matem´ atica nos hemos tropezado con las llamadas ra´ıces imaginarias o complejas de polinomios. De este modo la soluci´on a un polinomio c´ ubico x = 2i x = −2i x3 − 3x2 + 4x − 12 = 0 ⇒ ⇒ (x + 2i) (x − 2i) (x − 3) = 0 x=3 o cuadr´ atico
Los n´ umeros complejos y su ´ algebra
re lim
1.8.1.
in ar
x = 2i ⇒ (x + 2i) (x − 2i) x = −2i √ umero imaginario nos lleva a definir un n´ umero i2 = −1 ⇒ i = −1. Como vimos arriba al multiplicar el n´ i por cualquier n´ umero real obtendremos el n´ umero imaginario puro ib, con b ∈ R. La nomenclatura de n´ umeros imaginarios surgi´ o de la idea de que estas cantidades no representaban mediciones f´ısicas. Esa idea ha sido abandonada pero el nombre qued´ o. x2 + 4 = 0 ⇒
Un n´ umero complejo, z, es la generalizaci´on de los n´ umeros imaginarios (puros), ib. Esto es a → parte real z = a + ib con a, b ∈ R ⇒ b → parte imaginaria
rP
Obviamente los n´ umeros reales ser´ an a + i0 n´ umeros complejos con su parte imaginaria nula. Los n´ umeros imaginarios puros ser´ an n´ umeros complejos con su parte real nula, esto es, 0 + ib. Por ello, en general diremos que z = a + ib ⇒ a = Re (z) ∧ b = Im (z) , es decir, a corresponde a la parte real de z y b a su parte imaginaria. Cada n´ umero complejo, z tendr´ a asociado un n´ umero complejo conjugado, z ∗ tal que
ad o
z = a + ib
⇓
∗ ∗
∧
(z ) = z
claramente
z ∗ = a − ib
z · z ∗ = a2 + b2 ,
2
2
z · z ∗ ≥ 0 ⇒ |z| = |z ∗ | = z · z ∗ = a2 + b2 .
Bo rr
Es importante se˜ nalar que, en general, no existe relaci´on de orden entre los n´ umeros complejos. Vale decir, que no sabremos si un n´ umero complejo es mayor que otro. No est´a definida esta operaci´on. z1 ≯ z2
∨
z1 ≮ z2 .
Las relaciones de orden s´ olo se podr´ an establecer entre m´odulos de n´ umeros complejos y no n´ umeros complejos en general. R´ apidamente recordamos el ´ algebra de los n´ umeros complejos: Dos n´ umeros complejos ser´ an iguales si sus partes reales e imaginarios lo son z1 = z2 ⇒ (a1 + ib1 ) = (a2 + ib2 ) ⇒ a1 = a2
Hern´ andez & N´ un ˜ez
∧
b1 = b2 .
Universidad de los Andes / Universidad Industrial de Santander
47
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
Se suman dos n´ umeros complejos sumando sus partes reales y sus partes imaginarias. z3 = z1 + z2 ⇒ (a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ) = a3 + ib3 , | {z } | {z } a3
b3
claramente z + z ∗ = 2 Re z, tambi´en z − z ∗ = 2 Im z. Igualmente es inmediato comprobar que ∗
(z1 + z2 ) = z1∗ + z2∗ .
in ar
Se multiplican n´ umeros complejos por escalares multiplicando el escalar por sus partes reales e imaginarias z3 = αz1 ⇒ α (a1 + ib1 ) = (αa1 ) + i (αb1 ) . Se multiplican n´ umeros complejos entre si, multiplicando los dos binomios y teniendo cuidado que i2 = −1. z3 = z1 z2 ⇒ (a1 + ib1 ) · (a2 + ib2 ) = (a1 a2 − b1 b2 ) + i (a1 b2 + b1 a2 ) , ∗
tambi´en es inmediato comprobar que (z1 z2 ) = z1∗ z2∗ .
re lim
Se dividen n´ umeros complejos siguiendo la estrategia de racionalizaci´on de fracciones irracionales. Esto es (a1 + ib1 ) (a1 + ib1 ) (a2 − ib2 ) a1 a2 + b1 b2 z1 b1 a 2 − a 1 b2 ⇒ = = z3 = +i , 2 2 z2 (a2 + ib2 ) (a2 + ib2 ) (a2 − ib2 ) (a2 + b2 ) (a22 + b22 ) es claro que el divisor ser´ a cualquier n´ umero complejo excepto el cero complejo: 0 + i0.
1.8.2.
Vectores y el plano complejo
rP
Mirando con cuidado el ´ algebra de n´ umeros complejos nos damos cuenta que un n´ umero complejo puede ser representado por una dupla de n´ umeros, es decir, z = (a + ib)
z = (a, b)
ad o
Las propiedades entre n´ umeros complejos de igualdad, suma y multiplicaci´on por un escalar arriba expuestas se cumplen de forma inmediata con esta nueva representaci´on. Hay que definir las operaciones de multiplicaci´ on y divisi´ on entre n´ umeros complejos de forma que a1 a2 + b1 b2 b1 a2 − a1 b2 (a1 , b1 ) = (a1 , b1 ) (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + b1 a2 ) ∧ , (a2 , b2 ) (a22 + b22 ) (a22 + b22 )
Bo rr
Esta asociaci´ on de un n´ umero complejo con una pareja de n´ umeros inmediatamente nos lleva a imaginar un punto en un plano (complejo) en el cual la primera componente (horizontal) representa la parte real y la segunda componente (vertical) representa la parte imaginaria. De esta forma asociamos a un n´ umero complejo a un vector que une a ese punto (a, b) con el origen del plano complejo. Esta representaci´ on de n´ umeros complejos como vectores en el plano (complejo) se conoce con el nombre de Diagrama de Argand3 a on pesar que no fue Jean Argand, sino Caspar Wessel4 el primero en proponerlo. Por cierto, esta interpretaci´ 3 En honor a JEAN ROBERT ARGAND (Ginebra, Suiza, 18 Julio 1768; Par´ ıs, Francia 13 agosto 1822). Contador pero matem´ atico aficionado, propuso esta interpretaci´ on de n´ umeros complejos como vectors en un plano complejo en un libro autoeditado con sus reflexiones que se perdi´ o y fue rescatado 7 a˜ nos despu´ es, fecha a partir de la cual Argand comenz´ o a publicar en Matematicas. 4 CASPAR WESSEL (Vestby, Noruega 8 junio 1745; 25 marzo 1818, Copenhagen, Dinamarca) Matem´ atico noruego que se dedic´ o principalemente al levantamiento topogr´ afico de Noruega. Su trabajo sobre la interpretaci´ on de n´ umeros complejos permaneci´ o desconocido por casi 100 a˜ nos.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
48
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
fue tres veces redescubierta, primero por Caspar Wessel en 1799, luego por Jean Argand en 1806 y finalmente por Gauss5 en 1831. De esta manera, como un recordatorio al plano real p √ ∗ 2 2 r = zz = |z| = x + y z = x + iy z = r (cos(θ) + i sen(θ)) con tan(θ) = y donde − π ≤ θ ≤ π x La interpretaci´ on vectorial de n´ umeros complejos permite que la suma de n´ umeros complejos sea representada por la “regla del paralelogramo”. Mientras que los productos escalar y vectorial nos llevan a ∧
z1 × z2 = Im (z1∗ z2 ) = −Im (z1 z2∗ )
in ar
z1 · z2 = Re (z1 z2∗ ) = Re (z1∗ z2 ) Con esta interpretaci´ on tendremos
1.8.3.
componente real del vector z o parte real de z componente imaginaria del vector z o parte imaginaria de z m´ odulo, magnitud o valor absoluto de z angulo polar o de fase del n´ ´ umero complejo z
re lim
x = Re z y =√ Im z r = zz ∗ = |z| θ
F´ ormulas de Euler y De Moivre
rP
En cursos anteriores, nos hemos tropezado con la expansi´on en Taylor6 de funciones, esta serie permite expresar cualquier funci´ on infinitamente diferenciable alrededor de un punto x0 como una serie infinita de potencias del argumento de la funci´ on, esto es: 1 d2 f (x) 1 d3 f (x) df (x) 2 3 (x − x0 ) + (x − x0 ) + (x − x0 ) + · · · · · · f (x) = 1 + dx x=x0 2 dx2 x=x0 3! dx3 x=x0 1 dn f (x) n y donde n = 0, 1, 2, 3, . . . f (x) = Cn (x − x0 ) , con Cn = n! d xn x=x0
ad o
Si consideramos x0 = 0, podremos ver a continuaci´on algunos desarrollos en series de funciones elementales 1 1 1 1 5 1 6 1 7 ex = 1 + x + x2 + x3 + x4 + x + x + x + ······ 2 6 24 120 720 5040
Bo rr
1 1 1 6 cos(x) = 1 − x2 + x4 − x + ······ 2 24 720 1 1 5 1 7 sen(x) = x − x3 + x − x + ······ 6 120 5040
5 JOHANN CARL FRIEDRICH GAUSS (30 abril 1777, Brunswick, Alemania; 23 febrero 1855, G¨ ottingen, Alemania). Uno de los m´ atem´ aticos m´ as geniales y precoces de la Historia. Desde los 7 a˜ nos comenz´ o a mostrar sus condiciones de genialidad. Sus contribuciones en Astronom´ıa y Matem´ aticas son m´ ultiples y diversas. 6 BROOK TAYLOR (18 agosto 1685, Edmonton, Inglaterra; 29 diciembre 1731, Londres, Inglaterra) F´ ısico y Matem´ atico ingl´ es contemporaneo de Newton y Leibniz y junto con ellos particip´ o profundamente en el desarrollo del C´ alculo diferencial e integral. Adem´ as de sus aportes al estudio del magnetismo, capilaridad y termometr´ıa, desarroll´ o el ´ area de diferencias finitas que hasta hoy utilizamos para c´ alculos en computaci´ on. Invent´ o la integraci´ on por partes y descubri´ o la serie que lleva su nombre.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
49
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
Es f´ acil convencerse que para la serie de ex se tiene 1 1 1 1 5 1 6 1 eiθ = 1 + iθ − θ2 + − i θ3 + θ4 + iθ − θ + − i θ7 + · · · · · · 2 6 24 120 720 5040 y que puede rearreglarse como 1 1 1 1 6 1 5 1 7 eiθ = 1 − θ2 + θ4 − θ + · · · · · · + i θ − θ3 + θ − θ + ······ 2 24 720 6 120 5040 {z } {z } | | sen(θ)
in ar
cos(θ)
eiθ = cos(θ) + i sen(θ) ,
esta relaci´ on se conoce como la relaci´ on de Euler7 . Con lo cual ahora tenemos tres formas de representar un n´ umero complejo z = x + iy z = r (cos(θ) + i sen(θ)) z = reiθ .
re lim
La expresi´ on z = x + iy se conoce como forma cartesiana de representaci´on de un n´ umero complejo, la forma z = r (cos(θ) + i sen(θ)) ser´ a la forma trigonom´etrica o polar y la expresi´on z = eiθ ser´a la forma de Euler. Es importante notar una sutileza impl´ıcita en esta notaci´on. La forma cartesiana representa un´ıvocamente a un n´ umero complejo, mientras que la forma polar (y la de Euler), es ambigua z = r (cos(θ) + i sen(θ)) = r (cos(θ + 2nπ) + i sen(θ + 2nπ)) ,
(1.1)
π
i = ei 2 ,
rP
es decir, existen varios valores del argumento que definen el mismo n´ umero complejo. Esto se considerar´ a m´ as adelante cuando tratemos las funciones de n´ umero complejos. La f´ ormula de Euler, para cuando −π < θ < π resulta en los siguientes simp´aticos resultados −1 = eiπ ,
π
−i = e−i 2 ,
1 = ei2kπ con k = 0, ±1, ±2, ±3 . . .
M´ as a´ un, si
ad o
Las sumas de n´ umeros complejos son m´as f´acilmente planteables en su forma cartesiana. Mientras las multiplicaci´ on y divisi´ on ser´ an directas en la forma de Euler z1 = r1 eiθ1 ⇒ z1 z2 = eiθ1 eiθ2 = ei(θ1 +θ2 ) = r1 r2 (cos (θ1 + θ2 ) + i sen (θ1 + θ2 )) . iθ2 z2 = r2 e z = x + iy ⇒ ez = e(x+iy) = ex eiy = ex (cos(y) + i sen(y)) ,
Bo rr
a partir de la relaci´ on o f´ ormula de Euler se puede demostrar la De Moivre8 n n eiθ = einθ = (cos(θ) + i sen(θ)) = cos (nθ) + i sen (nθ) , con n entero.
7 LEONHARD EULER (15 abril 1707, Basilea, Suiza; 18 septiembre 1783, San Petersburgo, Rusia). Uno de los matem´ aticos m´ as prol´ıficos de todos los tiempos. Desarroll´ o inmensamente campos como la geometr´ıa anal´ıtica y trigonometr´ıa, siendo el primero que consider´ o el coseno y el seno como funciones. Hizo aportes significativos en el desarrollo del c´ alculo diferencial e integral as´ı como tambi´ en, astronom´ıa, elasticidad y mec´ anica de medios cont´ınuos. 8 ABRAHAM DE MOIVRE (26 mayo 1667 in Vitry-le-Fran¸ cois, Francia; 27 noviembre 1754, Londres Inglaterra) Matem´ atico franc´ es que tuvo que emigrar a Inglaterra por razones religiosas. Contemporaneo de Newton, Liebniz y Halley, fue pionero con sus contribuciones en geometr´ıa anal´ıtica y teor´ıa de probabilides.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
50
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
1.8.4.
Algunas aplicaciones inmediatas
Presentaremos algunas aplicaciones inmeditas la f´ormula de De Moivre en diferentes ´ambitos. Identidades trigonom´ etricas La primera de las aplicaciones de la f´ ormula de De Moivre es para construir identidades trigonom´etricas en las cuales se expresa el coseno, o el seno, de factores de un ´angulo. Veamos las siguientes (nada triviales) identidades trigonom´etricas sen(3θ) = 3 sen(θ) − 4sen3 (θ) ,
o
in ar
cos(3θ) = 4 cos3 (θ) − 3 cos(θ)
para demostrar estas (y otras) identidades utilizamos la f´ormula de De Moivre, es decir 3
cos(3θ) + i sen( 3θ) = (cos(θ) + i sen(θ))
= cos3 (θ) − 3 cos(θ) sen2 (θ) + i 3 cos2 (θ) sen(θ) − sen3 (θ) , igualando ahora parte real e imaginaria tendremos
re lim
cos(3θ) = cos3 (θ) − 3 cos(θ) sen2 (θ)
= cos3 (θ) − 3 cos(θ) 1 − cos2 (θ) = 4 cos3 (θ) − 3 cos(θ) sen(3θ) = 3 cos2 (θ) sen(θ) − sen3 (θ) = 3 1 − sen2 (θ) sen(θ) − sen3 (θ) = 3 sen(θ) − 4sen3 (θ) .
rP
El m´etodo puede extenderse a expresiones de senos y cosenos de nθ. Igualmente podemos desarrollar un m´etodo para encontrar expresiones de potencias de funciones trigon nom´etricas en t´ermino de funciones de factores de ´angulo del tipo (cos(θ)) = F (cos(nθ), sen(nθ)). Para empezar, supongamos que tenemos un n´ umero complejo de m´odulo 1, de tal forma que
z = eiθ = cos(θ) + i sen(θ) ⇒
1 n z + z n = 2 cos(nθ)
ad o
z n − 1 = 2i sen(nθ) zn
Estas identidades surgen de manera inmediata de 1 n −n = (cos(θ) + i sen(θ)) + (cos(θ) + i sen(θ)) = (cos(nθ) + i sen(nθ)) + (cos (−nθ) + i sen (−nθ)) zn = cos(nθ) + i sen(nθ) + cos(nθ) − i sen(nθ) = 2 cos(nθ) ,
Bo rr
zn +
igualmente puede demostrarse la segunda de las afirmaciones anteriores. Ahora bien, supongamos adem´ as que n = 1, con lo cual se cumple que z+
1 = eiθ + e−iθ = 2 cos(θ) z
y
z−
1 = eiθ − e−iθ = 2i sen(θ) , z
que tambi´en lo sab´ıamos desde la m´ as temprana edad de nuestros cursos de bachillerato.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
51
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
Ahora bien, lo que quiz´ a no sab´ıamos en ese entonces (y quiz´a ahora tampoco) es que a partir de aqu´ı podemos construir, por ejemplo: 5 1 1 10 1 1 1 5 1 5 5 3 = 5 z + 5 + 5z + 3 + 10z + z+ ⇒ cos (θ) = 5 z + , cos(θ) = 2 z 2 z 2 z z z es decir
1 [2 cos(5θ) + 10 cos(3θ) + 20 cos(θ)] , 25 de la misma manera se puede proceder con otras potencias y con potencias de la funci´on seno. cos5 (θ) =
in ar
Ra´ıces de polinomios
La f´ ormula de De Moivre nos puede ayudar para encontrar ra´ıces de polinomios. Supongamos, para empezar, que queremos encontrar las n ra´ıces de la ecuaci´on z n = 1. Para ello procedemos con el siguiente artificio z n = 1 = cos (2πk) + i sen (2πk) = ei(2πk) , donde k = 0, 1, 2, ....
re lim
con lo cual las n ra´ıces de la ecuaci´ on z n = 1 ser´an z n = 1 ⇒ z = ei( z z 0 = 1;
z1 = e
1 2πi( n )
;
z2 = e
2 2πi( n )
;
2πk n
)
⇓ }| 3 2πi( n ); · · · z3 = e
zn−2 = e
2πi( n−2 n )
{
;
zn−1 = e
2πi( n−1 n )
Supongamos la siguiente ecuaci´on polin´omica con sus ra´ıces: 4 z + 2 = 0 ⇒ z 4 = −2 5 4 4 z − z + 2z − 2 = 0 ⇒ z + 2 (z − 1) = 0 ⇒ z−1=0 ⇒ z =1
ad o
Ejemplo:
rP
es decir, n ra´ıces corresponder´ an a los n valores de k = 0, 1, 2, · · · n − 2, n − 1. Mayores valore de k no proveen nuevas ra´ıces. 2πk 2π 4π Las ra´ıces de la ecuaci´ on z 3 = 1 ser´ an entonces: z = ei( 3 ) ⇒ z0 = 1, z1 = ei( 3 ) , z2 = ei( 3 ) . Estas propiedades pueden extenderse a ra´ıces de polinomios con m´as t´erminos.
Entonces, del resultado anterior
Bo rr
h i1/4 2πk 2πk 23/4 (1 + i) ei( 4 ) z 4 = −2(1) = −2 ei(2πk) ⇒ z = −2 ei(2πk) = (−2)1/4 ei( 4 ) = 2 √ π 1/2 π donde hemos utilizado el hecho de que: (−1)1/4 = i1/2 = ei 2 = ei 4 = 22 (1 + i) . Por lo tanto: z0
=
z2
=
1
21/4 1
21/4
(1 + i) , (1 + i) ei(π) = −
z1 = 1 21/4
(1 + i) ,
z3 =
1 21/4 1 21/4
(1 + i) ei( 2 ) = π
(1 + i) ei(
3π 2
i 21/4
(1 + i)
) = − i (1 + i) . 21/4
La ecuaci´ on z 5 − z 4 + 2z − 2 = 0, tendr´a las siguientes cinco ra´ıces: z0 =
1 1 1 1 (1 + i) , z1 = − 1/4 (1 − i) , z2 = − 1/4 (1 + i) , z3 = 1/4 (1 − i) , z4 = 1 . 21/4 2 2 2
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
52
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
Una afirmaci´ on que nos han dicho, y que quiz´a no sepamos de d´onde viene, es que si un polinomio con coeficientes reales tiene ra´ıces complejas, ellas ser´ an complejas conjugadas unas de otras. Vale decir, si z 5 − z 4 + 2z − 2 = 0 tiene como ra´ız (1 + i), tambi´en tendr´a como ra´ız (1 − i), como hemos visto. Esta afirmaci´ on se prueba de forma general si suponemos que tenemos la siguiente ecuaci´on ai z i = 0 ,
con i = 0, 1, 2, · · · n − 1, n ⇒ a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ,
donde los coeficientes a0 , a1 , a2 , · · · , an−1 , an los suponemos reales, esto es: ai = a∗i para todos los valores del ´ındice i. Al tomar el complejo conjugado nos queda: 2
n−1
como los coeficientes son reales tenemos que 2
n
+ a∗n (z ∗ ) = 0 ,
in ar
a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ⇐⇒ a∗0 + a∗1 z ∗ + a∗2 (z ∗ ) · · · + a∗n−1 (z ∗ )
n−1
a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ⇐⇒ a0 + a1 z ∗ + a2 (z ∗ ) · · · + an−1 (z ∗ )
n
+ an (z ∗ ) = 0 ,
esto nos dice que si z es soluci´ on tambi´en lo ser´a z ∗ ya que la ecuaci´on es la misma por tener los mismos coeficientes (reales). Ahora consideremos el siguiente polinomio complejo
re lim
Ejemplo:
P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = 0 .
Si por alg´ un m´etodo comprobamos que (z 3 − 2) es uno de sus factores, entonces podremos encontrar las ra´ıces del polinomio P (z). Veamos, claramente si (z 3 − 2) es un factor podemos expresar P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = (z 3 − 2)(z 3 − z 2 + 4z − 4) = (z 3 − 2)(z − 1)(z 2 + 4) , con lo cual, como z es complejo, hay que tener cuidado con las ra´ıces encubiertas. Entonces, la ra´ıces son: z3 = 2 ,
Para z 3 = 2 ⇒ z 3 = 2 ei(2πk) Por lo tanto:
1/3 2πk ⇒ z = 2 ei(2πk) = 21/3 ei( 3 ) ) = −2
2π 3
ad o
z0 = 21/3 , z1 = 21/3 ei( 6
5
4
z 2 = −4
rP
Para z 2 = −4 ⇒ z = ±2i .
z = 1,
3
1/3
2
h
1−
√ i √ i 4π 21/3 h 3i , z2 = 21/3 ei( 3 ) = − 1 + 3i . 2
2
La ecuaci´ on z − z + 4z − 6z + 2z − 8z + 8 = 0, tendr´a las siguientes seis ra´ıces: √ √ i 1 h 3 z = 2, z = −√ 3 i , z = 1 , z = ±2i . 1 ± 3 4
Bo rr
Logaritmos y potencias de n´ umeros complejos Definamos la siguiente funci´ on z = eiθ
⇐⇒
Ln(z) = iθ ,
donde Ln representa el logaritmo natural del n´ umero complejo z. N´otese que hemos utilizado Ln en lugar de tradicional ln y la raz´ on es la ambig¨ uedad impl´ıcita en la notaci´on de Euler, vale decir z = reiθ
⇐⇒
Ln(z) = ln(r) + i (θ + 2nπ) = ln(r) + iθ ,
en otras palabras, Ln(z) no es funci´ on por el hecho de ser multivaluada. Se supera esta dificultad cuando se restringe el argumento −π < θ ≤ π y esta se conoce como el valor principal de la funci´ on
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
53
´ 1.8. VECTORES Y NUMEROS COMPLEJOS
Ejemplos:
h i π π Ln (−3i) = Ln 3ei(− 2 +2nπ) = ln(3) + i − + 2nπ con n = 0, 1, 2, · · · 2 decimos que el valor principal del Ln (−3i) ser´a ln(3) − i π2 . Con la misma intuici´ on se procede con las potencias de n´ umeros complejos. Si queremos evaluar z = i−5i tendremos que proceder como sigue h π i π z = i−5i ⇒ Ln (z) = Ln i−5i = −5i Ln (i) = −5i Ln ei( 2 +2nπ) = 5 + 2nπ , 2
in ar
con lo cual z = i−5i ¡es un n´ umero real! h√ 3 i Para finalizar consideremos otro par de casos de potencias y logaritmos: ii y Ln 3+i . h π ii 2 π π ii = ei( 2 +2nπ) = ei ( 2 +2nπ) = e−( 2 +2nπ) ,
1.8.5.
h √
3+i
3 i
h i i arctan √13 = 3 Ln 2e = 3 ln(2) + i arctan √13 + 2nπ = ln(8) + i
Ejercicios
π 2
+ 6nπ .
re lim
Ln
1. Si los n´ umeros complejos z1 = x1 + iy1 y z2 = x2 + iy2 se pueden representar como vectores en el plano z1 = x1 i + y1 j y z2 = x2 i + y2 j, muestre que z1∗ z2 = z1 · z2 + ik · (z1 × z2 ) 2. Demuestre que
rP
a) cos(3α) = cos3 (α) − 3 cos(α)sen2 (α)
b) sen(3α) = 3 cos2 (α)sen(α) − sen3 (α) 3. Demuestre que a) cos4 (α) =
(3 + 4 cos(2α) + cos(4α))
b) cos (α) + sen3 (α) =
1 4
cos(3α) + 3 cos(α) − sen3 (α) + 3sen(α)
ad o
3
1 8
4. Demuestre que
ix − 1 ix + 1
iy
= e(−2y cot
−1
(x))
Bo rr
donde x y y son n´ umeros reales. 5. Encuentre las ra´ıces de a) 2i
Hern´ andez & N´ un ˜ez
b) 1 −
√
3i
c) (−1)1/3
d) 81/6
√ e) (−8 − 8 3i)1/4
Universidad de los Andes / Universidad Industrial de Santander
54
1.9. ALGUNOS EJEMPLOS RESUELTOS
1.9.
Algunos ejemplos resueltos
1. Hemos definido como la posici´ on, R, del centro de masa para un sistema de N part´ıculas como R=
ΣN i=1 mi ri ΣN j=1 mj
donde ri corresponde con la posici´ on de la i−´esima part´ıcula. Determine la posici´ on del centro de masa para un sistema de tres masas, mi = 1,2,3, colocadas en los v´ertices de un tri´ angulo equil´ atero de lado l = 2.
in ar
Soluci´ on: Al colocar el origen de coordenadas en uno de los v´ertices y uno de los ejes de coordenadas sobre uno de los lados, entonces √ √ 1 · 2i + 3 · i + 3j Σ3i=1 mi ri m1 r1 + m1 r1 3 5 R= 3 = = = i+ j Σj=1 mj MT 6 6 2
a = 3i + 2j + k ,
re lim
2. Dada una base ortonormal {i, j, k} y los siguientes vectores b = 3i − 2j + k ,
c=i−k
rP
a) Comprobar si {a, b, c} forman una base. Soluci´ on: Para que los vectores formen una base tienen que ser linealmente independientes. Esto es αa + βb + γc = 0 ⇒ α = β = γ = 0, con lo cual 3α + 3β + γ = 0 2α − 2β = 0 α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) = 0 ⇒ α+β−γ =0
ad o
y al resolver el sistema se obtiene: α = β = γ = 0 con lo cual se demuestra que son linealmente independientes. Otra manera de resolverlo es mostrar que: c · (a × b) 6= 0 y efectivamente 1 0 −1 1 = 4 6= 0 . c · (a × b) = 3 2 3 −2 1
Bo rr
b) Si {a, b, c} forman una base, exprese d = i + 2j , e = 3i − 2j y f = a × b en t´ermino de esa base {a, b, c}. De lo contrario, construya una base como {a, b, a × b} y exprese los vectores {d, e, f } en t´ermino de esa nueva base. Soluci´ on: Como forman base expresamos los vectores en esos t´erminos. Esto es 3α + 3β + γ = 1 2α − 2β = 2 i + 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒ α+β−γ =0 resolviendo tendremos que d = 85 a − 38 b + 41 c. Seguidamente 3α + 3β + γ = 3 2α − 2β = −2 3i − 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒ α+β−γ =0
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
55
1.9. ALGUNOS EJEMPLOS RESUELTOS
resolviendo tendremos que e = − 18 a + 78 b + 43 c Ahora bien i f = a × b ≡ (3i + 2j + k) × (3i − 2j + k) ≡ 3 3
j 2 −2
k 1 1
= 4i − 12k
con lo cual
in ar
3α + 3β + γ = 4 2α − 2β = 0 4i − 12k = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒ α + β − γ = −12 y finalmente f = a × b = −a − b + 10c .
3. Utilizando la notaci´ on de ´ındices demostrar que para cualquier tr´ıo de vectores {a, b, c} se cumple que a × (b × c) + b × (c × a) + c × (a × b) = 0. Soluci´ on: En notaci´ on de ´ındices
re lim
a × (b × c) + b × (c × a) + c × (a × b) = lmi am ijk bj ck + lmi bm ijk cj ak + lmi cm ijk aj bk con lo cual, arreglando
lmi ijk am bj ck + lmi ijk bm cj ak + lmi ijk cm aj bk = δjl δkm − δjm δkl am bj ck + δjl δkm − δjm δkl bm cj ak + δjl δkm − δjm δkl cm aj bk y ahora desarrollando los productos de las δ’s, e indentificando t´ermino a t´ermino, notamos que se anula I
II
rP
ak bl ck −ak bk cl + bk cl ak −bk ck al + ck al bk −ck ak bl = 0 . | {z } | {z } | {z } | {z } | {z } | {z } II
III
III
I
4. Una part´ıcula se mueve a lo largo de una curva descrita por
ad o
x(t) = 3t2
y(t) = 4t3 − t
z(t) = t
a) Encuentre las expresiones para los vectores: posici´on, velocidad y aceleraci´on de esa part´ıcula. Soluci´ on: r(t) = 3t2 i + (4t3 − t)j + tk ,
v = 6ti + (12t2 − 1)j + k ,
a = 6i + 24tj .
Bo rr
b) Encuentre las expresiones, m´ as generales, de los vectores tangentes y perpendiculares a todo punto de la trayectoria de la part´ıcula. Soluci´ on: Vector tangente a todo punto de la trayectoria es el vector velocidad v = 6ti + (12t2 − 1)j + k ,
El perpendicular a todo punto, ser´a un vector b = bx i + by j + bz k, tal que (6ti + (12t2 − 1)j + k) · (bx i + by j + bz k) = 6tbx + (12t2 − 1)by + bz = 0 ,
con lo cual
b = bx i + by j − (6tbx + (12t2 − 1)by )k . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
56
1.9. ALGUNOS EJEMPLOS RESUELTOS
5. El campo de fuerzas del oscilador anarm´onico anis´otropo bidimensional se escribe como F = −k1 x2 i + k2 yj . Encuentre el trabajo realizado,
R (x2 ,y2 ) (x1 ,y1 )
(1.2)
dr · F a lo largo de las siguientes trayectorias
a) (1, 1) → (4, 1) → (4, 4) Soluci´ on: Z Z (4,1) (idx) · (−k1 x2 i + k2 j) +
(4,4)
(jdy) · (−k1 16i + k2 yj) = −21k1 +
b) (1, 1) → (1, 4) → (4, 4) Soluci´ on: Z (1,4) Z (jdy) · (−k1 i + k2 yj) + (1,1)
in ar
(4,1)
(1,1)
(4,4)
(idx) · (−k1 x2 i + k2 4j) = −21k1 +
(1,4)
re lim
c) (1, 1) → (4, 4) para x = y Soluci´ on: Z (4,4) Z (idx + jdx) · (−k1 x2 i + k2 xj) = (1,1)
15k2 2
15k2 2
(4,4)
(−k1 x2 + k2 x)dx = −21k1 +
(1,1)
15k2 2
6. Dados los siguientes puntos en el espacio (1, 0, 3); (2, −1, 0); (0, −1, 1); (−1, 0, 1).
rP
a) Considere los tres primeros puntos. ¿Estos tres puntos son coplanares? ¿por qu´e? Explique. Soluci´ on: Tres puntos en el espacio definen un plano, por lo tanto siempre ser´an coplanares.
y
ad o
b) Encuentre el ´ area del tri´ angulo que tiene por v´ertices esos tres puntos. Soluci´ on: Para ello seleccionamos uno de los puntos como un v´ertice privilegiado (digamos (2, −1, 0)) respecto al cual construir´emos dos vectores que representan dos de los lados del tri´ angulo. Esto es a = (1, 0, 3) − (2, −1, 0) ↔ a = −i + j + 3k , b = (0, −1, 1) − (2, −1, 0) ↔ b = −2i + k ,
Bo rr
con lo cual, el ´ area del v´ertice ser´a la dos vectores. Es decir i 1 A = |a × b| ⇒ a × b = −1 2 −2
mitad del ´area del paralelogramo que tiene por lados estos j 1 0
k 3 1
√ = i − 5j + 2k ⇒ A = 1 |i − 5j + 2k| = 30 . 2 2
c) Encuentre la ecuaci´ on del plano que los contiene Soluci´ on: La ecuaci´ on del plano vendr´a dada por (r − r1 ) · ((r2 − r1 ) × (r3 − r1 )) = 0 ,
donde
r = xi + yj + zk, Hern´ andez & N´ un ˜ez
r1 = i + 3k,
r2 = 2i − j,
r3 = −j + k,
Universidad de los Andes / Universidad Industrial de Santander
57
1.9. ALGUNOS EJEMPLOS RESUELTOS
con lo cual la ecuaci´ on del plano queda como (x − 1) y (z − 3) 1 −1 −3 = 0 ⇒ −(x − 1) + 5y − 2(z − 3) = 0 ⇒ x − 5y + 2z = 7 . −1 −1 −2
in ar
d ) Considere los cuatro puntos ¿Estos cuatro puntos son coplanares? ¿por qu´e? De NO ser coplanares, encuentre la distancia del cuarto punto al posible plano que contiene a los otros tres. Soluci´ on: Para verificar si el cuarto punto est´a en el plano, verificamos si cumple la ecuaci´on que lo define (−1) − 5(0) + 2(1) 6= 7 , los cuatro puntos no son coplanares. Para calcular la distancia del cuarto punto al plano se construye el vector unitario normal al plano ˆP = n
a×b 1 = √ (i − 5j + 2k) , |a × b| 30
1 ˆ P · c = √ (i − 5j + 2k) · (−3i + j + k) , d=n 30
re lim
con lo cual la distancia al cuarto punto ser´a
1 6 ˆ P · c = √ (i − 5j + 2k) · (−3i + j + k) = − √ . d=n 30 30 7. Considere los siguientes tres vectores w1 = i + 3k ,
w2 = 2i − 3j ,
w3 = −j + k .
rP
a) ¿Forman una base para R3 ? Explique detalladamente Soluci´ on: Son linealmente independientes, estos es
αw1 + βw2 + γw3 = 0 ⇒ α = β = γ = 0 ,
ad o
que se comprueba directamente al resolver α
3α
+2β −3β
−γ +γ
=0 =0 =0
Bo rr
b) Si es que forman base, exprese el vector a = i − 3j + 3k en la posible base {w1 , w2 , w3 } Soluci´ on: Como son linealmente independientes, forman base, con lo cual cualquier vector puede ser expresado como combinaci´ on lineal de estos tres. Eso es: 1 α= 3 =1 α +2β −3β −γ = −3 β = 13 a = αw1 + βw2 + γw3 ⇒ ⇒ 3α +γ = 3 γ=2
8. Utilizando la notaci´ on de ´ındices muestre si se cumple la siguiente identidad ∇ × (a × b) = a (∇ · b) − b (∇ · a) + (b · ∇) a − (a · ∇) b.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
58
1.9. ALGUNOS EJEMPLOS RESUELTOS
Soluci´ on: j i j ∇ × (a × b) = ijk ∂j (klm al bm ) = (δli δm − δm δl )∂j (al bm ) = ∂m (ai bm ) − ∂l (al bi ) ,
expandiendo la derivada ∇ × (a × b) = bm ∂m (ai ) + ai ∂m (bm ) − bi ∂l (al ) − al ∂l (bi ) ≡ (b · ∇)a + (∇ · b)a − (∇ · a)b − (a · ∇)b . 9. La trayectoria de un punto en el plano vista por un observador 1 es
in ar
r1 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j . a) Exprese las aceleraciones radiales y tangenciales de esta part´ıcula. Soluci´ on: Es claro que la part´ıcula describe un movimiento circular donde θ(t) = 3t2 r(t) = 5ˆ ur ⇒ v(t) =
dθ(t) da(t) dr(t) ˆ θ = 30t u ˆ θ ⇒ a(t) = ˆ θ − 30t u ˆr . =5 u = 30 u dt dt dt
re lim
b) Considere ahora un segundo observador, el cual describe una trayectoria respecto al primero representada por r21 (t) = (t3 − 4t)i + (t2 + 4t) j . Encuentre las expresiones para los vectores posici´on, velocidad y aceleraci´on de la part´ıcula medidos respecto al segundo observador. Soluci´ on: La trayectoria de la part´ıcula respecto al segundo observador ser´a
con lo cual
rP
r2 (t) = r1 (t) − r21 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j − ((t3 − 4t)i + (t2 + 4t) j) , r2 (t) = 5 cos(3t2 ) − t3 + 4t i + 5 sen(3t2 ) − t2 − 4t j , entonces
y
dv2 (t) = −6 30 cos 3t2 t2 + 5sen 3t2 + t i − 2 90sen 3t2 t2 − 15 cos 3t2 + 1 j . dt
Bo rr
a2 (t) =
dr2 (t) = − 30 sen 3 t2 t + 3 t2 − 4 i + 30 cos 3 t2 t − 2 t − 4 j , dt
ad o
v2 (t) =
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
59
1.10. EJERCICIOS PROPUESTOS
1.10.
Ejercicios propuestos
1. Utilizando un programa de manipulaci´on simb´olica (ver Ap´endice 5.1) realice las siguientes tareas.
A = i1 + 2i2 + 3i3 ,
B = 4i1 + 5i2 + 6i3 ,
in ar
a) Calcule la funci´ on f (z) = ez a partir de su expansi´on en serie que la define. Calcule tambi´en f (z) inπ cuando z = e 6 para n = 0, 1, 2, . . . , 12. Para los diferentes valores de n haga una tabla con los z z z valores de: θ = nπ 6 , Re (z), Im (z), Re (e ), Im (e ), |z| y la fase de e . b) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (senh(z)), Im (senh(z)), |senh(z)| y la fase de senh(z). c) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (cosh(z)), Im (cosh(z)), | cosh(z)| y la fase de cosh(z). d ) Dados los siguientes vectores C = 3i1 + 2i2 + i3 ,
D = 6i1 + 5i2 + 4i3
re lim
Encuentre: 1) A + B + C + D , A + B − C − D , A − B + C − D , −A + B − C + D 2) El ´ angulo entre los vectores A, B, C, D y los vectores base i1 , i2 , i3 . 3) La magnitud de los vectores A, B, C, D. 4) El ´ angulo entre A y B y entre C y D. 5) La proyecci´ on de A sobre B. 6) ¿Son los vectores A, B, C, D coplanares? 7) Encuentre (A + B) · (C + D) 8) Los productos A × B, B × C, C × D y los ´angulos que estos forman con D. 9) C · (A × B).
ad o
rP
2. Auguste Bravais9 se dio cuenta que replicando un arreglo geom´etrico muy simple, se puede describir una estructura cristalina. Dicho de otro modo, que conociendo una celda simple, podemos conocer la estructura cristalina. Esto es que las posiciones de los ´atomos en una red cristalina puede ser descrita por un vector R = a + b + c = n1 a1 + n2 a2 + n3 a3 = ni ai donde los ai son vectores no coplanares (vectores primitivos o, simplemente en nuestro lenguaje, vectores base). Los ni son n´ umeros enteros (negativos, cero o positivos). La posici´ on de cada ´atomo de un cristal puede ser descrita como reescalamientos (discretos) de este vector gen´erico o, de manera m´as precisa, la traslaci´on del origen de coordenadas por un vector. Ese concepto se conoce como redes de Bravais10 . En cada red puede haber varios vectores primitivos11 . Se puede definir la celda primitiva como la estructura m´ınima que replicada reproduce todo el cristal. Vale decir la estructura cristalina es invariante bajo traslaciones espaciales del tipo R0 = R + T con T = mi ai .
Bo rr
a) Redes de Bravais bidimensionales. Tal y como muestra la Figura 1.7 existen 5 tipos distintos de redes de Bravais bidimensionales. 1) Dada la red bidimensional de la Figura 1.8 encuentre todos los posibles vectores primitivos y celdas primitivas asociadas. 2) La humanidad ha estado seducida por la geometr´ıa desde que empez´o a representar figuras. A partir de las cuatro im´ agenes que se ilustran en la Figura 1.9, encuentre todos los posibles vectores y celdas primitivas asociadas.
9 http://en.wikipedia.org/wiki/Auguste_Bravais
10 http://en.wikipedia.org/wiki/Bravais_lattice 11 http://www.engr.sjsu.edu/rkwok/Phys175A/Chapter%201.pdf
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
60
re lim
in ar
1.10. EJERCICIOS PROPUESTOS
Figura 1.7: Las 5 redes de Bravais bidimensionales fundamentales: 1 Oblicuas, 2 rectangular, 3 rectangular centrada (r´ ombica), 4 hexagonal, y 5 cuadrada. Figura tomada de http://en.wikipedia.org/wiki/ Bravais_lattice
rP
3) Maurits Cornelis Escher12 fue un fenomenal dibujante holand´es, quien se interes´o por las simetr´ıas de los grupos de im´agenes de papel tapiz. Berend, hermano de Maurits, era cristal´ ografo y le mostr´ o la belleza de las simetr´ıas de la naturaleza. En las cuatro obras del g´enero de Teselado13 de M.C. Escher, presentadas en la Fig 1.10 encuentre todos los posibles vectores y celdas primitivas asociadas.
ad o
b) Redes de Bravais Tridimensionales. Este tipo de redes complica un poco mas el escenario. Se puede demostrar que existen 14 de estas redes, tal y como se muestran en la Figura 1.11
Bo rr
Muestre que los vol´ umenes de ocupaci´on at´omica, para los sistemas Monocl´ınico, Tricl´ınico, Ortor´ ombico, Tetragonal, Rombo´edrico, exagonal y c´ ubico, corresponden a las expresiones que se muestran en la Figura 1.11. El sistema c´ ubico, el m´ as simple, corresponde a un sistema con un u ´nico par´ametro de red a = |a|, ya que a = b = c. Adem´as, una posible descripci´on, para el caso m´as simple, es a = i; b = j; c = k, los tres vectores cartesianos ortogonales. Existen otros sistemas que tambi´en est´ an asociados al c´ ubico. Estos son el sistema c´ ubico cara centrada (fcc por sus siglas en ingl´es) y c´ ubico cuerpo centrado (bcc). En el primero existen ´atomos en el centro de cada una de las caras del cubo definido por la tr´ıada, a = b = c. En el sistema fcc se a˜ nade un ´ atomo la centro del cubo simple. 1) Muestre que un sistema bcc tambi´en puede ser descrito por los vectores primitivos: a = ai, b = aj y c = a(i + j + k)/2. Dibuje la celda primitiva y calcule su volumen.
12 http://en.wikipedia.org/wiki/M._C._Escher 13 http://en.wikipedia.org/wiki/Tessellation
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
61
Figura 1.8: Red cristalina bidimensional.
in ar
1.10. EJERCICIOS PROPUESTOS
b×c ; a · (b × c)
b0 =
c×a ; a · (b × c)
rP
a0 =
re lim
2) Muestre que un sistema bcc tambi´en puede ser descrito por los vectores primitivos: a = a(j + k − i)/2, b = a(k + i − j)/2 y c = a(i + j − k)/2. Dibuje la celda primitiva y calcule su volumen. 3) Muestre que un sistema fcc tambi´en puede ser descrito por los vectores primitivos: a = a(j + k)/2, b = a(i + k)/2 y c = a(i + j)/2. Otra vez, dibuje la celda primitiva y calcule su volumen. Se puede definir la red rec´ıproca como y
c0 =
a×b ; a · (b × c)
ad o
De esta manera es claro que, por construcci´on, a0 · b = a0 · c = 0 y adem´as a0 · a = 1. Con 0 0 lo cual podemos generalizarlo como ˆ ei · ˆ ej = δji . Exprese los vectores y las celdas rec´ıprocas para los sistemas c´ ubico simple, y los distintos bcc y fcc. Calcule adem´as el vol´ umen de cada celda rec´ıproca. 3. Considerando que
r = x i + y j + z k = xm im ,
A = A(r) = A(x, y, z) = Ai (x, y, z)ii y B = B(r) = B(x, y, z) = B i (x, y, z)ii y ψ = ψ(r) = ψ(x, y, z)
Bo rr
φ = φ(r) = φ(x, y, z)
usando la notaci´ on de ´ındices e inspir´andose en las secciones 1.6.3, 1.7.5 y 1.9, muestre las siguientes identidades vectoriales a) ∇(φψ) = φ∇ψ + ψ∇φ b) ∇ · (φA) = φ∇ · A + (∇φ) · A c) ∇ × ∇φ = 0, tambi´en ∇ · (∇ × A) y ¿qu´e puede decir de ∇ × (∇ · A)?
d ) ∇ · (A × B) = (∇ × A) · B + A × (∇ × B) e) ∇ × (∇ × A) = ∇(∇ · A) − ∇2 A
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
62
re lim
in ar
1.10. EJERCICIOS PROPUESTOS
Figura 1.9: Cuatro detalles geom´etricos. Cuadrante I: Mural egipcio. Cuadrante II: Mural Mural Asirio. Cuadrante III: Tejido Tahit´ı. Cuadrante IV: Ilustraci´on en pieza de porcelana china. Tomado de http: //en.wikipedia.org/wiki/Wallpaper_group
4. Una part´ıcula se mueve bajo la ley r(t) = x(t)i + y(t)j + z(t)k con y(t) = t2 − 4t;
z(t) = 3t − 5.
rP
x(t) = 2t2 ;
El par´ ametro t representa el tiempo. Encuentre las expresiones para la aceleraci´on y la velocidad de la part´ıcula, para t = 1 y en la direcci´ on del vector i − 3j + 2k.
ad o
5. Suponga ahora el caso general de una part´ıcula que se mueve en una curva descrita por r(t) = x(t)i + y(t)j + z(t)k. Muestre que el vector velocidad es tangente a la trayectoria descrita 6. Encuentre la ecuaci´ on vectorial para una trayectoria recta que pasa por los puntos P → (1, 2, 3) y Q → (1, 1, 1) 7. Encuentre el ´ angulo entre los siguientes planos x + y + z = 9 y x + y − z = 3.
Bo rr
8. Un fluido se considera irrotacional si su campo de velocidades v = v(r) = v(x, y, z) cumple con la ecuaci´ on ∇ × v = 0. Suponga, ahora que v = (x + 2y + az)i + (bx − 3y − z)j + (4x + cy + 2z)k. a) Encuentre el valor de a, b y c para que este campo de velocidades sea irrotacional b) Es intuitivo convencerse que si ∇ × v = 0 ⇒ v = ∇ψ. Encuentre expresi´on para la funci´ on potencial ψ = ψ(r) = ψ(x, y, z) R c) Considere la siguiente integral I = C dr · v. Donde C es el circuito a recorrer. 1) Calcule el valor de la integral I a lo largo del trayecto: (0, 0, 0) → (1, 1, 0) mediante una segmento de recta. Luego, de (1, 1, 0) → (2, 0, 0) a lo largo de otro segmento de recta. Finalmente regresando (2, 0, 0) → (0, 0, 0) tambi´en siguiendo una recta.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
63
re lim
in ar
1.10. EJERCICIOS PROPUESTOS
Figura 1.10: Teselados de M.C. Escher, tomados de http://www.wikipaintings.org/en/ paintings-by-genre/tessellation?firstArtist=m-c-escher#artist-m-c-escher
rP
2) Calcule el valor de la integral I de (0, 0, 0) → (2, 0, 0) a lo largo de un arco de circunferencia que cumple con la ecuaci´ on (x−1)2 +y 2 = 1. Ahora regresando de (2, 0, 0) → (0, 0, 0) tambi´en a trav´es de una recta. 3) ¿Qu´e puede concluir del campo v? 9. Dos funciones complejas Z1 (t) y Z2 (t) cumplen con las siguientes ecuaciones
ad o
dZ1∗ −i == dt Z1 − Z2
−i dZ2∗ == dt Z2 − Z1
y
Muestre que las siguientes cantidades son constantes.
Bo rr
Z1 + Z2 |Z1 − Z2 | |Z1 |2 + |Z2 |2
10. Considere la siguiente ecuaci´ on z 7 − 4z 6 + 6z 5 − 6z 4 + 6z 3 − 12z 2 + 8z + 4 = 0
Encuentre sus ra´ıces sabiendo que z 3 = 2.
11. Muestre que la expansi´ on binomial puede ser escrita como (1 + x)n =
n X m=0
Hern´ andez & N´ un ˜ez
Am (n) xm
con Am (n) =
n! m!(n − m)!
Universidad de los Andes / Universidad Industrial de Santander
64
rP
re lim
in ar
1.10. EJERCICIOS PROPUESTOS
ad o
Figura 1.11: Las 14 Redes de Bravais Tridimensionales y las estructuras cristalinas asociadas. Tomado de http://en.wikipedia.org/wiki/Bravais_lattice
Bo rr
Si est´ a convencido de la expansi´ on anterior, considere ahora una parecida: 1 + eiθ n X
n
n X
n
n
y muestre que
θ nθ Am (n) cos(nθ) = 2 cos cos 2 2 m=0 n
y
θ nθ Am (n) sen(nθ) = 2 cos sen 2 2 m=0 n
12. Las funciones hiperb´ olicas se definen como
Hern´ andez & N´ un ˜ez
cosh(x) =
ex + e−x 2
y
senh(x) =
ex − e−x 2
Universidad de los Andes / Universidad Industrial de Santander
65
1.10. EJERCICIOS PROPUESTOS
y de manera an´ aloga a las funciones trigonom´etricas tendremos el resto de funciones tanh(x) =
senh(x) ; cosh(x)
sech(x) =
1 ; cosh(x)
csech(x) =
1 ; senh(x)
ctanh(x) =
1 ; tanh(x)
a) Muestre las siguientes equivalencias cosh(x) = cos(ix),
i senh(x) = sen(ix),
cos(x) = cosh(ix)
y
i sen(x) = senh(x)
b) Muestre las siguientes identidades sech2 (x) = 1 − tanh2 (x);
cosh(2x) = cosh2 (x) + senh2 (x)
c) Resuelva las siguientes ecuaciones hiperb´olicas cosh(x) − 5senh(x) − 5 = 0,
2 cosh(4x) − 8 cosh(2x) + 5 = 0
y
in ar
cosh2 (x) − senh2 (x) = 1;
cosh(x) = senh(x) + 2sech(x)
re lim
˜ puede expresarse en d ) La posici´ on de una part´ıcula vista desde dos observadores relativistas O y O t´ermino de funciones hiperb´ olicas como cosh(φ) −senh(φ) µ µ µ x ˜ = Lν xν con {µ, ν} = 0, 1 y Lν = senh(φ) cosh(φ)
Bo rr
ad o
rP
¯ νµ x ¯ µν tal que xν = L ˜µ Encuentre la matriz L 2 0 2 1 2 0 2 Muestre que ds = (x ) − (x ) = (˜ x ) − (˜ x1 )2 .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
66
in ar
Bibliograf´ıa
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici´ on (Academic Press, Nueva York)
re lim
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York) [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:
rP
[6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) [7] Santal´ o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
Bo rr
ad o
[8] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
67
2
Bo rr
ad o
rP
re lim
Espacios Vectoriales Lineales
in ar
Cap´ıtulo
68
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES
2.1. 2.1.1.
Grupos, cuerpos y espacios vectoriales Grupos
Considere el siguiente conjunto G = {g1 , g2 , g3 , · · · , gn , · · · } y la operaci´on interna (la ley del grupo). Entonces los elementos del conjunto forman un grupo abeliano1 respecto a la operaci´on si ∀ gi ∈ G se tiene que: 1. Cerrada respecto a la operaci´ on : {gi ∈ G, gj ∈ G} ⇒ ∃ gk = gi gj ∈ G
3. Existencia de un elemento neutro: ∃ g ˆ ∈ G ⇒ gi g ˆ = gi = g ˆ gi
in ar
2. Asociativa respecto a la operaci´ on : gk (gi gj ) = (gk gi ) gj
4. Existencia de un elemento inverso: gi ∈ G ⇒ ∃ gi−1 ∈ G ⇒ gi gi−1 = gi−1 gi = g ˆ 5. Conmutativa respecto a la operaci´ on : gi gj ≡ gj gi .
re lim
Ejemplos de grupos: Los enteros Z = {· · · − 3 − 2, −1, 0, 1, 2, 3, · · · } respecto a la suma; Los racionales respecto a la suma y a la multiplicaci´on;
Los n´ umeros complejos z = eiθ respecto a la multiplicaci´on;
Las rotaciones en 2 dimensiones (2D), y las rotaciones en 3D (grupo no-abeliano); El conjunto de matrices de dimensiones n × m respecto a la suma, es un grupo abeliano.
ad o
rP
Dado un grupo de tres elementos: G = {1, a, b}, con g ˆ ≡ 1 y la operaci´on . Por construcci´on, si que´ remos que la operaci´ on de dos de los elementos provea un tercero distinto, entonces la UNICA “tabla de multiplicaci´ on” posible ser´ a: 1 a b
1 1 a b
a a b 1
b b 1 a
Bo rr
Notemos que el grupo m´ as simple ser´ a aquel conformado u ´nicamente por el elemento neutro: G = {1}. Es importante se˜ nalar que si s´ olo se cumplen las cuatro primeras condiciones entonces se dice que simplemente forman grupo respecto a la operaci´on . Se pueden definir subgrupos si un subconjuntos de los elementos de un grupo gi ∈ G tambi´en forman un grupo. El n´ umero de los elementos de un grupo puede ser finito o infinito. En el primer caso se denominan grupos finitos y el n´ umero de elementos que contenga se conoce como el orden del grupo. Un grupo finito 1 NIELS HENRIK ABEL, (1802-1829 Noruega) Pionero en el desarrollo de diferentes ramas de la matem´ atica moderna, Abel mostr´ o desde su infancia un notable talento para el estudio de las ciencias exactas. Tal predisposici´ on se ver´ıa muy pronto confirmada por sus precoces investigaciones sobre cuestiones de a ´lgebra y c´ alculo integral, en particular sobre la teor´ıa de las integrales de funciones algebraicas (a las que se denominar´ıa abelianas en honor de su formulador) que no habr´ıa de publicarse hasta 1841, doce a˜ nos despu´ es de su fallecimiento. En 2002 el gobierno noruego lanz´ o el premio Abel que llenar´ a el vac´ıo que existe en la premiaci´ on Nobel del gobierno sueco, en el cual no existe premiaci´ on para la comunidad matem´ atica.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
69
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES
que se construye a partir ´nico miembro se denomina grupo c´ıclico, y el caso de una operaci´on con un u m´ as elemental es G = I, X, X 2 , X 3 , · · · , X g−1 . Obviamente hemos definido aqu´ı: X 2 = XX y X 3 = X 2 X = XXX y as´ı consecutivamente hasta ejecutarse g − 1 veces, entonces se retoma el elemento identidad, esto es: X g−1 X = X g = I. Consideremos los siguientes conjuntos y operaci´on2 multiplicaci´on m´odulo X, es decir (a · b)modX :
×mod8 1 3 5 7
1 1 3 5 7
3 3 1 7 5
5 5 7 1 3
7 7 5 3 1
in ar
Gmod8 = {1, 3, 5, 7} y la operaci´ on multiplicaci´on m´odulo 8. De esta manera construimos la tabla de multiplicaci´ on del grupo
Recordemos que la regla usada, por ejemplo para 3 y 7, es la siguiente: 3 · 7 = 21 y el residuo de dividir 21 entre 8 es 5, por lo tanto (3 · 7)mod8 = (21)mod8 = 5. (21 ÷ 8 = 2 × 8 + 5)
×mod5 1 2 3 4
1 1 2 3 4
2 2 4 1 3
3 3 1 4 2
4 4 3 2 1
re lim
Gmod5 = {1, 2, 3, 4} y la operaci´ on multiplicaci´on m´odulo 5. Tabla: ×mod5 1 2 4 3
⇔
1 1 2 4 3
2 2 4 3 1
4 4 3 1 2
3 3 1 2 4
rP
Gmod24 = {1, 5, 7, 11} y la operaci´ on multiplicaci´on m´odulo 24. Tabla de multiplicaci´on:
ad o
×mod24 1 5 7 11
1 1 5 7 11
5 5 1 11 7
7 7 11 1 5
11 11 7 5 1
Bo rr
G× = {1, i, −1, −i} y la operaci´ on multiplicaci´on: × 1 i -1 -i
1 1 i -1 -i
i i -1 -i 1
-1 -1 -i 1 i
-i -i 1 i -1
Diremos que los grupos Gmod8 y Gmod24 son isomorfos porque tienen tablas equivalentes de multiplicaci´ on. Esto es, dado un grupo gen´erico G = {1, A, B, C} su tabla de multiplicaci´on ser´a:
2 Vamos a considerar lo que se conoce como Arim´ etica Modular. Sabemos que para la divisi´ on de dos enteros a y b (b 6= 0) existe un u ´nico entero c tal que a = cb + r con 0 ≤ r ≤ |b|. Y como es conocido: a, b, c y r son: el dividendo, el divisor, el cociente y el resto, respectivamente. Cuando r = 0 se dice que a es divisible por b. En esta “arim´ etica”tan particular se establece una relaci´ on de congruencia sobre los enteros: para un entero positivo n, dos enteros a y b se llaman congruentes m´ odulo n (mod n) si a y b tienen el mismos resto r cuando se dividen entre n, y se denota a ≡ b mod n.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
70
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES
× 1 A B C
1 1 A B C
A A 1 C B
B B C 1 A
C C B A 1
× 1 A B C
2.1.2.
1 1 A B C
A A B C 1
B B C 1 A
C C 1 A B
Cuerpo
in ar
Note que A−1 =A y que siempre la operaci´on de dos elementos da uno distinto a los operados. De igual forma los grupos G× y Gmod5 son isomorfos con una tabla de multiplicaci´on
re lim
Definiremos como un cuerpo (o campo) el conjunto A = {α1 , α2 , α3 , · · · , αn , · · · } sobre el cual est´ an definidas dos operaciones: suma (+) y multiplicaci´on (·) y que satisfacen las siguientes propiedades: 1. Forman un grupo abeliano respecto a la suma (+) con el elemento neutro representado por el cero 0. 2. Forman un grupo abeliano respecto a la multiplicaci´on (·). Se excluye el cero 0 y se denota el elemento neutro de la multiplicaci´ on como 1.
rP
3. Es distributiva respecto a la suma (+) : Dados αi , αj y αk se tiene que αi · (αj + αk ) = αi · αj + αi · αk .
Ejemplos t´ıpicos de campos lo constituyen los racionales Q, los n´ umeros reales R y los n´ umeros complejos C. Normalmente se refiere estos campos como Campos Escalares.
2.1.3.
Espacios vectoriales lineales
ad o
Sea el conjunto de objetos V = {|v1 i , |v2 i , |v3 i · · · |vi i · · · }. Se denominar´a V un espacio vectorial lineal y sus elementos |vi i vectores, si existe una operaci´on suma, , respecto a la cual los elementos |vi i ∈ V forman un grupo abeliano y una operaci´ on multiplicaci´on por un elemento de un campo, K = {α, β, γ · · · }, tal que: (tambi´en suele decirse: un espacio vectorial V sobre K) 1. V es cerrado bajo la operaci´ on suma : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i |vj i ∈ V
Bo rr
2. La operaci´ on suma es conmutativa: ∀ |vi i , |vj i ∈ V ⇒ |vi i |vj i = |vj i |vi i
3. La operaci´ on suma es asociativa: ∀ |vi i , |vj i , |vk i ∈ V ⇒ (|vi i |vj i) |vk i = |vi i (|vj i |vk i)
4. Existe un u ´nico elemento neutro |0i : |0i |vi i = |vi i |0i = |vj i ∀ |vi i ∈ V
5. Existe un elemento sim´etrico para cada elemento de V: ∀ |vi i ∈ V ∃ |−vi i / |vi i |−vi i = |0i 6. V es cerrado bajo el producto por un escalar: ∀ α ∈ K y cualquier |vi i ∈ V ⇒ α |vi i ∈ V 7. α (β |vi i) = (αβ) |vi i
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
71
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES
8. (α + β) |vi i = α |vi i β |vi i 9. α (|vi i |vj i) = α |vi i α |vj i 10. 1 |vi i = |vi i ∀ |vi i ∈ V
2.1.4.
in ar
Es importante resaltar lo siguiente: existe dos objetos neutros, el vector |0i ∈ V y el escalar 0 ∈ K y tambi´en dos operaciones producto diferentes, el producto de dos escalares dentro de K y el producto de un escalar α ∈ K por un vector |vi ∈ V. Notemos tambi´en que podemos definir subespacios S vectoriales dentro de los espacios vectoriales. Ellos ser´ an aquellos conjuntos de vectores que cumplan con los requisitos anteriores pero adem´as cerrados dentro de los mismos conjuntos de vectores. Se puede ver entonces que la condici´on necesaria y suficiente para que S ⊆ V sea un subespacio vectorial de V es que para cualesquiera |ui i y |uj i de S y para cualesquiera α y β de K se tiene que: α |ui i + β |uj i ∈ S.
Ejemplos espacios vectoriales
re lim
1. Los conjunto de los n´ umeros reales V = R y el conjunto de los n´ umeros complejos V = C con el campo K de reales o complejos y definidas las operaciones ordinarias de suma y multiplicaci´on. Cuando el campo K es el conjunto de los n´ umeros reales se dir´a que es un espacio vectorial real de n´ umeros reales si V ≡ R, pero si V ≡ C se dir´a un espacio vectorial real de n´ umeros complejos. Por su parte, si K ≡ C diremos que es un espacio vectorial complejo. Siempre se asociar´a el campo de escalares al espacio vectorial: se dir´ a que es un espacio vectorial sobre el campo de los escalares. Es decir, si el campo es real (complejo) se dir´a que el espacio vectorial es real (complejo).
rP
2. El espacio V ≡ Rn = R × R × · · · × R, vale decir el producto cartesiano de R, cuyos elementos son n−uplas de n´ umeros, con la operaci´ on suma ordinaria de vectores en n-dimensionales y la multiplicaci´ on por escalares. |xi = (x1 , x2 , x3 , · · · xn )
∧
|yi = (y1 , y2 , y3 , · · · , yn )
|xi |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · xn + yn )
ad o
α |xi = (αx1 , αx2 , αx3 , · · · αxn ) . Este espacio vectorial es de dimensi´ on finita. Igualmente, ser´a un espacio vectorial Cn = C×C×· · ·×C para el cual los elementos xi ∈ C. Si para este caso el campo sobre el cual se define el espacio vectorial Cn es real, tendremos un espacio vectorial real de n´ umeros complejos.
Bo rr
Es obvio que el caso V ≡ R para el cual |xi1 = (x1 , 0, 0, · · · , 0) y |yi1 = (y1 , 0, 0, · · · , 0) o cualquier espacio de vectores formados por las componentes, i.e. |xii = (0, 0, 0, · · · , xi , · · · 0) y |yii = (0, 0, 0, · · · , yi , · · · 0) formar´ an subespacios vectoriales dentro de Rn . En el caso espec´ıfico de R3 , y en donde hemos desarrollado todo un conjunto de conceptos matem´ aticos, es bueno comentar sobre la equivalencia que hemos tomado como obvia entre dos definiciones diferentes: Los vectores a = (a1 , a2 , a3 ) y b = (b1 , b2 , b3 ) con sus respectivas operaciones para la suma a + b = (a1 + b1 , a2 + b2 , a3 + b3 ) y multiplicaci´on por un escalar λ a = (λa1 , λa2 , λa3 ), con {ai }, {bi } y λ ∈ R. Los vectores geom´etricos, es decir, segmentos orientados en el espacio con un origen com´ un y donde la suma se defini´ o mediante la regla del paralelogramo y el producto por un escalar como el alargamiento o acortamiento de los segmentos o flechas con el posible cambio de direcci´on.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
72
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES
Aunque son vectores de R3 es bueno tener claro que se trata de objetos diferentes que viven en espacios vectoriales diferentes. Se puede decir tambi´en que son dos representaciones diferentes para los vectores. Es buena la ocasi´ on para se˜ nalar que existe una manera de pasar de una representaci´ on a otra, esto se hace por medio de una funci´on que asigne a una tr´ıada (x1 , x2 , x3 ) una y s´olo una flecha (y viceversa), conservando por supuesto las operaciones de suma y multiplicaci´on por escalares. A este tipo de funciones se les denomina un isomorfismo.
in ar
Para finalizar, tambi´en es posible ver R3 simplemente como un conjunto de puntos donde se pueden definir superficies embebidas, como por ejemplo una esfera, S2 , centrada en el origen y de radio R. En un punto q sobre la esfera es posible generar un plano tangente a la esfera y en ese punto construir un espacio vectorial con todos los vectores cuyo origen est´a en q, y por lo tanto, son tangentes a la esfera. En el lenguaje de la Geometr´ıa Diferencial y las Variedades a este conjunto de vectores se le denota con: Tq S2 . Lo anteriormente dicho se puede generalizar para Rn . 3. El espacio E∞ constituido por vectores |xi = (x1 , x2 , x3 , · · · xn , · · · ) contables pero con infinitas componentes. |xi = (x1 , x2 , x3 , · · · , xn , · · · )
∧
|yi = (y1 , y2 , y3 , · · · , yn , · · · )
re lim
|xi |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · , xn + yn , · · · ) α |xi = (αx1 , αx2 , αx3 , · · · , αxn , · · · ) , con la restricci´ on que l´ım
n→∞
n X i=1
xi = L ,
con L finito .
4. El conjunto de la matrices n × n reales o complejas con el campo K real o complejo. ∧
rP
|xi = Mab
|yi = Nab
|xi |yi ≡ Mab + Nab = (M + N )ab α |xi = αMab = (αM )ab
ad o
Es tambi´en obvio que se podr´ an formar subespacios vectoriales cuyos elementos sean matrices de dimensi´ on menor a n × n. 5. El conjunto de los vectores geom´etricos, o vectores cartesianos, en 2 y 3 dimensiones con las propiedades habituales de suma vectorial y multiplicaci´on por un escalar. 6. El conjunto de todos los polinomios con coeficientes reales: P = a0 , a1 x, a2 x2 , · · · , an xn , · · · , con la suma ordinaria entre polinomios y la multiplicaci´on ordinaria de polinomios con escalares.
Bo rr
7. Espacios Funcionales (de los cuales los polinomios son un caso particular). En estos espacios los vectores ser´ an funciones, la suma ser´ a la suma ordinaria entre funciones y la multiplicaci´on por un escalar tambi´en ser´ a la multiplicaci´ on ordinaria de una funci´on por un elemento de un campo |f i = f (x)
∧
|gi = g (x)
|f i |gi ≡ f (x) + g (x) ≡ (f + g) (x) α |f i = (αf ) (x) ≡ αf (x) .
8. El conjunto de todas las funciones continuas e infinitamente diferenciables, definidas en el intervalo ∞ [a, b] : C[a,b] .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
73
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES
9. El conjunto de todas las funciones complejas de variable real, ψ (x) , definidas en [a, b] , de cuadrado Rb 2 integrable (es decir para las cuales a dx |ψ (x)| sea finita). Este espacio se denomina com´ unmente 2 L y puede ser definido en un rango [a, b], finito o infinito, y para m´as de una variable. 10. El conjunto de todas las soluciones de un sistema de ecuaciones lineales y homog´eneas, por ejemplo a + 3b + c =
0
4a + 2b + 2c =
0
2.1.5.
in ar
tiene como soluci´ on al conjunto: {a, b = a/2, c = −5a/2}. La suma de estos elementos y la multiplicaci´ on por un escalar conforman un espacio vectorial en el sentido de que son soluciones del sistema de ecuaciones.
La importancia de la conceptualizaci´ on y la notaci´ on
Ejercicios
ad o
2.1.6.
rP
re lim
En los ejemplos antes mencionados hemos utilizado para representar un vector abstracto la notaci´ on de |vi y con ´estos construimos un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i , · · · , |vn i}. Un espacio vectorial abstracto ser´ a un conjunto de elementos gen´ericos que satisfacen ciertos axiomas. Dependiendo del conjunto de axiomas tendremos distintos tipos de espacios abstractos, la teor´ıa desarrolla las consecuencias l´ ogicas que resultan de esos axiomas. En matem´atica el concepto de espacios abstractos es reciente (1928) y, aparentemente, se le debe a Maurice Fr´echet3 . Los elementos de esos espacios se dejan sin especificar a prop´osito. Ese vector abstracto puede representar, vectores en Rn , matrices n × n o funciones continuas. La notaci´on |vi, que se denomina un ket y al cual le corresponde un bra hv2 | proviene del vocablo ingl´es braket que significa corchete y ser´a evidente m´as adelante cuando construyamos escalares braket hv2 |v1 i. Esta u ´til notaci´on la ide´o Paul Dirac4 , uno de los f´ısicos m´ as influyentes en el desarrollo de la f´ısica del siglo XX. En mec´anica cu´antica un estado cu´antico particular suele representarse por una funci´ on de onda ψ(x), que depende de la variable posici´on x o de una funci´ on alternativa que puede depender de la variable momentum p. En la notaci´on de Dirac, el s´ımbolo |ψi denota el estado cu´ antico sin referirse a la funci´ on en particular y tambi´en sirve para distinguir a los vectores de los escalares (n´ umeros complejos) que vienen a ser los elementos fundamentales en el espacio de Hilbert de la mec´ anica cu´ antica.
1. Sea S el conjunto de todos los n´ umeros reales excluyendo −1 y defina la operaci´on a b = a + b + ab
Bo rr
donde + es la suma est´ andar entre n´ umeros reales. a) Muestre que [S, ] forman grupo b) Encuentre la soluci´ on en S para la ecuaci´on 2 x 3 = 7
3 MAURICE FRECHET ´ (1878 Maligny, Yonne, Bourgogne-1973 Par´ıs, Francia). Vers´ atil matem´ atico franc´ es, con importantes contribuciones en Espacios M´ etricos, Topolog´ıa y creador del concepto de Espacios Abstractos. 4 PAUL ADRIEN MAURICE DIRAC (1902 Bristol, Inglaterra 1984-Tallahassee, EE.UU). Adem´ as de contribuir de manera determinante en la comprensi´ on de la Mec´ anica Cu´ antica, es uno de los creadores de la Mec´ anica Cu´ antica Relativista la cual ayud´ o a comprender el papel que juega el esp´ın en las part´ıculas subat´ omicas. Por sus importantes trabajos comparti´ o con Erwin Schr¨ odinger el Premio Nobel de F´ısica en 1933.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
74
2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES
2. Considere un tri´ angulo equil´ atero. Uno puede identificar operaciones de rotaci´on alrededor de un eje perpendicular a la figura y reflexiones respecto a planos que dejan invariante la figura del tri´angulo. ¯ X1 , X2 , X3 . con a) Muestre que el conjunto de estas operaciones forma un grupo G4 = I, R, R, ¯ las rotaciones y X1 , X2 y X3 las reflexiones. Muestre adem´ I la operaci´ on identidad; R y R as, que las rotaciones forman un subgrupo c´ıclico de orden 3, mientras que las reflexiones forman un subgrupo c´ıclico de orden 2 b) Construya la tabla de multiplicaci´on para G4 c) Considere las siguientes matrices 1 0
I=
0 1
;
A=
−
3 2
0 1
D=
−
√
−
B=
√
1 2
;
− 12
3 2
3 2
− 21
√
− 21
−
3 2
√
3 2
E=
− 12
1 2
√
√
3 2
re lim
−1 0
C=
3 2
√
√
− 12
in ar
3 2 1 2
Muestre que forman grupo bajo la multiplicaci´on de matrices y que ese grupo es isomorfo a G4 d ) Considere las siguientes funciones f1 (x) = x;
f2 (x) =
1 ; x
f3 (x) =
1 ; 1−x
f4 (x) =
x−1 ; x
f5 (x) = 1 − x;
f6 (x) =
x ; x−1
rP
Muestre que forman grupo bajo la operaci´on fi (x) fj (x) = fi (fj (x)) y que ese grupo es isomorfo a G4 .
3. Definamos una operaci´ on binaria como
x y = x + y + αxy
ad o
con x, y, α ∈ R y adem´ as α 6= 0.
a) Demuestre que es asociativa
b) Muestre que genera un grupo en R − x y forma un grupo
−1 α
. Es decir, ∀x, y ∈ R ∧ x 6=
−1 α ,y
6=
−1 α
entonces
Bo rr
4. Muestre que el siguiente conjunto de transformaciones en el plano xy forman un grupo y construya su tabla de multiplicaci´ on a) I = {x → x ∧ y → y} b) I = {x → −x ∧ y → −y} c) Ix = {x → −x ∧ y → y}
d ) Iy = {x → x ∧ y → −y}
5. Muestre que tambi´en ser´ an espacios vectoriales
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
75
´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO
a) El conjunto de todas las funciones f = f (x) definidas en x = 1 con f (1) = 0. Si f (1) = c ¿Tendremos igual un espacio vectorial? ¿Por qu´e? b) Los vectores (x, y, z) ∈ V3 tal que sus componentes satisfacen el siguiente sistema de ecuaciones algebraico a11 x + a12 y + a13 z = 0 a21 x + a22 y + a23 z = 0 a31 x + a32 y + a33 z = 0
2.2.1.
Espacios m´ etricos, normados y con producto interno
in ar
2.2.
M´ etricas y espacios m´ etricos
re lim
El siguiente paso en la dotaci´ on de propiedades de los espacios lineales lo constituye la idea de m´etrica o distancia entre sus elementos. El concepto de m´etrica surge de la generalizaci´on de la idea de distancia entre dos puntos de la recta real. Un espacio vectorial ser´ a m´etrico si podemos definir una funci´on d : V × V → R / ∀ |xi , |yi , |zi ∈ V tal que se cumple que: 1. d (|xi , |yi) ≥ 0 ,
si
d (|xi , |yi) = 0 ⇒ |xi ≡ |yi
2. d (|xi , |yi) ≡ d (|yi , |xi)
rP
3. d (|xi , |yi) ≤ d (|xi , |zi) + d (|yi , |zi) (La desigualdad triangular). As´ı, diremos que (V, K,, d) es un espacio vectorial, lineal, m´etrico. Ejemplos
ad o
1. Espacios reales Rn .
a) Para R, es decir la recta real, la definici´on de m´etrica es d (|xi , |yi) ≡ |x − y| . q 2 2 b) Para R2 , es decir el plano, una definici´on de m´etrica es: d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) .
Bo rr
Tambi´en podemos construir otra definici´on de m´etrica como: d (|xi , |yi) ≡ |x1 − y1 |+|x2 − y2 |. La primera de estas m´etricas se conoce como m´etrica eucl´ıdea y la segunda como m´etrica Manhattan o m´etrica de taxistas. Es claro como el mismo espacio vectorial genera varios espacios m´etricos, dependiendo de la definici´ on de m´etrica. Para estos casos particulares, las m´etricas “miden” el desplazamiento entre dos puntos de forma distinta: en aviones (metr´ıca eucl´ıdea) o veh´ıculos terreste en ciudades.
c) En general para espacios reales Rn una posible definici´on de m´etrica ser´a: q 2 2 2 2 d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) . Esta definici´ on de m´etrica, o distancia, no es m´as que una generalizaci´on del teorema de Pit´ agoras y se denomina Distancia Euclidiana.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
76
´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO
2. Espacios unitarios n−dimensionales, o espacios complejos, Cn . La definici´on de distancia puede construirse como: q 2 2 2 2 d (|xi , |yi) ≡ |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | y es claro que se recobra la idea de distancia en el plano complejo: d (|xi , |yi) ≡ |x − y|. ∞ 3. Para los espacios de funciones C[a,b] una posible definici´on de distancia ser´ıa:
d (|f i , |gi) ≡ m´ax |f (t) − g (t)| .
in ar
t∈[a,b]
Es importante destacar que las definiciones de distancia arriba propuesta son invariante bajo traslaciones de vectores. Esto es: |˜ xi = |xi + |ai ∧ |˜ y i = |yi + |ai, entonces, d (|xi , |yi) ≡ d (|˜ xi , |˜ y i) .
2.2.2.
Normas y espacios normados
1. k|vi ik ≥ 0 ,
si
k|vi ik = 0 ⇒ |vi i ≡ |0i
2. kα |vi ik = |α| k|vi ik
re lim
La idea de distancia (o m´etrica) es el equipamiento m´as elemental que uno le puede exigir a un espacio vectorial. Mucho m´ as interesante a´ un son aquellos espacios vectoriales que est´an equipados con la idea de norma y, a partir de all´ı, se define la idea de distancia. La norma tiene que ver con el “tama˜ no” del vector y la m´etrica tiene que ver con la distancia entre vectores. Cuando definimos la m´etrica a partir de la norma, vinculamos las propiedades algebraicas del espacio con sus propiedades geom´etricas. La Norma, N (|vi i) ≡ k|vi ik, de un espacio vectorial V = {|v1 i , |v2 i , |v3 i · · · |vn i} ser´a una funci´ on N : V → R / ∀ |vi i ∈ V que cumple con:
rP
3. k|vi i + |vj ik ≤ k|vi ik + k|vj ik (Desigualdad Triangular).
Ejemplos
ad o
La definici´ on de Norma induce una m´etrica de la forma d (|vi i , |vj i) ≡ k|vi i − |vj ik. Se denota en este caso un espacio vectorial normado como (V, K,; k·k) y tambi´en se le conoce como un Espacio de Banach. El concepto de espacio vectorial normado fue formulado en 1922 de manera independiente por S. Banach5 , H. Hahn y N. Wiener.
Bo rr
1. Los espacios reales, Rn y los espacios complejos Cn . Para estos espacios de Banach, la Norma se define como: ! 12 q n X 2 2 2 2 2 k|xik = |x1 | + |x2 | + |x3 | + · · · + |xn | = |xi | , i=1 3
p
x21
es claro que para un espacio en R se cumple que k|xik = + x22 + x23 , por lo tanto, la idea de Norma generaliza la noci´ on de “tama˜ no” del vector |xi. Tambi´en es claro que la definici´on de distancia se construye a partir de la norma de la forma: q 2 2 2 2 d (|xi , |yi) ≡ k|xi − |yik = |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | .
5 STEFAN BANACH (1892 Kracovia, Polonia-1945 Lvov,Ucrania) Matem´ atico polaco, uno de los fundadores del An´ alisis Funcional Moderno, con sus mayores contribuciones a la teor´ıa de espacios topol´ ogicos. Hizo tambi´ en importantes aportes a la teor´ıa de la Medida, Integraci´ on y Teor´ıa de Conjuntos y Series Ortogonales.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
77
´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO
2. Para el espacio lineal de matrices n × n reales o complejas con el campo K real o complejo, una definici´ on de norma es m X n X kM k = |Mab | , a=1 b=1
y la correspondiente definici´ on de distancia d (|xi , |yi) ≡ kM − N k =
m X n X
|Mab − Nab | .
a=1 b=1
k|f ik = m´ax |f (t)| , t∈[a,b]
otra posible definici´ on ser´ıa ! 12
Z k|f ik =
dx |f (x)|
2.2.3.
.
re lim
t∈[a,b]
2
in ar
∞ 3. Para los espacios funcionales C[a,b] una posible definici´on de norma ser´ıa:
Espacios vectoriales con producto interno: Espacios euclidianos
rP
El siguiente paso en la construcci´ on de espacios vectoriales m´as ricos es equiparlo con la definici´ on de producto interno y a partir de esta definici´on construir el concepto de norma y con ´este el de distancia. La idea de producto interno generaliza el concepto de producto escalar de vectores en R3 e incorpora a los espacios vectoriales abstractos el concepto de ortogonalidad y descomposici´on ortogonal. Hist´oricamente, la teor´ıa de espacios vectoriales con producto interno es anterior a la teor´ıa de espacios m´etricos y espacios de Banach y se le debe a D. Hilbert6 . Adicionalmente, la semejanza entre la geometr´ıa euclidiana y la geom´etrica de Rn ha hecho que espacios en los cuales se puedan definir, distancia, ´angulos, a partir de una definici´ on de producto interno, se denominen tambi´en espacios euclidianos. Producto interno
ad o
En un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i · · · |vn i}, la definici´on del producto interno de dos vectores la denotaremos como hvi | vj i y es una funci´on: I (|vi i , |vj i) : V × V → K ∀ |vi i , |vj i ∈ V, es decir, asocia a ese par de vectores con un elemento del campo, o cuerpo, K. Las propiedades que definen el producto interno son: 2
1. hvi | vi i ≡ k|vi ik ∈ K ∧ hvi | vi i ≥ 0 ∗
si
hvi | vi i = 0 ⇒ |vi i ≡ |0i
∀ |vi i , |vj i ∈ V
Bo rr
2. hvi | vj i = hvj | vi i
∀ |vi i ∈ V ,
3. hvi | αvj + βvk i = α hvi | vj i + β hvi | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K
4. hαvi + βvj | vk i = α∗ hvi | vj i + β ∗ hvi | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K 5. hvi | 0i = h0| vi i = 0
6 DAVID HILBERT (1862 Kaliningrad, Rusia-1943 G¨ ottingen, Alemania) Matem´ atico alem´ an defensor de la axiom´ atica como enfoque primordial de los problemas cient´ıficos. Hizo importantes contribuciones en distintas a ´reas de la matem´ atica, como: Invariantes, Campos de N´ umeros Algebraicos, An´ alisis Funcional, Ecuaciones Integrales, F´ısica-Matem´ atica y C´ alculo en Variaciones.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
78
´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO
La segunda y cuarta propiedad resultan del hecho de que si el Campo es complejo K = C, entonces hαvi | αvi i = α2 hvi | vi i = i2 hvi | vi i = − hvi | vi i
in ar
lo cual contradice el hecho de que la Norma tiene que ser positiva. Por eso la necesidad de tomar el complejo conjugado. Se dice entonces, que el producto escalar es antilineal respecto al primer factor y lineal respecto al segundo. A partir de la definici´ on de producto interno se construyen los conceptos de norma y distancia q p k|vi ik = hvi | vi i y d (|vi i , |vj i) ≡ k|vi i − |vj ik = hvi − vj | vi − vj i La desigualdad de Cauchy-Schwarz: los ´ angulos entre vectores reales y complejos
Todo producto interno hvi | vj i definido en un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i · · · |vn i} cumple con la desigualdad de Cauchy-Schwarz 2
|hvi | vj i| ≤ hvi | vi i hvj | vj i
⇐⇒
|hvi | vj i| ≤ k|vi ik k|vj ik .
re lim
Es claro que si |vi i = |0i ∧ |vj i = |0i se cumple la igualdad y es trivial la afirmaci´on. Para |vi i ∧ |vj i cualesquiera, procedemos construyendo |vk i = α |vi i + β |vj i, α y β tendr´an valores particulares, por lo tanto hvk | vk i ≡ hαvi + βvj | αvi + βvj i ≥ 0 , esto significa que
hαvi + βvj | αvi + βvj i = hαvi | αvi i + hαvi | βvj i + hβvj | αvi i + hβvj | βvj i ≥ 0 2
2
rP
= |α| hvi | vi i + α∗ β hvi | vj i + β ∗ α hvj | vi i + |β| hvj | vj i ≥ 0 . Si α = hvj | vj i, se tiene que
2
hvj | vj i hvi | vi i + β hvi | vj i + β ∗ hvj | vi i + |β| ≥ 0 hvj | vj i hvi | vi i
≥
2
−β hvi | vj i − β ∗ hvj | vi i − |β|
ad o
seguidamente seleccionamos β = − hvj | vi i y por lo tanto β ∗ = − hvi | vj i y consecuentemente hvj | vj i hvi | vi i
≥
hvj | vi i hvi | vj i + hvi | vj i hvj | vi i − hvj | vi i hvi | vj i
hvj | vj i hvi | vi i
≥
hvi | vj i hvj | vi i = |hvi | vj i| .
2
J
Bo rr
De la desigualdad de Cauchy-Schwarz y la definici´on de norma se desprende que 2
|hvi | vj i| 2
2
k|vi ik k|vj ik
≤1
⇒
−1 ≤
|hvi | vj i| ≤ 1, k|vi ik k|vj ik
por lo tanto podemos definir el “´ angulo” entre los vectores abstractos |vi i ∧ |vj i como cos(ΘG ) =
|hvi | vj i| , k|vi ik k|vj ik
donde hemos denotado como ΘG un ´ angulo gen´erico que forman vectores reales o complejos.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
79
´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO
Si estamos considerando espacios vectoriales reales -en los cuales el Cuerpo corresponde a los n´ umeros reales- entonces el ´ angulo definido entre vectores abstractos reales corresponde al que intuitivamente siempre hemos considerado para los vectores cartesianos y que discutimos en la secci´on 1.2.3, cos(ΘR ) =
|hvi | vj i| k|vi ik k|vj ik
con
0 ≤ ΘR ≤ π ,
in ar
donde se toma ΘR = 0 para vectores colineales y ΘR = π para vectores opuestos (antilineales). Si bien es cierto que esta definici´ on coincide con la de los vectores cartesianos, hay que resaltar que la estamos extendiendo para cualquier vector abstracto, vale decir: funciones reales, matrices, y todos los objetos matem´ aticos que cumplan con las reglas para los espacios vectoriales expuestas en 2.1.3. Para el caso de espacios vectoriales complejos la situaci´on es m´as sutil y significa definir un ´angulo entre dos vectores abstractos y complejos, sin embargo podemos abordar el problema suponiendo:
re lim
un espacio complejo n−dimensional de n−uplas de n´ umeros complejos |zi ↔ (z1 , z2 , · · · zn ) asociado (isomorfo) a un espacio vectorial real de 2n dimensiones con vectores representados por 2n−uplas de n´ umeros reales |wi ↔ (Re(z1 ), Re(z2 ), · · · Re(zn ), Im(z1 ), Im(z2 ), · · · Im(zn )) donde hemos representado Re(zj ) y Im(zj ) como las partes reales e imaginarias de zj , respectivamente o, directamente aP partir de una definici´on de producto interno entre vectores complejos implementado n por hwi | vj i = j=1 wj∗ vj Ambas aproximaciones no son del todo independientes pero igualmente justificadas7 . Consideremos el segundo caso, vale decir: directamente a partir de una definici´on de producto interno entre vectores complejos. Para este caso consideramos un ´angulo complejo y cos(ΘC ) una funci´on de variable compleja, que puede ser expresada en su forma polar como |hvi | vj i| ⇒ cos(ΘC ) = ρ eφ k|vi ik k|vj ik
rP
cos(ΘC ) =
con
ρ = | cos(ΘC )| < 1 .
ad o
Entonces podemos asociar ρ = cos(ΘH ) y definir ΘH , en el rango 0 ≤ ΘH ≤ π/2, como el ´ angulo herm´ıtico entre los vectores complejos |vi i y |vj i. Mientras que φ, definido en −π ≤ φ ≤ π, corresponde al pseudo angulo de Kasner, que representa la orientaci´on o rotaci´on del ´angulo herm´ıtico y no tiene mayor significado ´ al cuantificar el ´ angulo entre esos dos vectores. Esta diferencia de significados puede intuirse cuando multiplicamos |vi i y |vj i, por una constante compleja: |˜ vi i → αi |vi i y comprobamos que el ´angulo ΘH permanece inalterado y no as´ı el ´ angulo de Kasner8 . Teoremas del Coseno y de Pit´ agoras
Bo rr
A partir de la definici´ on de norma se obtiene ∗
2
k|vi i + |vj ik = hvi + vj | vi + vj i = hvi | vi i + hvi | vj i + hvi | vj i + hvj | vj i = hvi | vi i + hvj | vj i + 2 Re (hvi | vj i)
con lo cual hemos generalizado el teorema del coseno para un espacio vectorial abstracto 2
2
2
k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(ΘG ) .
7 Scharnhorst,
K. (2001). Angles in complex vector spaces. Acta Applicandae Mathematica, 69(1), 95-103. consultarse Reju, V. G., Koh, S. N., y Soon, Y. (2009). An algorithm for mixing matrix estimation in instantaneous blind source separation. Signal Processing, 89(9), 1762-1773. 8 Puede
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
80
´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO
De tal forma que para espacios vectoriales reales tendremos 2
2
2
k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(Θ)
con
0≤Θ≤π;
y para espacios vectoriales complejos 2
2
2
k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(ΘH ) cos φ
con
0 ≤ ΘH ≤ π/2 .
Ejemplos 1. Espacios euclidianos reales, Rn y espacios euclidianos complejos Cn .
in ar
y para el caso que los vectores |vi i ∧ |vj i sean ortogonales, esto es hvi | vj i = 0, tendremos el teorema de Pit´ agoras generalizado 2 2 2 k|vi i + |vj ik = k|vi ik + k|vj ik .
Los vectores en estos espacios euclidianos reales pueden ser representados por |xi = (x1 , x2 , · · · xn ) ∧ |yi = (y1 , y2 , · · · , yn ) y el producto interno queda definido por n X
x∗i yi ,
re lim
hx| yi = x∗1 y1 + x∗2 y2 + x∗3 y3 , · · · x∗n yn =
i=1
es claro que esta definici´ on de producto interno coincide, para R2 (y R3 ) con la idea de producto escalar convencional que consideramos en las secciones 1.2.3 y 1.4.2, vale decir a = ax i + ay j ⇒ a · b = ax bx + ay by . b = bx i + by j
rP
Ahora bien, el lector puede comprobar que para vectores en R2 tambi´en se puede proveer una definici´ on de producto interno a ~ b = 2ax bx + ax by + ay bx + ay by , igualmente v´ alida, con lo cual es claro que en un mismo espacio vectorial pueden coexistir diferentes productos internos.
ad o
Por su parte, la norma es
v u n q p uX 2 2 2 2 x2i . k|xik = hx| xi = x1 + x2 + x3 , · · · + xn = t i=1
Bo rr
La distancia tambi´en recupera la idea intuitiva de distancia euclidiana p d (|xi , |yi) ≡ k|xi − |yik = hx − y| x − yi
d (|xi , |yi) =
q
2
2
2
2
(x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) .
El teorema del coseno queda como n X i=1
Hern´ andez & N´ un ˜ez
2
(xi + yi ) =
n X i=1
x2i +
n X
v u n uX 2 x2 y + 2t i
i=1
i
i=1
v u n uX t yi2 cos(Θ) , i=1
Universidad de los Andes / Universidad Industrial de Santander
81
´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO
mientras que el teorema de Pit´ agoras es n X
2
(xi + yi ) =
i=1
n X
x2i
+
i=1
n X
yi2 ,
i=1
obvio que para R2 tanto el teorema del coseno como el teorema de Pit´agoras retoman su forma tradicional. Finalmente la desigualdad de Cauchy-Schwarz se expresa 2 n n n X X X 2 |hx| yi| ≤ k|xik k|yik ⇒ xi yi ≤ xi yi2 . i=1
i=1
in ar
i=1
∞ 2. Para los espacios de funciones continuas C[a,b] una posible definici´on de producto interno ser´ıa b
Z
dx f ∗ (x) g (x) ,
hf | gi = a
de la cual se deriva la expresi´ on para la norma b
Z
2
re lim
2
dx |f (x)| ,
k|f ik = hf | f i =
a
la distancia entre funciones quedar´ a definida como d (|f i , |gi) ≡ k|f i − |gik ≡ s Z
p
hf − g| f − gi =
b
dx |f (x) − g (x)| a
v uZ u =t
Z
2
dx |f (x)| − 2 Re
!
b
dx
f∗
a
a
b
dx |g (x)|
Z
! 21
b
dx |f (x)|
2
Z
Hern´ andez & N´ un ˜ez
2
! 21
b
2
dx |g (x)|
cos(Θ) ,
a
a
Rb
cos(Θ) = Rb a
dx f ∗ (x) g (x) 1 1 , 2 2 2 2 Rb dx |g (x)| dx |f (x)| a a
y como era de esperarse el teorema de Pit´agoras queda Z b Z b Z 2 2 dx |f (x) + g (x)| = dx |f (x)| + a
2
dx |g (x)| .
a
+2
donde
b
+ a
Los teoremas del coseno puede ser escrito como Z b Z b Z 2 2 dx |f (x) + g (x)| = dx |f (x)| +
Bo rr
(x) g (x)
Z
a
ad o
a
b
2
rP
d (|f i , |gi) =
q ∗ hf | f i − hf | gi − hf | gi + hg| gi
a
b
2
dx |g (x)| ,
a
Universidad de los Andes / Universidad Industrial de Santander
82
2.3. VARIEDADES LINEALES
para funciones f (x) y g (x) ortogonales, mientras que para este caso, la desigualdad de Cauchy-Schwarz se expresa 2 Z Z Z b b b 2 2 ∗ dx |g (x)| . dx |f (x)| dx f (x) g (x) ≤ a a a
2.2.4.
Ejercicios
1. Consideremos el espacio vectorial conformado por los vectores geom´etricos en R3 ¿Ser´an espacios euclideanos para las siguientes definiciones de producto interno?
in ar
a) El producto de las longitudes de los vectores. b) El producto de las longitudes por el cubo del coseno del ´angulo entre ellos. c) El producto como dos veces el producto escalar usual entre vectores.
2. Encuentre los ´ angulos en el “tri´ angulo” formado por los vectores: |x1 i = 1, |x2 i = t, |x3 i = 1 − t.
re lim
3. Sea E0 un subespacio euclideano de dimensi´on k, E0 ⊂ E, y sea |vi un vector que no necesariamente es un elemento E0 . Podemos plantearnos el problema de representar |vi de la forma |vi = |gi + |hi
donde |gi ∈ E0 y |hi es ortogonal a E0 . La existencia de la expansi´on anterior nos muestra que el espacio total E, de dimensi´ on n, es la suma directa de los subespacios E0 y su complemento ortogonal ⊥ E de dimensi´ on n − k. Encuentre el vector |vi, como la suma del vector |gi, expandido por los vectores |gi i, y el vector perpendicular |hi cuando:
2.3.
Variedades lineales
Dependencia/Independencia lineal
ad o
2.3.1.
rP
a) |hi = (5, 2, −2, 2) , |g1 i = (2, 1, 1, −1) , |g2 i = (1, 1, 3, 0). b) |hi = (−3, 5, 9, 3) , |g1 i = (1, 1, 1, 1) , |g2 i = (2, −1, 1, 1) , |g3 i = (2, −7, −1, −1).
Siguiendo la misma l´ınea de razonamiento que en las secciones 1.2 y 1.4.2, generalizamos el concepto de dependencia e independencia lineal de R2 y R3 . As´ı: |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i =
n X
Ci |vi i ,
i=1
Bo rr
Las cantidades Ci son llamados los coeficientes de la combinaci´on lineal. Podemos afirmar que: Si esta ecuaci´ on se cumple para alg´ un conjunto de {Ci } no nulos, se dir´a que el conjunto de vectores correspondiente {|vi i} son linealmente dependientes.
Por el contrario, si esta ecuaci´ on s´ olo puede ser satisfecha para todos los Ci = 0, entonces se dir´ a que el conjunto de vectores correspondiente {|vi i} son linealmente independientes.
Notemos que la suma que aparece aqu´ı es necesariamente una suma finita, y cuando un determinado conjunto de vectores es linealmente dependiente, entonces uno de ellos se puede escribir como combinaci´on lineal de los dem´ as.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
83
2.3. VARIEDADES LINEALES
Ejemplos dependencia/independencia lineal 1. Dados tres vectores en R4
1 3 |v1 i = −1 ; 2
2 0 |v2 i = 1 ; 3
−1 1 |v3 i = 0 . 0
in ar
El criterio de independencia lineal se cumple si |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i y todos los {Ci } son nulos, esto es C1 +2C2 −C3 = 0 3C1 +C3 = 0 −C1 +C2 = 0 2C1 +3C2 = 0 de donde es claro ver que la u ´nica soluci´on posible implica C1 = C2 = C3 = 0, es decir, el conjunto de vectores: {|v1 i , |v2 i , |v3 i} son linealmente independientes.
re lim
2. Si consideramos el espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} ser´an ejemplos de independencia lineal: |vk i ≡ f (t) = tk para k = 1, 2, 3, · · · Es claro que un polinomio de gradoPn + 1, no podr´ a ser n expresado en t´erminos un polinomio de grado n, en otras palabras, tn+1 6= i=0 Ci ti . |vk i ≡ f (t) = eak t con a1 , a2 , a3 , · · · coeficientes constantes. Tambi´en salta a la vista que no podremos expresar una de esas funciones exponenciales como una combinaci´on lineal. 3. Si consideramos |v1 i = cos2 (t), |v2 i = sen2 (t) y |v3 i = 1, es claro que |v1 i , |v2 i , y |v3 i son linealmente dependientes por cuanto |v1 i + |v2 i = |v3 i . N´otese que si
rP
|v1 i = cos(t), |v2 i = sen(t) y |v3 i = 1,
entonces |v1 i , |v2 i , y |v3 i ser´ an vectores linealmente independientes. 4. Consideremos ahora otro ejemplo en P 3 : |x1 i = 1;
|x2 i = x − 1;
|x3 i = x2 ;
|x4 i = x2 + 2x + 1 .
ad o
Podemos ver que este conjunto es linealmente dependiente ya que siempre podremos expresar |x4 i = 3|x1 i + 2|x2 i + |x3 i .
Ejercicios
Bo rr
1. Considere un conjunto S conformado u ´nicamente por n´ umeros reales positivos. Consideremos las siguientes reglas sobre S: Por “suma”de dos n´ umeros entenderemos su producto en el sentido usual, y el “producto”de un elemento r ∈ S y un n´ umero real λ entenderemos r elevado a la potencia de λ, en el sentido usual. ¿S es un espacio vectorial?
2. Considere el conjunto de vectores en el plano conformado por vectores localizados en el origen y cuyos puntos finales permanecen siempre en el primer cuadrante. ¿Este conjunto es un espacio vectorial? 3. Diga si los siguientes conjuntos de vectores en P 3 son o no linealmente independientes. a) |x1 i = 2x; |x2 i = x2 + 1; |x3 i = x + 1; |x4 i = x2 − 1 b) |x1 i = x(x − 1); |x2 i = x; |x3 i = x3 ; |x4 i = 2x3 − x2
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
84
2.3. VARIEDADES LINEALES
Practicando con Maxima: En 2.3.1 vimos que si en la ecuaci´ on |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i todos los Ci = 0, entonces se dir´ a que el conjunto de vectores son linealmente independientes. Para el primer ejemplo de esa secci´ on se obtuvo el siguiente sistema de ecuaciones: +2C2
−C3 +C3
+C2 +3C2
= 0 = 0 = 0 = 0
in ar
C1 3C1 −C1 2C1
que procedemos a resolver usando el comando linsolve:
solve: dependent equations eliminated: (4) ( %o1) [C1 = 0, C2 = 0, C3 = 0, C4 = %r1 ]
2.3.2.
Bases de un espacio vectorial
re lim
(%i1) linsolve([C1+2*C2-C3=0, 3*C1+C3=0, -C1+C2=0, 2*C1+3*C2=0], [C1,C2,C3,C4]);
rP
Ahora bien, dado un espacio vectorial V = {|v1 i , |v2 i , |v3 i · · · , |vn i}, si encontramos que el conjunto de {|vn i} es linealmente dependiente, entonces siempre es posible despejar uno de los vectores en t´erminos de los dem´ as, vale decir |vn i = C¯1 |v1 i + C¯2 |v2 i + C¯3 |v3 i · · · + C¯n−1 |vn−1 i =
n−1 X
C¯i |vi i .
i=1
ad o
Seguidamente podemos proceder a comprobar si {|v1 i , |v2 i , |v3 i · · · , |vn−1 i} es un conjunto de vectores linealmente independientes, es decir: C¯1 = C¯2 = C¯3 = · · · = C¯n−1 = 0. En caso de no serlo se procede otra vez a despejar uno de los vectores en t´erminos de los anteriores y aplicar el criterio de independencia lineal: |vn−1 i = C˜1 |v1 i + C˜2 |v2 i + C˜3 |v3 i · · · + C˜n−2 |vn−2 i =
n−2 X
C˜i |vi i ,
i=1
Bo rr
se comprueba si se cumple
C˜1 = C˜2 = C˜3 = · · · = C˜n−2 = 0 .
En caso contrario, se repite este procedimiento hasta encontrar un conjunto {|v1 i , |v2 i , |v3 i · · · , |vn−j i} de vectores linealmente independientes. Esto es: C˘1 = C˘2 = C˘3 = · · · = C˘n−j = 0 ,
y por lo tanto
|vn−j+1 i = C˘1 |v1 i + C˘2 |v2 i + C˘3 |v3 i · · · + C˘n−j |vn−j i =
n−j X
C˘i |vi i .
i=1
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
85
2.3. VARIEDADES LINEALES
Diremos entonces que {|v1 i , |v2 i , |v3 i , · · · , |vn−j i} forman una base para V. La dimensi´ on de V ser´ a el n´ umero de vectores linealmente independientes, que para este caso ser´a n − j. As´ı se puede comprobar que, dado |xi ∈ V, entonces |xi =
n−j X
Ci |vi i ∀ |xi ∈ V ,
i=1
|v1 i , |v2 i , |v3 i , · · · , |vn−j i
in ar
y el conjunto {C1 , C2 , C3 , · · · Cn−j } ser´ au ´nico. Diremos que el n´ umero m´ınimo de vectores:
que expanden V conforman una base de ese espacio vectorial, y que el n´ umero finito de cantidades C1 , C2 , C3 , · · · Cn−j ,
re lim
constituyen las componentes de |xi relativas a la base {|v1 i , |v2 i , · · · , |vn−j i}. Queda claro que el vector cero,|0i, es linealmente dependiente, y cualquier conjunto de vectores que lo contenga es un conjunto linealmente dependiente de vectores. De lo anteriormente expuesto se puede concretar la siguiente definici´on para una base de ese espacio V: Un conjunto finito de vectores B = {|v1 i , |v2 i , |v3 i , · · · , |vn i} ∈ V,
ad o
rP
se les denominar´ a base del espacio vectorial V si los |v1 i , |v2 i , |v3 i , · · · , |vn i son linealmente independientes y (obviamente) expanden V. Diremos entonces que B es un sistema generador de V. Es f´ acil darse cuenta que si V lo expanden n vectores linealmente independientes, cualquier otro vector |xi ∈ V ser´ a linealmente dependiente. Igualmente, y f´acilmente demostrable, es que todas las bases de un espacio vectorial V, de dimensi´ on finita, tendr´an el mismo n´ umero de elementos y ese n´ umero de elemento ser´ a la dimensi´ on del espacio, es decir, la dimV = n´ umero n de vectores que forman una base de dicho espacio. Adicionalmente, puede ser que dentro de un espacio vectorial V se puedan encontrar subespacios y dentro de esos subespacios un conjunto de vectores base. Vale decir, si ∀ |xi ∈ V: |xi = C1 |v1 i · · · + Cn−j |vn−j i + Cn−j+1 |vn−j+1 i · · · Cn−k |vn−k i + Cn−k+1 |vn−k+1 i · · · Cn |vn i {z } {z } | {z } | | S1
con
|xi = |x1 i + |x2 i + |x3 i
S3
S2
y
|x1 i ∈ S1 ;
|x2 i ∈ S2 ;
|x3 i ∈ S3 ,
Bo rr
entonces diremos que V es la suma directa de S1 , S2 y S3 y lo denotaremos como: V = S1 ⊕ S2 ⊕ S3 . Tambi´en es bueno se˜ nalar que, una vez fijada una base, las componentes de un vector seg´ un esa base, son u ´nicas y que dada una base de un espacio vectorial, se pueden construir otras bases diferentes de ´esta, como veremos m´ as adelante.
2.3.3.
El determinante de Gram
Existe una forma directa de comprobar la independencia lineal de un conjunto de vectores {|v1 i , |v2 i , |v3 i · · · , |vn i} ∈ V .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
86
2.3. VARIEDADES LINEALES
al multiplicar por hvi |, resulta: C1 hv1 |v1 i + C2 hv1 |v2 i + C3 hv1 |v3 i + · · · + Cn hv1 |vn i C1 hv2 |v1 i + C2 hv2 |v2 i + C3 hv2 |v3 i + · · · + Cn hv2 |vn i .. .
= hv1 |xi = hv2 |xi .. .
C1 hvn |v1 i + C2 hvn |v2 i + C3 hvn |v3 i + · · · + Cn hvn |vn i = hvn |xi
donde las C1 , C2 , C3 , · · · Cn son las inc´ ognitas, por lo cual, que hv1 |v1 i hv1 |v2 i hv1 |v3 i hv2 |v1 i hv2 |v2 i hv2 |v3 i .. .. . . hvn |v1 i hvn |v2 i hvn |v3 i
para que este sistema tenga soluci´on se impone ··· ··· ···
9
hv1 |vn i hv2 |vn i 6= 0 .. . hvn |vn i
in ar
Dado un |xi ∈ V, entonces, y n X |xi = Ci |vi i ⇒ i=1
Esto es, que el determinante de Gram distinto de cero implica que el conjunto de vectores: {|v1 i , |v2 i , |v3 i · · · , |vn i} es linealmente independiente. La inversa tambi´en es cierta.
re lim
Ejemplos de bases en espacios lineales
1. El espacio vectorial Vn tendr´ a dimensi´on n y una de las posibles bases {|v1 i , |v2 i , |v3 i · · · , |vn i} ser´ a |v1 i = (1, 0, 0, · · · , 0) |v2 i = (0, 1, 0, · · · , 0) |v3 i = (0, 0, 1, · · · , 0) .. .. . . |vn−j i =
(0, 0, 0, · · · , 1)
rP
Esta base se conoce con el nombre de base can´onica.
2.3.4.
ad o
2. El espacio de polinomios, P n , de grado g ≤ n tendr´a como una de las posibles bases al conjunto 2 3 n 1, t, t , t , · · · , t , porque cualquier polinomio de grado ≤ n podr´a ser expresado como combinaci´ on ∞ lineal de estos n+1 vectores. M´ a s a´ u n, el espacio de todos los polinomios, P , tendr´ a como una posible base al conjunto de funciones 1, t, t2 , t3 , · · · , tn · · · . En este caso P ∞ ser´a infinito dimensional.
Ortogonalidad y bases ortogonales
En un espacio vectorial con producto interno, dos vectores |e1 i ∧ |e2 i ser´an ortogonales si su producto interno se anula |e1 i ⊥ |e2 i ⇔ he2 |e1 i = 0 .
Bo rr
Se denomina un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i · · · , |en i} si δij = 0 2 hei |ej i = δij k|ej ik , i, j = 1, 2, 3, · · · , n y con δij = 1
si i 6= j si i = j
2
y se denominar´ a conjunto ortonormal si k|ej ik = 1.
9 JORGEN PEDERSEN GRAM (1850-1916 Dinamarca) Matem´ atico dan´ es, que alternaba su actividad de gerente de una importante compa˜ n´ıa de seguros con las matem´ aticas (Probabilidad, An´ alisis Num´ erico y Teor´ıa de N´ umeros). Es conocido mayormente por el m´ etodo de ortogonalizaci´ on, pero se presume que no fue ´ el quien primero lo utiliz´ o. Aparentemente fue ideado por Laplace y utilizado tambi´ en por Cauchy en 1836. Gram muri´ o arrollado por una bicicleta a la edad de 61 a˜ nos.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
87
2.3. VARIEDADES LINEALES
in ar
Un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i , · · · , |en i} ∈ V es linealmente independiente, m´ as a´ un, para el caso particular de un espacio euclidiano, {|e1 i , |e2 i , |e3 i , · · · , |en i} conforman una base ortogonal para V. La demostraci´ on es sencilla, para un determinado espacio vectorial una combinaci´on lineal de los {|e1 i , |e2 i , |e3 i , · · · , |en i} se anula. Pn Pn he1 | [Pi=1 Ci |ei i] = 0 ⇒ ⇒ C1 = 0 i=1 Ci δ1i = 0 P n n he | [ C |e i] = 0 ⇒ C δ = 0 ⇒ C 2 i i i 2i 2 =0 n Pni=1 Pni=1 X C δ = 0 ⇒ C =0 C |e i] = 0 ⇒ he | [ i 3i 3 i i 3 i=1 i=1 Ci |ei i = |0i ⇒ . . . . .. .. .. .. i=1 P Pn n ⇒ Cn = 0 ⇒ hen | [ i=1 Ci |ei i] = 0 i=1 Ci δni = 0
re lim
con lo cual, queda claro que: {|e1 i , |e2 i , |e3 i , · · · , |en i} son un conjunto de vectores linealmente independientes. Si la dimensi´ on de V es n (dim V = n) y tenemos n vectores linealmente independientes, entonces esos n vectores {|e1 i , |e2 i , |e3 i , · · · , |en i} forman una base ortogonal para V, y por lo tanto, las componentes de un vector en esa base se pueden expresar de manera simple. " n # n X X hej |xi hej |xi = ∀ |xi ∈ V ⇒ |xi = Ci |ei i ⇒ hej |xi = hej | Ci |ei i ⇒ Cj = 2 he |e i j j k|ej ik i=1 i=1 2
En el caso de un conjunto ortonormal de vectores {|ˆe1 i , |ˆe2 i , |ˆe3 i · · · , |ˆen i} ∈ Vn , con k|ˆej ik = 1, las componentes de cualquier vector quedan determinadas de una forma todav´ıa m´as simple y con consecuencias mucho m´ as impactantes 2
k|ˆej ik = 1 ⇒ Cj = hˆej |xi ⇒ |xi =
n X
rP
i=1
Ci |ˆei i =
Es bueno recalcar la relaci´ on de cierre10
n X
n X
hˆei |xi |ˆei i ≡
i=1
n X
|ˆei i hˆei | |xi .
i=1
|
{z 1
}
|ˆei i hˆei | = 1 ,
ad o
i=1
con lo cual es trivial demostrar la f´ ormula de Parseval ! n n n X X X ∗ ∀ |xi , |yi ∈ V ⇒ hy |xi ≡ hy| |ˆei i hˆei | |xi = hy| ˆei i hˆei | xi = hy |ˆei i hx |ˆei i i=1
i=1
i=1
Bo rr
para el caso de |xi ≡ |yi se llega la generalizaci´on del Teorema de Pit´agoras 2
hx |xi ≡ k|xik =
n X
2
|hx |ˆei i| .
i=1
10 La
relaci´ on de cierre expresa una propiedad importante de los vectores base: si los |ˆ ei i se multiplican por la derecha por los hˆ ei |, el resultado, luego se sumar para todos los vectores, es el operador lineal unitario. Se dice tambi´ en que el conjunto de vectores {|ˆ ei i} forman un conjunto completo.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
88
2.3. VARIEDADES LINEALES
Ejemplos de bases ortogonales 1. Funciones trigonom´etricas: Uno de los ejemplos m´ as emblem´ aticos es el caso de las funciones continuas, R 2π reales de variable real y ∞ definidas en [0, 2π], C[0,2π] , con el producto interno definido por: hf | gi = 0 dx f (x) g (x), ´esto es, el conjunto de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i · · · } representadas por |e0 i = 1,
|e2n−1 i = cos(nx)
y
|e2n i = sen(nx),
con n = 1, 2, 3, · · ·
re lim
in ar
Es claro que {|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } es un conjunto de funciones ortogonales por cuanto R 2π R0 dx sen(nx) sen(mx) = 0 2π 0 si n = 6 m dx cos(nx) sen(mx) = 0 0 R 2π dx cos(nx) cos(mx) = 0 0 R 2 2π hen |em i = δnm k|en ik ⇒ dx = 2π si n = m = 0 0 R 2 2π k|en ik si n = m dx cos2 (nx) = π si n = m = 2k − 1 0 R 2π dx sen2 (nx) = π si n = m = 2k 0 con k = 1, 2, 3, · · · .
Podremos construir una base ortonormal de funciones: {|ˆe1 i , |ˆe2 i , |ˆe3 i , · · · , |ˆen i , · · · } de la forma 1 |ˆe0 i = √ , 2π
1 |ˆe2n−1 i = √ cos(nx) π
y
1 |ˆe2n i = √ sen(nx). π
ad o
rP
Dada una funci´ on definida en el intervalo [0, 2π], podremos expresarla en t´erminos R 2π dx f (x) = C0 si 0 ∞ X R 2π |f i = Ci |ei i ⇒ Ci = hei |f i = dx f (x) cos(nx) = C2n−1 si 0 i=1 R 2π dx f (x) sen(nx) = C si 2n 0
de esta base como i=0 i = 2n − 1 i = 2n
donde los Ci son los coeficientes de Fourier. 2. Polinomios de Legendre:
Bo rr
Otro de los ejemplos t´ıpicos son los llamados polinomios de Legendre, Pn (x), definidos en el intervalo [−1, 1]. Estos polinomios pueden ser generados a partir de la F´ormula de Rodrigues11 Pn (x) =
1 dn 2 (x − 1)n , n!2n dxn
n = 0, 1, 2, .....
con P0 (x) = 1. Algunos de estos polinomios son: P1 (x) = x , P2 (x) =
1 x 1 (3x2 − 1) , P3 (x) = (5x2 − 3) , P4 (x) = (35x4 − 30x2 + 3) , . . . 2 2 8
11 BENJAMIN OLINDE RODRIGUES (1794 Burdeos, Francia - 1851, Par´ ıs Francia) Banquero, matem´ atico y activista pol´ıtico socialista franc´ es durante la Revoluci´ on Francesa. De origen jud´ıo, y cuyas contribuciones fundamentales como la f´ ormula para la generaci´ on de Polinomios de Legendre, permanecieron olvidadas por mucho tiempo.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
89
2.3. VARIEDADES LINEALES
Como veremos m´ as adelante, los polinomios de Legendre son soluci´on de la ecuaci´on diferencial (1 − x2 ) y 00 − 2x y 0 + λ(λ + 1)y = 0 . Es f´ acil comprobar que los polinomios de Legendre |Pα i = Pα (x) son mutuamente ortogonales con un producto interno definido como Z 1 2 Pn (x)Pm (x)dx = hPn |Pm i = δnm , 2n +1 −1
Z
2
1
Pn2 (x)dx =
kPn k = hPn |Pn i = −1
in ar
y con una norma definida por 2 . 2n + 1
Por lo tanto, cualquier funci´ on en el intervalo [−1, 1] puede ser expresada en esa base. ∞ X k=0
Si f (x) es un polinomio f (x) =
m X
ak |Pk i =
k=0
bn xn =
n=0
∞ X hPk |F i |Pk i . hPk |Pk i
re lim
f (x) = |F i =
∞ X
ak |Pk i =
k=0
∞ X
an Pn (x)
n=0
rP
los coeficientes an se determinan f´ acilmente a trav´es de un sistema de ecuaciones algebraicas. Por ejemplo, para el caso de f (x) = x2 tendremos
ad o
f (x) = x2 = a0 P0 (x) + a1 P1 (x) + a2 P2 (x) 1 = a0 + a1 x + a2 (3x2 − 1) 2 1 2 = P0 (x) + P2 (x) . 3 3
Practicando con Maxima:
Bo rr
En este ejercicio aprenderemos a calcular una base a partir de un conjunto de vectores perteneciente a un determinado espacio vectorial. Por ejemplo, si en R5 tenemos el siguiente conjunto de vectores: |v1 i = (1, 2, 3, 4, 5) ,
|v2 i = (0, −1, 1, 2, 3) ,
|v3 i = (3, 2, 1, 0, −1) ,
|v4 i = (−4, −3, −2, −1, 0) .
(%i1) v1:[1,2,3,4,5]; v2:[0,-1,1,2,3]; v3:[3,2,1,0,-1]; v4:[-4,-3,-2,-1,0];
( %o1) ( %o2) ( %o3) ( %o4)
[1, 2, 3, 4, 5] [0, −1, 1, 2, 3] [3, 2, 1, 0, −1] [−4, −3, −2, −1, 0]
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
90
2.3. VARIEDADES LINEALES
Con los vectores dados construimos la siguiente matriz (%i5) M:matrix(v1,v2,v3,v4); 1 2 3 4 5 0 −1 1 2 3 ( %o5) 3 2 1 0 −1 −4 −3 −2 −1 0 Como veremos m´ as adelante, el Rango de una matriz indica el n´ umero m´aximo de vectores fila o columna linealmente independientes.
in ar
(%i6) rank(M); ( %o6) 3
(%i7) echelon(M); 1 0 1 23 3 0 1 −1 −2 ( %o7) 5 0 0 1 3 0 0 0 0
re lim
Podemos aplicar el m´etodo de eliminaci´on gaussiana a la matriz M para obtener una nueva matriz escalonada. El c´ alculo adem´ as se hace normalizando el primer elemento no nulo de cada fila. Esto se logra con el comando echelon(M).
− 31 −3 7 3 0
(%i8) e1:row(%o7,1); ( %o8)
1
2 3
1 3
0
− 13
(%i9) e2:row(%o7,2); 0
1
−1
−2
−3
ad o
( %o9)
rP
Por lo tanto, cada fila de la matriz anterior conformar´a un conjunto de vectores linealmente independiente. Los podemos aislar de la matriz con el comando row(M,i), que devolver´a la i-´esima fila de la matriz M.
(%i10)e3:row(%o7,3); ( %o10) 0 0 1 53 73
Bo rr
Es trivial ver que e1, e2 y e3 son linealmente independientes.
2.3.5.
Ortogonalizaci´ on
Hemos visto que un conjunto de vectores ortogonales forman una base para un espacio vectorial. Ahora bien, siempre es posible construir un conjunto de vectores ortogonales a partir de un conjunto de vectores linealmente independientes. Es m´etodo de “ortogonalizaci´on” se conoce como el m´etodo de Gram-Schmidt12 , 12 ERHARD SCHMIDT (1876, Estonia - 1959 Alemania). Matem´ atico alem´ an fundador del primer instituto de matem´ aticas aplicadas de Berl´ın. Alumno de Hilbert, Schmidt hizo sus mayores contribuciones en el campo de Ecuaciones Integrales y Teor´ıa de Funciones en el Espacio de Hilbert.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
91
2.3. VARIEDADES LINEALES
en honor de estos dos matem´ aticos alemanes que NO lo inventaron pero hicieron famoso al m´etodo que, al parecer, se le debe al matem´ atico franc´es P.S. Laplace. Consideremos, por ejemplo, un conjunto de vectores linealmente independientes, {|v1 i , |v2 i , |v3 i , · · · , |vn i} que expanden un espacio euclidiano real de dimensi´on finita, E n . Entonces siempre se puede construir un conjunto ortogonal de vectores, {|e1 i , |e2 i , |e3 i , · · · , |en i} que tambi´en expandan E n de la siguiente forma: |e1 i ≡ |v1 i hv2 |e1 i he1 |e1 i
|e1 i
|e3 i ≡ |v3 i −
hv3 |e2 i he2 |e2 i
|e2 i −
|e4 i ≡ |v4 i −
hv4 |e3 i he3 |e3 i
|e3 i −
\ hv3 |e1 i he1 |e1 i
hv4 |e2 i he2 |e2 i
he2 |e1 i = 0
|e1 i
\
|e2 i −
hv4 |e1 i he1 |e1 i
\
he4 |e1 i = 0 he4 |e2 i = 0 he4 |e3 i = 0
.. .
|en i ≡ |vn i −
hvn |ei i i=1 hei |ei i
Pn−1
|ei i
he4 |e1 i = 0 he4 |e2 i = 0 he4 |e3 i = 0 .. .
re lim
.. .
|e1 i
he3 |e1 i = 0 he3 |e2 i = 0
in ar
|e2 i ≡ |v2 i −
\
he4 |en−1 i = 0
Ejemplos de ortogonalizaci´ on
rP
As´ı, siempre es posible construir una base ortonormal a partir de un conjunto de vectores linealmente independientes y una definici´ on de producto interno. Esta base ortogonal ser´a u ´nica en E n -para cada definici´ on de producto interno- y si existe otra sus vectores ser´an proporcionales. M´as a´ un, cada espacio vectorial Vn de dimensi´ on finita tendr´ a una base ortogonal asociada13 .
ad o
1. Un subespacio de V4 , expandido por los siguientes vectores −1 2 1 1 0 3 |v1 i = −1 ; |v2 i = 1 ; |v3 i = 0 , 0 3 2
Bo rr
13 Hemos construido la base ortogonal para un espacio de dimensi´ on finita, pero es procedimiento es v´ alido para espacios de dimensi´ on infinita
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
92
2.3. VARIEDADES LINEALES
tendr´ a una base ortogonal asociada dada por −1 1 hv2 |e1 i |e1 i ≡ |v3 i = 0 ; |e2 i ≡ |v2 i − he1 |e1 i |e1 i = 0
1 −1 2 1 1 0 − (−1) 0 = 1 1 3 0 3
5 4
5 −1 1 1 4 1 = − (1) 0 7 1 − 4 0 3 − 14
1 3 hv1 |e2 i hv1 |e1 i − 9 |e3 i ≡ |v1 i − |e2 i − |e1 i = −1 he2 |e2 i he1 |e1 i 12 2
in ar
y la base ortonormal asociada ser´ a
1 1 |e3 i 1 1 ; |ˆ e i = = 3 1 he3 |e3 i 2 −7 5 3 − 15
re lim
−1 √ |e1 i 2 3 1 ; |ˆe2 i = p |e2 i |ˆe1 i = p = = 0 2 6 he1 |e1 i he2 |e2 i 0 √
1
rP
2. Para el caso de R2 es muy claro. Si tenemos dos vectores |v1 i y |v2 i linealmente independientes, 1 0 |v1 i = ; |v2 i = ; 1 1 elegimos |e1 i ≡ |v2 i entonces, |e2 i vendr´a dado por
ad o
hv1 |e1 i |e2 i ≡ |v1 i − |e1 i ⇒ |e2 i ≡ he1 |e1 i
1 1
−
0 1
=
1 0
tal y como se esperaba, el otro vector ortogonal es el can´onico.
Bo rr
3. Consideramos el espacio de polinomios, P n , de grado g ≤ n definidos en el intervalo [−1, 1]. Este espacio vectorial tendr´ a como una de las posibles bases al conjunto {|Pi i} = 1, t, t2 , t3 , · · · , tn con el producto interno definido por14 Z 1
hPi | Pj i =
dt Pi (t)Pj (t) −1
Procederemos a construir una base ortogonal {|πi i}, y tomaremos como vector de inicio: |π0 i ≡ |P0 i = 1 ,
14 En
este punto es importante se˜ nalar la importancia de la definici´ on de producto interno. Si esta definici´ on hubiera sido √ R1 R1 f (x) g(x) hf | gi = −1 dx f (x) g(x) 1 − x2 o hf | gi = −1 dx √ las bases correspondientes a estas definiciones de producto interno 2 1−x
hubieran sido distintas.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
93
2.3. VARIEDADES LINEALES
El siguiente vector ser´ a:
|π1 i ≡ |P1 i −
R1 hP1 |π0 i = −1 dt t = 0
hP1 |π0 i |π0 i = t ⇐ hπ0 |π0 i hπ |π i = R 1 dt = 2 0 0 −1
El siguiente:
in ar
R1 hP2 |π0 i = −1 dt t2 = 23 R1 hP2 |π1 i hP2 |π0 i 1 2 |π2 i ≡ |P2 i − |π1 i − |π0 i = t − ⇐ hP2 |π1 i = −1 dt t3 = 0 hπ1 |π1 i hπ0 |π0 i 3 R1 hπ1 |π1 i = −1 dt t2 = 32 Para el cuarto ≡
rP
=
hP3 |π2 i hP3 |π1 i hP3 |π0 i |π2 i − |π1 i − |π0 i hπ2 |π2 i hπ1 |π1 i hπ0 |π0 i R1 hP3 |π0 i = −1 dt t3 = 0 R1 hP3 |π1 i = −1 dt t4 = 25 3 t3 − t ⇐ R1 5 hP3 |π2 i = −1 dt t3 [t2 − 13 ] = 0 R1 8 hπ2 |π2 i = −1 dt [t2 − 31 ]2 = 45
|P3 i −
re lim
|π3 i
Queda como ejercicio comprobar la ortogonalidad de los vectores reci´en calculados: hπ0 |π1 i = hπ1 |π2 i = hπ2 |π3 i = · · · = 0
Bo rr
ad o
Podemos resumir los c´ alculos anteriores como se muestra a continuaci´on: |Pn i 1
|πn i 1
t
t
|ˆ πn i √1
q2 3 2
q
1 3
t2
t2 −
t3
t3 − 35 t
t4 .. .
t4 − 76 t2 + .. .
1 5 2q 2
1 3 35
3 8
q2
1 2
7 2
t
3t2 − 1 5t3 − 3t
35t4 − 30t2 + 3 .. .
Practicando con Maxima:
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
94
2.3. VARIEDADES LINEALES
Anteriormente hicimos los c´ alculos vectores linealmente independientes: 1 3 |v1 i = −1 2
para hallar una base ortogonal a partir del siguiente conjunto de ;
2 0 |v2 i = 1 ; 3
−1 1 |v3 i = 0 , 0
(%i1) load ("eigen")$ matrix ([-1, 1, 0, 0], [2, 0, 1,3], [1,3, -1,2]); 1 0 0 0 1 3 3 −1 2
re lim
(%i2) v: −1 ( %o2) 2 1
in ar
La funci´ on gramschmidt(x) es la que ejecuta el algoritmo de ortogonalizaci´on de Gram-Schmidt sobre el objeto x. Si x es una matriz el algoritmo act´ ua sobre sus filas. Antes de usar la funci´on es necesario cargar la librer´ıa “eigen”.
Notemos que el vector |v3 i es el que hemos puesto en la primera fila de la matriz. Ahora procedemos al c´ alculo: (%i3) e: gramschmidt (v); 7 1 5 5 ( %o3) [−1, 1, 0, 0] , [1, 1, 1, 3] , 2 , 2 , − 2 , − 2 2 2 2 2 El resultado viene en forma de una lista: [e[1], e[2], e[3]]. Simplificando resulta:
rP
(%i4) e:expand(%); 5 5 7 1 ( %o4) [−1, 1, 0, 0] , [1, 1, 1, 3] , , , − , − 4 4 4 4 Podemos verificar que son ortogonales:
ad o
(%i5) map (innerproduct, [e[1], e[2], e[3]], [e[2], e[3], e[1]]); ( %o5) [0, 0, 0] Normalizamos ahora cada uno de los vectores
Bo rr
(%i6) e[1]/sqrt(innerproduct(e[1],e[1])); 1 1 ( %o6) − √ , √ , 0, 0 2 2 (%i7) e[2]/sqrt(innerproduct(e[2],e[2])); " √ # 1 1 1 3 √ , √ , √ , ( %o7) 2 3 2 3 2 3 2 (%i8) e[3]/sqrt(innerproduct(e[3],e[3])); 1 1 7 1 ( %o8) , ,− ,− 2 2 10 10
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
95
2.3. VARIEDADES LINEALES
La funci´ on gramschmidt(x,F) nos permite definir un producto interno diferente a innerproduct. Veamos como se hace para el otro ejemplo donde el conjunto de vectores linealmente independientes estaba dado por: 1, t, t2 , t3 , · · · , tn (%i9) producto(f,g):=integrate(f*g, t, a, b); Z ( %o9) producto(f,g) :=
b
f g dt a
(%i13)a: -1$ b:1$ (%i14)e[1]/sqrt(producto(e[1], e[1]));
Bo rr
ad o
rP
1 ( %o14) √ 2 (%i15)e[2]/sqrt(producto(e[2], e[2])); √ 3t ( %o15) √ 2 (%i16)e[3]/sqrt(producto(e[3], e[3])); √ 3 5 t2 − 13 ( %o16) 3 22 (%i17)e[4]/sqrt(producto(e[4], e[4])); √ 5 7 t3 − 35t ( %o17) 3 22
re lim
( %o12) [0, 0, 0] Para normalizar hacemos lo siguiente:
in ar
(%i10)e:gramschmidt ([1, t, t^2,t^3,t^4], producto), a= -1, b=1; " # 3 t2 − 1 t 5 t2 − 3 35 t4 − 30 t2 + 3 ( %o10) 1, t, , , 3 5 35 (%i11)e:expand(e); 3t 6 t2 3 1 + ( %o11) 1, t, t2 − , t3 − , t4 − 3 5 7 35 (%i12)map(producto, [e[1], e[2], e[3]], [e[2], e[3], e[1]]), a= -1, b=1;
2.3.6.
Complementos ortogonales y descomposici´ on ortogonal
Sea un subespacio S ⊂ V, un elemento |¯ vi i ∈ V se dice ortogonal a S si hsk |¯ vi i = 0 ∀ |sk i ∈ S, es decir, es ortogonal a todos los elementos de S . El conjunto {|¯ v1 i , |¯ v2 i , |¯ v3 i , · · · , |¯ vm i} de todos los elementos ortogonales a S, se denomina S−perpendicular y se denota como S⊥ . Es f´acil demostrar que S⊥ es un subespacio, a´ un si S no lo es. Dado un espacio euclidiano de dimensi´on infinita V : {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } y un subespacio de V con dimensi´ on finita, S ⊂ V y dim S = m. Entonces ∀ |vk i ∈ V puede expresarse como la suma de
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
96
2.3. VARIEDADES LINEALES
⊥
dos vectores |sk i ∈ S ∧ |sk i ∈ S⊥ . Esto es |vk i = |sk i + |sk i
⊥
,
|sk i ∈ S
∧
⊥
|sk i ∈ S⊥ .
M´ as a´ un, la norma de |vk i se calcula a trav´es del teorema de Pit´agoras generalizado
2
⊥ 2 2 k|vk ik = k|sk ik + |sk i . ⊥
|sk i =
m X
hvk |ˆei i |ˆei i
∧
⊥
in ar
La demostraci´ on es sencilla. Primero se prueba que la descomposici´on ortogonal |vk i = |sk i+|sk i es siempre posible. Para ello recordamos que S ⊂ V es de dimensi´on finita, por lo tanto existe una base ortonormal ⊥ {|ˆe1 i , |ˆe2 i , |ˆe3 i · · · |ˆem i} para S. Es decir, dado un |vk i definimos los elementos |sk i y |sk i como siguen |sk i = |vk i − |sk i
i=1
re lim
N´ otese que hvk |ˆei i |ˆei i es la proyecci´ on de |vk i a lo largo de |ˆei i y |sk i se expresa como la combinaci´on lineal de la base de S, por lo tanto, est´ a en S. Por otro lado m X ⊥ ⊥ hsk |ˆei i = hvk −sk |ˆei i = hvk |ˆei i − hsk |ˆei i = hvk |ˆei i − hvk |ˆej i hˆej | |ˆei i = 0 ⇒ |sk i ⊥ |ˆej i j=1
⊥
lo cual indica que |sk i ∈ S⊥ . ⊥ Podemos ir un poco m´ as all´ a. La descomposici´on |vk i = |sk i + |sk i es u ´nica en V. Para ello suponemos que existen dos posibles descomposiciones, vale decir ⊥
⊥
∧ |vk i = |tk i + |tk i
,
⊥
con |sk i ∧ |tk i ∈ S ∧ |sk i
Por lo tanto
⊥
∧ |tk i ∈ S⊥ .
rP
|vk i = |sk i + |sk i
⊥ ⊥ ⊥ ⊥ |vk i − |vk i = |sk i + |sk i − |tk i + |tk i = 0 ⇒ |sk i − |tk i = |tk i − |sk i . ⊥
⊥
ad o
Pero |sk i − |tk i ∈ S, es decir, ortogonal a todos los elementos de S⊥ y |sk i − |tk i = |tk i − |sk i , con lo cual |sk i − |tk i ≡ |0i que es el u ´nico elemento que es ortogonal a el mismo y en consecuencia la descomposici´ on ⊥ |vk i = |sk i + |sk i es u ´nica. Finalmente, con la definici´ on de norma
2
2
2 ⊥ ⊥ ⊥ ⊥ 2 ⊥ k|vk ik = |sk i + |sk i = hsk | + hsk | |sk i + |sk i = hsk |sk i +⊥ hsk |sk i = k|sk ik + |sk i .
Bo rr
As´ı, dado Sm un subespacio de V de dimensi´on finita y dado un |vk i ∈ V el elemento |sk i ∈ S ⇒ |sk i =
m X
hvk |ei i |ei i ,
i=1
ser´ a la proyecci´ on de |vk i en S. En general, dado un vector |xi ∈ V y un subespacio de V con dimensi´on finita, Sm ⊂ V y dim S = m, entonces la distancia de |xi a Sm es la norma de la componente de |xi , perpendicular a Sm , y m´as a´ un esa distancia ser´ a m´ınima y |xiSm la proyecci´ on d |xi, en Sm ser´a el elemento de Sm m´as pr´oximo a |xi y, por la mejor aproximaci´ on. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
97
2.3. VARIEDADES LINEALES
2.3.7.
Ejercicios
Sea Pn el conjunto de todos los polinomios de grado n, en x, con coeficientes reales: |pn i p(x) = a0 + a1 x + a2 x2 + ... + an−1 xn−1 =
n−1 X
ai xi
i=0
1. Demostrar que Pn es un espacio vectorial respecto a la suma de polinomios y a la multiplicaci´ on de polinomios por un escalar (n´ umero real).
3. ¿Cu´ al de los siguientes subconjuntos de Pn es un subespacio vectorial? a) El polinomio cero y todos los polinomios de grado n − 1. b) El polinomio cero y todos los polinomios de grado par.
in ar
2. Si los coeficientes ai son enteros ¿Pn ser´a un espacio vectorial? ¿ Por qu´e?
c) Todos los polinomios que tienen a x como un factor (grado n > 1).
re lim
d ) Todos los polinomios que tienen a x − 1 como un factor. 4. Un subespacio P es generado por: |x1i = x3 + 2x + 1; a) x2 − 2x + 1 b) x4 + 1 c) − 21 x3 + 52 x2 − x − 1 d) x − 5
|x2i = x2 − 2;
|x3i = x3 + x;
5. Probar que los polinomios |x1i = 1;
rP
¿Cu´ al(es) de los polinomios dados pertenece al subespacio P?
|x2i = x;
|x3i =
3 2 1 x − ; 2 2
|x4i =
5 3 3 x − x; 2 2
ad o
forman una base en P4 . Expresar |pi = x2 ; |qi = x3 en funci´on de esa base. Pn−1 Pn−1 6. Sean |pn i = p(x)= i=0 ai xi , |qn i = q(x) = i=0 bi xi ∈ Pn . Consid´erese la siguiente definici´on: ai bi
i=0
Bo rr
hqn |pn i a0 b0 + a1 b1 + a2 b2 + ... + an−1 bn−1 =
n−1 X
a) Muestre que ´esta es una buena definici´on de producto interno. b) Con esta definici´ on de producto interior ¿Se puede considerar Pn un subespacio de C[a,b] ? ¿Por qu´e?
7. Considerando estas definiciones de producto interior en Pn R1 a) hqn |pn i = −1 p(x)q(x)dx R1 b) hqn |pn i = 0 p(x)q(x)dx
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
98
´ DE FUNCIONES 2.4. APROXIMACION
Encontrar la distancia y el ´ angulo entre los siguientes pares de vectores en P3 a) |x1i = 1;
|x2i = x
b) |x1i = 2x;
|x2i = x2
8. Encontrar la proyecci´ on perpendicular de los siguientes vectores en C[−1,1] (espacio de funciones continuas en el intervalo [-1,1]) al subespacio generado por los polinomios: 1, x, x2 − 1. Calcular la distancia de cada una de estas funciones al subespacio mencionado. a) f (x) = xn ;
n entero
c) f (x) = 3x2
2.4. 2.4.1.
Aproximaci´ on de funciones Condiciones para la aproximaci´ on de funciones
in ar
b) f (x) = sen(x)
re lim
Sea {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } un espacio euclidiano de dimensi´on infinita, V, y un subespacio Sm ⊂ V, con dimensi´ on finita dim S = m, y sea un elemento |vi i ∈ V. La proyecci´on de |vi i en Sm , |si i , m ser´ a el elemento de S m´ as pr´ oximo a |vk i. En otras palabras k|vi i − |si ik ≤ k|vi i − |ti ik ∀ |ti i ∈ S . La demostraci´ on se sigue as´ı
2
2
2
|vi i − |ti i = (|vi i − |si i) + (|si i − |ti i) ⇒ k|vi i − |ti ik = k|vi i − |si ik + k|si i − |ti ik , ⊥
rP
ya que |vi i − |si i = |sk i ∈ S⊥ ∧ |si i − |t i i ∈ S, y vale el teorema de Pit´agoras generalizado. Ahora bien, como 2
2
k|si i − |ti ik ≥ 0 ⇒ k|vi i − |ti ik ≥ k|vi i − |si ik
2
⇒ k|vi i − |ti ik ≥ k|vi i − |si ik .
ad o
∞ Desarrollemos la aproximaci´ on de funciones continuas, reales de variable real, definidas en [0, 2π], C[0,2π] , R 2π mediante funciones trigonom´etricas y con el producto interno definido por: hf | gi = 0 dx f (x) g (x). Hemos visto que para este espacio vectorial tenemos una base ortogonal definida por
|e0 i = 1,
|e2n−1 i = cos(nx)
y
|e2n i = sen(nx),
con n = 1, 2, 3, · · ·
Bo rr
Por lo tanto, cualquier funci´ on definida en el intervalo [0, 2π] puede expresarse en t´erminos de esta base como mostramos a continuaci´ on ∞ X |f i = Ci |ei i , i=1
Los Ci son los coeficientes de Fourier. Es decir, cualquier funci´on puede ser expresada como una serie de Fourier de la forma ∞ X 1 f (x) = a0 + [ak cos(kx) + bk sen(kx)] , 2 k=1
donde
ak = Hern´ andez & N´ un ˜ez
1 π
Z
2π
dx f (x) cos(kx) ∧ bk = 0
1 π
Z
2π
dx f (x) sen(kx) . 0
Universidad de los Andes / Universidad Industrial de Santander
99
´ DE FUNCIONES 2.4. APROXIMACION
Es claro que para la aproximaci´ on de funciones por funciones trigonom´etricas cuyos coeficientes son los ∞ coeficientes de Fourier constituyen la mejor aproximaci´on. Por lo tanto, de todas las funciones F (x) ∈ C[0,2π] las funciones trigonom´etricas, T (x) minimizan la desviaci´on cuadr´atica media Z
2π
Z
2
2π
2
dx (f (x) − T (x)) .
dx (f (x) − P (x)) ≥ 0
0
Los coeficientes ser´ an: Z 1 π 2 2π 2 a0 = x dx = , π −π 3
an =
1 π
Z
π
x2 cos(nx)dx =
−π
in ar
Ejemplo Un ejemplo sencillo para aprender el mecan´ısmo del c´alculo de los coeficientes lo podemos hacer para la siguiente funci´ on. f (x) = x2 , −π ≤ x ≤ π
4 cos(nπ) 4(−1)n = , n2 n2
bn = 0 ∀ n.
f (x) = x2 =
re lim
Se puede verificar que si f (x) es par (f (−x) = f (x)) s´olo la parte que contiene cos(nx) contribuir´ a a la serie. Si f (x) es impar (f (−x) = −f (x)), lo har´a s´olo la parte que contiene sen(nx). Por lo tanto: ∞ X π2 4 1 π2 (−1)n +4 cos(nx) = − 4 cos (x) + cos (2 x) − cos (3 x) + cos (4 x) − · · · 2 3 n 3 9 4 n=1
Practicando con Maxima:
Existe una librer´ıa llamada fourie en Maxima y una funci´on que permite calcular series de Fourier de una funci´ on f (x) en el intervalo [−l, l]: fourier (f, x, l)
rP
(%i1) load(fourie)$
En nuestro caso f (x) = x2 . Al ejecutar el comando para calcular la serie se mostrar´an unas salidas temporales y finalmente una lista con el resultado de los coeficientes.
( %t2) a0 = ( %t3) an =
ad o
(%i2) fourier(x^2,x,%pi); π2 3 2 2 π
sin(π n) n
2 sin(π n) n3
+
2 π cos(π n) n2
π
Bo rr
( %t4) bn = 0 ( %o4) [ %t2 , %t3 , %t4 ]
−
Se puede simplificar
(%i5) foursimp(%);
π2 3 n 4 (−1) ( %t6) an = n2 ( %t7) bn = 0 ( %t5) a0 =
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
100
´ DE FUNCIONES 2.4. APROXIMACION
( %o7) [ %t5 , %t6 , %t7 ] Podemos evaluar la lista de los coeficiente hasta el t´ermino k. Aqu´ı lo haremos hasta k = 4 y el resultado lo llamaremos F . (%i8) F:fourexpand(%o7,x,%pi,4); ( %t8)
π2 cos (4 x) 4 cos (3 x) − + cos (2 x) − 4 cos x + 4 9 3
(%i9) wxplot2d([F,x^2], [x,-%pi,%pi],[legend, "F",
Bo rr
ad o
rP
re lim
( %o9)
"x^2"])$
in ar
En un mismo gr´ afico comparamos la funci´on original y los primeros 5 t´erminos de la serie.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
101
´ DE FUNCIONES 2.4. APROXIMACION
2.4.2.
El m´ etodo de m´ınimos cuadrados
Una de las aplicaciones m´ as importantes en la aproximaci´on de funciones es el m´etodo de m´ınimos cuadrados. La idea es determinar el valor m´ as aproximado de una cantidad f´ısica, c, a partir de un conjunto de medidas experimentales: {x1 , x2 , x3 , · · · , xn }. Para ello asociamos ese conjunto de medidas con las componentes de un vector |xi ≡ (x1 , x2 , x3 , · · · , xn ) en Rn y supondremos que su mejor aproximaci´on, que llamaremos c |1i ≡ (c, c, c, · · · , c), ser´ a la proyecci´on perpendicular de |xi (las medidas) sobre el subespacio generado por |1i. Esto es ⇒c=
x1 + x2 + x3 , · · · + xn hx |1i = , h1 |1i n
in ar
|xi = c |1i
que no es otra cosa que construir -de una manera sofisticada- el promedio aritm´etico de las medidas. Es claro que la proyecci´ on perpendicular de |xi sobre |1i hace m´ınima la distancia entre el subespacio perpendicular generado por |1i y el vector |xi y con ello tambi´en har´a m´ınimo su cuadrado: 2
2
n X
2
(xi − c) .
re lim
[d (|xi , c |1i)] = k|x − cik = hx − c |x − ci =
i=1
Esta manera sofisticada, que se deriva del formalismo utilizado, muestra el significado del promedio aritm´etico como medida m´ as cercana al valor “real” de una cantidad obtenida a partir de una serie de medidas experimentales. Obviamente, este problema se puede generalizar para el caso de dos (o n) cantidades si extendemos la dimensi´ on del espacio y los resultados experimentales se expresar´an como un vector de 2n dimensiones
rP
|xi = (x11 , x12 , x13 , · · · x1n , x21 , x22 , x23 , · · · x2n ) ,
mientras que los vectores que representan las cantidades m´as aproximadas ser´an c1 |11 i = c1 ,c1 ,c1 , · · · , c1 , 0, 0, 0, · · · 0 {z }| {z } |
c2 |12 i = (0, 0, 0, · · · , 0, c2 , c2 c2 , · · · c2 ) .
n
ad o
n
∧
Ahora {|11 i , |12 i} expanden un subespacio vectorial sobre el cual |xi tiene como proyecci´on ortogonal c1 |11 i +c2 |12 i y consecuentemente |x−c1 11 − c2 12 i ser´a perpendicular a {|11 i , |12 i}, por lo tanto c1 =
hx |11 i x11 + x12 + x13 , · · · + x1n = h11 |11 i n
∧
c2 =
hx |12 i x21 + x22 + x23 , · · · + x2n = . h12 |12 i n
Bo rr
Quiz´ a la consecuencia m´ as conocida de esta forma de aproximar funciones es el “ajuste” de un conjunto de datos experimentales {(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , · · · , (xn , yn )} a la ecuaci´on de una recta y = cx15 . En este caso, el planteamiento del problema se reduce a encontrar el vector c|xi, en el subespacio S (|xi), que est´e lo m´ as cercano posible al vector |yi. Como en el caso anterior, queremos que la distancia entre |yi y su valor m´as aproximado c |xi sea la 2 menor posible. Por lo tanto, k|cx − yik ser´a la menor posible y |cx − yi ser´a perpendicular a S (|xi), por lo que hx |yi x1 y1 + x2 y2 + x3 y3 + · · · + xn yn hx |cx − yi = 0 ⇒ c = = . hx |xi x21 + x22 + x23 + · · · + x2n 15 Es
inmediato generalizar el m´ etodo a un “ajuste” y = cx + b y queda como ejercicio para el lector
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
102
´ DE FUNCIONES 2.4. APROXIMACION
Si la recta a “ajustar” es y = cx + b el procedimiento ser´a uno equivalente: proyectar sobre los vectores y obtener ecuaciones. Si representamos |bi = b |1i, tendremos, Pn Pn Pn hx |yi = c hx |xi + hx |bi ⇒ i=1 xi yi = c i=1 x2i + b i=1 xi |yi = c |xi + |bi ⇒ (2.1) Pn Pn hb |yi = c hb |xi + hb |bi ⇒ i=1 yi = c i=1 xi + bn
re lim
in ar
Que no es otra cosa que un sistema de dos ecuaciones con dos inc´ognitas: c y b. Por simplicidad y conveniencia continuaremos con el an´ alisis del caso b = 0, vale decir aproximando las medidas experimentales a una recta que pase por el origen de coordenadas y = cx. El lector podr´a extender el procedimiento para caso b 6= 0. Para tratar de entender (y extender) lo antes expuesto, consideremos tres ejemplos que muestran la versatilidad del m´etodo y la ventaja de disponer de una clara notaci´on. Primeramente, mostraremos el caso m´ as utilizado para construir el mejor ajuste lineal a un conjunto de datos experimentales. Buscaremos la mejor recta que describe ese conjunto de puntos. Luego mostraremos la aplicaci´on del m´etodo para buscar la mejor funci´ on multilineal, vale decir que ajustaremos la mejor funci´on de n variables con una contribuci´ on lineal de sus argumentos: y = y(x1 , x2 , · · · , xn ) = c1 x1 +c2 x2 +· · ·+cn xn . Este caso tendr´a una complicaci´ on adicional, por cuando realizaremos varias mediciones de las variables. Finalmente, mostraremos como se puede utilizar el m´etodo de m´ınimos cuadrados para ajustar un conjunto de datos experimentales a un polinomio de cualquier grado. Veamos los tres casos: 1. El caso m´ as simple ser´ a el conjunto de datos experimentales (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ), y nos preguntamos ¿Cu´ al ser´ a la recta, y = cx, que ajusta m´as acertadamente a estos puntos. Es inmediato darnos cuenta que la pendiente de esa recta ser´a: |yi = c |xi
⇒c=
hx |yi . hx |xi
rP
Consideremos los puntos experimentales: {(1, 2) , (3, 2) , (4, 5) , (6, 6)}, entondes 1 2 3 2 hx |yi 2 + 6 + 20 + 36 32 |yi = c |xi ⇒ 5 = c 4 ⇒ c = hx |xi = 1 + 9 + 16 + 36 = 31 = 1,03226 . 6 6
ad o
¿Cu´ al ser´ıa el ajuste para el caso de una recta y = cx + b? Queda como ejercicio para el lector utilizar el esquema descrito en las ecuaciones (2.1) y encontrar los par´ametros c y b para este nuevo ajuste.
Bo rr
2. El segundo caso que consideraremos ser´a la generalizaci´on a una contribuci´on lineal de varios par´ ametros, i.e. un “ajuste” multilineal a la mejor funci´on, y = y(x1 , x2 , · · · , xm ) = c1 x1 + c2 x2 + · · · + cm xm . El procedimiento anterior puede generalizarse de forma casi inmediada hx1 |yi = c1 hx1 |x1 i + c2 hx1 |x2 i + · · · + cm hx1 |xj i m hx2 |yi = c1 hx2 |x1 i + c2 hx2 |x2 i + · · · + cm hx2 |xj i X (2.2) |yi = cj |xj i ⇒ .. .. . . j=1 hxm |yi = c1 hxm |x1 i + c2 hxm |x2 i + · · · + cm hxm |xj i . Es decir, un sistema de m ecuaciones con m inc´ognitas que corresponden a los “pesos”, c1 , c2 , · · · , cm ., de las contribuciones a la funci´ on multilineal.
Supongamos ahora un paso m´ as en este af´an generalizador y consideremos que ejecutamos n experimentos con n > m. De esta forma nuestro problema adquiere un grado mayor de riqueza y las medidas experimentales estar´ an representadas (y1 , x11 , x12 , · · · x1m ; y2 , x21 , x22 , · · · x2m ; y3 , x31 , x32 , · · · x3m ; · · · yn , xn1 , xn2 , xn3 , · · · xnm )
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
103
´ DE FUNCIONES 2.4. APROXIMACION
por lo tanto, podremos construir m vectores |˜ x1 i = (x11 , · · · , x1n ) ; |˜ x2 i = (x21 , · · · , x2n ) ; · · · |˜ xm i = (xm1 , · · · , xmn ) ; |yi = (ym1 , · · · , yn ) , y el conjunto {|˜ x1 i , |˜ x2 i , · · · |˜ xm i} expande el subespacio S (|˜ x1 i , |˜ x2 i , · · · |˜ xm i) que alberga la aproximaci´ on de |yi . Otra vez, la distancia de este subespacio al vector |yi, ser´a m´ınima y por lo tanto ser´ a la mejor aproximaci´ on: 2
[d (S (˜ci |˜ xi i) , |yi)] = hS (˜ci |˜ xi i) − y |S (˜ci |˜ xi i) − yi
m + X h˜ xj |S (˜ci |˜ xi) − yi ≡ h˜ xi ci |˜ xi − y = 0 ∀ i=1
in ar
y |S (˜ci |˜ xi) − yi ser´ a ortogonal a los |˜ xi i: i, j = 1, 2, 3, · · · m
re lim
Finalmente, el problema queda refraseado de la misma manera que en el caso multilineal (2.2): h˜ x1 |yi = ˜c1 h˜ x1 |˜ x1 i + ˜c2 h˜ x1 |˜ x2 i + · · · + ˜cm h˜ x1 |˜ xj i m h˜ X x2 |yi = ˜c1 h˜ x2 |˜ x1 i + ˜c2 h˜ x2 |˜ x2 i + · · · + ˜cm h˜ x2 |˜ xj i ˜cj |˜ |yi = xj i ⇒ (2.3) .. .. . . j=1 h˜ xm |yi = ˜c1 h˜ xm |˜ x1 i + ˜c2 h˜ xm |˜ x2 i + · · · + ˜cm h˜ xm |˜ xj i .
rP
Ejemplo Se sospecha que una determinada propiedad de un material cumple con la ecuaci´on y = ax1 + bx2 y realizamos 4 mediciones independientes. Si al realizar un conjunto de medidas experimentales obtenemos y4 0 10 y3 y2 12 y1 15 x11 = 1 ; x21 = 2 ; x31 = 1 ; x41 = 1 x32 1 2 x22 x12 x42 −1 1 Es claro que tenemos un subespacio de m = 2 dimensiones, que hemos hecho n = 4 veces el experimento y que los vectores considerados arriba ser´an |x2 i = (2, 1, 1, −1) ;
|yi = (15, 12, 10, 0)
ad o
|x1 i = (1, 2, 1, 1) ;
por lo tanto, vectorialmente |yi = a |x1 i + b |x2 i, es decir las ecuaciones normales (2.3) se escriben 45 a = 11 7a +4b = 49 ⇒ 11y = 45x1 + 56x2 ⇒ 4a +7b = 52 b = 56 11
Bo rr
3. Se puede extender el razonamiento anterior y generar un ajuste “lineal no lineal”. Esto es: el ajuste lineal es en los coeficientes, pero la funcionalidad de la ley a la cual queremos ajustar los datos puede ser un polinomio de cualquier orden. Ese es el caso de una par´abola que ajusta al siguiente conjunto de puntos {(0, 1) , (1, 3) , (2, 7) , (3, 15)} ⇔ y = ax2 + bx + c Las ecuaciones toman la forma de
Hern´ andez & N´ un ˜ez
1= 0 3= a 7 = 4a 15 = 9a
+0 +b +2b +3b
+c +c +c +c
Universidad de los Andes / Universidad Industrial de Santander
104
´ DE FUNCIONES 2.4. APROXIMACION
y los vectores construidos a partir de los datos experimentales ser´an |x1 i = (0, 1, 4, 9) ;
|x2 i = (0, 1, 2, 3) ;
|x3 i = (1, 1, 1, 1) ;
|yi = (1, 3, 7, 15) .
in ar
Una vez m´ as, la ecuaci´ on vectorial ser´ıa |yi = a |x1 i + b |x2 i + c |x3 i y las ecuaciones normales (2.3) para este sistema se construyen como a = −6 136 = 98a +36b +14c 32 113 113 62 = 36a +14b +6c b= 5 ⇒ x− . ⇒ y = −6x2 + 5 5 26 = 14a +6b +4c c = − 32 5 Practicando con Maxima:
re lim
Es posible en Maxima ajustar por m´ınimos cuadrados los par´ametros de curvas arbitrarias para un conjunto de datos emp´ıricos. La funci´ on a utilizar ser´a lsquares. Consideremos el ejemplo estudiado anteriormente donde los datos eran: (x, y) = (1, 2) , (3, 2) , (4, 5) , (6, 6)
Haremos uso de la librer´ıa lsquares y escribiremos los datos en forma de matriz (%i1) load(lsquares)$
rP
(%i2) datos: matrix([1,2],[3,2],[4,5],[6,6])$
Por conveniencia, para luego graficar, convertimos la matrix “datos” en una lista con el comando args: (%i3) datosL: args(datos);
ad o
( %o3) [[1, 2] , [3, 2] , [4, 5] , [6, 6]]
Supondremos entonces que los puntos se ajustan a un polinomio lineal y = ax. El par´ametro a se calcula con la funci´ on lsquares estimates. Se deja como ejercicio repetir ´este mismo c´alculo pero usando un ajuste de los datos de la forma: y = ax + b.
Bo rr
(%i4) param: lsquares_estimates(datos,[x,y],y=a*x,[a]), numer; ( %o4) [[a = 1,032258064516129]] (%i5) y:ev(a*x,first(param));
( %o5) 1,032258064516129 x Procedemos a graficar los datos experimentales vs el ajuste por m´ınimos cuadrados.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
105
re lim
in ar
´ DE FUNCIONES 2.4. APROXIMACION
(%i6) wxplot2d([[discrete,datosL], y], [x,0,10],[style, [points,5,2], [lines,2,1]], [point_type, plus], [legend,"Datos","y=ax"],[xlabel, "x"],[ylabel, "y"])$ ( %o6)
El siguiente caso estudiado fue con el conjunto de datos |x1 i = (1, 2, 1, 1) ;
|x2 i = (2, 1, 1, −1) ;
|yi = (15, 12, 10, 0)
rP
y suponiendo que ajustan de la manera siguiente |yi = a |x1 i + b |x2 i.
(%i7) datos2: matrix([1,2,15],[2,1,12],[1,1,10],[1,-1,0])$
ad o
Cambiaremos ligeramente la notaci´ on por: z = ax + by y calculemos los par´ametros a y b. (%i8) param: lsquares_estimates(datos2,[x,y,z], z=a*x+b*y,[a,b]), numer; ( %o8) [[a = 4,090909090909091, b = 5,090909090909091]]
Bo rr
Para el tercer ejemplo se consideraron los siguientes datos: {(0, 1) , (1, 3) , (2, 7) , (3, 15)}
⇔
y = ax2 + bx + c
Haremos con Maxima el c´ alculo directo usando un ajuste cuadr´atico para los datos suministrados. (%i9) datos3: matrix([0,1],[1,3],[2,7],[3,15])$ (%i10)datosL3: args(datos3)$ (%i11)param: lsquares_estimates(datos3,[x,y], y=a*x^2+b*x+c,[a,b,c]), numer;
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
106
´ DE FUNCIONES 2.4. APROXIMACION
( %o11) [[a = 1,5, b = 0,1, c = 1,1]] (%i12)y2:ev(a*x^2+b*x+c,first(param))$ Como hicimos anteriormente, graficamos los datos y el ajuste cuadr´atico. (%i13)wxplot2d([[discrete,datosL3], y2], [x,0,4],[style, [points,5,2], [lines,2,1]], [point_type, plus], [legend,"Datos","y=ax^2+bx+c"],[xlabel, "x"],[ylabel, "y"])$
Interpolaci´ on polinomial de puntos experimentales
ad o
2.4.3.
rP
re lim
in ar
( %o13)
Bo rr
Muchas veces nos encontramos con la situaci´on en la cual tenemos un conjunto de (digamos n) medidas o puntos experimentales {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xn , yn = f (xn ))} y para modelar ese experimento quisi´eramos una funci´ on que ajuste estos puntos. El tener una funci´ on nos provee la gran ventaja de poder intuir o aproximar los puntos que no hemos medido. La funci´ on candidata m´ as inmediata es un polinomio y debemos definir el grado del polinomio y la estrategia que aproxime esos puntos. Puede ser que no sea lineal el polinomio y queramos ajustar esos puntos a un polinomio tal que ´este pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, si construimos la funci´on como “trozos” de polinomios que ajusten a subconjuntos: {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xm , ym = f (xm ))} con m < n de los puntos experimentales. En este caso tendremos una funci´ on de interpolaci´on para cada conjunto de puntos. Tambi´en podemos ajustar la funci´ on a todo el conjunto de puntos experimentales y, en ese caso el m´aximo grado del polinomio que los interpole ser´ a de grado n − 1. Para encontrar este polinomio lo expresamos como una combinaci´on lineal de
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
107
in ar
´ DE FUNCIONES 2.4. APROXIMACION
Polinomios de Legendre. Esto es n−1 X
Ck |Pk i =
k=0
n−1 X k=0
Ck Pk (x)
y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 ) y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 ) ⇒ .. . yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn )
rP
P(x) = f (x) =
re lim
Figura 2.1: En el lado izquierdo se muestran los puntos experimentales: {(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la funci´on polin´omica que los interpola.
Bo rr
ad o
que no es otra cosa que un sistema de n ecuaciones con n inc´ognitas: los coeficientes {C0 , C1 , · · · Cn−1 }. Al resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la funci´on polin´ omica que interpola esos puntos. Una expansi´ on equivalente se pudo haber logrado con cualquier otro conjunto de polinomios ortogonales, que ellos son base del espacio de funciones. Es importante hacer notar que debido a que los polinomios de Legendre est´an definido en el intervalo [−1, 1] los puntos experimentales deber´ an re-escalarse a ese intervalo para poder encontrar el polinomio de interpolaci´ on como combinaci´ on lineal de los Polinomios de Legendre. Esto se puede hacer con la ayuda del siguiente cambio de variable: (b − a)t + b + a b−a x= , dx = dt 2 2 donde a y b son los valores m´ınimos y m´ aximos de los datos, respectivamente. Ejemplo Consideremos los puntos experimentales representados en la figura 2.1. Aqu´ı a = 2 y b = 12, por lo tanto: x = 5t + 7 y dx = 5dt ⇒ t = (x − 7)/5 y dt = dx/5.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
108
´ DE FUNCIONES 2.4. APROXIMACION
Al construir el sistema de ecuaciones obtendremos lo siguiente: (−1, 8) ⇒ 8 = C0 − C1 + C2 − C3 + C4 − C5 − 53 , 10 ⇒ 10 = C0 −
3 5
C1 +
1 25
C2 +
9 25
C3 −
51 125
C4 +
477 3125
C5
− 15 , 11 ⇒ 11 = C0 −
1 5
C1 −
11 25
C2 +
7 25
C3 +
29 125
C4 −
961 3125
C5
⇒ 18 = C0 +
1 5
C1 −
11 25
C2 −
7 25
C3 +
29 125
C4 +
961 3125
C5
3 5 , 20
⇒ 20 = C0 +
3 5
C1 +
1 25
C2 −
9 25
C3 −
51 125
C4 −
477 3125
C5
(1, 34) ⇒ 34 = C0 + C1 + C2 + C3 + C4 + C5 al resolver el sistema obtendremos que 2249 , 144
C1 =
3043 , 336
C2 =
con lo cual P(x) = f (x) =
1775 , 504
C3 = −
175 , 216
C4 =
625 , 336
C5 =
14375 3024
re lim
C0 =
in ar
1 5 , 18
2249 3043 1775 175 625 14375 + x+ P (2, x) − P (3, x) + P (4, x) + P (5, x) 144 336 504 216 336 3024
Practicando con Maxima
rP
la interpolaci´ on queda representada en al figura 2.1. Es importante se˜ nalar que mientras m´as puntos experimentales se incluyan para la interpolaci´ on, el polinomio resultante ser´ a de mayor grado y, por lo tanto incluir´a oscilaciones que distorsionar´an una aproximaci´ on m´ as razonable. Por ello, la estrategia de hacer la interpolaci´on a trozos, digamos de tres puntos en tres puntos, generar´ a un mejor ajuste, pero ser´a una funci´on (un polinomio) continua a trozos.
ad o
Maxima contiene la librer´ıa orthopoly que nos permite acceder a la evaluaci´on simb´olica y num´erica de los diferentes tipos de polinomios ortogonales: Chebyshev, Laguerre, Hermite, Jacobi, Legendre... (%i1) load (orthopoly)$
Por ejemplo, para obtener los primeros 6 polinomios de Legendre escribimos los siguientes comandos:
Bo rr
(%i2) [legendre_p(0,x),legendre_p(1,x),legendre_p(2,x), legendre_p(3,x),legendre_p(4,x),legendre_p(5,x)]$ Simplificamos con ratsimp: (%i3) ratsimp (%); 3 x2 − 1 5 x3 − 3 x 35 x4 − 30 x2 + 3 63 x5 − 70 x3 + 15 x , , , ( %o3) 1, x, 2 2 8 8
Los diferentes polinomios de Legendre se pueden visualizar de la manera siguiente (%i4) wxplot2d(%,[x,-1,1],[legend, "P0", "P1","P2", "P3","P4", "P5" ])$
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
109
re lim
in ar
´ DE FUNCIONES 2.4. APROXIMACION
( %o4) Ahora bien, con los datos de la Figura 2.1 se plante´o un sistema de ecuaciones lineales que procedemos a resolver: (%i5) ecu1:C0-C1+C2-C3+C4-C5=8$
(%i6) ecu2:C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10$
(%i7) ecu3:C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11$
rP
(%i8) ecu4:C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18$ (%i9) ecu5:C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20$ (%i10)ecu6:C0+C1+C2+C3+C4+C5=34$
Bo rr
ad o
(%i11)linsolve([ecu1,ecu2,ecu3,ecu4,ecu5,ecu6], [C0,C1,C2,C3,C4,C5]); 2249 3043 1775 175 625 14375 ( %o11) C0 = , C1 = , C2 = , C3 = − , C4 = , C5 = 144 336 504 216 336 3024 (%i12)[C0,C1,C2,C3,C4,C5]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4]),rhs(%[5]),rhs(%[6])]; 2249 3043 1775 175 625 14375 ( %o12) , , ,− , , 144 336 504 216 336 3024 Por lo tanto, la funci´ on aproximada ser´a: (%i13)f:C0+C1*legendre_p(1,x)+C2*legendre_p(2,x)+C3*legendre_p(3,x) +C4*legendre_p(4,x)+legendre_p(5,x)*C5$ (%i14)f:expand(%);
( %o14)
14375 x5 3125 x4 8375 x3 325 x2 7367 x 1863 + − − + + 384 384 192 192 384 128
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
110
´ DE FUNCIONES 2.4. APROXIMACION
(%i15)datos:[[-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]]; 3 1 1 3 ( %o15) [−1, 8] , − , 10 , − , 11 , , 18 , , 20 , [1, 34] 5 5 5 5 (%i16)wxplot2d([[discrete,datos],f], [x,-1,1],[style, [points,5,2], [lines,2,1]], [point_type, plus],[legend, false],[xlabel, "x"],[ylabel, "y"])$
2.4.4.
rP
re lim
in ar
( %o16)
Ejercicios
1. Demuestre que con las identidades siguientes
eikx + e−ikx , 2
ad o cos(kx) =
sen(kx) =
eikx − e−ikx , 2i
Bo rr
la serie de Fourier definida para funciones en el intervalo (t, t + 2π) se escribe en su forma compleja como: ∞ ∞ X X 1 f (x) = a0 + [ak cos(kx) + bk sen(kx)] ⇒ f (x) = ck eikx , 2 k=1
k=−∞
con
1 ck = 2π
Z
t+2π
f (x)e−ikx dx .
t
Y que para funciones definidas en el intervalo (l, l + 2L) f (x) =
∞ X k=−∞
Hern´ andez & N´ un ˜ez
ck e
ikπx L
,
con ck =
1 2L
Z
l+2L
f (x)e−
ikπx L
dx .
l
Universidad de los Andes / Universidad Industrial de Santander
111
´ DE FUNCIONES 2.4. APROXIMACION
Nota: Para los siguientes ejercicios supondremos la utilizaci´on de cualquier ambiente de manipulaci´ on simb´ olica tipo: MAPLE, Mathematica, Maxima, Python o similares. 2. Para las siguientes funciones determine la serie de Fourier calculando los coeficientes como en la Secci´ on 2.4 y compare los resultados con los c´alculos hechos en el ambiente de manipulaci´on simb´olica. a) b) c) d)
f (x) = x sen(x), si −π < x < π. f (x) = ex , si −π < x < π. f (x) = x, si 0 < x < 2. f (x) = 2x − 1, si 0 < x < 1.
xi (cm) Ti (◦ C)
1, 0 14, 6
2, 0 18, 5
3, 0 36, 6
4, 0 30, 8
5, 0 59, 2
6, 0 60, 1
in ar
3. Al medir la temperatura a lo largo de una barra material obtenemos los siguientes valores 7, 0 62, 2
8, 0 79, 4
9, 0 99, 9
Encuentre, mediante el m´etodo de los m´ınimos cuadrados los coeficientes que mejor ajustan a la recta T = ax + b.
re lim
∞ 4. Considere el espacio vectorial, C[−1,1] , de funciones reales, continuas y continuamente diferenciables definidas en el intervalo[−1, 1]. Es claro que una posible base de este espacio de funciones la constituye el conjunto de monomios 1, x, x2 , x3 , x4 , · · · por cuanto estas funciones son linealmente independientes.
Bo rr
ad o
rP
a) Si suponemos que este espacio vectorial est´a equipado con un producto interno definido por R1 hf |gi = −1 dx f (x)g(x), muestre que esa base de funciones no es ortogonal. R1 b) Utilizando la definici´ on de producto interno hf |gi = −1 dx f (x)g(x) ortogonalice la base ∞ 1, x, x2 , x3 , x4 , · · · y encuentre los 10 primeros vectores ortogonales, base para C[−1,1] . Esta nueva base de polinomios ortogonales se conoce como los polinomios de Legendre. p R1 c) Modifique un poco la definici´ on de producto interno hf |gi = −1 dx f (x)g(x) (1 − x2 ) y ortogo nalice la base 1, x, x2 , x3 , x4 , · · · y encuentre otros 10 primeros vectores ortogonales base para ∞ el mismo C[−1,1] . Esta nueva base de polinomios ortogonales se conoce como los polinomios de Tchebychev. d ) Suponga la funci´ on h(x) = sen(3x)(1 − x2 ): 1) Expanda la funci´ on h(x) en t´erminos de la base de monomios y de polinomios de Legendre, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 2) Expanda la funci´ on h(x) en t´erminos de la base de monomios y de polinomios de Tchebychev, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 3) Expanda la funci´ on h(x) en t´erminos de la base de polinomios de Legendre y de Tchebychev, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 4) Estime en cada caso el error que se comete como funci´on del grado del polinomio (o monomio) de la expansi´ on. ¿Qu´e puede concluir respecto a la expansi´on en una u otra base?
5. Los precios de un determinado producto var´ıan como se muestra a continuaci´on: A˜ no Precio
2007 133,5
2008 132,2
2009 138,7
2010 141,5
2011 144,2
2012 144,5
2013 148,6
2014 153,8
Realice una interpolaci´ on polinomial que permita modelar estos datos.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
112
2.5. ALGUNOS EJEMPLOS RESUELTOS
2.5.
Algunos ejemplos resueltos
1. Consideramos el espacio vectorial de polinomios de grado g ≤ n definidos en el intervalo [0, 1] o en el intervalo [−1, 1] seg´ un el caso a) ¿Cu´ al o cu´ ales de los siguientes conjuntos de vectores en P 3 son linealmente independientes? Explique por qu´e. 1) |x2 i = x2 + 1;
|x1 i = 2x;
|x4 i = x2 − 1 .
|x3 i = x + 1;
in ar
Soluci´ on: Resultan ser linealmente dependiente ya que podremos expresar |x4 i = |x1 i + |x2 i − 2|x3 i . 2) |x1 i = x(x − 1);
|x3 i = x3 ;
|x2 i = x;
|x4 i = 2x3 − x2 .
Soluci´ on: Linealmente dependiente ya que siempre podremos expresar
re lim
|x4 i = −|x1 i + |x2 i + 2|x3 i .
b) Considerando las siguientes definiciones de producto interior en P n Z
1
hqn |pn i =
1
Z
p(x)q(x)dx −1
hqn |pn i =
y
p(x)q(x)dx .
0
En P 3 encuentre la distancia y el ´angulo entre los vectores
|x2 i = x .
rP
|x1 i = x(x − 1); Soluci´ on: En general la definici´on de distancia es d (|x1 i, |x2 i) =
R1
−1
p(x)q(x)dx la distancia ser´a
ad o
por lo tanto para hqn |pn i = p
0
Bo rr
y para hqn |pn i =
R1
p hx2 − x1 |x2 − x1 i
sZ
1
hx2 − x1 |x2 − x1 i =
2
1√ 690 15
2
2√ 30 . 15
[x(x − 1) − x] dx = −1
p(x)q(x)dx ser´a
p hx2 − x1 |x2 − x1 i =
s
Z
1
(x(x − 1) − x) dx = 0
Con respecto a los ´ angulos:
Para hqn |pn i = Hern´ andez & N´ un ˜ez
R1 −1
θ = arc cos
hx1 |x2 i p p hx1 |x1 i hx2 |x2 i
! .
p(x)q(x)dx tenemos
Universidad de los Andes / Universidad Industrial de Santander
113
2.5. ALGUNOS EJEMPLOS RESUELTOS
hx1 |x2 i p p hx1 |x1 i hx2 |x2 i
θ = arc cos
!
(x(x − 1)) x dx −1 qR = arc cos qR 1 1 2 2 (x(x − 1)) dx −1 x dx −1 R1
1√ √ = arc cos − 15 6 = 2,4825 rad . 12 R1 0
p(x)q(x)dx
θ = arc cos
p
hx1 |x2 i p hx1 |x1 i hx2 |x2 i
!
R1
= arc cos qR
(x(x − 1)) (x) dx qR 1 2 (x(x − 1)) dx 0 x2 dx 0
re lim
1√ √ = arc cos − 15 2 = 2,4825 rad . 12
1 0
in ar
Para hqn |pn i =
¡El mismo ´ angulo!
c) Una de las posibles bases de P n ser´a el conjunto 1, x, x2 , x3 , · · · , xn con el producto interno R1 definido por hf | gi = 0 dx f (x) g (x).
esto es
ad o
|e1 i = |v1 i = 1
rP
1) Encuentre la base ortonormal que expande el subespacio S 3 de los polinomios, P n , de grado g ≤ 3. Soluci´ on: El subespacio S 3 tendr´a como vectores linealmente independientes 1, x, x2 , x3 , para encontrar la base ortonormal utilizamos el m´etodo de Gram Smith, con lo cual tendremos que n−1 X hvn |ei i |ei i , |en i ≡ |vn i − hei |ei i i=1
R1 xdx 1 hv2 |e1 i |e1 i = x − R0 1 |e2 i = |v2 i − =x− he1 |e1 i 2 dx 0
Bo rr
R1 2 R1 2 x dx x x − 21 dx hv3 |e1 i hv3 |e2 i 1 2 0 0 |e3 i = |v3 i − |e1 i − |e2 i = x − R 1 − R1 x − 2 he1 |e1 i he2 |e2 i 2 dx x − 12 dx 0 0 1 = x2 − x + 6 hv4 |e1 i hv4 |e2 i hv4 |e3 i |e4 i = |v4 i − |e1 i − |e2 i − |e3 i he1 |e1 i he2 |e2 i he3 |e3 i R R 1 3 2 1 1 3 R1 3 x x − 12 dx x − 12 x x + 6 − x dx x2 + 16 − x x dx 0 0 − = x3 − 0R 1 − 2 2 R1 R1 dx x − 12 dx x2 + 16 − x dx 0 0 0 1 3 3 = x3 − + x − x2 20 5 2
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
114
2.5. ALGUNOS EJEMPLOS RESUELTOS
Normalizando |e1 i 1 |ξ1 i = p = qR =1 1 he1 |e1 i dx 0 √ x − 21 |e2 i 1 |ξ2 i = p = 2 = qR 3 x − 2 1 2 he2 |e2 i x − 12 dx 0
x3 −
|e4 i
= qR |ξ4 i = p 1 he4 |e4 i x3 − 0
1 20
+ 35 x − 23 x2
1 20
+ 35 x − 32 x2
2
dx
in ar
√ x2 + 16 − x |e3 i 1 2 = qR = 6 − x |ξ3 i = p 5 x + 2 1 6 he3 |e3 i x2 + 16 − x dx 0
√ 1 3 3 2 3 = 20 7 x − + x− x 20 5 2
Z
1
0
c2 = hg |ξ2 i =
Z
1
0
c3 = hg |ξ3 i =
Z
1
0
c4 = hg |ξ4 i =
Z
1
0
con lo cual
71 (1) 5 + 3x2 − x3 + x5 dx = 12 √ 197 √ 1 2 3 x− 5 + 3x2 − x3 + x5 dx = 3 2 420 √ 23 √ 1 5 + 3x2 − x3 + x5 dx = 6 5 x2 + − x 5 6 210 √ 3 3 2 4 √ 1 3 + x− x 5 + 3x2 − x3 + x5 dx = 7, 20 7 x − 20 5 2 315
rP
c1 = hg |ξ1 i =
re lim
2) Encuentre las componentes del polinomio g (x) = 5 + 3x2 − x3 + x5 proyectado sobre esa base ortonormal que expande a S 3 Soluci´ on: Las componentes de la proyecci´on de g (x) en S 3 ser´ıan
197 √ 71 23 √ 4 √ |ξ1 i + 3 |ξ2 i + 5 |ξ3 i + 7 |ξ4 i . 12 420 210 315
ad o
|giS 3 =
Bo rr
Finalmente la proyecci´ on del polinomio en S 3 ser´a √ √ 71 197 3 √ 1 23 5 √ gS 3 (x) = + 2 3 x− + 6 5 x2 + 12 420 2 210 71 197 1 23 1 gS 3 (x) = + x− + x2 + − x + 12 70 2 7 6 es decir
gS 3 (x) =
√ √ 1 4 7 1 3 3 2 3 −x + 20 7 x − + x− x 6 315 20 5 2 16 3 3 1 + x − x2 x3 − 9 20 5 2
313 25 13 2 16 3 + x+ x + x 63 42 21 9
La norma ser´ a 2
k|giS 3 k =
Hern´ andez & N´ un ˜ez
71 12
2
+
197 √ 3 420
2
+
2 2 23 √ 4 √ 1,418,047 ∼ 5 + 7 = = 35,728 . 210 315 39,690
Universidad de los Andes / Universidad Industrial de Santander
115
2.5. ALGUNOS EJEMPLOS RESUELTOS
2. Encuentre la m´ınima distancia desde el subespacio S 3 al polinomio g (x) Soluci´ on: La distancia m´ınima ser´ a la norma del vector ortogonal a S 3 tal que donde |giS 3 ∈ S 3
|gi = |giS 3 + |gi⊥S 3
y |gi⊥S 3 es un vector de su complemento ortogonal. Por lo tanto el Teorema de Pit´agoras nos dice que 2
2
k|gik = k|giS 3 k + k|gi⊥S 3 k
2
Z
2
1
5 + 3x2 − x3 + x5
k|gik =
2
dx =
2
k|giS 3 k = con lo cual
1418047 39690 r
k|gi⊥S 3 k =
495193 13860
re lim
0
in ar
con lo cual tendremos que la m´ınima distancia ser´a q 2 2 k|gi⊥S 3 k = k|gik − k|giS 3 k
495193 1418047 − ≈ 1,196 5 × 10−2 13860 39690
rP
3. Sea f (x) = e2x una funci´ on perteneciente al espacio lineal de funciones continuas y continuamente difeR1 ∞ renciables, C[−1,1] , en el cual el producto interno viene definido por hq|pi = −1 p(x)q(x) dx. Encuentre el polinomio lineal m´ as cercano a la funci´on f (x). Soluci´ on: En el subespacio S 1 de polinomios lineales, los vectores base son {1, x}. Es una base ortogonal pero no es normal, con lo cual la normalizamos 1 1√ = qR 2 = 1 2 he1 |e1 i dx −1 R1 √ xdx hv2 |e1 i x 6 −1 |e2 i = |v2 i − |e1 i = x − R 1 = x ⇒ |ξ2 i = qR = x 1 he1 |e1 i 2 dx x2 dx −1 1
ad o
|e1 i = |v1 i = 1 ⇒ |ξ1 i = p
−1
y la proyecci´ on ortogonal de esta funci´on ser´a √ 2 1√ −e2 + e−2 2 dx = − 2 4
Bo rr 0
Z
1
c =
2x
e
−1
y
1
Z
1
c = −1
√
! √ 6 6 2 2x e + 3e−2 x e dx = 2 8
con lo cual la funci´ on lineal ser´ a
Hern´ andez & N´ un ˜ez
√ n
P =
! √ 6 2 2 −2 e + 3e x− −e2 + e−2 . 8 4
Universidad de los Andes / Universidad Industrial de Santander
116
2.6. EJERCICIOS PROPUESTOS
2.6.
Ejercicios propuestos
i 1. Los vectores en R3 en coordenadas cartesianas los definimos como
i a = ai |ei i = ax i + ay j + az k y definimos una “tabla de multiplicaci´ on” entre ellos de la forma e |ej i = δj con i, j = 1, 2, 3, esto es:
i e |ej i i j k
i 1 0 0
j 0 1 0
k 0 0 1
in ar
Un cuaterni´ on cartesiano puede escribirse de manera an´aloga a los vectores cartesianos, vale decir: |ai = aα |qα i = a0 + ai |qi i = a0 + ax i + ay j + az k ,
re lim
con α = 0, 1, 2, 3 y donde las ai (con i = 1, 2, 3) son n´ umeros reales que representan las componentes vectoriales en coordenadas cartesianas de los cuaterniones, mientras que la a0 , tambi´en un n´ umero real se le llama componente escalar16 . Los cuaterniones fueron inventados por el matem´atico irland´es William Rowan Hamilton a mediados del siglo XIX, y por decirlo de alguna manera, son h´ıbridos o generalizaciones a un plano hipercomplejo. Un vector cartesiano es un cuaterni´on con la componente escalar nula.
rP
Bas´ andonos en este esquema podemos definir la “tabla de multiplicaci´on” para los cuaterniones cartesianos como 1 |q1 i |q2 i |q3 i |qi i |qj i 1 1 |q1 i |q2 i |q3 i |q1 i |q1 i −1 |q3 i − |q2 i |q2 i |q2 i − |q3 i −1 |q1 i |q3 i |q3 i |q2 i − |q1 i −1
ad o
N´ otese que por el hecho que |qj i |qj i = −1 ⇒ |q1 i |q1 i = |q2 i |q2 i = |q3 i |q3 i = −1, se puede pensar que un cuaterni´ on es la generalizaci´on de los n´ umeros complejos a m´as de una dimensi´on (un n´ umero hipercomplejo) donde la parte imaginaria tendr´ıa tres dimensiones y no una como es costumbre. Esto es |ai = aα |qα i = a0 |q0 i + aj |qj i = a0 + a1 |q1 i + a2 |q2 i + a3 |q3 i |{z} | {z } 1
“parte compleja”
Bo rr
Siendo consistente con esa visi´ on de generalizaci´on de un n´ umero complejo, definiremos el conjugado z de un cuaterni´ on como |bi = b0 |q0 i − bj |qj i con j = 1, 2, 3. Es decir, en analog´ıa con los n´ umeros complejos el conjugado de un cuaterni´on cambia el signo de su “parte compleja vectorial”. Igualmente, definiremos la suma entre cuaterniones como |ai = aα |qα i ⇒ |ci = cα |qα i = |ai + |bi = (aα + bα ) |qα i ⇒ cα = (aα + bα ) α |bi = b |qα i Esto quiere decir que los vectores se suman componente a componente. Mientras que la multiplicaci´ on por un escalar queda definida por α |ci = αcα |qα i, es decir se multiplica el escalar por cada componente.
P que estamos utilizando la convenci´ on de Einstein en la cual cα |qα i ≡ c0 + 3j=1 cj |qj i. Es decir hemos supuesto que |q0 i ≡ 1, la unidad en los n´ umeros reales. Adicionalmente, n´ otese que los ´ındices griegos α, β, · · · toman los valores 0, 1, 2, 3, mientras que los latinos que acompa˜ nan a los vectores cartesianos toman los siguiente valores j, k, l = 1, 2, 3. 16 Recuerde
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
117
2.6. EJERCICIOS PROPUESTOS
a) Compruebe si los Cuaterniones, |ai, forman un espacio vectorial respecto a esa operaci´on suma y esa multiplicaci´ on por escalares, an´aloga a la de los vectores en R3 en coordenada cartesianas b) Dados dos cuaterniones |bi ≡ b0 , b y |ri ≡ r0 , r , entonces, el producto entre cuaterniones |di = |bi |ri podr´ a representarse como |di = |bi |ri ←→ d0 , d = b0 r0 − b · r, r0 b + b0 r + b × r donde · y × corresponden con los productos escalares y vectoriales tridimensionales de siempre. Ahora con ´ındices: dados |bi = bα |qα i y |ri = rα |qα i, compruebe si el producto |di = |bi |ri puede ser siempre escrito de la forma
in ar
|di = |bi |ri = a |q0 i + S (ij) δi0 |qj i + A[jk]i bj rk |qi i
donde a representa un escalar; S (ij) δi0 tres cantidades (recuerde que los ´ındices latinos toman los (ij) valores j, k, l = 1, 2, 3, mientras i = 0, 1, 2, indica S ji = S ij , que la cantidad S ij es 3); donde S ij 0 ji 0 sim´etrica, y por lo tanto S δi + S δi |qj i. Mientras A[jk]i representa un conjunto de objetos antisim´etricos en j y k: A[jk]i → Ajki = −Akji → Ajki bj rk − Akji bj rk |qi i17 .
re lim
Identifique las cantidades: a, S (ij) y A[jk]i en t´erminos de las componentes de los cuaterniones ¿El producto de cuaterniones |di = |ai |ri ser´a un vector, pseudovector o ninguna de las anteriores? Explique por qu´e. c) Muestre que los cuaterniones pueden ser representados por matrices complejas 2 × 2 del tipo z w |bi ←→ −w∗ z ∗ donde z, w son n´ umeros complejos.
ad o
rP
d ) Muestre que una representaci´ on posible para la base de 0 0 0 0 1 0 0 0 0 −1 −1 0 0 0 |q2 i = |q1 i = 0 1 0 0 0 0 1 ; 1 0 0 0 0 −1 0
cuaterniones es, la matriz unitaria 0 0 −1 −1 0 0 0 0 ; |q3 i = 1 0 0 0 0 −1 0 0
4x4 y 0 1 0 0
e) Compruebe si la siguiente es una buena definici´on de producto interno: z
ha |bi = |ai |bi
Bo rr
f ) Modifique un poco la definici´ on anterior de tal forma que se tenga la ha |bi =
1 [ha |bi − |q1 i ha |bi |q1 i] 2
y compruebe si esta definici´ on compleja del producto interno cumple con todas las propiedades. N´ otese que un cuaterni´ on de la forma |f i = f 0 + f 1 |q1 i es un n´ umero complejo convencional.
g) Compruebe si la siguiente es una buena definici´on de norma para los cuaterniones q p z n(|bi) = k|aik = ha |ai = |ai |ai
17 Para
familiarizarse con las expresiones vectoriales con la notaci´ on de ´ındices puede consultar la secci´ on 1.6
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
118
2.6. EJERCICIOS PROPUESTOS
h) Comprebe si un cuaterni´ on definido por z
|ai =
|ai
k|aik
2
puede ser considerado como el inverso o elemento sim´etrico de |ai respecto a la multiplicaci´ on i ) Compruebe si los Cuaterniones |ai forman un grupo respecto a una operaci´on multiplicaci´ on .
in ar
j ) Los vectores en R3 en coordenadas cartesianas, |vi, pueden ser representados como cuaterniones donde la parte escalar es nula v 0 = 0 → |vi = v j |qj i. Compruebe si el siguiente producto conserva la norma |v 0 i = |ai |vi |ai 0 2 0 2 0 2 2 2 2 2 2 Estos es: k|v 0 ik = v 1 + v2 + v3 ≡ v 1 + v 2 + v 3 = k|vik .
re lim
2. En el mismo esp´ıritu de los cuaterniones considerados previamente, considere otra vez el espacio R3 expadido por la base ortonormal est´ andar {i, j, k} y suponga en este espacio el producto de dos vectores a y b (o |ai y |bi en la notaci´ on de vectores abstractos de Dirac) definido a la manera del ´ algebra geom´etrica 18 . Esto es: K |ai |bi ≡ ab = a · b + a ∧ b con a · b el producto escalar est´ andar de R3 , representando la parte conmutativa de ab y a ∧ b su parte anticonmutativa. Esta u ´ltima parte se relaciona con el producto vectorial est´andar de la representaci´ on de Gibbs como a ∧ b = ia × b, con i = i ∧ j ∧ k un pseudoescalar19 . Este formalismo ha tenido cierto impacto en computaci´on gr´afica20 y lo vamos a utilizar para modelar transformaciones de objetos en el espacio.
rP
Considere el caso 2D representado en la Figura 2.2 y en el formalismo de algebra geom´etrica el objeto tri´ angulo lo asociamos con vector abstracto |4i, mientras que el objeto cuadrado lo representaremos como |i, y el tercer objeto por |⇑i.
ad o
a) Exprese los vectores: |4i , |i , |⇑i en t´erminos de la base ortonormal est´andar {i, j, k} (o |ii , |ji , |ki) y el formalismo de ´ algebra geom´etrica. J b) Exprese |4i |⇑i en t´ermino de la base geom´etrica. Vale decir si |Og i es un objeto geom´etrico puede representarse en t´erminos de una base |i , |σi , |Bi , |ii donde |i un escalar; |σi un vector; |Bi un bivector y, finalmente |ii un pseudoescalar. c) Encuentre la norma de cada uno de ellos y la distancia entre |4i y |⇑i. E ˜ d ) Considere ahora la operaci´ on A |4i = 4
Bo rr
E ˜ 1) Si A|ji es el operador reflexi´on respecto |ji, exprese en t´erminos geom´etricos 4 = A|ji |4i J y A|ii (|4i |⇑i). 2) Si Aθ,|Bi es el Joperador de rotaci´on alrededor de un bivector |Bi un ´angulo θ. Encuentre Aπ/4,|Bi (|4i |⇑i) con |Bi = |ji + |ki
18 Hestenes David. Vectors, spinors, and complex numbers in classical and quantum physics. Am. J. Phys 39, no. 9 (1971): 1013-1027. √ 19 Y equivalentemente, por isomorfismo i = −1. 20 Pueden consultar Hildenbrand D., D. Fontijne, Ch. Perwass and L. Dorst: Geometric algebra and its application to computer graphics. In Tutorial notes of the EUROGRAPHICS conference, 2004. O tambi´ en Hildenbrand, Dietmar: From Grassmann’s vision to geometric algebra computing. Springer Basel, 2011.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
119
re lim
in ar
2.6. EJERCICIOS PROPUESTOS
Figura 2.2: Se ilustran los vectores ortonormales est´andares {i, j} y como siempre k = i × j
ad o
rP
3) ¿C´ omo interpreta Ud la ecuaci´on de autovalores A |4i = 2 |4i? E ˆ e) Considere el caso 3D en el cual 4 representa un tetraedro regular con la base representada por E ˆ la Figura 2.2 y , un cubo, tambi´en con su base representada en el plano de la misma figura. E E ˆ ˆ 1) Exprese los vectores: 4 , en t´erminos de la base ortonormal est´andar {i, j, k} y el formalismo de ´ algebra geom´etrica. E J J ˆ |4i en t´ermino de la base geom´etrica. |⇑i 2) Exprese 4 E E E ˆ ˆ ˆ 3) Encuentre la norma de 4 y la distancia entre 4 y Aπ/2,|−ji . E ˆ con Aπ/2,|−ji , Bπ/4,|ii = Aπ/2,|−ji Bπ/4,|ii − Bπ/4,|ii Aπ/2,|−ji 4) Exprese Aπ/2,|−ji , Bπ/4,|ii
Bo rr
3. En Geometr´ıa Diferencial podemos considerar a R3 como un conjunto de puntos (una variedad o espacio topol´ ogico), es decir, R3 no es un espacio vectorial como se defini´o con anterioridad. En un punto q cualquiera podemos generar un plano R2 , entendido tambi´en como un conjunto de puntos, y definir el siguiente conjunto Tq R2 = {el conjunto de todos los vectores geom´etricos (flechas) con origen en q que son tangentes al plano R2 }. Notemos que la idea la podemos extender para cualquier superficie, por ejemplo, una esfera S2 (embebida en R3 ) y sobre la esfera seleccionar un punto arbitrario q. A partir de este punto q generar un plano y construir el conjunto Tq S2 = {el conjunto de todos los vectores geom´etricos con origen en q que son tangentes a la esfera S2 }. a) ¿Es Tq R2 un espacio vectorial? b) Claramente podemos seleccionar otro punto arbitrario, pero diferente de q, digamos p y construir el conjunto Tp R2 . ¿Son estos dos espacios isomorfos?
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
120
2.6. EJERCICIOS PROPUESTOS
Considremos ahora el conjunto de todas las funciones diferenciables f : R3 → R. Eso es, que existen todas las derivadas parciales en q ∈ R3 : ∂x f (xi ) , ∂y f (xi ) , ∂z f (xi ) ∈ R ∀ (xi ) ∈ R3 Note que hemos supuesto un sistema de coordenadas cartesiano xi = (x, y, z) en R3 y que las derivadas son evaluadas en q.
Por lo tanto: |Uq i f ≡ u1 ∂x + u2 ∂y + u3 ∂z
q
in ar
Consideremos el espacio tangente Tq R3 en un punto q arbitrario y un vector |uq i ∈ Tq R3 con compo 1 2 3 nentes u , u , u , podemos definir el siguiente operador (operador derivada direccional) en q siguiendo a |uq i |Uq i = u1 ∂x + u2 ∂y + u3 ∂z q
f = u1 (∂x f )q + u2 (∂y f )q + u3 (∂z f )q
c) ¿Es Dq un espacio vectorial?
Bo rr
ad o
rP
d) ¿Los espacios Dq y Tq R3 son isomorfos?
re lim
Es posible entonces construir el conjunto de los operadores derivadas direccionales que act´ uan sobre las funciones f : Dq (R3 ) = {|Uq i = u1 ∂x + u2 ∂y + u3 ∂z q ∀ |uq i ∈ Tq R3 }
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
121
in ar
Bibliograf´ıa
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici´ on (Academic Press, Nueva York)
re lim
[2] Scharnhorst, K. (2009) Angles in complex vector spaces Acta Applicandae Mathematica), 69(1), 95-103 [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:
rP
[6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) [7] Santal´ o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
Bo rr
ad o
[8] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
122
3
Bo rr
ad o
rP
re lim
Vectores Duales y Tensores
in ar
Cap´ıtulo
123
3.1. FUNCIONALES LINEALES
3.1.
Funcionales lineales
En los cursos m´ as elementales de c´ alculo se estudiaron funciones de una y m´as variables reales. Estas funciones pueden considerarse entonces como funciones que act´ uan sobre vectores en R3 . Podemos extender esta idea para funciones que tengan como argumento vectores de un espacio vectorial arbitrario. Comenzaremos con las funciones mas sencillas, las lineales, que tambi´en son conocidas como operadores lineales. Definiremos funcionales lineales como aquella operaci´on que asocia un n´ umero complejo (o real) ∈ K a un vector |vi ∈ V y cumple con la linealidad, vale decir: |vi ∈ V
→
F [|vi] ∈ C ,
in ar
∀
F [α |v1 i + β |v2 i] ≡ α F [|v1 i] + β F [|v2 i] , ∀ |v1 i , |v2 i ∈ V y ∀ α, β ∈ K.
re lim
El conjunto de funcionales lineales {F1 , F2 , F3 , · · · , Fn , · · · } constituyen a su vez un espacio vectorial, el cual se denomina espacio vectorial dual de V y se denotar´a como V∗ (no es complejo conjugado). Si V es de dimensi´ on finita n, entonces dimV = dimV∗ = n. Es f´ acil convencerse que los funcionales lineales forman un espacio vectorial ya que dados F1 , F2 ∈ V∗ se tiene (F1 + F2 ) [|vi] = F1 [|vi] + F2 [|vi] ∀ |vi ∈ V . (α F) [|vi] = α F [|vi] A este espacio lineal tambi´en se le llama espacio de formas lineales y a los funcionales 1−formas o covectores, al espacio vectorial V tambi´en se le denomina espacio directo. En aquellos espacios lineales con producto interno definido (Espacios de Hilbert), el mismo producto interno constituye la expresi´ on natural del funcional. As´ı tendremos que ∀
|vi ∈ V
rP
Fa [|vi] ≡ ha |vi
∧
∀
ha| ∈ V∗ .
ad o
Es claro comprobar que el producto interno garantiza que los {Fa , Fb , · · · } forman un espacio vectorial: (Fa + Fb ) [|vi] = Fa [|vi] + Fb [|vi] = ha |vi + hb |vi ∀ |vi ∈ V . (α Fa ) [|vi] = hαa |vi = α∗ ha |vi = α∗ Fa [|vi] Esta u ´ltima propiedad se conoce como antilinealidad. Se establece entonces una correspondencia 1 a 1 entre kets y bras, entre vectores y funcionales lineales (o formas diferenciales): λ1 |v1 i + λ2 |v2 i λ∗1 hv1 | + λ∗2 hv2 | ,
Bo rr
que ahora podemos precisar:
∗
ha |vi = hv |ai , ha |λ1 v1 + λ2 v2 i = λ1 ha |v1 i + λ2 ha |v2 i , hλ1 a1 +λ2 a2 |vi = λ∗1 ha1 |vi + λ∗2 ha2 |vi .
M´ as a´ un, dada una base {|e1 i , |e2 i , |e3 , i · · · |en i} para V siempre es posible asociar una base para V∗ de tal manera que
|vi = λi |ei i hv| = λ∗i ei , con λi = ei |vi ∧ λ∗i = hv |ei i para i = 1, 2, · · · , n
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
124
3.1. FUNCIONALES LINEALES
En un lenguaje arcaico (y muchos textos de Mec´anica todav´ıa lo reproducen) se denota a la base del espacio dual ei y la base del espacio directo base rec´ıproca {|ei i}. Se puede ver tambi´en que si |vi = ξ i |ei i, entonces F [|vi] = F ξ i |ei i = ξ i F [|ei i] = ξ i ωi
re lim
Esta 1−forma al actuar sobre un vector arbitrario resulta en F i [|vi] = F i ξ j |ej i = ξ j F i [|ej i] = ξ j δji = ξ i
in ar
donde hemos definido F [|ei i] ≡ ωi . N´ otese que estamos utilizando la notaci´on de Einstein la que ´ındices repetidos indican suma, y en
en donde las bases del espacio dual de formas diferenciales ek llevan los ´ındices arriba. Los ´ındices arriba se llamar´ an contravariantes y los ´ındices abajo
covariantes. Las componentes de las formas diferenciales en una base dada, llevan ´ındices abajo ha| = ai ei mientras que las componentes de los vectores los llevan arriba |vi = ξ j |ej i. N´ otese tambi´en que dada una base en el espacio directo |ei i existe una u ´nica base can´onica en el dual definida como:
i e |ej i = F i [|ej i] = δji
es decir, en su componente contravariante. El conjunto de 1−formas {F i } ser´ a linealmente independientes. Si |vi = ξ i |ei i es un vector arbitrario en el espacio directo y ha| = ai ei un vector en el espacio dual, entonces:
ha |vi = ai ei ξ j |ej i = a∗i ξ j ei |ej i = a∗i ξ j δji = a∗i ξ i
Para bases arbitrarias {|ei i} de V y { ei } de V∗ se tiene
rP
ha |vi = Λij a∗i ξ j
donde Λij ≡ ei |ej i. Ejemplos
ad o
Un ejemplo sencillo de un funcional lineal es la integral de Riemann que podemos interpretar de la manera siguiente Z b I [|f i] = f (x)dx a
donde f (x) ∈ C[a,b] , es decir, pertenece al espacio vectorial de funciones reales y continuas en el intervalo [a, b].
Bo rr
Consideremos V = R3 como el espacio vectorial conformado por todos los vectores columna 1 ξ |vi = ξ 2 ξ3 que al representarse en su base can´ onica {|ii i} resulta en: 1 0 0 |vi = ξ 1 0 + ξ 2 1 + ξ 3 0 = ξ 1 |i1 i + ξ 2 |i2 i + ξ 3 |i3 i = ξ i |ii i 0 0 1
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
125
´ 3.2. PARENTESIS TENSORIAL
Sea F ∈ V∗ , de manera que F [|vi] = ξ i wi pueda representarse por vectores fila F = (w1 , w2 , w3 )
Notemos que para la base en el espacio dual, que denotaremos ζ i = { ii } la definimos como:
1
1
2
2 ζ i [|ij i] = ii |ij i = δji ⇒ i1 |i1 i = 1 , i |i2 i = 0 , i |i3 i = 0 , i |i1 i = 0 , i |i2 i = 1 , · · ·
3.1.1.
ξ1 ζ 2 [|vi] = (0, 1, 0) ξ 2 = ξ 2 , ξ3
Ejercicios
1. Encuentre las bases duales para los siguientes espacios vectoriales a) R2 , donde: |e1 i = (2, 1) y |e2 i = (4, 1)
re lim
b) R3 , donde: |e1 i = (1, 1, 3), |e2 i = (0, 1, −1) y |e3 i = (2, 1, 0)
ξ1 ζ 3 [|vi] = (0, 0, 1) ξ 2 = ξ 3 ξ3
in ar
En este caso: ζ i = |ii i y adem´ as 1 ξ ζ 1 [|vi] = (1, 0, 0) ξ 2 = ξ 1 , ξ3
2. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 1. Y si adem´as definimos Z 1 Z 2 ζ 1 [|pi] = p(x)dx ∧ ζ 2 [|pi] = p(x)dx 0
0
donde {ζ 1 , ζ 2 } ∈ V∗ . Encuentre una base {|e1 i , |e2 i} ∈ V que resulte dual a {ζ 1 , ζ 2 }.
Par´ entesis tensorial
rP
3.2.
Las funciones m´ as simples que se pueden definir sobre un espacio vectorial, el funcional lineal, nos permite extendernos al concepto de tensor.
Tensores, una definici´ on funcional
ad o
3.2.1.
Definiremos como un tensor a un funcional lineal (bilineal en este caso) que asocia un elemento del Campo K, complejo o real, a un vector |vi ∈ V, a una forma hu| ∈ V∗ , o ambas, y cumple con la linealidad. Esto es: ∀
|vi ∈ V
∧
hu| ∈ V∗ →
T [hu| ; |vi] ∈ C
Bo rr
T [hu| ; α |v1 i + β |v2 i] ≡ αT [hu| ; |v1 i] + β T [hu| ; |v2 i] T [ζ hu1 | + ξ hu2 | ; |vi] ≡ ζT [hu1 | ; |vi] + ξ T [hu2 | ; |vi]
hu| ∈ V∗
∀ |v1 i , |v2 i ∈ V
∧
∀ |vi , ∈ V
hu1 | , hu2 | ∈ V∗
∧
En pocas palabras: un tensor es un funcional generalizado cuyos argumentos son vectores y/o formas, lo que significa que T [◦; •] es una cantidad con dos “puestos” y una vez “cubiertos” se convierte en un escalar (complejo o real). Un tensor, con un argumento correspondiente a un vector y un argumento correspondiente a una forma, lo podremos representar de la siguiente manera: |vi hu| ↓ ↓ 1 T ◦ ; • ∈ C ⇒ tensor de tipo 1
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
126
´ 3.2. PARENTESIS TENSORIAL
Un tensor con dos argumentos correspondientes a vectores y uno a una forma ser´ıa |v i |v i hu| 1 2 ↓ ↓ ↓ 1 T [◦, ◦; •] ⇒ T ◦ , ◦ ; • ∈ C ⇒ tensor de tipo ; 2 y el caso contrario ↓
hu1 | hu2 | ↓ ↓
T [◦; •, •] ⇒ T ◦ ; • , • ∈ C
⇒
tensor de tipo
En general |v
1i
↓
|v2 i ↓
|vn i hu1 | hu2 | ↓ ↓ ↓
hum | ↓
2 1
in ar
|vi
T ◦ , ◦ ,··· , ◦ ; • , • ··· , • ∈ C
tensor de tipo
⇒
m n
.
rP
re lim
En esta notaci´ on el punto y coma (;) separa las “entradas” formas de las “entradas” vectores. Es importante recalcar que el orden si importa, no s´olo para las cantidades separadas por ;, sino el orden de los “puestos” vectores y “puestos” formas separados por coma y repercutir´a en las propiedades de los tensores. Por ejemplo: si el orden de las “entradas” vectores no importa, podremos permutarlas sin alterar al tensor, tendremos entonces tensores sim´ etricos respecto a esos “puestos” o “entradas”; del mismo modo, ser´ an tensores antisim´etricos aquellos en los cuales el orden si importa y al permutar esos “puestos” o “entradas” hay un cambio de signo en el tensor. Todos estos casos ser´an tratados con detalle m´ as adelante, pero vale la pena recalcar que en general, para un tensor gen´erico el orden de la “entradas” o “puestos” si importa pero no necesariamente se comporta como los casos rese˜ nados anteriormente. Notemos que en el caso general un tensor es b´asicamente un aplicaci´on multilineal T sobre V∗ × V: T : V∗m × Vn = V∗ × V∗ · · · V∗ × V∗ × V × V · · · V × V → C | {z } | {z } m
n
ad o
con n el orden covariante y m el orden contravariante. Obviamente las formas pueden ser representadas por tensores ya que son funcionales lineales de vectores, es decir: hu| ↓ 1 Un vector es un tensor del tipo ⇒ T • ∈ C. 0
Bo rr
los vectores constituyen un caso especial de tensores.
Una forma es un tensor del tipo
0 1
|vi ↓ ⇒ T ◦ ∈ C.
porque son funcionales lineales para las formas diferenciales. Finalmente: 0 Un escalar es un tensor del tipo ∈ C. 0 m Por lo tanto, un tensor es un funcional multilineal que asocia m 1-formas y n vectores en C. n
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
127
´ 3.2. PARENTESIS TENSORIAL
3.2.2.
Producto tensorial
Como ser´ a evidente m´ as adelante, los tensores (simples) pueden provenir del producto tensorial (exterior o directo) de espacios vectoriales. Esto es, dados E1 y E2 dos espacios vectoriales con dimensiones n1 y n2 , respectivamente y vectores gen´ericos, |ϕ(1)i y |χ(2)i pertenecientes a estos espacios vectoriales: |ϕ(1)i ∈ E1 y |χ(2)i ∈ E2 . Definiremos el producto tensorial (exterior o directo)de espacios vectoriales, E = E1 ⊗ E2 , si 2 a cada par de vectores |ϕ(1)i y |χ(2)i le asociamos un tensor tipo y si se cumple que 0 hζ(1)|
hξ(2)| ↓
y si adem´ as se cumplen las siguientes propiedades: 1. La suma entre tensores de E viene definida como
in ar
↓ |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i ⇔ T • , • = hζ(1) |ϕ(1)i hξ(2) |χ(2)i ∈ C
|ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1)i ⊗ |χ(2)i + |ζ(1)i ⊗ |ξ(2)i
re lim
= |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i
2. El producto tensorial es lineal respecto a la multiplicaci´on con n´ umeros reales λ y µ [|λϕ(1)i] ⊗ |χ(2)i = [λ |ϕ(1)i] ⊗ |χ(2)i = λ [|ϕ(1)i ⊗ |χ(2)i] = λ |ϕ(1)χ(2)i |ϕ(1)i ⊗ [|µχ(2)i] = |ϕ(1)i ⊗ [µ |χ(2)i] = µ [|ϕ(1)i ⊗ |χ(2)i] = µ |ϕ(1)χ(2)i 3. El producto tensorial es distributivo respecto a la suma:
rP
|ϕ(1)i ⊗ [|χ1 (2)i + |χ2 (2)i] = |ϕ(1)i ⊗ |χ1 (2)i + |ϕ(1)i ⊗ |χ2 (2)i [|ϕ1 (1)i + |ϕ2 (1)i] ⊗ |χ(2)i = |ϕ1 (1)i ⊗ |χ(2)i + |ϕ2 (1)i ⊗ |χ(2)i N´ otese que los ´ındices (1) y (2) denotan la pertenencia al espacio respectivo.
ad o
Es f´ acil convencerse que los tensores |ϕ(1)χ(2)i ∈ E = E1 ⊗ E2 forman un espacio vectorial y la demostraci´ on se basa en comprobar los axiomas o propiedades de los espacios vectoriales tal y como lo describimos en la Secci´ on 2.1.3: 1. La operaci´ on suma es cerrada en V : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i |vj i ∈ V.
Bo rr
Esto se traduce en demostrar que sumados dos tensores |ϕ(1)χ(2)i y |ζ(1)ξ(2)i ∈ E el tensor suma tambi´en pertenece a E, con a y b pertenecientes al campo del espacio vectorial a |ϕ(1)χ(2)i + b |ζ(1)ξ(2)i = |aϕ(1) + ζ(1)i ⊗ |χ(2) + bξ(2)i
y esto se cumple siempre ya que, el producto tensorial es lineal respecto a la multiplicaci´on con n´ umeros reales y por ser E1 y E2 espacios vectoriales se cumple |aϕ(1) + ζ(1)i = a |ϕ(1)i + |ζ(1)i ∈ E1 =⇒ |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i ∈ E |ϕ(2) + bζ(2)i = |ϕ(2)i + b |ζ(2)i ∈ E2
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
128
´ 3.2. PARENTESIS TENSORIAL
2. La operaci´ on suma es conmutativa y asociativa Conmutativa ∀ |vi i , |vj i ∈ V ⇒ |vi i |vj i = |vj i |vi i Esta primera es clara de la definici´ on de suma |ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i |ζ(1)ξ(2)i + |ϕ(1)χ(2)i = |ζ(1) + ϕ(1)i ⊗ |ξ(2) + χ(2)i
in ar
por ser E1 y E2 dos espacios vectoriales ∀ |vi i , |vj i , |vk i ∈ V ⇒ (|vi i |vj i) |vk i = |vj i (|vi i |vk i) una vez m´ as, esto se traduce en: (|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1)ξ(2)i + |κ(1)κ(2)i) con lo cual, por la definici´ on de suma la expresi´on anterior queda como
(|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1) + κ(1)i ⊗ |ξ(2) + κ(2)i)
3. Existe un u ´nico elemento neutro: ∃ |0i Es decir,
/
re lim
|(ϕ(1) + ζ(1)) + κ(1)i ⊗ |(ξ(2) + χ(2)) + κ(2)i = |ϕ(1) + (ζ(1) + κ(1))i ⊗ |ξ(2) + (χ(2) + κ(2))i |0i |vj i = |vj i |0i = |vj i
∀ |vj i ∈ V
|ϕ(1)χ(2)i + |0(1)0(2)i = |ϕ(1) + 0(1)i ⊗ |χ(2) + 0(2)i = |ϕ(1)i ⊗ |χ(2)i = |ϕ(1)χ(2)i
rP
4. Existe un elemento sim´etrico para cada elemento de V : ∀ |vj i ∈ V ∃ |−vj i / |vj i |−vj i = |0i ⇒
|ϕ(1)χ(2)i − |ϕ(1)χ(2)i = |ϕ(1) − ϕ(1)i ⊗ |χ(2) − χ(2)i = |0(1)i ⊗ |0(2)i = |0(1)0(2)i 5. α (β |vi i) = (αβ) |vi i :
α (β |ϕ(1)χ(2)i) = α (|βχ(2)i ⊗ |ϕ(1)i) = |αβχ(2)i ⊗ |ϕ(1)i
ad o
= (αβ) |χ(2)i ⊗ |ϕ(1)i = (αβ) |ϕ(1)χ(2)i
6. (α + β) |vi i = α |vi i + β |vi i :
Bo rr
(α + β) |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |(α + β) χ(2)i = |ϕ(1)i ⊗ |αχ(2) + βχ(2)i = |ϕ(1)i ⊗ [(α |χ(2)i + β |χ(2)i)] = α |ϕ(1)i ⊗ |χ(2)i + β |ϕ(1)i ⊗ |χ(2)i
7. α (|vi i |vj i) = α |vi i α |vj i : α (|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) = α (|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) = |α (ϕ(1) + ζ(1))i ⊗ |ξ(2) + χ(2)i = |αϕ(1) + αζ(1)i ⊗ |ξ(2) + χ(2)i = (|αϕ(1)χ(2)i + |αζ(1)ξ(2)i) = α |ϕ(1)χ(2)i + α |ζ(1)ξ(2)i
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
129
´ 3.2. PARENTESIS TENSORIAL
Equivalentemente, podemos construir un producto tensorial entre espacios de formas diferenciales. Si E∗1 y E∗2 son dos espacios vectoriales duales a E1 y E2 , con dimensiones n1 y n2 , respectivamente. A estos espacios pertenecen las formas diferenciales gen´ericas hζ(1)| ∈ E∗1 y hξ(2)| ∈ E∗2 . Definiremos el producto tensorial de espacios vectoriales duales, E∗ =E∗1 ⊗ E∗2 , si a cada par de formas diferenciales hζ(1)| ∈ E∗1 y 0 hξ(2)| ∈ E∗2 le asociamos un tensor tipo . Esto es 2 hζ(1)ξ(2)| = hζ(1)| ⊗ hξ(2)|
3.2.3.
La tentaci´ on del producto interno
in ar
A partir de las definiciones de productos internos en E1 y E2 , uno puede verse tentado a definir un producto interno de la siguiente forma hϕ(1) ˜ χ(2) ˜ |ϕ(1)χ(2)i = hϕ(1) ˜ |ϕ(1)i · hχ(2) ˜ |χ(2)i .
1. hx| xi ∈ R Esto es:
∧
hx| xi ≥ 0
∀ |xi ∈ V
re lim
Mostraremos, sin embargo, que NO es una buena definici´on de producto interno, y para ello debemos demostrar que no se satisfacen los axiomas o propiedades del producto interno que expusimos en la Secci´ on 2.2.3. Para facilitar la lectura repetiremos aqu´ı las propiedades que definen el producto interno (expuestas en la Secci´ on 2.2.3) y haremos las “adaptaciones” del caso son: hx| xi = 0 ⇒ |xi ≡ |0i
si
hϕ(1)χ(2) |ϕ(1)χ(2)i = hϕ(1) |ϕ(1)i · hχ(2) |χ(2)i
rP
como hϕ(1) |ϕ(1)i y hχ(2) |χ(2)i son buenas definiciones de producto interno tendremos que hϕ(1) |ϕ(1)i ≥ 0 ⇒ hϕ(1)χ(2) |ϕ(1)χ(2)i ≥ 0 hχ(2) |χ(2)i ≥ 0 Aqu´ı vale la pena mencionar algunos puntos sutiles sobre la segunda parte de la propiedad a demostrar: Si hx| xi = 0 ⇒ |xi ≡ |0i, lo cual para este caso se traducen en
Bo rr
ad o
hϕ(1)χ(2) |ϕ(1) ˜ χ(2)i ˜ = hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i ˜ =0 hϕ(1) |ϕ(1)i ˜ =0 ⇒ |ϕ(1)i ˜ = |0(1)i hχ(2) | χ(2)i ˜ = 6 0 hϕ(1) |ϕ(1)i ˜ = 6 0 ⇒ |χ(2)i ˜ = |0(2)i hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i ˜ =0 ⇒ hχ(2) | χ(2)i ˜ = 0 hϕ(1) |ϕ(1)i ˜ =0 ˜ = |0(1)i |ϕ(1)i ⇒ hχ(2) |χ(2)i ˜ =0 |χ(2)i ˜ = |0(2)i
definitivamente, habr´ıa que restringir los posibles vectores que intervienen en el producto tensorial, de modo que no fuera posible vectores del tipo |ϕ(1)0(2)i ≡ |ϕ(1)i ⊗ |0(2)i
o
|0(1)χ(2)i ≡ |0(1)i ⊗ |χ(2)i
s´ olo as´ı se cumple la propiedad mencionada. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
130
´ 3.2. PARENTESIS TENSORIAL
∗
2. hx| yi = hy| xi ∀ |xi , |yi ∈ V Esto puede ser demostrado f´ acilmente como sigue hϕ(1) ˜ χ(2) ˜ |ϕ(1)χ(2)i = hϕ(1) ˜ |ϕ(1)i · hχ(2) ˜ |χ(2)i ∗
∗
= hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i ˜
∗
= (hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i) ˜ ∗
= hϕ(1)χ(2) |ϕ(1) ˜ χ(2)i ˜
3. hx| y + zi = hx| yi + hx| zi ∧ hx + z| yi = hx| yi + hz| yi ∀ |xi , |yi , |zi ∈ V Partimos del lado derecho de la primera de las igualdades anteriores:
in ar
hϕ(1) ˜ χ(2)| ˜ [|ϕ(1)χ(2)i + |ζ(1)ξ(2)i] = hϕ(1) ˜ χ(2)| ˜ [|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i] = hϕ(1) ˜ |ϕ(1) + ζ(1)i · hχ(2) ˜ |ξ(2) + χ(2)i
y otra vez, como hϕ(1) |ϕ(1)i y hχ(2) |χ(2)i son buenas definiciones de producto interno tendremos que: hϕ(1) ˜ |ϕ(1) + ζ(1)i = hϕ(1) ˜ |ϕ(1)i + hϕ(1) ˜ |ζ(1)i
re lim
hχ(2) ˜ |ξ(2) + χ(2)i = hχ(2) ˜ |ξ(2)i + hχ(2) ˜ |χ(2)i
y al multiplicar hχ(2) ˜ |ξ(2) + χ(2)i por hϕ(1) ˜ |ϕ(1) + ζ(1)i surgir´an cuatro sumandos hϕ(1) ˜ |ϕ(1)i hχ(2) ˜ |ξ(2)i + hϕ(1) ˜ |ϕ(1)i hχ(2) ˜ |χ(2)i + hϕ(1) ˜ |ζ(1)i hχ(2) ˜ |ξ(2)i + hϕ(1) ˜ |ζ(1)i hχ(2) ˜ |χ(2)i lo cual contrasta con el lado izquierdo al utilizar la definici´on dos veces que tienen dos sumandos hϕ(1) ˜ χ(2) ˜ |ϕ(1)χ(2)i + hϕ(1) ˜ χ(2) ˜ |ζ(1)ξ(2)i = hϕ(1) ˜ |ϕ(1)i · hχ(2) ˜ |χ(2)i + hϕ(1) ˜ |ζ(1)i · hχ(2) ˜ |ξ(2)i por lo cual NO se cumple esta propiedad y no hay forma de enmendarla.
Bases para un producto tensorial
rP
3.2.4.
Si {|ui (1)i} y {|vi (2)i} son, respectivamente, bases discretas para E1 y E2 entonces podremos construir el tensor |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E el cual funcionar´ a como una base para E y, por lo tanto, podremos construir un tensor gen´erico de E
ad o
|ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = ϕi χj |ui (1)vj (2)i
Bo rr
donde ϕi y χj son las componentes de |ϕ(1)i y |χ(2)i en sus respectivas bases. En otras palabras, las componentes de un tensor en E corresponden a la multiplicaci´on de las componentes de los vectores en E1 y E2 . Recuerde que estamos utilizando Pn la convenci´on de Einstein de suma t´acita en ´ındices covariantes y contravariantes, en la cual ck |vk i ≡ k=1 ck |vk i . Es importante se˜ nalar que si bien un tensor gen´erico |Ψi ∈ E siempre se puede expandir en la base |ui (1)vj (2)i no es cierto que todo tensor de E provenga del producto tensorial de E1 y E2 . Es decir, E tiene m´ as tensores de los que provienen el producto tensorial. Esta afirmaci´on puede intuirse del hecho que si |Ψi ∈ E entonces |Ψi = cij |ui (1)vj (2)i por ser {|ui (1)vj (2)i} base para E. Es claro que dados dos n´ umeros α1 y α2 habr´a cij que no provienen de la multiplicaci´ on de α1 α2 . El conjunto de todas funciones bilineales T [hu| ; |vi] forman un espacio vectorial sobre el espacio directo E. Este espacio vectorial de funciones tendr´a una base dada por f ij = |ϕ(1)i ⊗ |χ(2)i
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
131
´ 3.2. PARENTESIS TENSORIAL
Ejemplo Consideremos los siguientes elementos x1 |vi = x2 ∈ M31 x3
y
|ui = (y1 y2 y3 ) ∈ M13
in ar
donde Mmn indica matrices m × n sobre los n´ umeros reales R. El conjunto de matrices Mmn constituyen un espacio vectorial para la suma y multiplicaci´on por los n´ umeros reales, adem´ as, la dimensi´ on de este espacio vectorial es: dim(Mmn ) = mn. Podemos definir la siguiente operaci´ on: x1 x1 y1 x1 y2 x1 y3 |v ui = x2 ⊗ (y1 y2 y3 ) = x2 y1 x2 y2 x2 y3 ⇔ M31 ⊗ M13 = M33 x3 x3 y1 x3 y2 x3 y3 Notemos que este funcional (funcional bilineal) cumple con: =
λ1 T [|v1 i , |ui] + λ2 T [|v2 i , |ui]
T [|vi , λ1 |u1 i + λ2 |u2 i]
=
λ1 T [|vi , |u1 i] + λ2 T [|vi , |u2 i]
re lim
T [λ1 |v1 i + λ2 |v2 i , |ui]
donde {λ1 , λ2 } ∈ R, {|vi , |v1 i , |v2 i} ∈ V1 = M31 y {|ui , |u1 i , |u2 i} ∈ V2 = M13 . Veamos que si {|e1 (1)i , |e2 (1)i , |e3 (1)i} es una base para V1 y {|e1 (2)i , |e2 (2)i , |e3 (2)i} es una base para 2 V definidas como 1 0 0 |e1 (1)i = 0 , |e2 (1)i = 1 , |e3 (1)i = 0 , |e1 (2)i = (1 0 0) , |e2 (2)i = (0 1 0) , |e3 (2)i = (0 0 1) 0 0 1 definido, resulta: 0 0 0 , |e1 (1)i ⊗ |e2 (2)i = 0 0 0
1 0 0
0 0 0
0 0 0 , |e2 (1)i ⊗ |e2 (2)i = 0 0 0
0 1 0
0 0 0 , |e2 (1)i ⊗ |e3 (2)i = 0 0 0
0 0 0
0 1 0
0 0 0
0 0 0 , |e3 (1)i ⊗ |e2 (2)i = 0 0 0
0 0 1
0 0 0 , |e3 (1)i ⊗ |e3 (2)i = 0 0 0
0 0 0
0 0 1
ad o
rP
con el producto previamente 1 0 |e1 (1)i ⊗ |e1 (2)i = 0 0 0 0 0 |e2 (1)i ⊗ |e1 (2)i = 1 0
Bo rr
0 |e3 (1)i ⊗ |e1 (2)i = 0 1
0 0 0 , |e1 (1)i ⊗ |e3 (2)i = 0 0 0
0 0 0
1 0 0
Es claro que ´este conjunto de matrices (matrices 3 × 3) forman una base para el espacio V3 = M33 , y que dim(V3 ) = 9.
3.2.5.
Tensores, sus componentes y sus contracciones
Hemos mencionado anteriormente que un escalar es una cantidad que se puede especificar, independientemente del sistema de coordenadas, por un s´olo n´ umero. Los vectores geom´etricos que dibuj´abamos con
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
132
´ 3.2. PARENTESIS TENSORIAL
in ar
flechas los sustituimos ahora por tres n´ umeros respecto a una base seleccionada, es decir, a trav´es de sus tres componentes. Los escalares y los vectores son casos particulares de objetos m´as generales que denominaremos tensores, tensores de orden o rango k y cuya especificaci´on en cualquier sistema de coordenadas requerir´ a de 3k n´ umeros, llamadas las componentes del tensor. Esto significa que un escalar es un tensor de orden 0 (30 = 1 componente) y un vector un tensor de orden 1 (31 = 3 componentes). Si el espacio vectorial es de dimensi´ on n, entonces un tensor de orden k tendr´a nk componentes. Como veremos m´ as adelante, los tensores son mucho m´as que simples n´ umeros respecto a un sistema de coordenadas y la clave radica en la “ley de transformaci´on” de sus componentes, es decir, en la relaci´ on que existe entre las componentes de un tensor en un sistema de coordenadas y las componentes del mismo tensor en otro sistema de coordenadas diferente. Lo que hay detr´as de todo esto es el hecho de que las leyes matem´ aticas que describen los fen´ omenos f´ısicos deben ser “invariantes” bajo transformaciones de coordenadas, como por ejemplo: traslaciones, el espacio es homog´eneo, y rotaciones, el espacio es is´otropo. Componentes de un tensor
|u
i (1)i
↓
mn Sijk =S ◦ ,
re lim
Denominaremos componentes de un tensor, aquellos n´ umeros que surgen de incorporar bases de formas diferenciales y vectores. As´ı, si {|ui (1)i , |vj (2)i , |tk (3)i} y {hxm (1)| , hy n (2)|} son bases para los vectores y 2 las formas, respectivamente, las componentes de un tensor ser´an 3 |vj (2)i |wk (3)i hxm (1)| hy n (2)| ↓ ↓ ↓ ↓
◦ ,
◦
;
•
,
•
.
rP
Es de hacer notar que la selecci´ on de las bases no es arbitraria sino que deben corresponderse, entre el espacio directo, S, y su dual S ∗ i.e
{|ui (1)i , |vj (2)i , |wk (3)i} ⊗ {hxm (1)| , hy n (2)|} ⇔ {|xp (1)i , |yq (2)i} ⊗ hua (1)| , v b (2) , hwc (2)| .
ad o
Claramente, esta definici´ on de componentes contiene a las componentes de aquellos espacios tensoriales generados por el producto tensorial. Si consideramos un tensor como resultado de un producto tensorial y consideramos las bases {|ui (1)i , hxm (1)|}, sus componentes se pueden expresar {ϕm (1)χi (1)}, vale decir, 1 ⇐⇒ |ϕ(1)i ⊗ h∆(1)| ⇒ hxm (1) |ϕ(1)i ⊗ h∆(1)| ui (1)i ⇒ {ϕm (1)χi (1)} . 1 Combinaciones lineales de tensores
Bo rr
Es claro que podremos sumar (componentes) de tensores como lo hemos hecho con la suma de (componentes) de vectores a + b = (ax + bx ) i + (ay + by ) j + (az + bz ) k = a1 + b1 i + a2 + b2 j + a3 + b3 k = ai + bi |ii i , esto es:
Hern´ andez & N´ un ˜ez
ij ij Rkl = αQij kl + βPkl .
Universidad de los Andes / Universidad Industrial de Santander
133
´ 3.2. PARENTESIS TENSORIAL
Producto tensorial de tensores Podemos un m´ as la idea del producto directo y extenderla para tensores. As´ı, para dos tensores extender a´ 2 2 tipo y se tiene que 0 1 hζ(1)| ↓
hξ(2)| ↓
|ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = T • , • |u
i (1)i
hε(1)| hφ(2)| ↓ ↓
el producto directo es
in ar
↓ |µ(1)κ(2)Θ(1)i = |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)| = P ◦ ; • , • ,
|ϕ(1)χ(2)i ⊗ |µ(1)κ(2)Θ(1)i = |ϕ(1)i ⊗ |χ(2)i ⊗ |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)| |u (1)i hε(1)| hφ(2)| hζ(1)| hξ(2)| i
re lim
↓ ↓ ↓ ↓ ↓ = T • , • ⊗P ◦ ; • , •
|u
i (1)i
↓
hε(1)| hφ(2)| hζ(3)| hξ(4)| ↓ ↓ ↓ ↓
= R ◦ ; • , • , • , • Por ejemplo, en componentes ser´ıa como se muestra a continuaci´on:
Contracci´ on de un tensor
rP
Rkijlm = T ij Pklm .
Bo rr
ad o
Denominaremos una contracci´ on cuando sumamos las componentes covariantes y contravariantes, esto es, si tenemos ϕi (1)χi (1) entonces se genera un escalar independiente de la base. Esta situaci´on ser´ a m´ as evidente cuando definamos m´etricas y contracci´on de tensores. Por analog´ıa y considerando un caso m´ as 2 mn general, dada las componentes Sijk correspondiente a un tensor podremos construir un nuevo tensor 3 1 mn in n a partir de una contracci´ on. Las componentes de este nuevo tensor ser´an: Sijk ⇒ Sijk ≡ Sjk . 2 Del mismo modo, dadas las componentes de dos tensores, P lm y Qij an componentes de nuevos zk generar´ tensores Rklij = P lm Qij . As´ ı mk 2 ⇒ P lm 0 3 ⇒ ⇒ Rklij = P lm Qij mk . 2 1 ij ⇒ Qzk 2 Es claro que si dos tensores derivan de productos tensoriales y si {|ui (1)i} , {hum (1)|} y {|vi (2)i} son bases ortonormales para E1 , E∗1 y E2 , entonces sus productos podr´an ser expresados como |γ(1)δ(2)i = γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i , |α(1)β(1)i = αl (1)βm (2) |ul (1)i ⊗ hum (1)| , | {z } | {z } P ij
Hern´ andez & N´ un ˜ez
Qlm
Universidad de los Andes / Universidad Industrial de Santander
134
´ 3.2. PARENTESIS TENSORIAL
entonces: αl (1)βm (2) |ul (1)i ⊗ hum (1)| γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i αl (1)βm (2) γ i (1)δ j (2) {hum (1) |ui (1)i} |vj (2)i ⊗ |ul (1)i | {z }
=
δim
l
k
j
=
α (1)βk (2) γ (1)δ (2) |vj (2)i ⊗ |ul (1)i
=
P ij Qli |vj (2)ul (1)i
=
Rjl |vj (2)ul (1)i .
in ar
Pero m´ as a´ un, si |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E es base de E entonces se puede demostrar lo anterior sin circunscribirnos a tensores cuyas componentes provengan de multiplicaci´on de las componentes en cada espacio vectorial. Simetrizaci´ on de tensores
re lim
Un tensor (las componentes) ser´ a sim´etrico respecto a dos de sus ´ındices si su permutaci´on no cambia su valor: Sij = Sji ; S ij = S ji ; Sij···kl···mn = Sij···lk···mn S ij···kl···mn = S ij···lk···mn y ser´ a antisim´etrico si Aij = −Aji ;
Aij = −Aji
Aij···kl···mn = −Aij···lk···mn
rP
Un tensor de rango 2, viene representado por una matriz que tendr´a sim´etrica tendr´ a como m´ aximo 6 componentes distintas. 1 1 S1 S21 S31 S1 S21 Sji = Sij = S12 S22 S32 = S21 S22 S13 S23 S33 S31 S32
Aij···kl···mn = −Aij···lk···mn .
32 = 9 componentes. Si la matriz es S31 S32 S33
ad o
mientras que un tensor antisim´etrico de segundo orden tendr´a, cuando m´aximo, tres componentes con valor absoluto distintos de cero 0 A12 A13 0 A23 Aij = −Aji = −A21 3 3 −A1 −A2 0 Siempre es posible construir tensores sim´etricos y antisim´etricos a partir de un tensor gen´erico. Esto es: 1 (Tij + Tji ) ≡ T(ij) 2
Bo rr
Sij =
Aij =
1 (Tij − Tji ) ≡ T[ij] 2
⇐⇒
Sij···kl···mn =
1 (Tij···kl···mn + Tij···lk···mn ) = Tij···(kl)···mn 2
⇐⇒
Aij···kl···mn =
1 (Tij···kl···mn − Tij···lk···mn ) = Tij···[kl]···mn 2
M´ as a´ un, es evidente que las componentes de un tensor gen´erico Tij , pueden expresarse como una combinaci´ on de su parte sim´etrica y antisim´etrica Tij = Sij + Aij . Obviamente que algo equivalente se puede realizar para componentes contravariantes de tensores.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
135
´ 3.2. PARENTESIS TENSORIAL
3.2.6.
Tensor m´ etrico, ´ındices y componentes
Para una base gen´erica, {|uj i}, no necesariamente ortogonal, de un espacio vectorial con producto interno, 0 podemos definir la expresi´ on de un tensor sim´etrico, que denominaremos “tensor m´etrico”, de la 2 siguiente manera i |u i |u i hu | huj | j i ↓ ↓ ↓ ↓ g ◦ , ◦, = g [|ui i , |uj i] = gij ≡ gji , g • , • = g ui , uj = g ij ≡ g ji −1
con g ij = (gij )
∀ |uj i , y si
2. g [|ui i , |uj i] = g [|uj i , |ui i]
⇒
gij ≡ gji
g [|ui i , |uj i] = 0 ⇒ i = j
re lim
1. g [|ui i , |uj i] = gij ≡ gji ≥ 0
in ar
. h i N´ otese que las gij ≡ gji son las componentes del tensor g ◦, ◦ una vez que la base {|uj i} ha actuado. La denominaci´ on de tensor m´ etrico, no es gratuita, g cumple con todas las propiedades de la m´etrica definida para un Espacio Vectorial Euclidiano expuestas en la Secci´on 2.2.1. Una vez m´ as, para facilitar la lectura, transcribiremos a continuaci´on esas propiedades:
3. g [|ui i , |uj i] ≤ g [|ui i , |uk i] + g [|uk i , |uj i]: La desigualdad Triangular
Si la base gen´erica, {|ui i} = {|ei i}, es ortonormal, entonces estas propiedades emergen de manera natural
g [◦, ◦] ≡ gij ei ⊗ ej ≡ gji ej ⊗ ei y g [•, •] ≡ g ij |ei i ⊗ |ξj i ≡ g ji |ej i ⊗ |ei i ,
rP
con lo cual sus componentes ser´ an matrices sim´etricas gij = gji e igualmente g ij = g ji . En general impondremos que
j = gij g ji = δii = n , gij ui ⊗ uj g km |uk i ⊗ |um i = gij g km ui |uk i uj |um i = gij g km δki δm
ad o
ya que i, j = 1, 2, 3, · · · , n. Con lo cual gij es la matriz inversa de g ij . Es decir, hemos definido las componentes contravariantes del tensor de modo que cumplan con gik g kj = δij . Adicionalmente, tambi´en es claro que
gij ui ⊗ uj |ai = ak gij ui ⊗ uj |uk i = ak gij uj |uk i ui = ak gij δkj ui = ak gik ui ≡ ai ui , con lo cual ai = ak gik . De la misma forma
ha| g ij |ui i ⊗ |uj i = ha| g ij |ui i ⊗ |uj i = g ij ha |ui i ⊗ |uj i = ak g ij uk |ui i |uj i = ak g kj |uj i ≡ aj |uj i ,
Bo rr
otra vez aj = ak g kj , ahora subimos el ´ındice correspondiente. De esta manera, el tensor m´etrico nos permite asociar formas con vectores, componentes covariantes (formas) a componentes contravariantes (vectores) y dicho r´apido y mal, pero de uso muy frecuente: el tensor m´etrico nos permite subir y bajar ´ındices. Otra forma de verlo es combinando las propiedades del producto directo de tensores y contracci´ on de ´ındices
g ij |ui i ⊗ |uj i ⊗ Pklmn |ul i ⊗ |um i ⊗ |un i ⊗ uk ⇒ g ij Pklmn |uj i ⊗ Pklmn |ul i ⊗ |um i ⊗ |un i ⊗ uk ui i
g ij Pklmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i · uk ui i = P jlmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i ⇒ g ij Pilmn ≡ P jlmn . | {z } δik
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
136
´ 3.2. PARENTESIS TENSORIAL
Adicionalmente, el tensor m´etrico permite la contracci´on de ´ındices. As´ı, dado un producto tensorial de dos vectores que se pueden expresar en una base ortonormal {|ei i} |a, bi = |ai ⊗ |bi = ak bm |ek i ⊗ |ξm i ⇓
i j k m k m j gij e ⊗ e a |ek i ⊗ b |em i = a b gij δki δm = ak bm gkm = ak bk = hb |ai = ha |bi . Es decir, el producto interno de dos vectores involucra, de manera natural, la m´etrica del espacio, hb |ai = ha |bi = ak bk = ak bk = ak bm gkm = ak bm g km .
in ar
Obviamente la norma de un vector, tambi´en incluir´a al tensor m´etrico:
2 k|aik = ha |ai = ai aj ei |ej i = ai ai = ai aj g ij = ai aj gij .
re lim
El caso m´ as emblem´ atico lo constituye la norma de un desplazamiento infinitesimal. Para una base gen´erica, {|uj i} no necesariamente ortogonal de un espacio vectorial con producto interno, el desplazamiento infinitesimal puede expresarse como
2 (ds) ≡ hdr |dri = dxk uk (dxm |um i) = uk |um i dxk dxm = dxm dxm = gkm dxk dxm . Si la base {|ej i} es ortogonal (cosa m´ as o menos com´ un pero no necesariamente cierta siempre) las matrices gij y g ij son diagonales y cumplen que gii =
1 g ii
⇒
2
(ds) = h1 dx1
2
+ h2 dx2
2
+ h3 dx3
2
2
rP
√ donde hi = gii , con i, j = 1, 2, 3 (aqu´ı no hay suma), se denominan los factores de escala. Y si la base {|ii i} es ortonormal, es f´ acil ver que k (ds) ≡ hdr |dri = δm dxk dxm = dxm dxm = dxm dxm
es decir:
g11 = g22 = g33 = 1 ,
gij = 0 si i 6= j
ad o
esto significa que en coordenadas cartesianas el desplazamiento infinitesimal es la ya conocida expresi´ on: ds2 = dx2 + dy 2 + dz 2 .
3.2.7.
Teorema del cociente
Bo rr
Al igual que existe el producto directo entre tensores, cabe preguntarse si es posible multiplicar un tensor arbitrario (de cualquier rango) por un “objeto” desconocido ¿Ese producto ser´a un tensor? Existe importantes situaciones f´ısicas en las cuales es aplicable esta pregunta. Si Tij son las componentes de un tensor de rango 2 y el producto Tij V i = Bj es un vector. ¿El objeto V i ser´a un vector? La respuesta es siempre afirmativa, y puede ser utilizada como un criterio para identificar componente de tensores. Este criterio se denomina el Teorema del Cociente. La respuesta a esta pregunta surge de la respuesta a una pregunta distinta pero equivalente. Supongamos j que nos dan n2 n´ umeros aij y un (una componente de un) vector gen´erico V i , si la cantidad aij V i V es un 0 1 . escalar entonces la parte sim´etrica a(ij) = 2 (aij + aji ) ser´a un (una componente de) tensor del tipo: 2 La demostraci´ on involucra algunas de las ideas antes expuestas y la haremos para fijar conceptos. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
137
´ 3.2. PARENTESIS TENSORIAL
Dados dos sistemas de coordenadas xi = xi (˜ xm ) y x ˜j = x ˜j (xm ) (con i, j = 1, 2, 3, · · · , n) se cumple que aij xi xj = ψ = ψ˜ = a ˜ij x ˜i x ˜j
donde ψ = ψ˜ constituye un escalar
y por lo tanto, derivando y utilizando la regla de la cadena xi = xi x ˜j (xm )
⇒
∂xi ∂ x ˜j ∂xi i = = δm , m j ∂x ∂x ˜ ∂xm
por lo que aij x x − a ˜ij
∂x ˜k ∂ x ˜l x ˜x ˜ ≡ aij − a ˜kl xi xj = 0 , ∂xi ∂xj i j
in ar
i j
como hay una suma en ij no se puede afirmar que la cantidad del par´entesis se anula. Como esta afirmaci´ on vale para cualquier sistema de coordenadas, seleccionaremos las componentes coordenadas en la base can´ onica. x1 = (1, 0, 0, · · · , 0) ; x2 = (0, 1, 0, · · · , 0) ; · · · · · · xn = (0, 0, 0, · · · , 1)
a11 − a ˜kl
˜l ∂x ˜k ∂ x = 0; 1 ∂x ∂x1
a22 − a ˜kl
Como siempre podemos hacer a ˜(kl) = a ˜kl = a ˜(kl) + a ˜[kl]
⇒
1 2
re lim
con lo cual ∂x ˜k ∂ x ˜l = 0; · · · 2 ∂x ∂x2
(˜ akl + a ˜lk ) y a ˜[kl] =
a(mm) − a ˜(kl) + a ˜[kl]
1 2
· · · ann − a ˜kl
∂x ˜k ∂ x ˜l = 0, n ∂x ∂xn
(˜ akl − a ˜lk ) y separar el tensor
∂x ˜k ∂ x ˜l =0 ∂xm ∂xm
⇒
a(mm) = a ˜(kl)
∂x ˜k ∂ x ˜l , ∂xm ∂xm
Practicando con Maxima:
rP
˜kl y es lo que de ahora en La parte sim´etrica del tensor transforma siguiendo la regla: amn = Λkm Λln a adelante denominaremos un tensor de segundo orden. En este caso, la parte sim´etrica de un tensor transforma como un verdadero tensor una vez que se contrae con un par de vectores.
Bo rr
ad o
Maxima presenta dos paquetes para la manipulaci´on de tensores, paquetes en constante desarrollo todav´ıa. Estos paquetes son ctensor, manipulaci´on de componentes y el paquete itensor, manipulaci´ on indexada. En la manipulaci´ on por componentes los tensores se representan por arreglos o matrices. En la manipulaci´ on indexada los tensores se representan por funciones de sus ´ındices covariantes, contravariantes y de derivadas. Los ´ındices covariantes se especifican mediante una lista que ser´a el primer argumento del objeto indexado, siendo los ´ındices contravariantes otra lista que ser´a el segundo argumento del mismo objeto indexado. Si al objeto indexado le falta cualquiera de estos grupos de ´ındices, entonces se le asignar´a al argumento correspondiente la lista vac´ıa []. As´ı, g([a, b], [c]) representa un objeto indexado llamado g, el cual tiene dos ´ındices covariantes (a, b), un ´ındice contravariante (c) y no tiene ´ındices de derivadas. (%i1) load(itensor)$ (%i2) imetric(g);
(%i3) ishow(g([j,k],[])*g([i,l],[])*a([],[i,j]))$
( %t3) ai j gj k gi l Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
138
´ 3.2. PARENTESIS TENSORIAL
(%i4) ishow(contract(%))$ ( %t4) ak l (%i5) ishow(kdelta([i],[k])*a([k,l],[]))$ ( %t5) δik ak l (%i6) ishow(contract(%))$
La identidad δij δji = 3 (%i7) ishow(contract(kdelta([i], [j])*kdelta([j], [i])))$ ( %t7) kdelta (%i8) ishow(ev(%,kdelta))$
re lim
( %t8) 3
in ar
( %t6) ai l
El s´ımbolo de Levi-civita:
(%i9) levi_civita([1, 2, 3]);levi_civita([1, 3, 2]);levi_civita([3, 3, 2]); ( %o9) 1 ( %o10) − 1 ( %o11) 0
rP
(%i12)expr:ishow(’levi_civita([],[i,j,k])*’levi_civita([i,j,k],[]))$ ( %t12) εi j k εi j k
ad o
Aqu´ı es necesario utilizar la funci´ on lc2kdt( ) que simplifica expresiones que contengan el s´ımbolo de Levi-Civita, para convertirlas en expresiones con la delta de Kronecker siempre que esto sea posible.1 (%i13)ishow(lc2kdt(expr))$ ( %t13) δik δji − 3 δjk δkj + δij δjk − 3 δik δki − 3 δij δji + 27 (%i14)ishow(contract(expand(%)))$
Bo rr
( %t14) 27 − 7 δ
(%i15)ishow(ev(%,kdelta))$
( %t15) 6
1 En ocaciones, la funci´ on lc2kdt( ) hace uso del tensor m´ etrico. Si el tensor m´ etrico no fue previamente definido con imetric, se obtiene un mensaje de error.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
139
´ 3.2. PARENTESIS TENSORIAL
3.2.8.
Un par de tensores
En esta secci´ on vamos a ejemplificar la utilizaci´on de los tensores en varios ´ambitos de la F´ısica, en particular de la Mec´ anica. En la pr´ oxima secci´on 3.2.8 consideraremos el tensor de esfuerzos para describir las tensiones internas de cuerpos sometidos a fuerzas externas. Haremos el an´alisis tanto para el caso de dos como de tres dimensiones. Luego en la Secci´on 3.2.8 consideraremos el tensor de inercia y su impacto en la din´ amica de cuerpos en movimiento.
Bo rr
ad o
rP
re lim
in ar
1. El tensor de esfuerzos (stress)
Figura 3.1: Tensor de Esfuerzos (stress) en 2 dimensiones
El caso 2D
Supongamos un cuerpo que se encuentra en equilibrio y est´a sometido a un conjunto de fuerzas externas. Para facilitar las cosas consideremos el efecto de esas fuerzas sobre un plano que contiene a un determinado punto P (ver Figura 3.1 cuadrante Ia). Es decir, vamos a considerar los efectos de las componentes de todas las fuerzas sobre ese plano y obviaremos el efecto del resto de las componentes. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
140
´ 3.2. PARENTESIS TENSORIAL
in ar
Como observamos en la figura 3.1 Ib y Ic, si cortamos la superficie en dos l´ıneas (AB y A0 B 0 ), podemos ver que el efecto del conjunto de fuerzas externas es distinto sobre P en la direcci´on perpendicular a cada una de esas l´ıneas. De hecho, al “cortar” la superficie las fuerzas que aparecen sobre las l´ıneas AB (y A0 B 0 ) eran fuerzas internas y ahora son externas al nuevo cuerpo “cortado”. As´ı, estas fuerzas por unidad de longitud2 sobre el punto P existen como un conjunto de fuerzas que generan esfuerzos (stress). Por lo tanto, es claro que los esfuerzos sobre un punto dependen del punto, de las fuerzas externas y de la direcci´on del efecto. Para irnos aclarando consideremos un elemento de ´area infinitesimal ds sobre la cual act´ ua un conjunto de fuerzas externas, las cuales las podemos descomponer como normales y tangenciales a la l´ınea sobre la cual est´ an aplicadas (ver figura 3.1 cuadrante II). Es costumbre denotar los esfuerzos normales y tangenciales por σ y τ respectivamente. ↑ Y2 = σ2 dx −→ X2 = τ2 dx dx Y3 = τ3 dy ↑ ↑ Y1 = τ1 dy dy ds dy dA = dxdy ⇒ X = σ dy → → X1 = σ1 dy 3 3 dx ↑ Y4 = σ4 dx → X4 = τ4 dx
con lo cual
σ2 = −σ4 ; τ2 = −τ4
re lim
Consideramos la segunda ley de Newton aplicada a cada diferencial de masa dm y obtendremos τ1 dy + σ2 dx + τ3 dy + σ4 dx = 0 = (σ2 + σ4 ) dx + (τ1 + τ3 ) dy ; X Fext = dm a = 0 ⇒ i σ1 dy + τ2 dx + σ3 dy + τ4 dx = 0 = (τ2 + τ4 ) dx + (σ1 + σ3 ) dy τ1 = −τ3
σ1 = −σ3
rP
como se est´ a en equilibrio, tambi´en la sumatoria de torques se tendr´a que anular. Esto es dy (τ1 dy) dx 2 − (τ2 dx) 2 = 0 ⇒ τ1 = τ2 = τ3 = τ4 dy (τ3 dy) dx − (τ dx) = 0 4 2 2
ad o
entonces, nos damos cuenta que existen s´ olo tres cantidades independientes: dos esfuerzos normales σ1 y σ2 ; y un esfuerzo tangencial τ1 . Adicionalmente notamos que los esfuerzos tienen que ver con la direcci´ on de la fuerza y la superficie sobre la cual va aplicada. Con ello podemos dise˜ nar la siguiente notaci´on para los esfuerzos: σij . El primer ´ındice indica la direcci´on de la fuerza y el segundo direcci´on de la normal de la superficie donde est´ a aplicada. As´ı, tal y como muestra la figura (ver figura 3.1 cuadrante II) σ1 ≡ σxx ;
−σ4 ≡ σyy ;
τ2 ≡ σxy ≡ σyx
Bo rr
El cambio de signo se debe a lo inc´ omodo de la notaci´on: σ4 ≡ σy−y ya que la normal de lado 4 apunta en la direcci´ on −y. Es importante tambi´en se˜ nalar que los esfuerzos en cualquier punto contenido en el diferencial de ´ area dA = dxdy deben ser considerado constantes, o lo que es lo mismo, que podemos hacer tender a cero el ´ area del diferencial y con ello asociar los esfuerzos σij a un punto P contenido en dA sobre la cual hemos calculado los esfuerzos. En esta misma l´ınea de razonamiento, nos podemos preguntar cual es la expresi´on de los esfuerzos cuando se miden respecto a una superficie gen´erica, definida por un vector normal n (ver figura 3.1 cuadrante III). Es decir, queremos conocer los esfuerzos medidos en el punto P y en la direcci´on n, es decir, σnn .
2 En el caso tridimensional, las fuerzas que generan los esfuerzos ser´ an definidas como fuerzas por unidad de ´ area. Ese caso lo veremos en la pr´ oxima secci´ on.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
141
in ar
´ 3.2. PARENTESIS TENSORIAL
re lim
Figura 3.2: Tensor de Esfuerzos en 3 dimensiones
Tendremos que
x → σxx dy + σxy dx = σnn ds cos(φ) + σsn ds sen(φ) ;
y → σyy dx + σyx dy = σnn ds sen(φ) − σsn ds cos(φ)
Ahora bien, dado que dy = ds cos(φ) y dx = ds sen(φ), entonces podemos expresar
σnn = σxx cos2 (φ) + σxy sen(φ) cos(φ) + σyx sen(φ) cos(φ) + σyy sen2 (φ)
rP
σsn = σxx sen(φ) cos(φ) + σxy sen2 (φ) − σyx cos2 (φ) − σyy sen(φ) cos(φ) y si ahora nos damos cuenta que si construimos una matriz x cos(φ) sen(φ) An Axs = Aij = sen(φ) − cos(φ) Ayn Ays
ad o
entonces podemos expresar
σnn = Axn Axn σxx + Axn Ayn σxy + Ayn Axn σyx + Ayn Ayn σyy
⇒
σnn = Ain Ajn σij
σsn = Axs Axn σxx + Axs Ayn σxy + Ays Axn σyx + Ays Ayn σyy
⇒
σsn = Ais Ajn σij
Bo rr
es decir,
σkl = Aik Ajl σij ,
con
con i, j = n, s con i, j = n, s
i, j, k, l = n, s .
Como ya hemos mencionado, y veremos m´as adelante con m´as detalle, cualquier objeto que transforme como σkl = Aik Ajl σij lo llamaremos tensor de segundo orden. El caso 3D
Podemos proceder como en el caso anterior estableciendo las condiciones de equilibrio X X Fext =0 y τ ext = 0, i i
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
142
´ 3.2. PARENTESIS TENSORIAL
con ello construimos un volumen (c´ ubico) diferencial y construimos los esfuerzos normales y tangenciales, los cuales ser´ an σxx dydz;
σyy dxdz;
σzz dxdy;
σxz dxdy;
σyz dxdy;
σxy dxdz;
Siguiendo el mismo proceso que involucra imponer el equilibrio, es f´acil demostrar que al igual que el caso anterior, el tensor de esfuerzos σij cumple con: σxz = σzx ;
σyz = σzy ;
σxy = σyx .
re lim
in ar
Tendremos 6 componentes (tres normales y tres tangenciales) independientes. Es decir, si bien el tensor de esfuerzos σij viene representado por una matriz 3 × 3 y por lo tanto tiene 9 elementos, s´olo 6 son independientes. Vayamos ahora el caso general para un tensor de esfuerzos en un medio el´astico. Para ello construimos un tetraedro regular tal y como muestra la figura 3.2, y sobre su cara gen´erica asociada a un vector normal n una fuerza F Fx = σxn dSn i Fy = σyn dSn F = F ii = Fx i + Fy j + Fz k ⇒ ⇒ F i = σji nj dS ⇒ F = σ · dS Fz = σzn dSn de esta manera se especifica como la fuerza act´ ua sobre un determinado elemento de superficie. Es claro que la condici´ on de equilibrio se traduce en X 1 1 1 Fxi = 0 ⇒ σxn dSn − σxx dy dz − σxy dx dz − σxz dx dy = 0 2 2 2 Fyi = 0
⇒
1 1 1 σyn dSn − σyx dy dz − σyy dx dz − σyz dx dy = 0 2 2 2
rP
X
1 1 1 σzn dSn − σzx dy dz − σzy dx dz − σzz dx dy = 0 2 2 2 Si consideramos la proyecci´ on de dSn sobre cada uno de los planos del sistema cartesiano tendremos que dS n cos (i; n) = 12 dy dz = dS n Axn 1 n n y dS cos (j; n) = 2 dx dz = dS An ⇒ σxn = σxx Axn + σxy Ayn + σxz Azn dS n cos (k; n) = 12 dx dy = dS n Azn y equivalentemente
Fzi = 0
⇒
ad o
X
Bo rr
σyn = σyx Axn + σyy Ayn + σyz Azn ;
y σzn = σzx Axn + σzy Ayn + σzz Azn ,
las cuales se conocen como las relaciones de Cauchy, y representan los esfuerzos sobre la superficie con normal n. ˆm Ahora bien, dado que F = σ · dS es una relaci´on vectorial podemos proyectar en la direcci´on u ˆm · F = u ˆ m · (σ · dS) ⇒ F m = σnm dS n = σim Ain dS n = σim Ain dS n u σmn dS n = σmi Ain dS n
⇒
σmn dS n = σki Akm Ain dS n
con i, j = x, y, z
Una vez m´ as vemos que transforma como un tensor. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
143
´ 3.2. PARENTESIS TENSORIAL
2. El Tensor de inercia Consideremos el caso de un sistema de n part´ıculas. La cantidad de movimiento angular para este sistema vendr´ a dada por X L= m(i) r(i) × v(i) i
donde hemos indicado que la i−´esima part´ıcula que est´a en la posici´on r(i) tiene una velocidad v(i) . Si las distancias entre las part´ıculas, y entre las part´ıculas con el origen de coordenadas, es constante, podremos expresar la velocidad de cada una de ellas como v(i) = ω × r(i) ,
in ar
(¿Por qu´e?)
Donde ω es la velocidad angular instant´anea del sistema. Entonces tendremos que X X L= m(i) r(i) × ω × r(i) = m(i) ω r(i) · r(i) − r(i) ω · r(i) , i
i
i k l Si vemos que ω(i) = δlk ω(i) entonces
k
L =
X
h
m(i) δlk ω l
m r(i) r(i)m
−
k r(i)
m
re lim
y para cada part´ıcula se cumple que las componentes de la cantidad de movimiento angular ser´an h X i m k m(i) ω k r(i) r(i)m − r(i) Lk = ω m r(i)m .
ω r(i)m
i
"
=
X
l ω(i)
m(i)
δlk
m r(i) r(i)m
−
k r(i)
r(i)l
#
i
i
es decir l Lk = ω(i) Ilk ,
rP
|
donde
Ilk =
X
{z Ilk
}
m k m(i) δlk r(i) r(i)m − r(i) r(i)l .
i
Ilk
Bo rr
ad o
El objeto se conoce como el tensor de inercia y corresponde a 9 cantidades (a pesar que s´olo 6 son independientes porque es un tensor sim´etrico). En coordenadas cartesianas se ver´a de la siguiente forma: P P P 2 2 m(i) y(i) + z(i) − i m(i) x(i) y(i) − i m(i) x(i) z(i) i Ixx Ixy Ixz P P P k 2 2 Iyy Iyz = − i m(i) x(i) y(i) Il = Iyx − i m(i) y(i) z(i) i m(i) x(i) + z(i) P P P Izx Izy Izz 2 2 − i m(i) x(i) z(i) − i m(i) y(i) z(i) i m(i) z(i) + y(i) Por ahora, nos contentaremos en suponer que esta construcci´on es un tensor y lo demostraremos m´ as adelante. Ejemplo: La ilustraci´ on m´ as sencilla de que la masa en rotaci´on se comporta como un tensor y no como un escalar lo vemos en la rotaci´ on de dos masas iguales: m1 y m2 (con lo cual m1 = m2 = m) unidas por una varilla sin masa de longitud l. Si el sistema (masas + varillas) se encuentra girando alrededor su centro
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
144
´ 3.2. PARENTESIS TENSORIAL
de masa y ambas masas se encuentran sobre el plano xy, vale decir que la barra sin masa forma un ´angulo de α = π2 con el eje z, entoces tendremos que r=
l l cos(θ) i + sen(θ)j 2 2
⇒
v=
dr l dθ l dθ =− sen(θ) i + cos(θ) j dt 2 dt 2 dt
con lo cual 2 l dθ L = m1 (r1 × v1 ) + m2 (r2 × v2 ) = m (r1 × v1 ) + m ((−r1 ) × (−v1 )) = 2m (r1 × v1 ) = k 2 dt ya que
3.2.9.
r2 = −r1
y
v2 = −v1 .
Ejercicios
in ar
m1 = m2 = m;
1. Un problema de gran inter´es consiste en lo siguiente. Consideremos un tensor B con componentes Bij , un tensor A con componentes Ai y el producto
re lim
Bij Aj = Ci
Esta u ´ltima expresi´ on se puede interpretar como la acci´on de B sobre A que consiste en producir un nuevo tensor C que tendr´ a una magnitud y una direcci´on diferente a A. Podremos estar interesados en encontrar todos los vectores que NO son rotados por B, es decir, que estar´ıamos interesados en resolver la ecuaci´ on: Bij Aj = λAi , donde λ es un escalar
rP
Si estos vectores existen se denominan vectores caracter´ısticos o “autovectores” de B y sus direcciones: direcciones principales o caracter´ısticos. M´as a´ un, los ejes determinados por las direcciones principales se denominan ejes principales de B. Los valores de las componentes Bij en el sistema de coordenadas determinado por los ejes principales se denominan valores caracter´ısticos o “autovalores” de B.
ad o
Ahora, consideremos un sistema conformado por n part´ıculas de masas iguales: m1 , m2 , . . . mn = m, distribuidas en el plano x − y, y sea Iij el tensor de inercia con respecto a un sistema rectangular de coordenadas. Por ser un caso en 2D, el tensor de inercia tendr´a solamente cuatro componentes. a) Encuentre: I11 = Ixx , I22 = Iyy y I12 = Ixy = I21 = Iyx
Bo rr
b) Si un vector A coincide con el eje principal de Iij entonces debe satisfacer la ecuaci´on (I11 − λ)A1 + I12 A2 = 0 j j j Ii Aj = λAi ⇒ (Ii − λδi )Aj = 0 ⇒ I12 A1 + (I22 − λ)A2 = 0 Encuentre la soluci´ on (no trivial) para λ, es decir, resuelva: λ2 − λ(I11 + I22 ) + I11 I22 − (I12 )2 = 0.
c) ¿C´ omo se interpreta el hecho de que I12 = 0?
d ) Si I12 6= 0 y λ1 6= λ2 , entonces, para cada valor de λ se puede encontrar un vector (autovector) A(λ1 ) y A(λ2 ) resolviendo el sistema de dos ecuaciones. Demuestre que las direcciones de estos vectores tienen pendientes, respecto al sistema de coordenada, dadas por
Hern´ andez & N´ un ˜ez
tan(θ1 ) =
λ1 − I11 , I12
tan(θ2 ) =
λ2 − I11 I12
Universidad de los Andes / Universidad Industrial de Santander
145
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
e) Demuestre que tan(2θ1 ) = tan(2θ2 ) =
2I12 π , donde θ2 = θ1 + I11 − I22 2
es decir: A(λ1 ) ⊥ A(λ2 ) . f ) ¿C´ uales son las componentes del tensor de inercia en el sistema de coordenadas determinado por los ejes principales? 2. Demuestre que si Sji representa un tensor sim´etrico y Aij uno antisim´etrico, entonces, Sji Aji = 0
1 3/2 5/2 3 , 4 9/2
1/3 T i = 2/3 , 1
gji = g ij
Encuentre: a) La parte sim´etrica Sji y antisim´etrica Aij de Rji
1 = gij = 0 0
0 1 0
0 0 1
in ar
3. Dados los tensores 1/2 Rji = 2 7/2
re lim
b) Rkj = gik Rji , Rki = g jk Rji , Tj = gij T i ¿Qu´e se concluye de estos c´alculos? c) Rji Ti , Rji T j , Rji Ti T j d ) Rji Sij , Rji Aji , Aji T i , Aji T i Tj
e) Rji − 2δji Rll , (Rji − 2δji Rll )Ti , (Rji − 2δji Rll )Ti T j .
3.3.1.
Repensando los vectores nuevamente
Vectores, covectores y leyes de transformaci´ on
rP
3.3.
ad o
Hemos visto que un determinado vector |ai ∈ V puede expresarse en una base ortonormal {|ej i} como: aj |ej i donde las aj son las componentes del vector contravariantes en la base que se ha indicado. En general, como es muy largo decir “componentes del vector contravariante” uno se refiere (y nos referiremos de ahora en adelante) al conjunto aj como un vector contravariante obviando la precisi´on de componente, pero realmente las aj son las componentes del vector. Adicionalmente, en esta etapa pensaremos a las bases como distintos observadores o sistemas de referencias. Con ello tendremos (algo que ya sab´ıamos) que un vector se puede expresar en distintas bases y tendr´ a distintas componentes referidas a esa base
Bo rr
|ai = aj |ej i = a ˜j |˜ej i .
As´ı una misma cantidad f´ısica vectorial se ver´a distinta (tendr´a distintas componentes) desde diferentes sistemas de coordenadas. Las distintas “visiones” est´an conectadas mediante un transformaci´on de sistema de referencia como veremos m´ as adelante. Igualmente hemos dicho que una diferencial hb| ∈ V∗ es susceptible de expresarse en una base i
iforma ∗ e del espacio dual V como bi e y, como el espacio est´a equipado con un producto interno, entoces:
ha |bi = hb |ai = bi ei · aj |ej i = bi aj δji = ai bi Con lo cual avanzamos otra vez en la interpretaci´on de cantidades f´ısicas: una cantidad f´ısica escalar se ver´ a igual (ser´ a invariante) desde distintos sistemas de referencia.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
146
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
Adem´ as sabemos que unas y otras componentes se relacionan como
i
i ˜j e |ai = aj ei |ej i = aj δji = a ˜j ei |˜ej i a = Aij a ⇒
i
i ˜e |ai = a ˜j ˜ei |˜ej i = a ˜j δji = aj ˜ei |ej i a ˜ = A˜ij aj donde claramente
i e |˜ej i = Aij ;
i ˜e |ej i = A˜ij
y
Aik A˜kj = δji
⇐⇒
A˜ij = Aij
−1
in ar
Diremos entonces que aquellos objetos cuyas componentes transforman como ai = Aij a ˜j o equivalentemente an vectores, o en un lenguaje un poco m´as antiguo, vectores contravariantes3 . a ˜i = A˜ij aj ser´ Tradicionalmente, e inspirados en la ley de transformaci´on, la representaci´on matricial de las componentes
contravariantes de un vector, ei |ai = aj , para una base determinada {|ej i} se estructuran en una columna con i = 1, 2, 3, · · · , n
⇐⇒
re lim
|ai ⇒ ai = ei |ai
a1 a2 .. .
an
rP
De la misma manera, en el espacio dual, V∗ , las formas
diferenciales se podr´an expresar en t´ermino de una base de ese espacio vectorial como hb| = bi ei = ˜bi ˜ei . Las {bi } ser´an las componentes de las formas diferenciales o las componentes covariantes de un vector |bi, o dicho r´apidamente un vector covariante o covector. Al igual que en el caso de las componentes contravariantes las componentes covariantes transforman de un sistema de referencia a otro mediante la siguiente ley de transformaci´on:
hb |ej i = bi ei |ej i = bi δji = ˜bi ˜ei |ej i bj = ˜bi Aij ⇒
˜ hb |˜ej i = ˜bi ˜ei |˜ej i = ˜bi δji = bi ei |˜ej i bj = bi A˜ij
3.3.2.
ad o
Otra vez, objetos cuyas componentes transformen como bj = ˜bi Aij los denominaremos formas diferenciales o vectores covariantes o covectores y ser´ an representados matricialmente como un arreglo tipo fila b1 b2 · · · bn hb| ⇒ bi = hb |ei i con i = 1, 2, 3, · · · , n ⇐⇒
Transformaci´ on de los vectores base
Bo rr
Consideremos dos bases {|ei i} y {|˜ei i} con un origen com´ un en el mismo punto. Cualquier vector |ai de la primera base se puede expandir respecto a la segunda base (o inversamente). Las bases se relacionan de la manera siguiente ˜ j |ej i |˜ei i = λ i
˜ j con (i, j = 1, 2, 3, ...) se les denominar´an los coeficientes de la transformaci´on directa. De a las cantidades λ i igual forma, es posible representar la base {|ei i} en t´erminos de la base {|˜ei i}
3 Algunos
δji = Aik0 Akj
|ei i = λji |˜ej i 0
0
0
autores prefieren utilizar la siguiente notaci´ on para las transformaciones: ai = Aij 0 aj y ai = Aij aj , por lo que
0
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
147
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
donde a las cantidades λji se les denomina: los coeficientes de la transformaci´on inversa. Existe una relaci´ on simple entre el conjunto de coeficientes: ˜ 1 |e1 i + λ ˜ 2 |e2 i + λ ˜ 3 |e3 i + · · · |˜ei i = λ i i i ˜ 1 λ1 |˜e1 i + λ2 |˜e2 i + λ3 |˜e3 i + · · · + λ ˜ 2 λ1 |˜e1 i + λ2 |˜e2 i + · · · + λ ˜ 3 λ1 |˜e1 i + λ2 |˜e2 i + · · · = λ i 1 1 1 i 2 2 i 3 3 i h i h i h ˜ 1 λ1 + λ ˜ 2 λ1 + λ ˜ 3 λ1 + · · · |˜e1 i + λ ˜ 1 λ2 + λ ˜ 2 λ2 + λ ˜ 3 λ2 + · · · |˜e2 i + λ ˜ 1 λ3 + λ ˜ 2 λ3 + · · · |˜e3 i + · · · = λ i 1 i 2 i 3 i 1 i 2 i 3 i 1 i 2 =
˜ j λ1 |˜e1 i + λ ˜ j λ2 |˜e2 i + λ ˜ j λ3 |˜e3 i + · · · = λ ˜ j λk |˜ek i = δ k |˜ek i λ i i j i j i j i j
Donde:
in ar
˜ j λk = δ k λ i i j
Si repetimos los c´ alculos partiendo de la transformaci´on inversa, entonces resultar´ıa que ˜j = δk λkj λ i i
⇒
|ei i = δik |ek i .
Consideremos ahora el problema de expandir un vector |ai con respecto a una base no ortogonal {|wi i}:
re lim
|ai = ai |wi i
Por simplicidad tomemos el caso R3 , de manera que tenemos un vector A = ai ei (i = 1, 2, 3). Al proyectar el vector A sobre los ejes de alg´ un sistema de coordenadas, es posible resolver el sistema de tres ecuaciones que resulta para las inc´ ognitas ai . Este m´etodo se conoce como el m´etodo de las bases rec´ıprocas. Las bases ei y ei se llaman rec´ıprocas si satisfacen la condici´on ei · ej = δij .
rP
Esto lo significa es que cada vector de una de las bases es perpendicular a los otros dos de la otra base. Por ejemplo, el vector e1 ser´ a perpendicular a e2 y e3 : e1 = α(e2 × e3 ) ,
como e1 · e1 = 1, entonces:
⇒
α=
1 e1 · (e2 × e3 )
ei =
ej × ek , ei · (ej × ek )
ad o
αe1 · (e2 × e3 ) = 1 Por lo tanto, es f´ acil ver que
⇒
e1 =
e2 × e3 . e1 · (e2 × e3 )
Bo rr
donde i, j, k son permutaciones c´ıclicas de 1, 2, 3. Notemos tambi´en que V = ei · (ej × ek ) es el volumen del paralelep´ıpedo que soportan los vectores {ei } y que adem´as se puede obtener una expresi´on an´aloga para los {ei } en t´ermino de los {ei }. La base rec´ıproca de la base ortonormal {ii } es la misma base ortonormal: ei = ii y si la base original o directa es dextr´ ogira la rec´ıproca tambi´en lo ser´a. Al ser {ei } y {ei } rec´ıprocas, entonces A = ai ei ⇒ A · ei = ai ei · ei = ai
esto significa que
A = (A · ei )ei , Hern´ andez & N´ un ˜ez
i = 1, 2, 3 .
Universidad de los Andes / Universidad Industrial de Santander
148
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
Tal vez, es bueno recordar que un mismo vector se puede representar en ambas bases: A = ai ei = ai ei a trav´es de sus componentes contravariantes ai o covariantes ai . Por otro lado, si A se expresa en un sistema de coordenadas definido por una base ei y queremos saber ˜i , entonces: como se escribe en otra base e ˜ j ai ˜j = ai ei · e ˜j ⇒ a A = ai ei ⇒ A · e ˜j = λ i ˜ i ai ˜j = ai ei · e ˜j ⇒ a A = ai ei ⇒ A · e ˜j = λ j
in ar
de la manera equivalente: ˜i . ˜i y aj = λij a El lector puede demostrar que: aj = λji a Para finalizar, es f´ acil obtener las relaciones entre componentes covariantes y contravariantes, veamos: A · ei = aj (ei · ej ) ∧ A · ei = aj (ei · ej )
re lim
Si definimos: ei · ej = gij , ei · ej = g ij y ei · ej = gji = δji , entonces: ai = gij aj ∧ ai = g ij aj .
Y si las bases son ortogonales, tanto las ei como las ei , entonces: gij = g ji = 0 (i 6= j), lo que resulta en: a1 = g11 a1 , a1 = g 11 a1 , a2 = g22 a2 , a2 = g 22 a2 , a3 = g33 a3 , a3 = g 33 a3 .
3.3.3.
Cartesianas y polares, otra vez
rP
El ejemplo m´ as simple, y por ello, cl´ asico y emblem´atico de lo anterior lo constituye las expresiones de un mismo vector en dos sistemas de coordenadas en el plano: Cartesianas {|ii , |ji} y polares {|ur i , |uθ i}. Esto es, para un vector |ai: |ai = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i
|ai = ar |ur i + aθ |uθ i = a ˜1 |˜e1 i + a ˜2 |˜e2 i .
y
ad o
Al expresar una base en t´erminos de la otra obtenemos |ur i = cos(θ) |ii + sen(θ) |ji con lo cual
Bo rr
i ˜ i ⇐⇒ λ ˜i = ˜e |ej i = λ j j
y
|uθ i = − sen(θ) |ii + cos(θ) |ji ,
hur |ii huθ |ii
hur |ji huθ |ji
hi |ur i hj |ur i
hi |uθ i hj |uθ i
cos(θ) sen(θ) − sen(θ) cos(θ)
cos(θ) − sen(θ) sen(θ) cos(θ)
≡
Para la transformaci´ on inversa se tiene
ei |˜ej i = λij ⇐⇒ λij =
≡
y por lo tanto:
|ii = cos(θ) |ur i − sen(θ) |uθ i
Hern´ andez & N´ un ˜ez
y
|ji = sen(θ) |ur i + cos(θ) |uθ i .
Universidad de los Andes / Universidad Industrial de Santander
149
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
Cumpliendo adem´ as con cos(θ) − sen(θ) cos(θ) sen(θ) cos(θ) − sen(θ)
sen(θ) cos(θ)
=
1 0
0 1
˜k = δi . ⇐⇒ λik λ j j
Por otro lado, si |ai = ar |ur i + aθ |uθ i = a ˜1 |˜ e1 i + a ˜2 |˜e2 i = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i tendremos que ar aθ
=
cos(θ) − sen(θ)
sen(θ) cos(θ)
ax ay
=
con lo cual ar = ax cos(θ) + ay sen(θ)
y
ax ay
=
cos(θ) − sen(θ) sen(θ) cos(θ)
y ax = ar cos(θ) − aθ sen(θ) Practicando con Maxima:
ar aθ
=
ar cos(θ) − aθ sen(θ) ar sen(θ) + aθ cos(θ)
re lim
aθ = −ax sen(θ) + ay cos(θ) .
Del mismo modo ai = λij a ˜j ⇐⇒
ax cos(θ) + ay sen(θ) −ax sen(θ) + ay cos(θ)
in ar
˜ i aj ⇐⇒ a ˜i = λ j
y
ay = ar sen(θ) + aθ cos(θ) .
rP
En este ejercicio veremos la manera de construir la matriz de transformaci´on entre bases y el c´alculo de las bases rec´ıprocas. 1. Si tenemos una transformaci´ on entre bases |e1 i = |ji + |ki ,
|e2 i = |ii + |ki ,
|e3 i = |ii + |ji .
ad o
Para calcular la matriz de transformaci´on
˜ j |ij i , |ei i = λ i
podemos obrar de la manera siguiente. Primero introducimos los vectores como una matriz y luego calculamos la transpuesta:
Bo rr
(%i1) v1:[0,1,1]$v2:[1,0,1]$v3:[1,1,0]$ (%i2) lambdaij:transpose(matrix(v1,v2,v3));
0 ( %o2) 1 1
1 0 1
1 1 0
La matriz de transformaci´ on inversa |ii i = λji |ej i ,
es simplemente la matriz inversa Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
150
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
(%i3) lambda_ji:invert(%); 1 −2 ( %o3) 21
1 2 − 12 1 2
1 2
1 2 1 2 − 12
˜k = δj Es claro que λjk λ i i (%i4) lambda_ij.lambda_ji; 0 1 0
0 0 1
in ar
1 ( %o4) 0 0
(%i5) kill(all)$
(%i1) load(vect)$ Dado el siguiente conjunto de vectores
re lim
2. Con el uso del paquete vect podemos hacer algunos c´alculos sencillos con vectores, como por ejemplo, el c´ alculo de las bases rec´ıprocas.
b1 = e1 = i + j + 2k , b2 = e2 = −i − j − k , b3 = e3 = 2i − 2j + k
ei =
(%i2) b1:[1,1,2];
ad o
( %o2) [1, 1, 2]
ej × ek , ei · (ej × ek )
rP
Calcularemos la base rec´ıproca a trav´es de
(%i3) b2:[-1,-1,-1] ( %o3) [−1, −1, −1]
Bo rr
(%i4) b3:[2,-2,1]; ( %o4) [2, −2, 1]
Podemos comprobar si la base original bi = es ortogonal calculando sus productos escalares: (%i5) b1.b2; b1.b3; b2.b3;
( %o5) − 4
( %o6) 2 Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
151
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
( %o7) − 1 Por lo tanto, no son ortogonales. Ahora, los vectores rec´ıprocos ei = se calculan de la manera siguiente: (Para el producto vectorial A × B se usa el comando: express(A∼B) ) (%i8) e1:express(b2~b3)/(b3.(express(b1~b2))); 3 1 − ,− ,1 4 4
(%i9) e2:express(b3~b1)/(b3.(express(b1~b2))); 5 3 ( %o9) − , − , 1 4 4 (%i10)e3:express(b1~b2)/(b3.(express(b1~b2))); 1 1 ,− ,0 4 4
re lim
( %o10)
in ar
( %o8)
La base rec´ıproca es entonces
3 1 5 3 1 1 e1 = − i − j + k , e2 = − i − j + k , e3 = i − j 4 4 4 4 4 4
rP
Que tampoco es ortogonal: (%i11)e1.e2; e1.e3; e2.e3; ( %o11)
17 8
1 8 1 ( %o13) − 8
ad o
( %o12) −
El tensor m´etrico para la base original gij = ei · ej lo podemos construir de la manera siguiente:
Bo rr
(%i14)gb:matrix([b1.b1,b1.b2,b1.b3],[b2.b1,b2.b2,b2.b3],[b3.b1,b3.b2,b3.b3]);
6 ( %o14) −4 2
−4 3 −1
2 −1 9
Para la base rec´ıproca g ij = ei · ej (%i15)ge:matrix([e1.e1,e1.e2,e1.e3],[e2.e1,e2.e2,e2.e3],[e3.e1,e3.e2,e3.e3]);
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
152
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
17 8 25 8 − 18
13 8 17 8 − 18
( %o15)
− 18 − 18 1 8
De manera que: ei · ej = gji = δji : (%i16)gb.ge;
3.3.4.
0 1 0
0 0 1
in ar
1 ( %o16) 0 0
Repensando las componentes
En general, podemos pensar que las componentes de los vectores pueden ser funciones de las otras. Consideremos el ejemplo anterior con esta visi´on para estudiarlo con m´as detalle en dos y tres dimensiones.
re lim
Caso bidimensional
Tendremos que un punto en el plano viene representado en coordenadas cartesianas por dos n´ umeros (x, y) y en coordenadas polares por otros dos n´ umeros (r, θ). Siguiendo el ejemplo anterior un punto P , en el plano lo describimos como |P i = rP |ur i = xP |ii + yP |ji .
rP
Veamos como est´ an relacionadas estas dos descripciones, para este caso en el cual las ecuaciones de transformaci´ on son xP = xP (r, θ) = x1 = x1 x ˜1 , x ˜2 rP = rP (x, y) = x ˜1 = x ˜1 x1 , x2 ⇐⇒ yP = yP (r, θ) = x2 = x2 x ˜1 , x ˜2 θ = θP (x, y) = x ˜2 = x ˜2 x1 , x2 y expl´ıcitamente
ad o
xP = rP cos(θ) ⇒ x1 = x ˜1 cos(˜ x2 ) 2 1 yP = rP sen(θ) ⇒ x = x ˜ sen(˜ x2 )
r = px2 + y 2 P P P y θ = arctan yP xP
q 2 2 (x1 ) + (x2 ) 2 ⇒ x ˜2 = arctan xx1 ⇒ x ˜1 =
Bo rr
Es claro que ambas coordenadas est´ an relacionadas y que se puede invertir la relaci´on 1 x ˜1 = x ˜1 x1 , x2 x = x1 x ˜1 , x ˜2 ⇐⇒ , x ˜2 = x ˜2 x1 , x2 x2 = x2 x ˜1 , x ˜2 Si se piden cosas razonables: • que las funciones xi = xi (˜ xm ) y x ˜j = x ˜j (xm ) sean al menos C 2 (funci´on y derivada continua) • que el determinante de la matriz Jacobiana sea finito, ! ∂xi x ˜k det 6= 0. ∂x ˜j
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
153
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
M´ as a´ un, si xi = xi x ˜ j xk
∂xi ∂xi ∂ x ˜j = = δki k j ∂x ∂x ˜ ∂xk
⇒
dxi =
⇒
∂xi j d˜ x , ∂x ˜j
con lo cual intuimos dos cosas: 1. que las componentes de un vector, |P i, deben transformar bajo un cambio de coordenadas como ∂xi x ˜k j i p˜ . p = ∂x ˜j ∂xi ∂x ˜k
y
∂x ˜i ∂xk
son una la inversa de la otra.
in ar
2. Las matrices jacobianas
Veamos si es cierto para el caso de vectores en el plano. Para ello calculamos la matriz jacobiana: i
1
∂x x ˜ ,x ˜ ∂x ˜j
2
⇒
∂x1 (x ˜1 ,˜ x2 ) ∂x ˜1 ∂x2 (x ˜1 ,˜ x2 ) ∂x ˜1
∂x1 (x ˜1 ,˜ x2 ) ∂x ˜2 ∂x2 (x ˜1 ,˜ x2 ) ∂x ˜2
=
cos(˜ x2 ) −˜ x1 sen(˜ x2 ) 2 1 sen(˜ x ) x ˜ cos(˜ x2 )
re lim
y seguidamente, identificando |P i = xP |ii + yP |ji = rP |ur i 1 1 ˜1 , x ∂xi x ˜2 j p cos(˜ x2 ) −˜ x1 sen(˜ x2 ) p˜ i p ˜ ⇒ = p = sen(˜ x2 ) x ˜1 cos(˜ x2 ) 0 p2 ∂x ˜j
tendremos
Es decir
p˜1 0
√
=
x1
(x1 )2 +(x2 )2
−x2 (x1 )2 +(x2 )2
√
q 2 2 x ˜ = (x1 ) + (x2 ) 1
x2
(x1 )2 +(x2 )2
x1 (x1 )2 +(x2 )2
ad o
rP
Igualmente, si calculamos la inversa de la matriz jacobiana ! 1 !−1 2 2 i 1 2 √ x2 cos(˜ x ) sen(˜ x ) ∂x x ˜ ,x ˜ 1 ) +(x2 )2 (x = = − sen(˜ x2 ) cos(˜ x2 ) −x2 ∂x ˜j x ˜1 x ˜1 1 2 2 2
⇒
(x ) +(x )
r=
p
p1 p2
∂x ˜i x1 , x2 j p . p˜ = ∂xj
x2 + y 2
x2 (x1 )2 +(x2 )2 x1 (x1 )2 +(x2 )2
√
i
⇒
y
0 = 0.
Caso tridimensional
Bo rr
Consideremos nuevamente dos sistemas de coordenadas: uno cartesiano x1 = x, x2 = y, x3 = z y otro esf´erico x ˜1 = r, x ˜2 = θ, x ˜3 = φ .
Tal y como hemos supuesto anteriormente el punto P vendr´a descrito por |P i = rP |ur i = xP |ii + yP |ji + zP |ki
de nuevo
x = x (r, θ, φ) = x1 = x1 x ˜1 , x ˜2 , x ˜ 3 ˜1 , x ˜2 , x ˜3 y = y (r, θ, φ) = x2 = x2 x 3 3 1 2 z = z (r, θ, φ) = x = x x ˜ ,x ˜ ,x ˜3
Hern´ andez & N´ un ˜ez
⇐⇒
˜1 = x ˜1 x1 , x2 , x3 r = r (x, y, z) = x θ = θ (x, y, z) = x ˜2 = x ˜2 x1 , x2 , x3 3 φ = φ (x, y, z) = x ˜ =x ˜3 x1 , x2 , x3
Universidad de los Andes / Universidad Industrial de Santander
154
3.3. REPENSANDO LOS VECTORES NUEVAMENTE
Las ecuaciones de transformaci´ on ser´an xP = rP sen(θ) cos(φ) ⇒ yP = rP sen(θ)sen(φ) ⇒ zP = rP cos(θ) ⇒
x1 = x ˜1 sen(˜ x2 ) cos(˜ x3 ) 2 1 2 x =x ˜ sen(˜ x )sen(˜ x3 ) 3 1 2 x =x ˜ cos(˜ x )
y
in ar
q p 2 2 2 1 2 + y2 + z2 x ⇒ x ˜ = (x1 ) + (x2 ) + (x3 ) r = P P P P 2 φ = arctan xyPP ⇒ x ˜2 = arctan xx1 √ √ 2 2 xP +yP (x1 )2 +(x2 )2 3 ⇒ x ˜ = arctan θ = arctan zP x3 Con lo cual la matriz de las derivadas para esta transformaci´on en particular ser´a: sen (θ) cos (φ) −r sen (θ) sen (φ) r cos (θ) cos (φ) ∂xi x ˜1 , x ˜2 , x ˜3 = sen (θ) sen (φ) r sen (θ) cos (φ) r cos (θ) sen (φ) ∂x ˜j cos (θ) 0 −r sen (θ)
i
1
2
˜ ,x ∂x x ˜ ,x ˜ ∂x ˜j
3
sen x ˜2 cos x ˜3 ˜2 sen x ˜3 = sen x cos x ˜2
y su inversa
re lim
es decir: −˜ x1 sen x ˜2 sen x ˜3 x ˜1 sen x ˜2 cos x ˜3 0
sen (θ) cos (φ)
sen (θ) sen (φ)
cos (θ)
− rsen(φ) sen(θ)
cos(φ) r sen(θ)
0
cos(θ) sen(φ) r
− sen(θ) r
rP
∂x ˜i x1 , x2 , x3 = ∂xj
cos(θ) cos(φ) r
o lo que es lo mismo
√
x x2 +y 2 +z 2
ad o
∂x ˜i x1 , x2 , x3 = j ∂x
Bo rr
√
y x2 +y 2 +z 2
√
z x2 +y 2 +z 2
−y x2 +y 2
x x2 +y 2
0
xz √ (x2 +y 2 +z 2 ) x2 +y 2
yz √ (x2 +y 2 +z 2 ) x2 +y 2
− x2 +y 2 (x2 +y 2 +z 2 )
Dejaremos al lector comprobar que, efectivamente, ∂xi x ˜1 , x ˜2 , x ˜3 j i p = p˜ ⇐⇒ ∂x ˜j
3.3.5.
x ˜1 cos x ˜2 cos x ˜3 x ˜1 cos x ˜2 sen x ˜3 −˜ x1 sen x ˜2
√
∂x ˜i x1 , x2 , x3 j p˜ = p . ∂xj i
Ejercicios
1. En el caso 3D tenemos que si {ei } define un sistema de coordenadas (dextr´ogiro) no necesariamente ortogonal, entonces, demuestre que ei =
Hern´ andez & N´ un ˜ez
ej × ek , ei · (ej × ek )
i, j, k = 1, 2, 3 y sus permutaciones c´ıclicas
Universidad de los Andes / Universidad Industrial de Santander
155
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
2. Demuestre que si los volumenes V = e1 · (e2 × e3 ) y V˜ = e1 · (e2 × e3 ), entonces V V˜ = 1 3. ¿Qu´e vector satisface A · ei ? Demuestre que A es u ´nico. 4. Demuestre que gij = ei · ej 5. Si la base {ei } es ortogonal, demuestre que b) g ii = 1/gii (no hay suma). c) |ei | = 1/|ei |.
in ar
a) gij es diagonal.
6. Encuentre el producto vectorial de dos vectores A y B que est´an representados en un sistema de coordenadas oblicuo. 7. Dada la base: a) Encuentre las bases rec´ıprocas {ei }.
re lim
e1 = 4i + 2j + k , e2 = 3i + 3j , e3 = 2k b) Encuentre las componentes de la m´etrica gij , g ij y gji .
c) Encuentre las componentes covariantes y contravariantes del vector A = i + 2j + 3k.
3.4.
Transformaciones, vectores y tensores
Bo rr
ad o
rP
En general las afirmaciones anteriores se pueden generalizar considerando que las coordenadas que definen n un determinado punto, P, expresado en un sistema de coordenadas particular, son x1 , x2 , · · · , x y las 1 2 n coordenadas de ese mismo punto P, expresado en otro sistema de coordenadas es x ˜ ,x ˜ ,··· ,x ˜ . Ambas coordenadas estar´ an relacionadas por 1 x = x1 x ˜1 , x ˜2 , · · · , x ˜n x ˜1 = x ˜1 x1 , x2 , · · · , xn x2 = x2 x ˜1 , x ˜2 , · · · , x ˜n x ˜2 = x ˜2 x1 , x2 , · · · , xn ⇐⇒ .. .. . . n x = xn x ˜1 , x ˜2 , · · · , x ˜n x ˜n = x ˜n x1 , x2 , · · · , xn es decir, x ˜i = x ˜i xj ⇐⇒ xi = xi x ˜j con i, j = 1, 2, 3, · · · , n. Otra vez, s´olo exigiremos (y es bastante) que: 1. Las funciones xi = xi (˜ xm ) y x ˜j = x ˜j (xm ) sean al menos C 2 (funci´on y derivada continua)
2. Que el determinante de la matriz jacobiana ∂ x˜1 ∂ x˜1 ∂x1 ∂x2 i m ∂x (˜ x ) ∂ x˜21 ∂ x˜22 det = 6 0 ⇒ ∂x ∂x j . ∂x ˜ .. .. . ∂ x˜n ∂ x˜n ∂x1
Hern´ andez & N´ un ˜ez
∂x2
sean finito y distinto de cero, esto es ∂x ˜1 · · · ∂x n ∂x ˜2 · · · ∂xn 6= 0 ⇒ xi = xi (˜ xm ) ⇐⇒ x ˜j = x ˜j (xm ) .. . ∂x ˜n ··· ∂xn
Universidad de los Andes / Universidad Industrial de Santander
156
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
Ahora bien, una vez m´ as, derivando y utilizando la regla de la cadena xi = xi x ˜j (xm )
⇒
∂xi ∂ x ˜k ∂xi k ∂xi = = δli ⇒ dxi = d˜ x , l k l ∂x ∂x ˜ ∂x ∂x ˜k
como hemos comprobado para los dos casos particulares estudiados con anterioridad. De ahora en adelante tendremos las siguientes ReDefiniciones: Un conjunto de cantidades a1 , a2 , · · · , an se denominar´ an componentes contravariantes de un vector |ai ∈ V en un punto P de coordenadas x1 , x2 , · · · , xn si
y donde las cantidades
∂x ˜i ∂xk
y
∂xi ∂x ˜k
∂xi ∂ x ˜k = δli k ∂x ˜ ∂xl
re lim
∂xi k ∂x ˜i k a ⇐⇒ ai = a ˜ k ∂x ∂x ˜k
a ˜i =
in ar
1. dada dos bases ortonormales de vectores coordenados. {|e1 i , |e2 i , · · · |en i} y {|˜e1 i , |˜e2 i , · · · |˜en i} se cumple que i i
ei ai = ai |ai = ai |ei i = a ˜i |˜ei i ⇒ ⇒ a ˜i = aj ˜ei |ej i ˜e ai = a ˜ 2. o equivalentemente, bajo una transformaci´on de coordenadas xi = xi x ˜j con i, j = 1, 2, 3, · · · , n., estas cantidades transforman como con
deber´an ser evaluadas en el punto P .
rP
Un conjunto de cantidades {b1 , b2 , · · · , bn } se denominar´ an componentes covariantes de un vector hb| ∈ V∗ en un punto P de coordenadas x1 , x2 , · · · , xn si 1. dada dos bases de formas e1 , e2 , · · · hen | y ˜e1 , ˜e2 , · · · h˜en | se cumple que
i
i hb| ei = bi ˜ hb| = bi e = bi ˜e ⇒ ⇒ ˜bi = bj hej ˜ei . i i ˜ hb| ˜e = b 2. o equivalentemente, bajo una transformaci´on de coordenadas xi = xi x ˜j (con i, j = 1, 2, 3, · · · , n) estas cantidades transforman como
ad o
i ˜i ˜ ˜bk = ∂x bi ⇐⇒ bk = ∂ x bi ∂x ˜k ∂xk
y donde las cantidades:
∂x ˜i ∂xk
y
∂xi ∂x ˜k
con
˜k ∂xi ∂ x = δli ∂x ˜k ∂xl
deber´an ser evaluadas en el punto P .
Bo rr
Generalizamos los conceptos anteriores de la siguiente manera. Dado un conjunto bases para de formas diferenciales {hxm (1)| , hy n (2)|} hemos definido las componentes contravariantes de un tensor i hx (1)| hyj (2)| ↓ ↓ T ij = T • , • ⇐⇒ T ij ≡ T 11 , T 12 , · · · , T 1n , T 21 , T 22 , · · · , T 2n , · · · , T nn
1 2 n ahora, en esta visi´ on, las componentes contravariantes en un punto P de coordenadas x , x , · · · , x , ser´ an aquella que bajo una transformaci´on de coordenadas xi = xi x ˜j (con i, j = 1, 2, 3, · · · , n) transforman como ∂x ˜i ∂ x ˜j km ∂xi ∂xj ˜km ij T˜ij = T ⇐⇒ T = T ∂xk ∂xm ∂x ˜k ∂ x ˜m
Hern´ andez & N´ un ˜ez
con
∂xi ∂ x ˜k = δli , ∂x ˜k ∂xl
Universidad de los Andes / Universidad Industrial de Santander
157
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
donde
∂x ˜i ∂xk
y
∂xi ∂x ˜k
deber´ an ser evaluadas en el punto P .
Esto nos permite construir el caso m´as general.
Si {|ti (1)i , |uj (2)i , · · · , |vk (m)i} y hxe (1)| , y f (2) , · · · , hz g (n)| son bases para los vectores y las formas, respectivamente. Las componentes de un tensor f hz g (n)| |vk (m)i hxe (1)| hy (2)| |ti (1)i |uj (2)i ↓ ↓ ↓ ↓ ↓ ↓ mn Tijk = T ◦ , ◦, , · · · , ◦ ; • , • , · · · , •
nuevamente con:
3.4.1.
∂xi ∂ x ˜k ∂x ˜k ∂xl
= δli y donde las cantidades
Un ejemplo detallado
i···k Te···g =
⇐⇒
∂xi ∂xj ∂ x ˜a ∂x ˜d p···q · · · · · · T ∂x ˜p ∂x ˜q ∂xe ∂xg a···d
re lim
∂x ˜i ∂x ˜j ∂xa ∂xd p···q i···k T˜e···g = · · · · · · T ∂xp ∂xq ∂ x ˜e ∂x ˜g a···d
in ar
1···1 2···1 ···1 n ˜ ···1 n ˜ ···1 1···1 n ˜ ···˜ n que se ser´ an un conjunto de cantidades T1···1 , T1···1 , · · · , T1···1 , T1···1 , T2···1 , · · · , Tm···1 , · · · , Tm··· ˜ ˜ m ˜ denominar´ an las componentes contravariantes y covariantes respectivamente, de un tensor mixto en un punto P de coordenadas x1 , x2 , · · · , xn . Bajo una transformaci´ on de coordenadas xi = xi x ˜j (con i, j = 1, 2, 3, · · · , n) estas cantidades transforman como
∂x ˜i ∂xk
y
∂xi ∂x ˜k
deber´an ser evaluadas en el punto P .
ad o
rP
Ilustremos ahora las transformaciones de tensores bajo cambios de la base del espacio vectorial. Una vez m´ as consideremos dos bases de vectores coordenados {|e1 i , |e2 i , |e3 i} y {|˜e1 i , |˜e2 i , |˜e3 i} para el espacio vectorial R3 La expresi´ on de un determinado tensor en la base ser´a 2 1 3 {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} ⇒ Tji = 2 3 4 1 2 2 Si consideramos una nueva base: |w1 i = |ii, |w2 i = |ii + |ji y |w3 i = |ii + |ji + |ki.
Bo rr
Entonces:
1
|˜ei i = |wi i = A˜ji |ej i ⇐⇒ A˜ji = 0 0
1 1 0
1
1 1
para ese mismo espacio R3 encontraremos una nueva expresi´on para Tji en esa base {wi }. Es decir, necesitamos calcular ∂x ˜k ∂xj i k T˜m = T ∂xi ∂ x ˜m j
k N´ otese que esta nueva base no es ortogonal , w |wi i = 6 δik , con lo cual no se cumplen muchas cosas, k entre ellas: |wk i w 6= 1. Veamos entonces como calcular las expresiones de los siguientes tensores: T˜ij , T˜ij y T˜ij .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
158
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
Para encontrar T˜ji expresamos los vectores base: {|e1 i = |ii , |e2 i = |ji , |e3 i = |ki} en t´erminos de la base {|w1 i , |w2 i , |w3 i}: |ei i = Aji |wj i, esto es: 1 −1 0 |e1 i = |ii = |w1 i 0 1 −1 |e2 i = |ji = − |w1 i + |w2 i ⇐⇒ Aji = 0 0 1 |e3 i = |ki = − |w2 i + |w3 i Recordamos que un vector gen´erico transforma de la siguiente manera
in ar
|ai = aj |ej i = a ˜j |wj i por lo tanto
|ai = aj |ej i = a ˜1 |w1 i + a ˜2 |w2 i + a ˜3 |w3 i = a ˜1 |e1 i + a ˜2 (|e1 i + |e2 i) + a ˜3 (|e1 i + |e2 i + |e3 i) con lo cual
re lim
˜2 + a ˜3 |e3 i |ai = a1 |e1 i + a2 |e2 i + a3 |e3 i = a ˜1 + a ˜2 + a ˜3 |e1 i + a ˜3 |e2 i + a y podemos ver que
∂x1 ∂x ˜1
= 1;
∂x1 ∂x ˜2
= 1;
∂x1 ∂x ˜3
=1
∂x2 ∂x ˜1
= 0;
∂x2 ∂x ˜2
= 1;
∂x2 ∂x ˜3
=1
∂x3 ∂x ˜1
= 0;
∂x3 ∂x ˜2
= 0;
∂x3 ∂x ˜3
=1
rP
a1 = a ˜1 + a ˜2 + a ˜3 i ∂x i k a2 = a ˜2 + a ˜3 ⇒ a = a ˜ ⇒ k ∂x ˜ a3 = a ˜3
Es de hacer notar que dado que la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es ortonormal, se tiene que |ai = aj |ej i = a ˜i |wi i ⇒
i
∂xi e ai = aj ei |ej i = aj δji = ai = a ˜k ei |wk i ⇒ = ei |wk i k ∂x ˜
ad o
Este mismo procedimiento se puede aplicar para expresar el vector |ai como una combinaci´on lineal de los vectores |wj i: |ai = a ˜j |˜ej i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |w1 i + a2 (|w2 i − |w1 i) + a3 (|w3 i − |w2 i)
Bo rr
esto es
a ˜ 1 = a1 − a2 ∂x ˜k i a ˜2 = a2 − a3 ⇒ a ˜k = a ⇒ ∂xi a ˜3 = a3
N´ otese que, como era de esperarse; 1 ∂xi ∂ x ˜k i 0 = δ ⇒ j ∂x ˜k ∂xj 0
Hern´ andez & N´ un ˜ez
1 1 0
1 1 1 0 1 0
∂x ˜1 ∂x1
= 1;
∂x ˜2 ∂x1
= 0;
∂x ˜2 ∂x2
= 1;
∂x ˜3 ∂x1
= 0;
∂x ˜3 ∂x2
= 0;
∂x ˜1 ∂x2
∂x ˜1 ∂x3
= −1;
−1 0 1 1 −1 = 0 0 1 0
∂x ˜2 ∂x3 ∂x ˜3 ∂x3
0 1 0
=0 = −1 =1
0 0 . 1
Universidad de los Andes / Universidad Industrial de Santander
159
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
Con las expresiones matriciales para las transformaciones, estamos en capacidad de calcular, componente a componente, las representaci´on del tensor dado en la nueva base ∂x ˜k ∂xj i k T T˜m = ∂xi ∂ x ˜m j con lo cual ∂x ˜1 ∂xj i T ∂xi ∂x ˜1 j ∂x ˜1 ∂x1 1 T + ∂x1 ∂ x ˜1 1 ∂x ˜1 ∂x1 3 T + ∂x3 ∂ x ˜1 1
= = +
∂x2 1 ∂x3 1 ∂x ˜1 ∂x1 2 ∂x2 2 ∂x3 2 T + T T + T + T + ∂x ˜1 2 ∂x ˜1 3 ∂x2 ∂ x ˜1 1 ∂x ˜1 2 ∂x ˜1 3 ∂x2 3 ∂x3 3 T + T ∂x ˜1 2 ∂x ˜1 3
in ar
T˜11
Es decir =
1 · 1 T11 + 0 T21 + 0 T31 − 1 · 1 T12 + 0 T22 + 0 T32 + 0 1 T13 + 0 T23 + 0 T33
= T11 − T12 = 2 − 2 = 0 Del mismo modo = = +
∂x ˜1 ∂xj i T ∂xi ∂x ˜2 j ∂x ˜1 ∂x1 1 T + ∂x1 ∂ x ˜2 1 ∂x ˜1 ∂x1 3 T + ∂x3 ∂ x ˜2 1
resultando T˜21
=
1 · 1 T11 + 1 T21 + 0 T31 − 1 · 1 T12 + 1 T22 + 0 T32 + 0 1 T13 + 1 T23 + 0 T31 T11 + T21 − T12 + T22 = (2 + 1) − (2 + 3) = −2
ad o
=
∂x2 1 ∂x3 1 ∂x ˜1 ∂x1 2 ∂x2 2 ∂x3 2 T + T T + T + T + ∂x ˜2 2 ∂x ˜2 3 ∂x2 ∂ x ˜2 1 ∂x ˜2 2 ∂x ˜2 3 ∂x2 3 ∂x3 3 T + T ∂x ˜2 2 ∂x ˜2 3
rP
T˜21
re lim
T˜11
Bo rr
Se puede continuar t´ermino a t´ermino (el lector debe de terminar de hacer los c´alculos) o realizar la multiplicaci´ on de las matrices provenientes de la transformaci´on de componentes de tensores. Vale decir k j 2 1 3 1 1 1 0 −2 −3 1 −1 0 ∂ x ˜ ∂x k 1 −1 2 3 4 0 1 1 = 1 2 4 ⇔ 0 T˜m = Tji ∂xi ∂x ˜m 0 0 1 1 2 2 0 0 1 1 3 5
Hay que resaltar el especial cuidado que se tuvo en la ubicaci´on de las matrices para su multiplicaci´ on. x ˜k ∂xj ∂x ˜k k i Si bien en la expresi´ on T˜m = ∂∂x T las cantidades son n´ u meros y no importa el orden con el i ∂x j ˜m ∂xi cual se multipliquen, cuando se escriben como matrices debe respetarse la “concatenaci´on interna de k ´ındices”. Esto es, cuando querramos expresar T˜m como una matriz, donde el ´ındice contravariante k indica filas y el ´ındice covariante m las columnas, fijamos primero estos ´ındices y luego respetamos la
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
160
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
“concatenaci´ on de ´ındices” covariantes con los contravariantes. Esta es la convenci´on para expresar la multiplicaci´ on de matrices en la notaci´on de ´ındices4 . Esto es k ∂xj ∂x ˜ ∂x ˜k ∂xj i k i k ˜ ˜ T ⇒ Tm = Tj Tm = ∂xi ∂ x ˜m j ∂xi ∂x ˜m k
x ˜ i Ahora los objetos ∂∂x i , Tj y representaci´ on matricial.
∂xj ∂x ˜m
pueden ser sustituidos (en sus puestos correspondientes) por su
in ar
Con lo cual hemos encontrado la respresentaci´on matricial T˜ij de las componentes del tensor T en la base {|w1 i , |w2 i , |w3 i}; 1 T˜1 T˜21 T˜21 0 −2 −3 2 4 . T˜ij = T˜12 T˜22 T˜32 = 1 3 3 3 1 3 5 T˜1 T˜2 T˜3
re lim
Para encontrar la expresi´ on de T˜ij (T˜ij = g˜ik T˜jk ), requerimos las componentes covariantes y contravariantes del tensor m´etrico g˜ik que genera esta base. Para ello recordamos que para una base gen´erica, {|wj i}, no necesariamente ortogonal, de un espacio vectorial con producto interno, podemos definir la expresi´ on de un tensor que denominaremos tensor m´etrico como ∂xm ∂xn 0 gmn ≡ hem |wi i hen |wj i gmn un tensor del tipo ⇒ g˜ij = 2 ∂x ˜i ∂ x ˜j Recordemos que la m´etrica covariante gij de una base ortonormal {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es:
Es decir:
1 ⇐⇒ 0 0
0 0 ; 1
g ij
1 ⇐⇒ 0 0
0 1 0
0 0 ; 1
gji
1 ⇐⇒ 0 0
0 1 0
0 0 ; 1
ad o
gij
0 1 0
rP
g11 = 1 , g22 = 1 , g33 = 1 , g12 = g21 = g13 = g31 = g23 = g32 = 0 .
Bo rr
Con lo cual, para el caso de la base gen´erica no ortonormal {|wj i} tenemos dos formas de calcular las componentes covariantes y contravariantes del tensor m´etrico. La primera es la forma directa
2 g˜11 = hen |w1 i hem |w1 i gnm = e1 |w1 i e1 |w1 i + e2 |w1 i e2 |w1 i + e3 |w1 i e3 |w1 i = e1 |w1 i = 1 n m 1 1 2 2 3 3 1 g˜12 = he |w1 i he |w2 i gnm = e |w1 i e |w2 i + e |w1 i e |w2 i + e |w1 i e |w2 i = e |w1 i e1 |w2 i = 1 g˜13 = hen |w1 i hem |w3 i gnm = e1 |w1 i e1 |w3 i + e2 |w1 i e2 |w3 i + e3 |w1 i e3 |w3 i = e1 |w1 i e1 |w3 i = 1
g˜21 = hen |w2 i hem |w1 i gnm = e1 |w2 i e1 |w1 i + e2 |w2 i e2 |w1 i + e3 |w2 i e3 |w1 i = e1 |w2 i e1 |w1 i = 1 1 2 2 3 3 g˜22 = hen |w2 i hem |w2 i gnm e1 |w
=
22i e |w2 i + e |w2 i e |w2 i + e |w2 i e |w2 i ⇒ 1 1 2 = e |w2 i e |w2 i e |w
21i e |w
21i = 2 2
g˜23 = hen |w2 i hem |w3 i gnm = e |w i e |w3 i + e |w2 i e2 |w3 i + e3 |w2 i e3 |w3 i ⇒ 2
= e1 |w2 i e1 |w3 i + e2 |w2 i e2 |w3 i = 2
4 Quiz´ a una forma de comprobar si los ´ındices est´ an bien concatenados se observa si se “bajan” los ´ındices contravariantes pero se colocan antes que los covariantes. Esto es, Tji → Tij . As´ı, la multiplicaci´ on de matrices queda representada de la siguiente forma: Cji = Aik Bjk → Cij = Aik Bkj y aqu´ı es claro que ´ındices consecutivos est´ an “concatenados” e indican multiplicaci´ on.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
161
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
g˜31 = hen |w3 i hem |w1 i gnm = e1 |w3 i e1 |w1 i + e2 |w3 i e2 |w1 i + e3 |w3 i e3 |w1 i = e1 |w3 i e1 |w1 i = 1 1 1 2 2 3 3 g˜32 = hen |w3 i hem |w2 i gnm =
2e |w3 i 2e |w2 i + e |w3 i e |w2 i + e |w3 i e |w2 i ⇒ 1 1 = e |w3 i e |w2 i + e |w3 i e |w2 i = 2
g˜33 = hen |w3 i hem |w3 i gnm = e1 |w3 i e1 |w3 i + e2 |w3 i e2 |w3 i + e3 |w3 i e3 |w3 i ⇒
= e1 |w3 i e1 |w3 i + e2 |w3 i e2 |w3 i + e3 |w3 i e3 |w3 i = 3 g˜ij ⇒ g˜11 = 1 , g˜12 = 1 , g˜13 = 1 , g˜21 = 1 , g˜22 = 2 , g˜23 = 2 , g˜31 = 1 , g˜32 = 2 , g˜33 = 3 .
N´ otese que tambi´en podr´ıamos haber 1 ∂xj ∂xi 1 g ⇒ g˜km = ij ∂x ˜k ∂x ˜m 1
procedido, y en 0 0 1 1 0 0 1 1 0
in ar
Consecuentemente podemos “arreglarlo como una matriz”5 de la siguiente forma 1 1 1 2 −1 0 −1 2 −1 g˜ij ≡ g˜ji ⇐⇒ 1 2 2 ⇒ g˜ij ≡ g˜ji = (˜ gij ) ⇐⇒ −1 1 2 3 0 −1 1
t´erminos “matriciales”, de la siguiente forma: 0 0 1 1 1 1 1 1 1 0 0 1 1 = 1 2 2 0 1 0 0 1 1 2 3
g˜km =
∂xj ∂xi gij k ∂x ˜ ∂x ˜m
−→
re lim
Nuevamente es bueno aclarar que para conservar la convenci´on de ´ındices y poder representar la multiplicaci´ on de matrices, los ´ındices deben estar consecutivos, por lo tanto, hay que trasponer la representaci´ on matricial para multiplicarlas. Es por eso que en el c´alculo anterior aparece como primera matriz la transpuesta de la u ´ltima. El c´alculo se debe hacer como se muestra a continuaci´on: g˜km = Πik gij Πjm
−→
¯ ki gij Πjm . g˜km = Π
ad o
rP
Finalmente, estamos en capacidad de obtener las representaciones matriciales para los tensores: T˜ij , T˜ij , T˜ij . T 0 1 1 0 −2 −3 j j i T 2 4 = −2 2 3 T˜i = (T˜j ) ⇐⇒ T˜i = 1 −3 4 5 1 3 5 1 1 1 0 −2 −3 2 3 6 n 2 4 = 4 8 15 T˜km = g˜kn T˜m ⇐⇒ T˜km = 1 2 2 1 1 2 3 1 3 5 5 11 20 0 −2 −3 2 −1 0 2 −1 −1 n mk 2 4 −1 2 −1 = 0 −1 2 . T˜kn = T˜m g˜ ⇐⇒ T˜kn = 1 1 3 5 0 −1 1 −1 0 2
Bo rr
Quisi´eramos ejemplificar una forma “r´apida y furiosa” (pero sucia) de calcular la m´etrica generada por una determinada base gen´erica. La idea es que, violentando toda nuestra notaci´on e idea de tensores, construimos la m´etrica a partir de los vectores base defini´endola como g˜ij = hwi |wi i, de esta manera: hw1 |w1 i hw1 |w2 i hw1 |w3 i g˜ij = hw2 |w1 i hw2 |w2 i hw2 |w3 i hw3 |w1 i hw3 |w2 i hw3 |w3 i hi |ii hi| [|ii + |ji] hi| [|ii + |ji + |ki] 1 1 1 = 1 2 2 [hi| + hj|] |ii [hi| + hj|] [|ii + |ji] [hi| + hj|] [|ii + |ji + |ki] = [hi| + hj| + hk|] |ii [hi| + hj| + hk|] [|ii + |ji] [hi| + hj| + hk|] [|ii + |ji + |ki] 1 2 3
5 Recordemos
que hemos insistido que las matrices representan tensores mixtos
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
162
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
Dejamos al lector, la reflexi´ on si esta forma “r´apida de calcular la m´etrica” a partir de unos vectores base es general o, si en su defecto, es una coincidencia u ´nicamente v´alida para este caso.
Practicando con Maxima:
in ar
Maxima contiene un paquete para manipular componentes de tensores: ctensor. La manipulaci´ on en componentes se realiza en t´erminos de matrices. La m´etrica se almacena en la matriz lg y la m´etrica inversa se obtiene y almacena en la matriz ug. En el ejemplo anterior se especificaba las componentes de un tensor en coordenadas cartesianas, esto es: 2 1 3 To = Tji = 2 3 4 en la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} 1 2 2 = |ii + |ji + |ki. Entonces
re lim
Para luego representarlo en la nueva base: |w1 i = |ii, |w2 i = |ii + |ji y |w3 i necesitamos calcular ∂x ˜k ∂xj i k T ⇒ Tn = αβTo = T˜m = ∂xi ∂ x ˜m j Como vimos en el ejemplo anterior: 1 −1 0 1 1 k i ∂x ˜ ∂x , 0 0 1 1 −1 α= β = = = ∂xi ∂x ˜k 0 0 1 0 0
1 1 1
Respetando la “la concatenaci´ on interna de ´ındices” podemos realizar la multiplicaci´on de matrices.
Bo rr
ad o
rP
(%i1) To:matrix([2,1,3],[2,3,4],[1,2,2]); 2 1 3 ( %o1) 2 3 4 1 2 2 (%i2) alpha:matrix([1,-1,0],[0,1,-1],[0,0,1]); 1 −1 0 ( %o2) 0 1 −1 0 0 1 (%i3) beta:matrix([1,1,1],[0,1,1],[0,0,1]); 1 1 1 ( %o3) 0 1 1 0 0 1 (%i4) Tn:alpha.To.beta; 0 −2 −3 4 ( %o4) 1 2 1 3 5 Una vez que hemos calculado el nuevo tensor Tn = T˜ij en la nueva base, podemos calcular: T˜ij , T˜ij . Pero podemos utilizar la m´etrica para las coordenadas nuevas y con el paquete ctensor hacer las respectivas contracciones.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
163
3.4. TRANSFORMACIONES, VECTORES Y TENSORES
(%i5) load(ctensor)$ (%i6) ct_coordsys(cartesian3d)$ Introducimos la m´etrica g˜ik
in ar
(%i7) lg:matrix([1,1,1],[1,2,2],[1,2,3]); 1 1 1 ( %o7) 1 2 2 1 2 3 Para tener la m´etrica inversa g˜ik escribimos:
(%i9) ug; 2 ( %o9) −1 0
−1 0 2 −1 −1 1 ˜ Para calcular Tij = g˜ik T˜jk escribimos:
−1 2 2
ad o
(%i11)Tn.ug; 2 −1 ( %o11) 0 −1 −1 0
rP
(%i10)lg.Tn; 2 3 6 ( %o10) 4 8 15 5 11 20 Y para calcular T˜ij = T˜ki g˜kj escribimos:
re lim
(%i8) cmetric()$
Es posible, y a manera de completar esta primer acercamiento con la librer´ıa de tensores, calcular la m´etrica a partir de una transformaci´ on de coordenadas, como vimos en la Secci´on 3.3.4. (%i1) kill(all)$
(%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]]);
Bo rr
(%i3) cmetric()$
El tensor m´etrico gij
(%i4) lg:trigsimp(lg); 1 0 0 0 ( %o4) 0 r2 2 2 0 0 r sin θ
Y la m´etrica inversa: Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
164
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS
(%i5) trigsimp(ug); 1 0 0 0 ( %o5) 0 r12 1 0 0 r2 sin 2θ
3.5.
Vectores, tensores y espacios pseudo-euclideanos
En resumen
⇒
0
ad o
0
rP
re lim
in ar
k Hasta este punto ha sido casi est´etica la descripci´on de formas representadas por bra: ha| ≡ a e , en las k
k cuales sus componentes tienen sub´ındices, mientras que los vectores bases, e , deben tener super´ındices. Quiz´ a el ejemplo m´ as emblem´ atico y simple, donde se observa la diferencia entre formas (bras) y vectores (kets) es el caso de los espacios minkowskianos. Estos espacios, tambi´en llamados pseudoeuclideanos, presentan una variante en la definici´ on de producto interno, de tal forma que: hx| xi no necesariamente es positivo, y si hx| xi = 0 no necesariamente implica que |xi ≡ |0i. La consecuencia inmediata es que la definici´on de norma N (|vi i) ≡ k|vi ik, que vimos anteriormente, no necesariamente es positiva. Vale decir que tendremos vectores con norma positiva, k|vi ik > 0, pero tambi´en vectores con norma negativa o cero: k|vi ik ≤ 0. Con lo cual la definici´on de distancia, entendida como la norma de la resta de vectores, d (|xi , |yi) ≡ k|xi − |yik, tampoco ser´a necesariamente positiva. Esto es, que las distancias ser´ an negativas, positivas o nulas: d (|xi , |yi) < 0, d (|xi , |yi) = 0 y d (|xi , |yi) > 0. Si extendemos la noci´ on de distancia para que albergue las posibilidades de distancias nula y negativas, entonces la definici´ on del tensor m´etrico para espacios pseudo-euclideanos debe cambiar tambi´en. 0
⇒
0
Bo rr
Este tipo de espacios luce como un excentricidad m´as de los matem´aticos y una curiosidad de estudio es ver como organizar los conceptos que aprendimos de los espacios euclidianos y extenderlos a otros espacios. Quiz´ a se hubiera quedado as´ı, como una curiosidad matem´atica si la F´ısica no hubiera sacado partido de estas particularidades para describir el comportamiento de la naturaleza. En la pr´oxima secci´on analizaremos el caso de espacios minkowskianos de dimensi´on 4: M4 .
3.5.1.
Espacios minkowskianos
Consideremos un espacio tetradimensional expandido por una base ortonormal {|e0 i , |e1 i , |e2 i , |e3 i}. Los 3 vectores {|e1 i , |e2 i , |e3 i} corresponden con la base can´onica de R0 . 1 2 3 4 Este espacio vectorial M tendr´ a asociado un espacio dual e , e , e , e a trav´es de una m´etrica
ηαβ heα | ⊗ eβ ≡ ηβα eβ ⊗ heα | y η αβ |eα i ⊗ |eβ i ≡ η βα |eβ i ⊗ |eα i
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
165
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS
con α, β = 0, 1, 2, 3 y donde: η00 = η 00 = 1, η11 = η 11 = −1, η22 = η 22 = −1, η33 = η 33 = −1 (con ηαβ = 0 para α 6= β), con lo cual se dice que η tiene signo −2.6 Tal y como presentamos en (3.2.6), podemos asociar componentes covariantes y contravariantes a trav´es de la m´etrica de la forma
ηαβ heα | ⊗ eβ |ai = aσ ηαβ heα | ⊗ eβ |eσ i = aσ ηαβ eβ |eσ i heα | = aσ ηαβ δσβ heα | = aσ ηασ heα | ≡ aα heα | Lo intereante del caso es que aσ ησα = aα
⇒
a0 = a0 ,
a1 = −a1 ,
a2 = −a2 ,
a3 = −a3 .
in ar
Es decir, en este caso, porque la m´etrica tiene signo −2, bajar los ´ındices espaciales (µ = i = 1, 2, 3) es cambiar el signo a las componentes7 . Dicho con m´as propiedad, las componentes espaciales contravariantes (µ = i = 1, 2, 3) tienen signos contrarios a las componentes covariantes. De la misma manera que se expuso anteriormente en (3.2.6) ha| η αj |eα i ⊗ |eβ i = ha| η αβ |eα i ⊗ |eβ i = η αβ ha |eα i ⊗ |ej i = aσ η αj heσ |eα i |eβ i = aσ η σβ |eβ i ≡ aβ |eβ i
re lim
y otra vez, aσ = η σα aα , y habr´ıa cambio de signo cuando se bajan los ´ındices 1, 2, 3 para la m´etrica con signo −2 que hemos considerado anteriormente. Del mismo modo se “suben” y se “bajan” ´ındices para componentes de tensores η αβ Pαγσ ≡ P βγσ
Por su parte, el producto interno de dos vectores en un espacio de Minkowski involucra, de manera natural, la m´etrica del espacio. Esto es hx |yi = hy |xi = xα yα = y α xα = xα y β ηαβ = xα yβ η αβ = x0 y 0 −x1 y 1 −x2 y 2 −x3 y 3 = x0 y0 −x1 y1 −x2 y2 −x3 y3
rP
Una vez m´ as, la norma de un vector, tambi´en incluir´a al tensor m´etrico: 2
k|xik = hx |xi = xα xβ heα |eβ i = xα xα = xα xβ η αβ = xα xβ ηαβ = x0 x0 − x1 x1 − x2 x2 − x3 x3
con: dx2 = dx1
+ dx2
2
2 + dx3 .
Un toque de Relatividad Especial
Bo rr
3.5.2.
2
ad o
El caso m´ as conocido lo constituye la norma de un desplazamiento infinitesimal, en un espacio tetradimensional. Para una base gen´erica, {|uβ i} (no necesariamente ortogonal) de un espacio vectorial con producto interno. El desplazamiento infinitesimal puede expresarse como 2 (ds) ≡ hdr |dri = (d˜ xα h˜ uα |) d˜ xβ |˜ uβ i = d˜ xβ d˜ xβ = η˜αβ d˜ xα d˜ xβ = dt2 − dx2 ,
La genialidad de Einstein fue haber entendido que ten´ıa que incorporar el tiempo como otra coordenada m´ as, vale decir, que los eventos que ocurren en la naturaleza est´an etiquetados por cuatro n´ umeros: (t, x, y, z) ≡ (x0 , x1 , x2 , x3 ). El r´ apido desarrollo de la comprensi´on de las ideas relativistas muestra que estaban en el ambiente de la ´epoca de comienzos de 1900, y una vez m´as la simplicidad como prejuicio se impuso. Solo dos suposiciones est´ an en el coraz´on de la Relatividad Especial:
6 Realmente el signo −2 es una convenci´ on, se puede tambi´ en considerar ηµν de signo +2, con η00 = −1, η11 = +1, η22 = +1, η33 = +1. 7 Otra vez, para la m´ etrica con signo −2, el cambio de signo entre componentes covariantes y contravariantes se da para la componente, µ = 0
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
166
in ar
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS
re lim
Figura 3.3: Cono de luz, espacio-tiempo y eventos
1. El principio de la Relatividad: Las leyes de la F´ısica son id´enticas en todos los sistemas de referencia inerciales. 2. La universalidad de la velocidad de la luz en el vac´ıo: La velocidad de la luz en el vac´ıo es siempre la misma, y es independiente de la velocidad de la fuente de luz respecto a un observador en particular.
Bo rr
ad o
rP
En t´erminos matem´ aticos estas dos audaces suposiciones se concretan en una simple suposici´on matem´ atica: el producto interno entre dos elementos de este espacio tetradimensional, debe conservarse para una familia de vectores base. Luego vendr´ a la asociaci´on de observadores f´ısicos -o sistemas de coordenadascon los miembros de la familia de vectores base, pero la idea es la misma que planteamos para los espacios euclideanos en 2.2.3: el producto interno -y consecuentemente, la norma de los elementos del espacio vectorial y la distancia entre ´estos - es el mismo independientemente de la base en la cual expanda el espacio vectorial. La primera de las interpretaciones es el c´omo representamos los eventos en el espacio-tiempo. Supongamos el caso unidimensional en el espacio, vale decir los eventos ocurren en un punto de la recta real x = x1 y en un tiempo determinado, por lo tanto podremos asociar al evento un vector Evento → (x0 , x1 ). A continuaci´ on nos preguntamos que representan las distancias (espacio-temporales) entre estos dos eventos. Tal y como vimos, las distancias entre dos elementos de un espacio vectorial puede ser construida a partir de la norma (de la resta de coordenadas) y la norma a partir del producto interno: < 0 conexi´on tipo espacio: eventos desconectados causalmente = 0 conexi´on tipo luz: posible conexi´on causal a trav´es de rayos de luz || |y − xi ||2 ≡ hy − x |y − xi > 0 conexi´on tipo tiempo: posible conexi´on causal Con esta primera interpretaci´ on de los valores de la norma y la visi´on tetradimensional, el espacio-tiempo, dividido en pasado, presente y futuro, se puebla de eventos que pueden estar o n´o relacionados causalmente tal y como muestra la Figura 3.3.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
167
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS
La preservaci´ on del producto interno para todos los observadores8 era intuitiva en los espacios euclideanos y, al mantenerla para los pseudo-euclideanos nos traer´a consecuencias nada intuitivas en nuestra idea intuitiva de “realidad”. Para el caso de la formulaci´on de la Relatividad Especial, a˜ nadimos un supuesto m´ as: las componentes del tensor m´etrico son invariantes bajo transformaciones de coordenadas, esto es g [|eµ i , |eν i] ≡ g [|˜eµ i , |˜eν i]
⇔
ηαβ = η˜αβ ,
con {|eµ i} y {|˜eµ i}
dos bases que se conectan a trav´es de una transformaci´on de coordenadas xµ = xµ (˜ xα ) ⇔ x ˜µ = x ˜µ (xα ). Construyamos el tipo de transformaci´ on de coordenadas que mantiene estos dos supuestos:
in ar
1. El producto interno de dos vectores es independiente de la base que expande el espacio vectorial. 2. Las componentes del tensor m´etricos son invariantes bajo transformaciones de coordenadas.
Si el producto interno de dos vectores es independiente de la base que expanda el espacio vectorial, tendremos hx |yi = h˜ x |˜ y i ⇔ xα yα = x ˜α y˜α ⇔ xα y β ηαβ = x ˜α y˜β η˜αβ ,
a ˜i =
∂x ˜i k a ∂xk
⇒
xα yα = x ˜α y˜α
con lo cual concluimos que ηαβ =
⇔
re lim
y como lo vimos en 3.4 las componentes de vectores, bajo cambio de coordenadas, transforman como xα y β ηαβ =
∂x ˜ν α ∂ x ˜µ β ˜ν ∂ x ˜µ α β ∂x x y η ˜ = x y η˜νµ , νµ ∂xα ∂xβ ∂xα ∂xβ
∂x ˜ν ∂ x ˜µ ∂x ˜ν ∂ x ˜µ η˜νµ ≡ ηνµ . α β α ∂x ∂x ∂x ∂xβ
rP
Si derivamos respecto a xγ tendremos que 2 ν ˜µ ∂x ˜ν ∂ 2 x ˜µ ∂ x ˜ ∂x . 0 = ηνµ + ∂xα ∂xγ ∂xβ ∂xα ∂xβ ∂xγ
ad o
Como la cantidad dentro del par´entesis se anula podemos jugar con ´esta para descubrir algunas consecuencias ocultas. Es de hacer notar que esa cantidad tiene tres ´ındices libres y por lo tanto son 64 ecuaciones que se anulan. Eso significa que le podemos a˜ nadir y sustraer cualesquieras otras con los ´ındices intercambiados. Supongamos que al par´entesis anulado le a˜ nadimos una con los ´ındices α y γ intercambiados y, adicionalmente, le sustraemos una con los ´ındices γ y β intercambiados. Claramente, estamos a˜ nadiendo y sustrayendo ceros. 2 ν ∂ x ˜ ∂x ˜µ ∂x ˜ν ∂ 2 x ˜µ ∂2x ˜ν ∂ x ˜µ ∂x ˜ν ∂ 2 x ˜µ ∂2x ˜ν ∂ x ˜µ ∂x ˜ν ∂ 2 x ˜µ 0 = ηνµ + + + − − . ∂xα ∂xγ ∂xβ ∂xα ∂xβ ∂xγ ∂xγ ∂xα ∂xβ ∂xγ ∂xβ ∂xα ∂xα ∂xβ ∂xγ ∂xα ∂xγ ∂xβ
Bo rr
Con este truco, vemos que el u ´ltimo t´ermino anula el segundo y el pen´ ultimo el cuarto, de forma y manera que nos queda ∂2x ˜ν ∂ x ˜µ 0 = 2ηνµ α γ β , ∂x ∂x ∂x Con lo cual la u ´nica posibilidad que nos queda es 0=
8 Estamos
∂2x ˜ν ⇒ x ˜ν = Λνµ xµ + aν α ∂x ∂xγ
con Λνµ y aν constantes .
suponiendo que observadores, sistemas de coordenadas y sistemas de referencia son conceptos equivalentes.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
168
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS
Estas transformaciones lineales se conocen como las transformaciones, inhomog´eneas, de Lorentz o tambi´en las transformaciones de Poincar´e. Estas transformaciones forman un grupo y, uno de los posibles subgrupos lo constituye el conjunto de transformaciones propias de Lorentz de la forma: Λ00 = 1,
Λi0 = Λ0j = 0,
y
Λij = Rji
con i, j = 1, 2, 3;
y
donde Rji es una matriz de rotaci´ on. Supongamos el caso m´ as sencillo de este grupo de transformaciones: aν = 0. Expl´ıcitamente hemos identificado una transformaci´ on de la forma
la cual, por construcci´ on, deja invariante el intervalo tetradimensional ds2 = dt2 − dx1 − dx2 − dx3 = ηµν dxµ dxν ,
in ar
0 α 1 α 2 α 3 x ˜α = Λα 0 x + Λ 1 x + Λ2 x + Λ3 x ,
re lim
y con ηµν el tensor m´etrico. Es inmediato demostrar que este tipo de transformaciones deja invariante el intervalo. Primero, notemos que µ η˜µν = Λµα Λνβ η αβ ⇒ η µν ηνγ = δγµ = Λµα Λνβ η αβ ηνγ ⇒ Λµα Λα γ = δγ entonces, como d˜ xµ = Λµα dxα
⇒
d˜ s2 = η˜µν d˜ xµ d˜ xν ≡ ηµν Λµα dxα Λνβ dxβ = ηαβ dxα dxβ = ds2 .
rP
Para construir una de las expresiones m´as utilizadas del grupo de Lorentz consideramos la siguiente situaci´ on: un observador, x ˜µ , ve moverse una part´ıcula con una velocidad v, mientras que un segundo observador, xµ , la percibe en reposo. Entonces, para el observador que registra la part´ıcula en reposo dxi = 0 dt˜ = Λ00 dt µ µ α d˜ x = Λα dx ⇒ con i = 1, 2, 3. d˜ xi = Λiα dxα = Λi0 dt Ahora bien, como
y
d˜ xi d˜ x ⇒ vi = ⇒ Λi0 = v i Λ00 , dt˜ dt˜
ad o
v=
η˜αβ = Λµα Λνβ ηµν ⇒ 1 = Λµ0 Λν0 ηµν = Λ00
2
− Λ10
2
− Λ20
2
− Λ30
2
,
con una soluci´ on de la forma Λi0 = γ v i
donde γ = p
Bo rr
Λ00 = γ ,
1
1−
(v)2
≡√
1 ≡r 1 − v i vi
1 h i, 2 2 2 1 − (v 1 ) + (v 2 ) + (v 3 )
los otros t´erminos Λij no quedan un´ıvocamente determinados porque est´a de por medio la arbitrariedad de una rotaci´ on Rji . Por ello, una selecci´ on arbitraria pero razonable de todos los t´erminos Λij es Λij = δji + v i vj
γ−1 γ−1 ≡ δji + v i vj k . (v)2 v vk
De esta forma quedan determinados todos los elementos de las transformaciones de Lorentz. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
169
3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS
Los observadores lorentzianos son los equivalentes a los observadores galileanos en las teor´ıas newtonianas: son observadores que se mueven uno respecto al otro con una velocidad constante y, desempe˜ nan el mismo papel que los observadores inerciales. Quiz´a la consecuencia m´as impactante de la necesidad de vincular mediciones de distintos observadores lorentzianos a trav´es de transformaciones de Lorentz, lo ilustra la evoluci´ on distinta del tiempo medido por los diferentes observadores. Un observador en reposo respecto a un reloj, ve avanzar el tiempo con tic separados dt = ∆t ya que su reposo respecto al reloj implica dxi = 0, por lo tanto la separaci´ on espacio temporal ser´a: ds2 = dt2 − (dxi )2 = (∆t)
2
⇒ dt = ∆t ,
mientras que un segundo observador tendr´a el mismo elemento de l´ınea pero expresado como
in ar
∆t , d˜ s2 = dt˜2 − (d˜ xi )2 = 1 − v2 dt˜ ⇒ dt˜ = √ 1 − v2
y claramente indica que tiempo evoluciona m´as lento para relojes en movimento.
3.5.3.
Ejercicios
re lim
1. Si Aijk es un tensor covariante de orden 3 y B lmno un tensor contravariante de orden 4, pruebe que Aijk B jkno es un tensor mixto de orden 3. 2. En el espacio euclideano 3D y en coordenadas cartesianas no distinguimos entre vectores y uno-formas debido a que sus componentes transforman de la misma manera. Demuestre que
Bo rr
ad o
rP
a) a ˜i = Λij aj ∧ ˜bj = Λij bi son la misma transformaci´on si la matriz Λij es igual a la transpuesta de su inversa, es decir, si es ortogonal. ˜ :x b) Considere dos observadores O : x, y ↔ x1 , x2 y O ˜, y˜ ↔ x ˜1 , x ˜2 y sus sistemas de coordenadas asociados. 1) Considere la siguiente transformaci´on de coordenadas de Galileo √ √ √ √ 2 1 2 2 2 1 2 2 2 1 1 x − x y x ˜ = x + x x ˜ =V t+ 2 2 2 2 ˜ y t al tiempo (par´ametro con V 1 una constante que representa la velocidad relativa entre O− O de esta transformaci´ on). A continuaci´on suponga una part´ıcula que describe un movimiento respecto a O siguiendo una trayectoria recta, esto es x2 = αx1 , donde α es una constante. ˜ respecto a sus coordenadas (˜ Encuentre c´ omo lo describir´ıa el observador O x1 , x ˜2 ). 2) Considere ahora la generalizaci´on de la transformaci´on de coordenadas anterior √ √ √ √ 2 1 2 2 2 1 2 2 1 1 2 2 x ˜ =V t+ x − x y x ˜ =V t+ x + x 2 2 2 2 ˜ y t al tiempo. Muestre que con V 1 y V 2 las componentes de una velocidad relativa entre O − O la norma de cualquier vector queda invariante respecto a una transformaci´on de coordenadas como la anterior y encuentre la matriz de transformaci´on.
3. Dado un espacio minkowskiano y un observador O que describe los eventos en el espacio-tiempo respecto a un sistema de coordenadas {xα } donde α = 0, 1, 2, y η = diag[−1, 1, 1] el tensor m´etrico. Considere entonces la siguiente transformaci´ on de coordenadas x ˜0 = γ(x0 − βx1 ) ,
Hern´ andez & N´ un ˜ez
x ˜1 = γ(x1 − βx0 )
y
x ˜2 = x2
con γ = p
1 1 − β2
Universidad de los Andes / Universidad Industrial de Santander
170
3.6. ESPACIOS DE FUNCIONES
˜ Donde β = v/c es la velocidad relativa entre O y O.
in ar
a) Otra vez suponga que una part´ıcula describe una linea recta respecto a O: x2 = αx1 , con α ˜ respecto a sus igual a una constante. Esta vez encuentre c´omo lo describir´ıa el otro observador O coordenadas (˜ x0 , x ˜1 , x ˜2 ). α ˜ b) Encuentre la expresi´ on para la transformaci´on de coordenadas, ∂∂xx˜β = Λα on de β (transformaci´ α Lorentz) entre estos sistemas relativistas y muestre como la norma: x xα = xα xβ ηαβ , de cualquier vector se conserva. c) Considere el Tensor de Maxwell definido como 0 Ex Ey −1 0 0 0 B z otra vez con ηµν = 0 1 0 F µα = −E x y z −E −B 0 0 0 1 donde E = (E x , E y ) y B = (B x , B y ) son los campos el´ectricos y magn´eticos (respectivamente) medidos por un observador O. Si un observador mide un campo el´ectrico E = E x i y ning´ un campo magn´etico. ¿Cu´ ales campos, Fµα medir´a otro observador que viaja con una velocidad β = vi?
∂ E = 4πJ , ∂t se pueden escribir como ∇×B−
∇×E−
∂ µν F ≡ F µν ,ν = 4πJ µ , ∂xν
Espacios de funciones
∂ B = 0, ∂t
∇ · B = 0,
donde J µ = (ρ, J 1 , J 2 )
y ∇ · E = 4πρ
y J = (J 1 , J 2 ) .
rP
3.6.
re lim
4. Muestre que las ecuaciones de Maxwell
3.6.1.
ad o
Los conceptos de espacios vectoriales discretos que hemos estudiado hasta ahora, finitos o infinitos, se pueden extender a espacios de funciones, en donde los vectores del espacio vectorial y las bases son funciones {|Fn (x)i}. La generalizaci´ on de bases discretas a continua se hace transformando el ´ındice de las sumatorias en la variable de una integral, de manera que los ´ındices se convierten en variables continuas definidas en intervalos finitos o infinitos. Como primer paso para el estudio de estos espacios introduciremos un nuevo objeto matem´ atico, que como veremos m´ as adelante, es de gran importancia y utilidad.
La funci´ on delta de Dirac
Bo rr
Recordemos que la delta de Kronecker δij que definimos con anterioridad es una cantidad que toma valores discretos: δij = 1 si i = j y δij = 0 si i 6= j. Es posible construir una extensi´on de este objeto matem´ atico para que los ´ındices puedan tomar cualquier valor real. Esto nos permite definir la “funci´ on” : r δ(x) → ∞ si x → 0 n −nx2 δ(x) = l´ım e ⇒ n→∞ π δ(x) = 0 si x 6= 0 Por tener este comportamiento tan particular no se le suele llamar funci´on, sino una distribuci´ on, y si el punto del m´ aximo es un punto diferente de x = 0 podemos escribir: r n −n(x−x0 )2 δ(x − x0 ) = l´ım e n→∞ π
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
171
3.6. ESPACIOS DE FUNCIONES
Veamos la siguiente sucesi´ on de funciones gaussianas: r n −nx2 δn (x) = e , π tal que Z
∞
δn (x)dx = 1 , n > 0 −∞
in ar
A medida que el par´ ametro n aumenta su valor, la curva gaussiana δn (x) ser´ a cada vez m´ as alta y m´ as angosta, y si n → ∞ la curva ser´ a entonces infinitamente m´ as alta e infinitamente m´as angosta, pero siempre conservando que el ´area bajo la curva ser´ a igual a la unidad.
re lim
Figura 3.4: δn (x) para tres valores diferentes de n. donde x0 es el punto donde la gaussiana alcanza su valor m´aximo. En general, este proceso de limite puede aplicarse a funciones cuya area bajo la curva sea la unidad Z ∞ G(x)dx = 1 −∞
de manera que ∞
n→∞
nG(n(x − x0 ))f (x0 )dx0
Z
=
−∞
=
∞
l´ım
rP
Z l´ım
n→∞
l´ım
n→∞
G(n(x − x0 ))f
−∞ Z ∞
nx0 n
d(nx0 )
τ G(τ )f x − d(τ ) = f (x) n −∞
ad o
Si se intercambian los procesos de l´ımite e integraci´on: Z ∞h i f (x) = l´ım nG(n(x − x0 )) f (x0 )dx0 ⇒ δ(x − x0 ) = l´ım nG(n(x − x0 )) ≡ δ(x, x0 ) . −∞ n→∞
Por lo tanto:
Z
∞
f (x) =
δ(x − x0 )f (x0 )dx0 ⇒
−∞
Bo rr
n→∞
δ(x, x0 ) → ∞ si x → x0
δ(x, x0 ) = 0
si x 6= x0
La principal propiedad de la delta de Dirac es que Z ∞ f (x)δ(x − x0 )dx = f (x0 ) −∞
es decir, act´ ua parecido a como lo hace la delta de Kronecker cuando se contrae uno de sus ´ındices con las componentes de un vector: aj = δji ai , en el sentido que de todos lo valores selecciona s´olo uno. Adem´ as, si f (x) = 1 entonces Z ∞
δ(x − x0 )dx = 1 . −∞
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
172
3.6. ESPACIOS DE FUNCIONES
Existen algunas representaciones integrales basadas en el hecho de que δ(x − x0 ) u ´nicamente existe en x = x0 . Z x=x0 +ε Z ∞ f (x)δ(x − x0 )dx f (x)δ(x − x0 )dx = −∞ x=x0 −ε Z b f (x0 ) si a ≤ x0 ≤ b f (x)δ(x − x0 )dx = a 0 si x0 < a ´o x0 > b Y la funci´ on escal´ on de Heaviside x
H(x − x0 ) =
δ(x − x0 )dx = −∞
1
si
0
si
x ≥ x0
in ar
Z
⇒ δ(x − x0 ) = x ≤ x0
dH(x − x0 ) . dx
re lim
Ejemplo Una distribuci´ on de carga el´ectrica puede escribirse de manera sencilla utilizando la delta de Dirac. La distribuci´ on de carga el´ectrica puede representarse a trav´es de la siguiente integral Z q= ρ(r)dV V
de manera que para una carga puntual localizada en r = r0 se tiene que Z Z ρ(r)dV ⇒ ρ(r) = qδ(r − r0 ) q = q δ(r − r0 )dV = V {z } | =1
rP
Para finalizar, veamos algunas de las tantas propiedades:
• δ(ax) =
• xδ(x) = 0
• f (x)δ(x − x0 ) = f (x0 )δ(x − x0 )
1 2|a|
[δ(x − a) + δ(x + a)]
ad o
• δ(x2 − a2 ) =
• δ(r − r0 ) = δ(x − x0 )δ(y − y0 )δ(z − z0 )
3.6.2.
δ(x) |a|
• δ(x − x0 ) = δ(x0 − x)
n
• xn+1 d dxδ(x) =0 n
•
R
f (r)δ(r − r0 )dV = f (r0 )
Bases continuas
Bo rr
Tal y como vimos anteriormente, la representaci´on de un vector |F i en un espacio vectorial abstracto V puede darse en t´ermino de una base ortonormal de vectores (discreta y finita BDF = {|e1 i , |e2 i , |e3 i , · · · |en i} o discreta e infinita BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · }) de la forma: i
c |ei i = ei F i |ei i ⇐ BDF = {|e1 i , |e2 i , |e3 i · · · |en i} |F i =
i c |ei i = ei F i |ei i ⇐ BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · } donde en ambos casos:
Hern´ andez & N´ un ˜ez
ci = ei F i = cj ei |ej i = cj δji .
Universidad de los Andes / Universidad Industrial de Santander
173
3.6. ESPACIOS DE FUNCIONES
Recapitulemos ahora algunos puntos que hemos tratado con anterioridad, y con el fin de aclarar algunos conceptos, el caso de bases discretas de funciones {|ei (x)i}. La relaci´ on de ortogonalidad viene dada, como hemos mencionado, por: Z b n n e∗n (x)em (x)dx = Θn δm , he (x)|em (x)i = a
y con una norma definida por b
Z
2
2
k|ei (x)ik = hen (x)|en (x)i =
|en (x)| dx = Θn .
in ar
a
La base ser´ a ortonormal si Θn = 1. Con una base {|ei (x)i} definida es posible representar cualquier funci´on f (x) cuadrado integrable, es decir que cumpla con Z b 2 |f (x)| dx 6= ∞ , a
re lim
en una combinaci´ on lineal de la base dada: |f (x)i = C i |ei (x)i
Las cantidades C i , las componentes de |F (x)i, se obtienen de la siguiente manera
ei (x) f (x)i = C j ei (x) ej (x)i = C j δji = C i =
Z
b
f (x)e∗i (x)dx ,
a
rP
Resulta conveniente para los c´ alculos que vienen cambiar i → n y x → x0 , de manera que Z b n C = f (x0 )e∗n (x0 )dx0 . a
Por lo tanto n
Bo rr
ad o
|f (x)i = C |en (x)i ⇒ |f (x)i =
Utilizando la delta de Dirac Z b Z 0 0 0 |f (x)i = f (x )δ(x − x )dx = a
a
" X Z
XZ
=
0
f (x )
|en (x)i
b
f (x0 )e∗n (x0 )en (x)dx0
b
f (x0 )
X
a
"
b
)e∗n (x0 )dx0
a
n
Z
f (x
0
a
n
=
#
b
e∗n (x0 )en (x)dx0
n
# X n
e∗n (x0 )en (x)
dx0 ⇒ δ(x − x0 ) =
X
e∗n (x0 )en (x) .
n
Esta u ´ltima relaci´ on viene a ser una generalizaci´on de la relaci´on de cierre mencionada en la Secci´ on 2.3.4 y se conoce como condici´ on de completitud para la base {|ei (x)i}, adem´as, tambi´en resulta ser una representaci´ on en serie para la delta de Dirac. De todo esto surgen algunas propiedades fundamentales:
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
174
3.6. ESPACIOS DE FUNCIONES
Se dice que el conjunto {|ei (x)i} es completo si para Z i |f (x)i = C |ei (x)i ⇒
b
2
|f (x)| =
X
a
2
|C n |
n
Si |f (x)i = C i |ei (x)i y |g(x)i = E i |ei (x)i, entonces hf (x)|g(x)i = Cn∗ E n .
|e0 i = 1,
|e2n−1 i = cos(nx)
in ar
Es posible pasar de estos espacios vectoriales discretos, donde las bases son un conjunto numerable de elementos {en (x)}, a espacios vectoriales de funciones con las bases dadas por funciones y donde el ´ındice n pasa a ser una variable continua. En el primer ejemplo de la Secci´ on 2.3.4 habl´abamos de un conjunto de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i · · · } definidas por: |e2n i = sen(nx),
y
con n = 1, 2, 3, · · ·
nπ 1 |en (x)i = √ ei L x , 2L
re lim
Esta base discreta de Fourier tambi´en la podemos escribir de la forma compleja como: con n = −∞ . . . ∞ y − L ≤ x ≤ L .
rP
Cuando L → ∞, y n aumentando tambi´en indefinidamente, la cantidad k = nπ L se va convirtiendo en una variable continua, es decir, ∆k = ∆nπ → 0. Notemos que los ´ ındices de la delta de Kronecker δnm pueden L Lk Lk0 tomar los valores: n = π , m = π , y en el proceso de L → ∞ se convertir´a en: L π Lk Lk 0 − =δ (k − k 0 ) = δ (k − k 0 ) . δnn0 → δ π π π L De esta manera la base ortonormal quedar´a escrita en funci´on de las variables continuas k y x 1 |e(k, x)i = √ eikx . 2π
ad o
El hecho de que sean ortonormales se refleja en la siguiente condici´on (que es una extensi´on de la expresi´ on para el producto interno de bases discretas) Z b he(k, x)|e(k, x)i = e(k, x)∗ e(k 0 , x) dx = δ(k − k 0 ) , con α ≤ k ≤ β , a ≤ x ≤ b a
Bo rr
Al ser el conjunto de funciones {|e(k, x)i} una base, toda funci´on del mismo espacio vectorial se puede expandir en esa base como: Z β |f (x)i = C(k)e(k, x)dk α
En correspondencia con el caso de las bases discretas, el coeficiente C(k) viene a ser algo parecido a las componentes de |f (x)i. Y para calcularlas se procede como se muestra a continuaci´on: "Z # Z Z b
he(k 0 , x) |f (x)i =
β
e(k 0 , x)∗ f (x) dx =
a
b
e(k 0 , x)∗ e(k, x) dx dk
C(k) α
Z
a
β
=
C(k)δ(k − k 0 )dk = C(k 0 ) .
α
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
175
3.6. ESPACIOS DE FUNCIONES
Volvemos a cambiar la notaci´ on para los ´ındices: Z b C(k) = e(k, x0 )∗ f (x0 )dx0 , a
por lo tanto Z
β
0
C(k) |e(k, x)i dk =
|f (x)i =
"Z
b
Z
0 ∗
e(k, x ) e(k, x)dk dx0 =
f (x ) α
a
α
#
β
Z
b
f (x0 )δ(x − x0 )dx0 ,
a
y la relaci´ on β
e(k, x0 )∗ e(k, x)dk = δ(x − x0 )
in ar
Z
α
ser´ a la relaci´ on de cierre para el conjunto no numerable de funciones ortonormales. Una integral como la que nos permiti´ o definir C(k), digamos, del tipo Z b Z β 0 0 ∗ 0 F (k) = f (x )e(k, x ) dx ⇒ |f (x)i = F (k)e(k, x)dk a
α
re lim
es lo √que se denomina una transformada de f (x). M´as adelante veremos que si la base, es por ejemplo eikx / 2π, la transformada ser´ a la de Fourier. En el espacio vectorial de funciones de cuadrado integrable L2 , definidas en R3 tendremos que: ∞ Z ∞ X
i i 3 0 ∗ 0 0 |F i = c |ei i ≡ e F i |ei i = d r ξi (r ) f (r ) |ei i −∞
i=0
∞
d3 r0 ξi∗ (r0 ) f (r0 ) ξi (r)
rP
que se reescribe en t´erminos de funciones como ∞ Z X f (r) =
−∞
i=0
Es claro que se pueden intercambiar los s´ımbolos de Z
∞
R
y
"
∞ X
d3 r0 f (r0 )
f (r) =
ad o
−∞
P
, por lo cual #
ξi∗ (r0 ) ξi (r)
i=0
|
{z
G(r0 ,r)
}
Bo rr
la funci´ on G(r0 , r) que depende de los argumentos, r0 y r, vive dentro de las integrales y convierte Z ∞ f (r) = d3 r0 f (r0 ) G(r0 , r) Podemos ver entonces que:
Z
−∞ ∞
f (r) =
d3 r0 f (r0 ) δ(r0 − r)
−∞
En resumen, la generalizaci´ on de bases discretas a continuas se hace transformando el ´ındice de la sumatoria en la variable de una integral Z Z Z |Ψi = dα c (α) |wα i ⇒ c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β) As´ı, para los conceptos expresados hasta ahora se tiene el siguiente tabla resumen:
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
176
3.6. ESPACIOS DE FUNCIONES
Propiedad\Base Ortogonalidad Cierre Expansi´ on Componentes Producto Interno Norma
3.6.3.
Discreta ui |u i = δj i P∞ j 1 = j=0 |uj i uj P∞ |F i = i=0 ci |ui i ci = P ui F i ∞ hG| F i = i=0 g i∗ fi P∞ 2 hF | F i = i=0 |fi |
Continua hwβ |w R α i = δ (α − β) 1 = dα |wα i hwα | R |Ψi = dα c (α) |wα i c (β)R = hwβ |Ψi hG| F i = dα g ∗ (α) f (α) R 2 hF | F i = dα |f (α)|
Transformada de Fourier. Bases de ondas planas
in ar
En las teor´ıas de oscilaciones es de gran importancia considerar el problema de la transformada de Fourier. Recientemente vimos que una funci´ on f (x) puede representarse de la forma Z β C(k)e(k, x)dk , |f (x)i = α
−∞
Por lo tanto:
Z
∞
f (x)e−ikx dx .
rP
1 |F(k)i = √ 2π
re lim
si la funci´ on f (x) est´ a definida en (−∞, ∞) y si tomamos al √ conjunto de vectores base como el conjunto de funciones continuas y ortonormales {e(k, x)} como {eikx / 2π}, entonces la integral anterior la podemos escribir de la forma: Z ∞ 1 F(k)eikx dk , |f (x)i = √ 2π −∞ R Si utilizamos la relaci´ on de ortogonalidad: he(k, x)|e(k, x)i = e(k, x)e(k 0 , x)∗ dx = δ(k − k 0 ), resulta: Z ∞ 0 ei(k−k )x dx = 2πδ(k − k 0 ) .
−∞
ad o
A las variables x y k se les denominan variables conjugadas de Fourier (no conjugadas como en variable compleja) y a F(k) la transformada de Fourier de f (x) (y viceversa). Notemos que si sustituimos F(k) en la otra integral: Z ∞Z ∞ Z ∞ 1 ik(x−x0 ) 0 0 f (x)e dk dx ⇒ |f (x )i = f (x)δ(x − x0 ) dx0 2π −∞ −∞ −∞
Bo rr
Podemos ver que la integral para F(k) la podemos hacer en dos partes: Z ∞ Z 0 Z ∞ 1 1 1 −ikx −ikx |F(k)i = √ f (x)e dx ⇒ √ f (x)e dx + √ f (x)e−ikx dx 2π −∞ 2π −∞ 2π 0 Si: x → −x, entonces
1 |F(k)i = √ 2π
Z 0
∞
1 f (−x)eikx dx + √ 2π
Z
∞
f (x)e−ikx dx
0
Dos casos podemos estudiar
Si la funci´ on es par, f (x) = f (−x): Z ∞ Z ∞ Z ∞ 2 1 f (x)eikx dx + f (x)e−ikx dx = √ f (x) cos(kx) dx |F(k)i = √ 2π 0 2π 0 0
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
177
3.6. ESPACIOS DE FUNCIONES
entonces, de la transformada al hacer F(k) = F(−k) se tiene Z ∞ 2 |f (x)i = √ F(k) cos(kx) dk , 2π 0 Estas dos funciones se conocen como las transformadas coseno de Fourier.
Ahora al hacer F(k) = −F(−k)
∞
Z
2 |f (x)i = √ 2π
˜ F(k)sen(kx) dk ,
0
donde F˜ (k) = iF (k). Tenemos ahora las transformadas seno de Fourier. La generalizaci´ on a Rn es obvia. Si f = f (r), entonces 1 |f (r)i = √ 2π
n1 Z
donde dk = dk1 dk2 dk3 . . . dkn . Para la transformada
∞
Z
∞
···
F(k)ei(k·r) dk ,
re lim
in ar
Si la funci´ on es impar, f (x) = −f (−x) Z ∞ Z ∞ Z ∞ 2i 1 ikx −ikx f (−x)e dx − f (−x)e dx = √ f (x)sen(kx) dx |F(k)i = √ 2π 0 2π 0 0
−∞
−∞
1 Z Z ∞ 1 n ∞ ··· f (r)e−i(k·r) dr , |F(k)i = √ 2π −∞ −∞ donde dr = dx1 dx2 dx3 . . . dxn representa el elemento de volumen en Rn .
rP
Ondas planas: Como un ejemplo de lo anterior consideraremos la base de las ondas planas. Si a k la llamaremos s y a la variable x el tiempo t, vale decir Z ∞ Z ∞ 1 1 ist dt e f (t) f (t) = √ ds e−ist F (s) F (s) = √ 2π −∞ 2π −∞
ad o
De esta manera, a la funci´ on F (s) se le denomina la distribuci´on espectral de f (t) y a |F (s)|2 la densidad espectral, es decir, la intensidad de la onda en el intervalo [s, s + ∆s]. Esto significa que la energ´ıa total es Z ∞ E= |F (s)|2 ds . −∞
Bo rr
Tambi´en podemos re-escribir las transformadas en t´erminos de la posici´on y el momento: Z ∞ Z ∞ 1 1 i(px/~) ¯ ¯ ψ (x) = √ dp e ψ (p) ψ (p) = √ dx e−i(px/~) ψ (x) 2π~ −∞ 2π~ −∞
Hemos tenido cuidado de incluir los factores de normalizaci´on adecuados para el caso de las descripciones en mec´ anica cu´ antica. Estas f´ ormulas pueden ser re-interpretadas en funci´on de los conceptos anteriormente expuestos y podemos definir una base continua de la forma Z ∞ Z ∞ 1 1 1 1 i(px/~) −i(px/~) ¯ ¯ √ √ √ √ dp e ψ (p) ψ (p) = dx e ψ (x) ψ (x) = 2π~ −∞ 2π~ 2π~ −∞ 2π~ | {z } | {z } vp (x)
Hern´ andez & N´ un ˜ez
vp∗ (x)
Universidad de los Andes / Universidad Industrial de Santander
178
3.6. ESPACIOS DE FUNCIONES
por lo cual Z
∞
dp vp (x) ψ¯ (p)
ψ (x) =
ψ¯ (p) =
Z
−∞
∞
dx vp∗ (x) ψ (x) .
−∞
Diremos que la funci´ on ψ (x) est´ a expresada en la base de ondas planas vp (x) = N´ otese:
√ 1 ei(px/~) . 2π~
El ´ındice p de vp (x) var´ıa de forma continua entre −∞ a ∞.
in ar
1 ei(px/~) ∈ / L2 , es decir, no pertenece al espacio vectorial de funciones de cuadrado Que vp (x) = √2π~ integrable ya que su norma diverge Z ∞ Z ∞ 1 2 hvp | vp i = dx |vp (x)| = dx →∞ 2π~ −∞ −∞
Que las proyecciones de ψ (x) sobre la base de ondas planas es: ψ¯ (p) = hvp | ψi.
∞
1 i[p(x0 −x)/~] e = δ (x0 − x) , 2π~
re lim
La relaci´ on de cierre para esta base se expresa como Z Z ∞ Z 1= dα |vα i hvα | dp vp∗ (x0 ) vp (x) = −∞
−∞
dp
mientras que de la definici´ on de producto interno uno obtiene Z ∞ Z ∞ 1 i[x(p0 −p)/~] hvp0 | vp i = dx vp∗0 (x) vp (x) = dx e = δ (p0 − p) . 2π~ −∞ −∞
rP
En este mismo orden de ideas podemos construir otra base continua ξr0 (r) a partir de la utilizaci´ on de las propiedades de la delta de Dirac. Esto es Z ∞ Z ∞ 3 ψ (r0 ) = d3 r ψ (r) δ (r − r0 ) ψ (r) = d r0 ψ (r0 ) δ(r0 − r) | {z } −∞ −∞ ξr0 (r)
ad o
por lo cual la re-interpretaci´ on es inmediata Z ∞ ψ (r) = d3 r0 ψ (r0 ) ξr0 (r)
Z
∞
ψ (r0 ) = hξr0 | ψi =
con
−∞
−∞
d3 r ξr∗0 (r) ψ (r)
Bo rr
m´ as a´ un la ortogonalidad queda garantizada por la relaci´on de cierre Z ∞ Z ∞ 3 ∗ 0 hξr0 | ξr0 i = d r0 ξr0 (r) ξr0 (r ) = d3 r0 δ (r − r0 ) δ (r0 − r0 ) = δ (r0 − r) −∞
−∞
al igual que
hξr0 | ξr00 =
Hern´ andez & N´ un ˜ez
Z
∞
−∞
d3 r ξr∗0 (r) ξr00 (r) =
Z
∞
d3 r δ (r − r0 ) δ (r − r00 ) = δ (r00 − r0 )
−∞
Universidad de los Andes / Universidad Industrial de Santander
179
3.6. ESPACIOS DE FUNCIONES
3.6.4.
Las representaciones |ri y |pi
A partir de las bases de ondas planas vp0 (x), y de distribuciones, ξr0 (r), construimos las llamadas representaciones |ri y |pi de la forma siguiente. Asociamos ξr0 (r)
|r0 i
vp0 (x)
|p0 i
re lim
in ar
De esta forma dada las bases {ξr0 (r)} y {vp0 (x)} para el espacio vectorial V definiremos dos “representaciones”, la representaci´ on de coordenadas, |r0 i , y la representaci´on de momentos |p0 i de V, respectivamente. De tal modo que Z ∞ hr0 | r00 i = d3 r ξr∗0 (r) ξr00 (r) = δ (r00 − r0 ) Z−∞ 1 = d3 r0 |r0 i hr0 | Z ∞ Z ∞ 1 −i(r0 ·p0 /~) e = δ (p00 − p0 ) hp0 | p00 i = d3 r vp∗00 (r) vp0 (r) = d3 r 2π~ −∞ −∞ Z 1 = d3 p0 |p0 i hp0 | Podemos, entonces expresar el producto interno para la representaci´on de coordenadas como Z Z hΦ |Ψi = hΦ| d3 r0 |r0 i hr0 | |Ψi = d3 r0 φ∗ (r0 )ψ(r0 ) {z } |
rP
1
y equivalentemente para la representaci´ on de momentos Z Z hΦ |Ψi = hΦ| d3 p0 |p0 i hp0 | |Ψi = d3 p0 φ∗ (p0 )ψ(p0 ) {z } |
ad o
1
por lo cual hemos encontrado que
Z
|Ψi =
d r0 |r0 i hr0 | Ψi =
ψ(r0 ) = hr0 |Ψi
Bo rr
Z
3
y
d3 p0 |p0 i hp0 | Ψi
ψ(p0 ) = hp0 |Ψi
que es la representaci´ on de |Ψi en coordenadas, ψ(r0 ), y en momentos, ψ(p0 ). Adicionalmente cuando |Ψi = |pi tendremos que Z Z i 1 d3 r00 δ (r00 − r0 ) e ~ (p0 ·r0 ) hr0 |p0 i = hr0 | d3 r00 |r00 i hr00 | |p0 i = 3/2 (2π~) {z } | hr0 |p0 i =
Hern´ andez & N´ un ˜ez
1
1
(2π~)
3/2
e
i ~ (p0 ·r0 )
Universidad de los Andes / Universidad Industrial de Santander
180
3.6. ESPACIOS DE FUNCIONES
con lo cual ψ(p0 ) puede considerarse la transformada de Fourier de ψ(r0 ), y denotaremos de ahora en adelante las bases |r0 i ≡ |ri y |p0 i ≡ |pi. Estos ´ındices continuos, r0 y p0 , representan tres ´ındices continuos r (x, y, z) y p (px , py , pz ). La proyecci´ on de un vector abstracto |Ψi en la representaci´on |ri ser´a considerada como su expresi´on en el espacio de coordenadas, igualmente su proyecci´on hp |Ψi ser´a su expresi´on en el espacio de los momentos. Eso nos permitir´ a hacer corresponder los elementos de espacios vectoriales abstractos con elementos de un espacio vectorial de funciones. Por lo tanto todas las f´ormulas de proyecci´on quedan como hr |Ψi = ψ(r)
hp |Ψi = ψ(p)
y
Z
hr| r0 i = δ (r0 − r)
y
d3 r |ri hr|
1= Z
0
hp| pi = δ (p − p)
y
1=
in ar
mientras que las relaciones de cierre y ortonormalizaci´on
d3 p |pi hp| ,
Z hΦ|
re lim
Por su parte, la relaci´ on de cierre har´ a corresponder a la expresi´on de el producto interno de dos vectores, tanto en la representaci´ on de las coordenadas como en la representaci´on de momentos, en la forma Z d r |ri hr| |Ψi = d3 r φ∗ (r) ψ(r) 3
m
hΦ |Ψi
hΦ|
m Z ¯ d3 p |pi hp| |Ψi = d3 p φ¯∗ (p) ψ(p)
rP
Z
¯ donde φ¯∗ (p) y ψ(p) son las transformadas de Fourier de φ∗ (r) y ψ(r), respectivamente. La afirmaci´on anterior queda evidentemente demostrada del cambio entre las bases |ri y |pi. Esto es ∗
hr |pi = hp |ri =
Z
ψ(r) = hr |Ψi = hr|
Bo rr
e inversamente
Z
ψ(p) = hp |Ψi = hp|
3.6.5.
(2π~)
ad o
por lo cual
1
i
3/2
e ~ (p·r)
Z d p |pi hp| |Ψi = d3 p hr |pi hp| Ψi = 3
3
d r |ri hr| |Ψi =
Z
1 (2π~)
Z
d3 r hp |ri hr| Ψi =
3/2
Z
1 3/2
i ¯ d3 p e ~ (p·r) ψ(p)
i
d3 r e− ~ (p·r) ψ(r) .
(2π~)
Ejercicios
1. Si
Hern´ andez & N´ un ˜ez
1 0 x < − 2n 1 n − 2n < x < δn (x) = 1 0 x < 2n
1 2n
Universidad de los Andes / Universidad Industrial de Santander
181
3.6. ESPACIOS DE FUNCIONES
demuestre que Z
∞
f (x)δn (x)dx ,
f (0) = l´ım
n→∞
−∞
para f (x) continua en x = 0. 2. Para δn (x) = demuestre lo siguiente Z
n 1 , π 1 + n2 x2
∞
3. Si
2 2 n δn (x) = √ e−n x , π
demuestre que
4. Demuestre la siguiente relaci´ on Z
dδ(x) = −δ(x) dx
∞
re lim
x
in ar
δn (x)dx = 1 −∞
δ 0 (x)f (x)dx = −f (0)
−∞
rP
5. Dadas las siguientes funciones ortonormales 1 1 √ sen(kx) , √ cos(kx) a) |e(k, x)i = con: 0 ≤ k < ∞ , −∞ ≤ x < ∞ π π 1 √ eikx con: − ∞ ≤ k < ∞ , −∞ ≤ x < ∞ b) |e(k, x)i = 2π a) Escriba las condiciones de ortogonalidad y cierre
Bo rr
ad o
b) Demuestre R∞ 1) −∞ sen(kx)sen(k 0 x)dx = πδ(k − k 0 ). R∞ 2) −∞ cos(kx) cos(k 0 x)dx = πδ(k − k 0 ). R∞ 3) −∞ sen(kx) cos(k 0 x)dx = 0.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
182
3.7. ALGUNOS EJEMPLOS RESUELTOS
3.7.
Algunos ejemplos resueltos
1. Encuentre las base dual para el siguiente espacio vectorial en V = R3 con base ortogonal: |e1 i = (1, 1, −1), |e2 i = (2, −1, 1), |e3 i = (0, −1, −1) Todo vector de ese espacio queda representado en esa base por 1 2 0 ξ 1 + 2ξ 2 |vi = ξ i |ei i = ξ 1 1 + ξ 2 −1 + ξ 3 −1 = ξ 1 − ξ 2 − ξ 3 −1 1 −1 −ξ 1 + ξ 2 − ξ 3
in ar
Soluci´ on:
i Sea F ∈ V∗ , de manera
i que F [|vi] = ξ wi pueda representarse
por vectores fila F = (w1 , w2 , w3 ) y la base en dual como: e = (ai , bi , ci ). Adem´as sabemos que ei |ej i = δji
Por lo tanto:
1 e1 |e1 i = (a1 , b1 , c1 ) 1 = a1 + b1 − c1 = 1 −1 2
1 e |e2 i = (a1 , b1 , c1 ) −1 = 2a1 − b1 + c1 = 0 1 0
1 e |e3 i = (a1 , b1 , c1 ) −1 = −b1 − c1 = 0 −1
rP
re lim
1 (a2 , b2 , c2 ) 1 = a2 + b2 − c2 = 0 −1 2
2 e |e2 i = (a2 , b2 , c2 ) −1 = 2a2 − b2 + c2 = 1 1 0
2 e |e3 i = (a2 , b2 , c2 ) −1 = −b2 − c2 = 0 −1
a1 = 31 b1 = 31 ⇒ c1 = − 13
Bo rr
ad o
2 e |e1 i =
1 e3 |e1 i = (a3 , b3 , c3 ) 1 = a3 + b3 − c3 = 0 −1 2
3 e |e2 i = (a3 , b3 , c3 ) −1 = 2a3 − b3 + c3 = 0 1 0
3 e |e3 i = (a3 , b3 , c3 ) −1 = −b3 − c3 = 1 −1
a2 = 31 b2 = − 61 ⇒ c2 = 61
Hern´ andez & N´ un ˜ez
a3 = 0 b3 = − 21 ⇒ c3 = − 12
Universidad de los Andes / Universidad Industrial de Santander
183
3.7. ALGUNOS EJEMPLOS RESUELTOS
La base del dual es: e1 = ( 31 , 13 , − 13 ), e2 = ( 31 , − 16 , 16 ), e3 = (0, − 12 , − 12 ), de manera que
|F i = w1 e1 + w2 e2 + w3 e3
2. Dado los tensores:
1 Tij = 3 1
0 4 3
2 1 , 4
1 Ei = 4 3
in ar
Notemos que como era de esperarse ξ 1 + 2ξ 2 ξ 1 + 2ξ 2
1 1 1 1 1 1 1 ξ1 − ξ2 − ξ3 = ξ2 ξ1 − ξ2 − ξ3 = ξ1 , , ,− ,− , e2 |vi = e |vi = 3 3 3 3 6 6 1 2 3 −ξ + ξ − ξ −ξ 1 + ξ 2 − ξ 3 ξ 1 + 2ξ 2
3 1 1 ξ1 − ξ2 − ξ3 = ξ3 e |vi = 0, − , − 2 2 −ξ 1 + ξ 2 − ξ 3
Soluci´ on:
La parte sim´etrica de Tij es: 1 1 1 3 Sij = [Tij + Tji ] = 2 2 1
2 1 1 + 0 4 2
rP
Para la parte antisim´etrica de Tij : 1 1 1 3 Aij = [Tij − Tji ] = 2 2 1
0 4 3
re lim
Encuentre la parte sim´etrica y la parte amtisim´etrica de Tij y el producto Tij E j .
1 2 1 + 0 2 4
3 8 4
3 0 4 + 3 8 −1
ad o
Por lo tanto:
0 4 3
2 1 Tij = Sij + Aij = 3 2 3
3 4 1
3 4 1
1 2 1 3 = 3 2 4 3
3 8 4
1 0 −3 1 3 = 3 0 2 4 −1 2
−3 0 2
1 1 −2 = 3 0 1
0 4 3
3 4 8
1 −2 0
2 1 4
Bo rr
Para calcular Tij E j podemos hacer lo siguiente: C1 = T11 E 1 + T12 E 2 + T13 E 3 = (1)(1) + (0)(4) + (2)(3) = 7 1 2 3 C2 = T21 E 1 + T22 E 2 + T23 E 3 = (3)(1) + (4)(4) + (1)(3) = 22 Ci = Ti1 E + Ti2 E + Ti3 E = C3 = T31 E 1 + T32 E 2 + T33 E 3 = (1)(1) + (3)(4) + (4)(3) = 25
3. Dados los vectores:
e1 = i + j + 2k ,
e2 = i + 2j + 3k ,
e3 = i − 3j + 4k .
Diga si estos vectores son mutuamente ortogonales. Encuentre la base rec´ıproca ei , el tensor m´etrico en ambas bases y para el vector A = 3e1 + 2e2 + e3 encuentre sus componentes covariantes.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
184
3.7. ALGUNOS EJEMPLOS RESUELTOS
Soluci´ on:
Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: e1 · e2 = 9
e1 · e3 = 6
e2 · e3 = 7 .
Por lo tanto no son ortogonales. Por otro lado, sabemos que: ei =
ej × ek ei · (ej × ek )
Podemos calcular primero el denominador
Por lo tanto ei =
ej × ek V
1 e = e2 = ⇒ 3 e =
V˜ = e1 · (e2 × e3 ) ⇒
e2 ×e3 V
=
e3 ×e1 V
= − 35 i + 13 j + 23 k
e1 ×e2 V
= − 61 i − 16 j + 16 k
17 6 i
− 16 j − 56 k
re lim
Notemos que
in ar
V = e1 · (e2 × e3 ) ⇒ (i + j + 2k) · ([i + 2j + 3k] × [i − 3j + 4k]) = 6
17 1 5 5 1 2 1 1 1 1 i− j− k · − i+ j+ k × − i− j+ k = 6 6 6 3 3 3 6 6 6 6
e1 · e2 e2 · e2 e3 · e2
35 e1 · e3 4 e2 · e3 = − 16 3 7 e3 · e3 − 12
rP
El tensor m´etrico para la base rec´ıproca 1 1 e ·e ij ji i j 2 e · e1 g˜ = g˜ = e · e = e3 · e1
− 16 3
7 − 12
10 3 1 3
1 3 1 12
mientras que para la base original
ad o
e1 · e1 gij = gji = ei · ej = e2 · e1 e3 · e1
e1 · e2 e2 · e2 e3 · e2
e1 · e3 6 e2 · e3 = 9 6 e3 · e3
9 14 7
6 7 26
Y como debe ser
6 ei · ej = gij = 9 6
9 14 7
35 6 4 7 − 16 3 7 26 − 12
− 16 3 10 3 1 3
7 − 12 1 3 1 12
1 = 0 0
0 1 0
0 0 1
Bo rr
Para un vector dado por: A = 3e1 + 2e2 + e3 = 6i + 4j + 16k = a1 i + a2 j + a3 k, podemos calcular sus componentes covariantes de la manera siguiente: a1 = g11 a1 + g12 a2 + g13 a3 = (6)(6) + (9)(4) + (6)(16) = 168 j a2 = g21 a1 + g22 a2 + g23 a3 = (9)(6) + (14)(4) + (7)(16) = 222 ai = gij a = a3 = g31 a1 + g32 a2 + g33 a3 = (6)(6) + (7)(4) + (26)(16) = 480
Esto es: A = a1 i + a2 j + a3 k = 168e1 + 222e2 + 480e3 =26i-34j+88k.
4. Repita los c´ alculos del ejercicio anterior pero con los vectores e1 = i + j + 2k ,
Hern´ andez & N´ un ˜ez
e2 = −i − j + k ,
e3 = 3i − 3j .
Universidad de los Andes / Universidad Industrial de Santander
185
3.7. ALGUNOS EJEMPLOS RESUELTOS
Soluci´ on:
Ortogonalidad: e1 · e2 = 0
e1 · e3 = 0
e2 · e3 = 0 .
Son ortogonales. Por otro lado, sabemos que: ei =
ej × ek ei · (ej × ek )
Podemos calcular primero el denominador
Por lo tanto ej × ek V
El volumen V˜ = e1 · (e2 × e3 ) ⇒
= 61 i + 16 j + 13 k
e3 ×e1 V
= − 31 i − 13 j + 13 k
e1 ×e2 V
= 61 i − 16 j
1 1 1 1 1 1 1 1 1 i+ j+ k · − i− j+ k × i− j = 6 6 3 3 3 3 6 6 18
e1 · e2 e2 · e2 e3 · e2
1 e1 · e3 6 e2 · e3 = 0 e3 · e3 0
0
rP
El tensor m´etrico para la base rec´ıproca 1 1 e ·e g˜ij = g˜ji = ei · ej = e2 · e1 e3 · e1 para la base original
e2 ×e3 V
re lim
ei =
1 e = e2 = ⇒ 3 e =
in ar
V = e1 · (e2 × e3 ) ⇒ (i + j + 2k) · ([−i − j + k] × [3i − 3j]) = 18
e1 · e3 6 e2 · e3 = 0 0 e3 · e3
0 3 0
e1 · e1 gij = gji = ei · ej = e2 · e1 e3 · e1
e1 · e2 e2 · e2 e3 · e2
1 3
0
0 0
1 18
0 0 18
ad o
Para A = 3e1 + 2e2 + e3 = 4i − 2j + 8k = a1 i + a2 j + a3 k, sus componentes covariantes ser´an a1 = g11 a1 = (6)(4) = 24 a2 = g22 a2 = (3)(−2) = −6 ai = gij aj = a3 = g33 a3 = (18)(8) = 144 Esto es: A = a1 i + a2 j + a3 k = 24e1 − 6e2 + 144e3 =30i-18j+6k.
Bo rr
Notemos que si la base original hubiese sido ortonormal: √ √ e1 = (i + j + 2k)/ 6 , e2 = (−i − j + k)/ 3 ,
Entonces:
1 gij = g˜ij = 0 0
0 1 0
√ e3 = (3i − 3j)/ 18 .
0 a1 = a1 0 a2 = a2 ⇒ a3 = a3 1
5. Demuestre que
δ(αx) = Hern´ andez & N´ un ˜ez
δ(x) , α
α > 0.
Universidad de los Andes / Universidad Industrial de Santander
186
3.7. ALGUNOS EJEMPLOS RESUELTOS
Soluci´ on: Z
Hagamos el siguiente cambio de variable y = αx.
∞
Z
∞
f (x)δ(αx)dx =
f
−∞
y
1 1 δ(y) dy = α α α
−∞
por lo tanto: δ(αx) =
Z
∞
f −∞
y α
δ(y)dy =
f (0) = α
Z
∞
f (x)δ(x)dx −∞
δ(x) α .
La condici´ on α > 0 es porque se debe tener en cuenta que la funci´on delta de Dirac es par, es decir, δ(αx) = δ(−αx). De manera que resulta m´as apropiado escribir: δ(x) . |α|
in ar
δ(αx) = 6. Demuestre que: δ(g(x)) =
X δ(x − α) |g 0 (α)|
α
g(α) = 0 ∧ g 0 (α) 6= 0 .
Podemos ver que para la funci´on g(x), en los intervalos donde se hace cero, se tiene
re lim
Soluci´ on:
,
g(x) ≈ g(α) + (x − α)g 0 (α) ,
−ε < α < ε
de manera que si sumamos para todos esos intervalos Z ∞ Z X Z α+ε 0 f (x)δ(g(x))dx = f (x)δ ((x − α)g (α)) dx = −∞
α
∞
−∞
α−ε
f (x)
X δ (x − α) α
|g 0 (α)|
dx
rP
donde hemos utilizado el resultado del ejemplo anterior. Por lo tanto: δ(g(x)) =
X δ (x − α) α
|g 0 (α)|
.
ad o
7. Encuentre la transformada de Fourier de la funci´on
− nπ ω0 < t <
Bo rr
sen(ω0 t)
f (t) =
0
Hern´ andez & N´ un ˜ez
nπ ω0
t < − nπ ω0 ∧ t >
⇒ nπ ω0
Figura 3.5: f (t) con: n = 6 y ω0 = π.
Universidad de los Andes / Universidad Industrial de Santander
187
3.7. ALGUNOS EJEMPLOS RESUELTOS
Soluci´ on: La funci´ on f (t) representa un tren de ondas finito con n ciclos en el intervalo dado. Por el hecho de ser f (t) una funci´ on impar, podemos utilizar la transformada seno de Fourier: 2 |F(ω)i = √ 2π
Z
nπ ω0
0
2 f (t)sen(ωt) dt = √ 2π
Z
nπ ω0
sen(ω0 t)sen(ωt) dt
0
in ar
Resolviendo la integral obtenemos la distribuci´on espectral 2 nπ ω nπ ω |F(ω)i = √ ω0 sen cos (nπ) − ω cos sen (nπ) ω0 ω0 2π (ω 2 − ω0 2 ) i i h h nπ sin nπ ω0 (ω0 + ω) 1 sin ω0 (ω0 − ω) = √ − 2(ω0 − ω) 2(ω0 + ω) 2π
l´ım |F(ω)i = l´ım |F(ω)i = 0
ω0 →∞
ω→∞
re lim
Es f´ acil ver que
rP
Adem´ as, se puede apreciar que el primer t´ermino es el de relevancia debido a que en el denominador aparece la diferencia: ω0 − ω. En la Figura 3.6 se muestra la funci´ on de distribuci´on y en ella podemos notar que a medida que n crece la funci´on |F(ω)i es una delta de Dirac en ω = ω0 . Por otro lado, es f´ acil ver que los ceros ocurren cuando ω0 − ω 2 3 1 = ± ,± ,± ... ω0 n n n
Figura 3.6: F(ω) con: n = 6 y ω0 = π.
Soluci´ on:
ad o
8. Encontrar la transformada de Fourier de la derivada de una funci´on. Si
Z
∞
−∞
F(k)eikx dk ⇒
d (ik)n |f (x)i = √ n dx 2π
Z
∞
F(k)eikx dk .
−∞
Bo rr
1 |f (x)i = √ 2π
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
188
3.8. EJERCICIOS PROPUESTOS
3.8.
Ejercicios propuestos
1. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 2. Y si adem´as definimos Z 1 = p(x)dx , ζ 2 [|pi] = p0 (2) ∧ ζ 3 [|pi] = p(1) ζ 1 [|pi] = 0
donde {ζ 1 , ζ 2 , ζ 3 } ∈ V∗ . Encuentre una base {|e1 i , |e2 i , |e3 i} ∈ V que resulte dual a {ζ 1 , ζ 2 , ζ 3 }. 2. Sean |v1 i y |v2 i ∈ V y supongamos que F [|v1 i] = 0 implica que F [|v2 i] = 0 ∀ F ∈ V∗ . Muestre que |v2 i = α |v1 i con α ∈ K.
in ar
3. Sean F1 y F2 ∈ V∗ y supongamos que F1 [|vi] = 0 implica que F2 [|vi] = 0 ∀ |vi ∈ V. Muestre que F2 = αF1 con α ∈ K. 4. Dado Fijk un tensor totalmente antisimetrico respecto a sus ´ındices ijk, demuestre que el rotor de Fijk definido como sigue, tambi´en ser´ a un tensor ∂Fijk ∂Fjkm ∂j Fkmi ∂k Fmij − + − m i j ∂x ∂x ∂x ∂xk
re lim
rot [Fijk ] = ∂m Fijk − ∂i Fjkm + ∂j Fkmi − ∂k Fmij ≡ 5. El momento de inercia se define como Z Iji = dvρ (r) δji xk xk − xi xj V
a) Muestre que Iji es un tensor
con xi = {x, y, z} y dv = dx dy dz
b) Encuentre la representaci´ on matricial para Iji
rP
c) Considere un cubo de lado l y masa total M tal que tres de sus aristas coinciden con un sistema de coordenadas cartesiano. Encuentre el tensor momento de inercia, Iji . 6. Para un sistema de n part´ıculas r´ıgidamente unidas, la cantidad de movimiento p y cantidad de movimiento angular L vienen definidas por
ad o
pα = mα vα = mα (ω × rα ) ≡ ijk ωj xk |ei i L=
X
(r × p)α ≡ ijk xk pk |ei i ;
α
Bo rr
con α = 1, 2, · · · , n, |ei i = {i, j, k} y xi = {x, y, z} Muestre que: P a) L = α mα [(r · r)α ω − rα (rα · ω)]. P b) Li = Iji ω j , donde Iji = α mα δji xk xk − xi xj es el tensor momento de inercia para un sistema de n part´ıculas r´ı gidamente unidas.
7. Dado un tensor gen´erico de segundo orden Tij . Demostrar a) Que el determinante det [T] ≡ det Tji = T y la traza tr Tji = Tii son invariantes, en otras i i palabras, det Tj y tr Tj son escalares respecto a transformaciones de coordenadas.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
189
3.8. EJERCICIOS PROPUESTOS
b) Si definimos la matriz adjunta adj [A], como la traspuesta de la matriz de cofactores T T i j adj [A] = (Ac ) ⇒ adj Aij = (Ac )j = (Ac )i i
donde la matriz de cofactores (Ac )j viene dada por a11 i a21 Aj = a31
a12 a22 a32
1 (Ac )1 a13 2 c i 2 c a3 ⇒ (A )j = (A )1 3 3 a3 (Ac )1
1
(Ac )2 2 (Ac )2 3 (Ac )2
1 (Ac )3 2 (Ac )3 3 (Ac )3
= (−1)
1+1
= (−1)
2+1
(Ac )1 = (−1)
3+1
2 (Ac )1
3
2 a2 3 a2
a23 a33
1 (Ac )2
1 a2 3 a2
a13 a33
2 (Ac )2
1 a2 2 a2
a13 a23
(Ac )2 = (−1)
3
= (−1)
1+2
= (−1)
2+2
2 a1 3 a1
a23 a33
1 (Ac )3
1 a1 3 a1
a13 a33
2 (Ac )3
= (−1)
1+3
= (−1)
2+3
re lim
1 (Ac )1
in ar
y los cofactores son
3+2
1 a1 2 a1
a13 a23
3
(Ac )3 = (−1)
3+3
2 a2 3 a2
a23 a33
1 a1 3 a1
a12 a32
1 a1 2 a1
a12 a22
rP
Para la transformaci´ on x ˜i = a xi con a un escalar constante, muestre que i adj[T ] 1) τji = T j es un tensor 2) Su determinante det τji = τ y su traza tr τji = τii , tambi´en ser´an invariantes. adj[τ i ] 3) Tji = τ j 4) τ T = 1
ad o
˜ (˜ 8. Dados dos sistemas de coordenadas ortogonales O (x, y, z) y O x, y˜, z˜), donde el sistema de ˜ coordenas O se obtiene rotando a O, π/6 alrededor del eje z, para rotarlo π/2 alrededor del eje x ˜ con lo cual los ejes y˜ y z coinciden. a) Si tenemos los vectores
A = i + 2j + 3k , B = 2i + j + 3k ˜ Expr´eselos en el sistema de coordenadas O (˜ x, y˜, z˜).
Bo rr
b) El tensor de esfuerzos (tensiones normales y tangenciales a una determinada superficie) se expresa en el sistema O (x, y, z) como P1 0 P4 Pji = 0 P2 0 0 0 P3
˜ (˜ ¿Cu´ al ser´ a su expresi´ on en el sistema de coordenadas O x, y˜, z˜)? 9. Suponga un sistema de coordenadas ortogonales generalizadas q 1 , q 2 , q 3 las cuales tienen las siguiente relaci´ on funcional con las coordenadas cartesianas q 1 = x + y;
Hern´ andez & N´ un ˜ez
q 2 = x − y;
q 3 = 2z;
Universidad de los Andes / Universidad Industrial de Santander
190
3.8. EJERCICIOS PROPUESTOS
a) Compruebe que el sistema q 1 , q 2 , q 3 conforma un sistema de coordenadas ortogonales b) Encuentre los vectores base para este sistema de coordenadas c) Encuentre el tensor m´etrico y el elemento de volumen en estas coordenadas. d ) Encuentre las expresiones en el sistema q 1 , q 2 , q 3 para los vectores A = 2j ;
B = i + 2j ;
C = i + 7j + 3k
e) Encuentre en el sistema q 1 , q 2 , q 3 la expresi´on para las siguientes relaciones vectoriales A × B;
A · C;
(A × B) · C
in ar
¿Qu´e puede decir si compara esas expresiones en ambos sistemas de coordenadas?
10. La relaci´ on entre las coordenadas cartesianas (x, y) y las coordenadas bipolares (ξ, ζ) viene dada por x=
a sinh(ξ) ; cosh(ξ) + cos(ζ)
y=
a sin(ζ) ; cosh(ξ) + cos(ζ)
con a = const
re lim
a) Compruebe si los vectores base para las coordenadas bipolares son ortogonales b) Encuentre el tensor m´etrico para las coordenadas bipolares
c) Escriba las componentes covariantes y contravariantes para los vectores: i, j y i + 2j. 11. Demuestre que si
δn (x) = entonces
Z
n π(1 + n2 x2 )
∞
δn dx = 1 .
rP
−∞
12. Dada la siguiente sucesi´ on de funciones
1 δn (x) = 2nπ
sen(nx/2) sen(x/2)
2
ad o
Demuestre que δn (x) es una distribuci´on delta de Dirac al calcular " 2 # Z ∞ sen(nx/2) 1 f (x) l´ım dx = f (0) . n→∞ 2nπ −∞ sen(x/2)
Bo rr
13. Encuentre las transformadas de Fourier de las siguientes funciones: a)
f (x) =
−x e ,
0,
x>0 x
1 a
0,
Universidad de los Andes / Universidad Industrial de Santander
191
in ar
Bibliograf´ıa
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici´ on (Academic Press, Nueva York)
re lim
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York) [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London: (Addison-Wesley Pub Co
rP
[6] Hauser, W (1971) Introduction to Principles of Electromagnetism Reading)
[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press)
ad o
[8] Santal´ o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires) [9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres)
Bo rr
[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
192
4
in ar
Cap´ıtulo
Bo rr
ad o
rP
re lim
Matrices, Determinantes y Autovectores
193
4.1. OPERADORES LINEALES
4.1.
Operadores Lineales
Definiremos como operador lineal (o transformaci´on lineal) a una operaci´on que asocia un vector |vi ∈ V1 un vector |v 0 i ∈ V2 y que respeta la linealidad, es decir esta funci´on de V1 →V2 cumple con |v 0 i = T |vi
T [α |v1 i + β |v2 i] = α T |v1 i + β T |v2 i
/
∀
|v1 i y |v2 i ∈ V1
Sencillamente, algo que act´ ue sobre una suma de vectores en V1 y que es equivalente a la suma de sus actuaciones sobre los vectores suma, es decir, a la suma en V2 .
in ar
Ejemplos 1. Las siguientes transformaciones |x0 i = T |xi
→
(x0 , y 0 , z 0 ) = T {(x, y, z)}
claramente son lineales
re lim
T {(x, y, z)} = (x, 2y, 3z) →
T {a (x, y, z) + b (m, n, l)} = aT {(x, y, z)} + bT {(m, n, l)} T {(ax + bm, ay + bn, az + bl)} = a (x, 2y, 3z) + b (m, 2n, 3l) (ax + bm, 2 [ay + bn] , 3 [az + bl]) = (ax + bm, 2 [ay + bn] , 3 [az + bl]) T {(x, y, z)} = (z, y, x) →
T {a (x, y, z) + b (m, n, l)} = aT {(x, y, z)} + bT {(m, n, l)}
rP
T {(ax + bm, ay + bn, az + bl)} = a (z, y, x) + b (l, n, m)
(az + bl, ay + bn, ax + bm) = (az + bl, ay + bn, ax + bm)
Claramente,
ad o
2. Cosas tan sencillas como la multiplicaci´on por un n´ umero es una transformaci´on (u operador) lineal T : V → V tal que T |vi = |v 0 i = α |vi T [a |vi + b |wi] = aT |vi + bT |wi = aα |vi + bα |wi
Obviamente, si α = 1 tenemos la transformaci´on identidad que transforma todo vector en s´ı mismo; si α = 0 tendremos la transformaci´ on cero, vale decir que lleva a todo |vi ∈ V a al elemento cero |0i
Bo rr
3. La definici´ on de producto interno tambi´en puede ser vista como una transformaci´on (operador) lineal T:V→R T |vi = α hc |vi ≡ α Otra vez:
T [a |vi + b |wi] = hc| [a |vi + b |wi] = a hc |vi + b hc |wi
por lo tanto es lineal. Esto implica que tambi´en la proyecci´on de un determinado |vi ∈ V sobre un subespacio S es un operador lineal, y lo denotaremos como [|si hs|] |vi = hs |vi |si = |vs i
Hern´ andez & N´ un ˜ez
con |si y |vs i ∈ S
Universidad de los Andes / Universidad Industrial de Santander
194
4.1. OPERADORES LINEALES
esta idea se extiende f´ acil si para un proyector T : Vm → Sn con m > n de tal modo que para un vector |vi ∈ Vm
Pm |vi ≡ |ui i ui m |vi = ui |vim |ui i = |vm i con {hui |} base de Sn . Es claro que estamos utilizando la convenci´on de Einstein para la suma de ´ındices.
a trav´es de n × m n´ umeros, aij , organizados de la siguiente forma i = 1, 2, · · · , m i i j y = aj x con j = 1, 2, · · · , n una vez m´ as,
in ar
4. Las ecuaciones lineales tambi´en pueden verse como transformaciones lineales. Esto es, considere una transformaci´ on lineal T : Vn → Vm . Por lo tanto asociaremos |yi = T |xi ⇒ y 1 , y 2 , y 3 , · · · , y m = T x1 , x2 , x3 , · · · , xn
re lim
T [α |vi + β |wi] = T α v 1 , v 2 , v 3 , · · · , v n + β w1 , w2 , w3 , · · · , wn = αaij v j + βaij wj = T αv 1 + βw1 , αv 2 + βw2 , αv 3 + βw3 , · · · , αv n + βwn j = aij (αv + βw) = αaij v j + βaij wj = aij αv j + βwj
5. La derivada es un operador lineal. As´ı podemos representar el operador lineal diferenciaci´on como |v 0 i = T |vi
|y 0 i = D |yi
→
es claro que
→
D [y(x)] ≡
dy(x) d [y(x)] ≡ ≡ y 0 (x) dx dx
rP
D [αf (x) + βg(x)] = αD[f (x)] + βD[g(x)] ≡ αf 0 (x) + βg 0 (x) igualmente podemos asociar un operador diferencial de cualquier orden a una derivada del mismo orden, esto es
|y 000 i = D3 |yi
Bo rr
.. . E (n) = Dn |yi y
d2 d2 y(x) [y(x)] ≡ ≡ y 00 (x) dx2 dx2 d3 y(x) d3 [y(x)] ≡ ≡ y 000 (x) D3 [y(x)] ≡ 3 dx dx3
D2 [y(x)] ≡
→
ad o
|y 00 i = D2 |yi
→
Dn [y(x)] ≡
→
dn dn y(x) [y(x)] ≡ ≡ y (n) (x) n dx dxn
6. Igualmente, cualquier ecuaci´ on diferencial lineal es un ejemplo de operador lineal, esto es y 00 − 3 y 0 + 2 y = D2 − 3D + 2 y(x) es claro que si y(x) = αf (x) + g(x) la linealidad es evidente 00
0
(αf (x) + g(x)) − 3 (αf (x) + g(x)) + 2 (αf (x) + g(x)) = α (f 00 − 3 f 0 + 2 f ) + g 00 − 3 g 0 + 2 g 2
↑↓
D − 3D + 2 (αf (x) + g(x)) = D − 3D + 2 αf (x) + D2 − 3D + 2 g(x) . Hern´ andez & N´ un ˜ez
2
Universidad de los Andes / Universidad Industrial de Santander
195
4.1. OPERADORES LINEALES
7. La integral tambi´en es un operador lineal Z g(x) =
x
f (t)dt
T {f (t)}
a
8. Otro ejemplo t´ıpico son los operadores de transformaciones integrales b
Z
K (s, t) f (t)dt
F (s) =
T {f (t)}
a
in ar
donde K (s, t) es una funci´ on conocida de s y t, denominada el n´ ucleo de la transformaci´on. Si a y b son finitos la transformaci´ on se dir´ a finita, de lo contrario infinita. ∞ As´ı, si f (t) = αf1 (t) + f2 (t) con f1 (t) y f2 (t) ∈ C[a,b] es obvio que:
Z F (s)
b
Z K (s, t) [αf1 (t) + βf2 (t)] = α
= a
a
= αF (s1 ) + βF (s2 )
b
Z
K (s, t) f1 (t)dt + β
K (s, t) f2 (t)dt
a
T {[αf1 (t) + βf2 (t)]} = αT {f1 (t)} + βT {f2 (t)}
re lim
F (s)
b
Dependiendo de la selecci´ on del n´ ucleo y los limites tendremos distintas transformaciones integrales. En F´ısica las m´ as comunes son: F (s) = T {f (t)}
Nombre Laplace
R∞
F (s) =
∞
Z
sen(st) f (t)dt cos(st)
F (s) =
0
Z
Fourier compleja
e−st f (t)dt
rP
Fourier de senos y cosenos
0
f (t) = T−1 {F (s)}
f (t) =
1 2πi
Z
∞
F (s) =
e
f (t)dt
Z
tJn (st)f (t)dt
e−ist F (s)ds
−∞
∞
F (s) =
∞
f (t) = ∞
Z f (t) =
0
sJn (ts)F (s)ds 0
Z
F (s) =
∞
ts−1 f (t)dt
0
f (t) =
1 2πi
R γ+i∞ γ−i∞
s−t F (s)ds
Bo rr
Mellin
ad o
Hankel
est F (s)ds
sen(st) F (s)ds cos(st)
0
−∞
Z
γ−i∞
f (t) =
∞
ist
R γ+i∞
4.1.1.
Espacio vectorial de operadores lineales
Un conjunto de operadores lineales {A, B, C · · · } : V1 →V2 puede constituir un espacio vectorial lineal si se dispone entre ellos de la operaci´ on suma y la multiplicaci´on por un n´ umero. As´ı, claramente, dado {A, B, C · · · }, y definida A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i (χA + B) |vi ≡ χA |vi + B |vi / B [α |v1 i + β |v2 i] = α B |v1 i + β B |v2 i
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
196
4.1. OPERADORES LINEALES
es directo comprobar que (χA + B) [α |v1 i + β |v2 i] = χA [α |v1 i + β |v2 i] + B [α |v1 i + β |v2 i] = χ (α A |v1 i + β A |v2 i) +α B |v1 i + β B |v2 i = χ (α A |v1 i +α B |v1 i) + β A |v2 i + β B |v2 i ⇓ (χA + B) [α |v1 i + β |v2 i] = χA [α |v1 i + β |v2 i] + B [α |v1 i + β |v2 i] Igualmente, se cumple que con A + B + C lineales en V [(A + B) + C] |vi = (A + B) |vi + C |vi
∀
= A |vi + B |vi + C |vi = A |vi + (B + C) |vi
|vi ∈ V1
re lim
= [A+ (B + C)] |vi ,
in ar
(A + B) + C = A+ (B + C)
del mismo modo se puede comprobar f´ acilmente
A+B=B+A
Ahora bien, si definimos la transformaci´ on cero de V1 →V2 tal que |0i = O |vi
∀
|vi ∈ V1
rP
le asigna a el vector |0i ∈ V2 ∀ |vi ∈ V1 , entonces el operador lineal O ser´a el elemento neutro respecto a la suma de operadores. Finalmente, el elemento sim´etrico queda definido por (−A) |vi = −A |vi
⇒
(A − A) |vi = O |vi = |0i
4.1.2.
ad o
Con ello queda demostrado que los operadores lineales forman un espacio vectorial el cual de ahora en adelante denominaremos L (V1 , V2 ) .
Composici´ on de operadores lineales
El producto o composici´ on de dos operadores lineales, A y B se denotar´a AB y significar´a que primero se aplica B y al resultado se aplica A. Esto es
Bo rr
AB |vi = A (B |vi) = A |˜ v i = |˜ v0 i
La composici´ on de funciones cumple con las siguientes propiedades (AB) C = A (BC) ;
α (AB) = (αA) B = A (αB) ;
(A1 + A2 ) B = A1 B + A2 B ;
A (B1 + B2 ) = AB1 + AB2
Es decir, que la composici´ on de operadores es asociativa y distributiva a la suma y que conmuta respecto a la multiplicaci´ on por n´ umeros. Por otro lado si I es el operador Identidad I |vi = |vi
Hern´ andez & N´ un ˜ez
⇒
AI = IA = A .
Universidad de los Andes / Universidad Industrial de Santander
197
4.1. OPERADORES LINEALES
En general AB 6= BA, por lo tanto podemos construir el conmutador de estos operadores como [A, B] = AB − BA
/
[AB − BA] |vi = AB |vi − BA |vi
Es inmediato comprobar algunas de las propiedades m´as u ´tiles de los conmutadores: [A, B] = − [B, A] [A, (B + C)] = [A, B] + [A, C] [A, BC] = [A, B] C + B [A, C]
in ar
0 = [A, [B, C]] + [B, [C, A]] + [C, [A, B]] Dados dos vectores |v1 i y |v2 i definiremos como el elemento de matriz del operador A al producto interno de dos vectores hv2 | (A |v1 i) ≡ A(|v1 i,|v2 i) ,
A : V1 → V2 denominada isomorf´ısmo, tal que: 1. A es biyectiva
re lim
es claro que A(|v1 i,|v2 i) ser´ a en general un n´ umero complejo, pero esto lo veremos detalladamente en la Secci´ on 4.2. Diremos que dos espacios vectoriales V1 , V2 son isomorfos si existe una transformaci´on ⇒
|v 0 i = A |vi ,
2. A es lineal: A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i
∀
|v1 i y |v2 i ∈ V1 .
rP
El que A sea biyectiva nos garantiza que existe la transformaci´on inversa A−1 , que tambi´en ser´a biyectiva. Es decir, podr´ıamos hablar de manera equivalente de una transformaci´on F : V2 → V1 . Volveremos a este tema m´ as adelante. Ejemplos
ad o
1. Potencias de Operadores: Uno de los ejemplos m´as u ´tiles en la composici´on de operadores lo constituyen las potencias de los operadores, las cuales provienen de la aplicaci´on consecutiva de un mismo operador, A0 = I ;
A1 = A ;
A2 = AA ;
A3 = A2 A = AAA ; · · ·
Bo rr
es claro que las potencias de operadores cumplen las propiedades est´andares de las potencias de n´ umeros An+m = An Am ;
m
(An )
= Anm .
Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0 del tipo An |vi = |0i ∀ |vi ∈ V1 y |0i ∈ V2 . Es decir, un operador que lleva cualquier vector |vi al elemento neutro de V2 . El ejemplo m´ as notorio es el operador diferencial Dn P n−1 = |0i
dn i dn P (x) = ai x = 0 , n−1 dxn dxn
con P n−1 perteneciente al espacio de polinomios de grado n − 1.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
198
4.1. OPERADORES LINEALES
∞ 2. Operador Ecuaciones Diferenciales. Si consideramos el espacio de funciones f (x) ∈ C[a,b] podemos construir un operador diferencial dn d2 d + a2 2 + · · · + an n f (x) , a0 + a1 D + a2 D2 + · · · + an Dn |f i ⇒ a0 + a1 dx dx dx
con {a0 , a1 , a2 , · · · an } coeficientes constantes. De este modo, por ejemplo 2 d d − 3 D2 − 3D + 2 y = (D − 1) (D − 2) y ⇒ + 2 y(x) = y 00 − 3 y 0 + 2 y . dx2 dx
Proyectores
in ar
4.1.3.
re lim
La notaci´ on de Dirac se hace particularmente conveniente para representar proyectores. Hasta ahora, hemos relacionado un funcional lineal, un bra hw| del espacio dual V∗ , con un vector ket |vi del espacio vectorial V a trav´es de su producto interno hw| vi, el cual es, en general, un n´ umero complejo. Ahora escribiremos esta relaci´ on entre vectores y formas diferenciales de una manera diferente: la relaci´on entre hw| y |vi un ket |Ψi o un bra hΦ| arbitrarios puede ser |vi hw| Ψi |vi hw| ⇒ hΦ |vi hw| La primera ser´ a la multiplicaci´ on del vector |vi por el n´ umero complejo hw| Ψi, mientras que la segunda relaci´ on ser´ a la multiplicaci´ on de la forma hw| por el complejo hΦ |vi. Es imperioso se˜ nalar que el orden en la escritura de los vectores y formas es cr´ıtico, s´olo los n´ umeros complejos λ se pueden mover con impunidad a trav´es de estas relaciones λ hw| = hλw| = hw| λ
rP
λ |vi = |λvi = |vi λ,
hw| λ |vi = λ hw| vi = hw| vi λ
y
A |λvi = Aλ |vi = λA |vi .
Por lo tanto, dado un vector |vi, podemos construir un proyector P|vi a lo largo del vector |vi con hv| vi = 1 ,
ad o
P|vi ≡ |vi hv| ,
siempre y cuando este operador lineal cumpla P|vi [α |z1 i + β |z2 i] |vi hv| [α |z1 i + β |z2 i]
Bo rr
adem´ as:
P2|vi
= α P|vi |z1 i + β P|vi |z2 i
= |vi hv| α |z1 i + |vi hv| β |z2 i = α |vi hv |z1 i + β |vi hv |z2 i ,
= P|vi
P|vi P|vi |zi =
⇐⇒
(|vi hv|) (|vi hv|) = |vi hv|
(|vi hv|) (|vi hv|) |zi = |vi hv |vi hv |zi = |vi hv |zi = P|vi |zi . | {z } 1
As´ı, el operador P|vi actuando sobre el vector |Ψi representar´a la proyecci´on de |Ψi a lo largo de |vi P|vi |Ψi = |vi hv| Ψi ≡ hv| Ψi |vi .
Es inmediato construir un proyector de un vector sobre un subespacio Sq . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
199
4.1. OPERADORES LINEALES
Sea {|e1 i , |e2 i , |e3 i , · · · , |eq i} un conjunto ortonormal de vectores que expande Sq , por lo tanto, definiremos el proyector Pq al proyector sobre el subespacio Sq de la forma
Pq = |ei i ei q , es claro que P2q = Pq : δji
z }| {
P2q |vi = Pq Pq |vi ⇒ P2q |vi = |ei i ei q |ej i ej q |vi = |ei i ei |ej i ej |vi = |ej i ej |vi ≡ Pq |vi
4.1.4.
in ar
∀ |vi ∈ V.
Funciones de operadores
Bas´ andonos en el primero de los ejemplos anteriores se puede construir un “polinomio” en potencias de los operadores:
re lim
Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn = ai xi Pn (A) |vi = a0 + a1 A + a2 A2 + · · · + an An |vi = ai Ai |vi ∀ |vi ∈ V1 .
Lo anterior nos permite extender la idea de operadores a funciones de operadores, es decir, si nos saltamos todos los detalles de convergencia de la serie anterior, los cuales depender´an de los autovalores de A y de su radio de convergencia; entonces, as´ı como podemos expresar cualquier funci´on F (z) como una serie de potencias de z en un cierto dominio, podremos expresar la funci´on de un operador, F (A), como una serie de potencias del operador A, esto es F (z) = ai z i F (A) |vi = ai Ai |vi .
rP
Por ejemplo, podemos expresar
# ∞ X A An An |vi = I + A + + · · · + · · · |vi . e |vi = n! 2! n! n=0 "
A
ad o
En este caso hay que hacer una acotaci´ on, dado que, en general, [A, B] 6= 0 ⇒ eA eB 6= eB eA 6= eA+B . Esta afirmaci´ on se corrobora de manera inmediata al desarrollar las exponenciales "∞ #" ∞ # "∞ ∞ # X An X Bm X X An Bm eA eB |vi = |vi = |vi , n! m! n! m! n=0 m=0 n=0 m=0 ∞ X Bn e e |vi = n! n=0
"
Bo rr
B A
# "∞ ∞ # ∞ X X X Bn Am Am |vi = |vi , m! n! m! m=0 n=0 m=0
#"
# ∞ n X (A + B) eA+B |vi = |vi , n! n=0 "
s´ olo en el caso que [A, B] = 0 ⇒ eA eB = eB eA = eA+B . La demostraci´ on es inmediata pero requiere expandir y rearreglar las sumatorias arriba expuestas. M´ as adelante, en la Secci´ on 4.3.2, demostraremos con detalle la relaci´on de Glauber: 1
eA eB = eA+B e 2 [A,B] . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
200
4.1. OPERADORES LINEALES
4.1.5.
Espacio Nulo e Imagen
El conjunto de todos los |vi ∈ V1 / A |vi = |0i, se denomina espacio nulo, n´ ucleo o kernel (n´ ucleo en alem´ an) de la transformaci´ on A y lo denotaremos como ℵ (A). En s´ımbolos diremos que ℵ (A) = {|vi ∈ V1
∧
A |vi = |0i} .
in ar
Adicionalmente, ℵ (A) ⊂ V1 ser´ a un subespacio de V1 . La prueba de esta afirmaci´on es inmediata. Dados |v1 i , |v2 i ∈ ℵ (A), con A un operador lineal, es claro que A |v1 i = |0i ⇒ α1 A |v1 i + α2 A |v2 i = |0i = A (α1 |v1 i + α2 |v2 i) , A |v2 i = |0i por la misma raz´ on se tiene que el elemento neutro est´a contenido en ℵ (A), esto es A |α vi = |0i
∀
|vi ∈ V1
∧
∀
α
∴
A |0i = |0i
si α = 0 ,
re lim
por lo tanto, queda demostrado que ℵ (A) es un subespacio de V1 . Por otra parte, definiremos imagen (rango o recorrido) de A, y la denotaremos como = (A) = {|v 0 i ∈ V2
∧
A |vi = |v 0 i} ,
igualmente = (A) ⊂ V2 tambi´en ser´ a un subespacio de V2 ya que si |vi = α1 |v1 i + α2 |v2 i y dado que A es un operador lineal, se cumple que
rP
A α1 |v1 i + α2 |v2 i = α1 A |v1 i + α2 A |v2 i = α1 |v10 i + α2 |v20 i . | {z } | {z } | {z } | {z } |vi |v 0 i |v10 i |v20 i Es claro que si V es de dimensi´ on finita, A {V} = n tambi´en ser´a de dimensi´on finita n y tendremos que dim [ℵ (A)] + dim [= (A)] = dim [V] ,
Bo rr
ad o
vale decir, que la dimensi´ on del n´ ucleo m´ as la dimensi´on del recorrido o imagen de una transformaci´on lineal es igual a la dimensi´ on del dominio. Para demostrar esta afirmaci´ on supongamos que dim [V] = n y que {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V es una base de ℵ (A), donde k = dim [ℵ (A)] ≤ n. Como {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V estos elementos forman base, y por lo tanto, son linealmente independientes, necesariamente ellos formar´ an parte de una base mayor de V. Esto es: {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} ∈ V ser´a una base de V donde k+r = n. El esquema de la demostraci´ on ser´ a: primero probaremos que {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} forman una base para A {V} luego demostraremos que dim [A {V}] = r y como hemos supuesto que k + r = n habremos demostrado la afirmaci´ on anterior.
Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} entonces cualquier elemento |wi ∈ A {V} / |wi = A |vi = C i |Aei i , con |Aei i = A |ei i
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
201
4.1. OPERADORES LINEALES
Ahora bien, analicemos con cuidado los l´ımites de la suma impl´ıcita del ´ındice i = 1, 2, · · · , k + r |wi = C i |Aei i = C 1 |Ae1 i + C 2 |Ae2 i + · · · + C k |Aek i + C k+1 |Aek+1 i + · · · + C k+r |Aek+r i | {z } =|0i
ya que A|e1 i=A|e2 i=A|e3 i···=A|ek i=|0i
Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V}. Ahora bien, para demostrar que son base, demostraremos que son linealmente independientes, para ello supondremos que k+1 k+2 ∃ C ,C , · · · , C k+r / C i |Aei i = 0 con i = k + 1, k + 2, · · · , k + r
in ar
y tenemos que demostrar que C k+1 = C k+2 = · · · = C k+r = 0. Entonces C i |Aei i = C i A |ei i = A C i |ei i = 0 con i = k + 1, k + 2, · · · , k + r
por lo tanto el elemento |vi = C i |ei i ∈ ℵ (A) con i = k + 1, k + 2, · · · , k + r. Con lo cual, dado que ∀ |vi ∈ ℵ (A) , |vi = C i |ei i con i = 1, 2, · · · , r, entonces se puede hacer la siguiente resta k X i=1
k+r X
C i |ei i −
C i |ei i
i=k+1
re lim
|vi − |vi =
y como los {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} son una base de V entonces las C k+1 = C k+2 = · · · = C k+r = 0. Ejemplos
1. Transformaciones Identidad: Sea I : V1 →V2 , la transformaci´on identidad, |vi ∈ V1
/
I |vi = |vi
⇒
ℵ (I) = {|0i} ⊂ V1
rP
∀
ad o
2. Sistemas de ecuaciones lineales: En Vn las soluciones a sentan el espacio nulo, ℵ (A), para vectores de Vn A11 A12 · · · A1n A21 A22 ··· A |xi = |0i . . .. .. An1
An2
Ann
∧
= (I) ≡ V1
los sistemas de ecuaciones lineales reprex1 x2 .. . xn
=
0 0 .. .
Aij xi = 0 ,
0
con j ecuaciones (j = 1, 2, · · · , n). Recordemos que estamos utilizando la convenci´on de Einstein para suma de ´ındices.
Bo rr
2 3. Ecuaciones diferenciales ordinarias: Sea C[−∞,∞] el espacio vectorial de todas las funciones con2 tinuas doblemente diferenciables. Definimos A : C[−∞,∞] → C[−∞,∞] como la transformaci´on lineal 2 2 D − 1 tal que para todas las y(x) ∈ C[−∞,∞] se cumple
A |xi = |0i
D2 − 1 y(x) = 0
d2 − 1 y(x) = y 00 − y = 0 . dx2
El n´ ucleo o espacio nulo de A, ℵ (A), lo constituyen el conjunto de soluciones para la mencionada ecuaci´ on diferencial. Por lo tanto, el problema de encontrar las soluciones de la ecuaci´on diferencial es equivalente a encontrar los elementos del n´ ucleo de A.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
202
4.1. OPERADORES LINEALES
4.1.6.
Operadores biyectivos e inversos
Se dice que A : V1 →V2 es biyectivo (uno a uno o biun´ıvoco) si dados |v1 i , |v2 i ∈ V1 , ∧ |v 0 i ∈ V2 , se tiene que A |v1 i = |v 0 i ∧ A |v2 i = |v 0 i ⇒ |v1 i = |v2 i ,
1
2
in ar
es decir, ser´ a biyectiva si A transforma vectores distintos de V1 en vectores distintos de V2 . M´as a´ un, se puede afirmar que una transformaci´ on lineal A, ser´a biyectiva si y s´olo si ℵ (A) = {|0i}. Vale decir, si el subespacio nulo est´ a constituido, u ´nicamente por el elemento neutro del espacio vectorial. La demostraci´ on es sencilla. Supongamos que A es biyectiva y que A |vi = |0i, entonces |vi = |0i, es decir, A |0i = |0i, por consiguiente ℵ (A) = {|0i}. Rec´ıprocamente, si ℵ (A) = {|0i} ∧ ⇒ A |v1 i − A |v2 i = |0i = A |v1 i − |v2 i ⇒ |v1 i = |v2 i . | {z } A |v1 i = A |v2 i |v i−|v i=0
rP
re lim
La importancia de las transformaciones lineales uno a uno o biyectivas reside en la posibilidad de definir inversa, debido a que siempre existe en V2 un vector |v 0 i asociado a trav´es de A con un vector |vi ∈ V1 . Diremos que A−1 : V2 →V1 es el inverso de A, si A−1 A = I = AA−1 . Habr´ıa que hacer un par de comentarios al respecto. El primero es que, tal y como hemos enfatizado arriba, en general, los operadores no conmutan entre si, y los inversos no son una excepci´on. Es decir, deber´ıan existir (y de hecho existen) inversas por la izquierda A−1 A e inversas por la derecha AA−1 . Por simplicidad e importancia en F´ısica obviaremos esta dicotom´ıa y supondremos que A−1 A = I = AA−1 . El segundo comentario tiene que ver con la existencia y unicidad del inverso de un operador lineal. Algunos operadores tienen inverso, otros no, pero aquellos quienes tienen inverso, ese inverso es u ´nico. Veamos, supongamos que A−1 1 A |vi = |vi −1 −1 −1 −1 ∧ A |vi ⇒ A−1 ⇒ A−1 1 = A2 . 1 A |vi − A2 A |vi = |0i = A1 − A2 | {z } A−1 2 A |vi = |vi −1 −1 A1 =A2
ad o
Ahora bien, un operador lineal A tendr´a inverso s´ı y s´olo s´ı para cada vector |v 0 i ∈ V2 ∃ |vi ∈ V1 / A |vi = |v 0 i. Es decir, cada vector |v 0 i est´a asociado con uno y s´olo un vector |vi a trav´es de la transformaci´ on lineal A. Dejaremos sin demostraci´on esta afirmaci´on pero lo importante es recalcar que para que exista inverso la transformaci´ on lineal A, tiene que ser biyectiva y esto implica que se asocia uno y s´ olo un vector de V1 con otro de V2 . Todav´ıa podemos a˜ nadir algunas demostraciones consecuencias de las afirmaciones anteriores. Sea la transformaci´ on lineal T : V1 → V2 y supongamos adem´as que T ∈ L (V1 , V2 ). Entonces las siguientes afirmaciones son v´ alidas y equivalentes
Bo rr
1. T es biyectiva en V1
2. T es invertible y su inversa T−1 : T {V1 } → V1 es lineal
3. ∀ |vi ∈ V1 , T {|vi} = |0i ⇒ |vi = |0i esto es, el espacio nulo ℵ (T) u ´nicamente contiene al elemento neutro de V1 .
Si ahora suponemos que V1 tiene dimensi´on finita, digamos dim [V1 ] = n, las siguientes afirmaciones ser´ an v´ alidas y equivalentes 1. T es biyectiva en V1 Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
203
4.1. OPERADORES LINEALES
2. Si {|u1 i , |u2 i , |u3 i , · · · |un i} ∈ V1 son linealmente independientes, entonces, el conjunto de transformaciones lineales: {T {|u1 i} , T {|u2 i} , T {|u3 i} , · · · T {|un i}} ∈ T {V1 } tambi´en ser´a linealmente independientes. 3. dim [T {V1 }] = n. 4. Si {|e1 i , |e2 i , |e3 i · · · |en i} ∈ V1 es una base de V1 , entonces {T {|e1 i} , T {|e2 i} , T {|e3 i} · · · T {|en i}} ∈ T {V1 } es una base de T {V1 }.
4.1.7.
Operadores herm´ıticos conjugados (hw| A) |vi = hw| (A |vi) , | {z } | {z } hw0 |
|v 0 i
in ar
Definiremos la acci´ on de un operador A sobre un bra de la forma siguiente
hw| = λ1 hz1 | + λ2 hz2 |
re lim
por lo cual, lo que estamos diciendo es que no importa donde opere A. Recordemos que cada vector en V tiene asociado un vector en V∗ . Podemos demostrar que A operando sobre los bra es lineal. Esto es, dado
(hw| A) |vi ≡ (λ1 hz1 | + λ2 hz2 | A) |vi = (λ1 hz1 | + λ2 hz2 |) (A |vi) = λ1 hz1 | (A |vi) + λ2 hz2 | (A |vi) = λ1 (hz1 | A) |vi + λ2 (hz2 | A) |vi .
rP
Siguiendo con esta l´ ogica podemos construir la acci´on del operador herm´ıtico conjugado, A† . Para ello recordamos que igual que a cada vector (ket) |vi le est´a asociado una forma lineal (bra) hv|, a cada ket transformado A |vi = |v 0 i le corresponder´ a un bra transformado hv 0 | = hv| A† . Por lo tanto |vi
0
|v i = A |vi
⇐⇒
⇐⇒
hv|
hv 0 | = hv| A† .
ad o
Ahora bien, si A es lineal, A† tambi´en lo ser´a, dado que a un vector |wi = λ1 |z1 i + λ2 |z2 i le corresponde un bra hw| = λ∗1 hz1 | + λ∗2 hz2 | (la correspondencia es antilineal). Por lo tanto, |w0 i = A |wi = λ1 A |z1 i + λ2 A |z2 i , por ser A lineal, entonces |w0 i ⇐⇒ hw0 | ≡ hw| A† = (λ∗1 hz1 | + λ∗2 hz2 |) A† ≡ λ∗1 hz10 | + λ∗2 hz20 | = λ∗1 hz1 | A† + λ∗2 hz2 | A† . Es claro que de la definici´ on de producto interno en la notaci´on de Dirac, se desprende ∗
∀
Bo rr
hx0 | yi = hy| x0 i
∗
|x0 i = A |xi , |yi ∈ V ⇒ hx| A† |yi = hy| A |xi ∀ |xi , |yi ∈ V .
Igualmente se pueden deducir las propiedades de los operadores herm´ıticos conjugados A†
†
= A;
†
(λA) = λ∗ A† ;
†
(A + B) = A† + B† ;
†
(AB) = B† A† .
Esta u ´ltima propiedad es f´ acilmente demostrable y es educativa su demostraci´on. Dado que |v 0 i = AB |vi, y adem´ as se tiene que |¯ v i = B |vi † ⇒ hv 0 | = h¯ v | A† = hv| B† A† = hv| (AB) . vi |v 0 i = A |¯
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
204
4.1. OPERADORES LINEALES
A partir de las propiedades anteriores se deriva una m´as u ´til relacionada con el conmutador † † † † † [A, B] = − A , B = B , A . La conclusiones a las que llegamos resultan ser que para obtener el herm´ıtico conjugado de una expresi´ on se debe proceder de la siguiente manera: Cambiar constantes por sus complejas conjugadas λ λ∗ . Cambiar los kets por sus bras asociados y viceversa (bras por kets): |vi hv|. Cambiar operadores lineales por sus herm´ıticos conjugados A† A.
De este modo
in ar
Inviertir el orden de los factores. †
(|vi hw|) = |wi hv| ,
4.1.8.
re lim
que se deduce f´ acilmente de la consecuencia de la definici´on de producto interno † ∗ ∗ ∗ hx| |vi hw| |yi = hy| (|vi hw|) |xi = hy| |vi hw| |xi = hx| |wi hv| |yi .
Operadores herm´ıticos
Existe un conjunto de operadores que se denominan herm´ıticos a secas o autoadjunto. Un operador herm´ıtico (o autoadjunto) ser´ a aquel para el cual A† = A. Con esto ∗
hx| A† |yi = hx| A |yi = hy| A |xi .
rP
Estos operadores juegan el rol de los n´ umeros reales en el sentido de que son “iguales a su propio complejo conjugado” y se utilizan como los observables en la Mec´anica Cu´antica. Claramente los proyectores son autoadjuntos por construcci´on †
P†|vi ≡ (|vi hv|) = |vi hv| .
4.1.9.
ad o
Si A† = −A el operador lineal se denomina antiherm´ıtico.
Operadores unitarios
Por definici´ on, un operador ser´ a unitario si su inversa es igual a su adjunto. Esto es U−1 = U†
⇒
U† U = UU† = I
Bo rr
De estos operadores podemos decir varias cosas: Las transformaciones unitarias dejan invariantes al producto interno y consecuentemente la norma de vectores, esto se demuestra f´ acilmente. Dados dos vectores |xi , |yi sobre los cuales act´ ua un operador unitario |˜ xi = U |xi ⇒ h˜ y |˜ xi = hy| U† U |xi = hy |xi . |˜ y i = U |yi Es claro que si A es herm´ıtico, A† = A, el operador T = eiA es unitario. †
T = eiA ⇒ T† = e−iA = e−iA ⇒ TT† = eiA e−iA = I = T† T = e−iA eiA . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
205
4.1. OPERADORES LINEALES
El producto de dos operadores unitarios tambi´en es unitario. Esto es, si U y V son unitarios entonces † (UV) † (UV) = V† U UV = V† V = I |{z} I †
†
† † (UV) (UV) = UVV |{z}U = UU = I . I
4.1.10.
Ejercicios
1. Cu´ al de las siguientes transformaciones definidas sobre V3 son lineales T |xi = |xi + |ai donde |ai es un vector constante diferente de cero. T |xi = |ai T |xi = ha |xi |ai T |xi = ha |xi |xi
in ar
a) b) c) d)
2. Considere las siguientes operaciones en el espacio de los polinomios en x y diga si corresponden a transformaciones lineales: b) La multiplicaci´on por x2 .
b) La diferenciaci´on.
re lim
a) La multiplicaci´ on por x.
3. Dado un operador herm´ıtico A y uno unitario U, pruebe las siguientes afirmaciones −1 † a) En general C† = C−1 , con C un operador gen´erico. ˜ = U−1 AU es tambi´en un operador herm´ıtico b) A ˜ = iA c) Si A es antiherm´ıtico entonces A d ) La composici´ on de dos operadores, A y B herm´ıticos ser´a herm´ıtica si y s´ olo si A y B conmuntan. −1
ad o
rP
e) Si S es un operador real y antisim´etrico, pruebe que el operador A = (I − S) (I + S) es un operador ortogonal.1 f ) Si cos(θ) sen(θ) A⇒ . Encuentre la expresi´on para S. −sen(θ) cos(θ) √ 4. Si un operador lineal C NO es herm´ıtico, entonces pruebe que C + C† y i C − C† , con i = −1, ser´ an herm´ıticos. Esto, obviamente implica que siempre podremos separar un operador lineal como 1 1 C = C + C† + C − C† . 2 2 † donde C + C representa su parte herm´ıtica y C − C† su parte antiherm´ıtica.
Bo rr
5. Suponga que un operador L puede ser escrito como la composici´on de otros dos operadores L = L− L+ con [L− , L+ ] = I. Demostrar que Si L |xi = λ |xi
y
|yi = L+ |xi
entonces
L |yi = (λ + 1) |yi
y
|zi = L− |xi
entonces
L |zi = (λ − 1) |zi
y, del mismo modo, demuestre que Si L |xi = λ |xi
Por ello es costumbre denominar a L+ y L− los operadores de “subidas” y de “bajada” respectivamente, ya que ellos construyen otros vectores con autovalores mayores (menores) en una unidad al vector operado.
1 Esto
es AT = A−1 con AT el traspuesto de A.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
206
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
4.2.
Representaci´ on matricial de operadores
Supongamos un operador lineal A en el espacio vectorial de transformaciones lineales L (V, W) donde dim (V) = n y dim (W) = m, y sean {|e1 i , |e2 i , |e3 i , · · · |en i} y {|˜e1 i , |˜e2 i , |˜e3 i , · · · |˜em i} las bases para V y W respectivamente. Entonces A |ei i ∈ W A |ei i = Aα eα i i |˜
con i = 1, 2, .., n y α = 1, 2, .., m .
Las Aα on de A |ei i en la base {|˜e1 i , |˜e2 i , |˜e3 i , · · · |˜em i}. i son las componentes de la expansi´ Para un vector gen´erico |xi tendremos que pero, a su vez |xi = xi |ei i ,
in ar
|˜ xi = A |xi = x ˜α |˜eα i con lo cual
|˜ xi = A |xi = x ˜α |˜eα i = A xi |ei i = xi A |ei i = xi Aα eα i ⇒ i |˜
i eα i = 0 ⇒ x ˜ α = Aα x ˜ α − x i Aα i |˜ i x .
Varias cosas se pueden concluir hasta este punto:
de tal modo que se cumpla
x ˜1 x ˜2 .. .
=
A11 A21 .. . Aα 1 .. . Am 1
ad o
|˜ xi → α x ˜ x ˜m
rP
re lim
1. Si acordamos que los ´ındices de arriba indican filas podemos representar los vectores como un arreglo vertical de sus componentes y las cantidades Aα i por una matriz. 1 A1 A12 · · · A1j · · · A1n 1 A21 A22 A2j A2n x . . . 2 x .. .. .. α |xi → . , Ai → α α α α , A A A A .. n 2 j 1 . .. .. xn .. . . m m m m A1 A2 Aj An
A12 A22
··· ..
A1j A2j
.. .
.
Aα 2 .. . Am 2
···
Aα j .. Am j
.
A1n A2n α An Am n
x1 x2 .. .
. j x xn
Bo rr
Las cantidades Aα on del operador A en las bases {|en i} y {|˜em i} de V y W respecj es la representaci´ tivamente. Es decir, definiremos una matriz Aij como un arreglo de n´ umeros donde el super´ındice, i, indica fila y el sub´ındice, j, columna: 1 1 A1 A1 A12 · · · A1n 2 2 A21 A22 A n A1 A11 A12 · · · A1n . Aij = . , , . . .. .. .. An1
An2
Ann
An1
2. Diremos que las componentes de los vectores transforman como i x ˜ α = Aα i x .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
207
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
3. Si suponemos {|e1 i , |e2 i , |e3 i , · · · |en i} y {|˜e1 i , |˜e2 i , |˜e3 i , · · · |˜em i} bases ortonormales x ˜α = h˜eα |˜ xi = h˜eα | A |xi = h˜eα | A xi |ei i = xi h˜eα | A |ei i , eα | A |ei i ser´ a la representaci´on matricial de la transformaci´on lineal A. queda claro que Aα i ≡ h˜ 4. Los vectores |ek i transforman de la siguiente manera |ei i = Aji |˜ej i ,
in ar
donde {|ei i} y {|˜ej i} son las bases para V y W respectivamente. Definitivamente, las matrices son uno de los objetos m´as u ´tiles de las Matem´aticas. Ellas permiten aterrizar conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por James Joseph Sylvester2 y su teor´ıa desarrollada por Hamilton3 y Cayley4 . Si bien los f´ısicos las consideramos indispensables, no fueron utilizadas de manera intensiva hasta el aparici´on de la Mec´anica Cu´antica alrededor de 1925.
4.2.1.
Bases y la representaci´ on matricial de operadores
rP
re lim
Es importante recalcar que la representaci´on matricial de un operador depende de las bases {|en i} y {|˜em i} de V y W respectivamente. Si tenemos otras bases ortonormales para V y W vale decir, {|¯en i} y {|ˇem i} su representaci´ on ser´ a distinta. Esto es: A˜11 A˜12 · · · A˜1j · · · A˜1n A˜2 A˜2 A˜2n A˜2j 1 2 . .. .. . . . . hˇeα | A |¯ej i = A˜α . j ⇒ ˜α ˜α ˜α A1 A˜α A A n 2 j .. .. .. . . . A˜m A˜m A˜m A˜m n 1
2
j
Ejemplos
ad o
Cambiando el orden en el cual se presenta una base, cambia la representaci´on matricial del operador. Los siguientes ejemplos tratar´ an de ilustrar estas situaciones:
1. Si tenemos un matriz B, 2 × 3, de la forma
3 1
1 0
−2 4
Bo rr
B=
2 James Joseph Sylvester (1814-1897 Londres, Inglaterra) Adem´ as de sus aportes con Cayley a la teor´ıa de las matrices, descubri´ o la soluci´ on a la ecuaci´ on c´ ubica y fue el primero en utilizar el t´ ermino discriminante para categorizar cada una de las ra´ıces de la ecuaci´ on. Para vivir tuvo que ejercer de abogado durante una d´ ecada. Por fortuna, otro matem´ atico de la ´ epoca (Arthur Cayley) frecuentaba los mismos juzgados y tribunales y pudieron interactuar. Por ser jud´ıo tuvo cantidad de dificultades para conseguir trabajo en la Academia. 3 Sir William Rowan Hamilton (1805 - 1865, Dublin, Irlanda) Sus contribuciones en el campo de la ´ optica, din´ amica del cuerpo r´ıgido, teor´ıa de ecuaciones algebraicas y teor´ıa de operadores lineales. 4 Arthur Cayley (1821, Richmond, 1895, Cambridge, Inglaterra) En sus cerca de 900 trabajos cubri´ o casi la totalidad de las a ´reas de las matem´ aticas de aquel entonces. Sus mayores contribuciones se centran el la teor´ıa de matrices y la geometr´ıa no euclideana. No consigui´ o empleo como matem´ atico y tuvo que graduarse de abogado para ejercer durante m´ as de 15 a˜ nos, durante los cuales public´ o m´ as de 250 trabajos en matem´ aticas.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
208
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
y suponemos las bases can´ onicas para V3 y V2 : {|e1 i , |e2 i , |e3 i} y {|e1 i , |e2 i}. Entonces la matriz B representa la transformaci´ on B : V3 → V2 que lleva un vector gen´erico |xi = (x1 , x2 , x3 ) a un vector gen´erico |yi = (y1 , y2 ) tal que x1 3 1 −2 3 1 −2 y1 x2 = B= ⇒ B |xi = |yi ⇒ 1 0 4 1 0 4 y2 x3 y esto es
y2 = x1 + 0x2 + 4x3 . La representaci´ on matricial depender´a de la base en la cual se exprese.
in ar
y1 = 3x1 + x2 − 2x3
re lim
2. Si suponemos el operador diferencial D (·) = d(·) dx cuyo dominio esta conformado por el espacio vectorial de los polinomios de grado ≤ 3, entonces tendremos que: D (·) : P3 → P2 . En este caso las bases 2 3 2 podr´ıan ser: |pi i = 1, x, x , x y |˜ pj i = 1, x, x de P3 y P2 respectivamente. tenemos:
1 0 0
0 2 0
0 0 . 3
rP
Al operar (diferenciar) sobre el |pj i ∈ P3 y expresar ese resultado en la base de P2 d(1) = 0 = 0 · 1 + 0 · x + 0 · x2 dx d(x) = 1 = 1 · 1 + 0 · x + 0 · x2 dx 0 α 0 ⇒ h˜ p | D |p i = D |pj i ⇒ j d(x2 ) 2 0 = 2x = 0 · 1 + 2 · x + 0 · x dx d(x3 ) = 3x2 = 0 · 1 + 0 · x + 3 · x2 dx
Bo rr
ad o
Los coeficientes de esa expansi´ on ser´an las columnas de la matriz que los representa. Para enfatizar, los elementos de una matriz, no s´ olo dependen de la base sino del en el cual la base se presente. orden Consideremos que la base de P2 viene representada por |ˆ pj i = x2 , x, 1 , la representaci´on matricial del operador D (·) = d(·) a dx ser´ d(1) = 0 = 0 · x2 + 0 · x + 0 · 1 dx d(x) = 1 = 0 · x2 + 0 · x + 1 · 1 0 0 0 3 dx D |pj i ⇒ ⇒ hˆ pα | D |pj i = 0 0 2 0 . d(x2 ) 0 1 0 0 = 2x = 0 · x2 + 2 · x + 0 · 1 dx d(x3 ) = 3x2 = 3 · x2 + 0 · x + 0 · 1 dx Se puede ver que
0 0 0
Hern´ andez & N´ un ˜ez
1 0 0
0 2 0
1 0 1 0 1 3 1
1 = 2 ⇒ 1 + 2x + 3x2 , 3
Universidad de los Andes / Universidad Industrial de Santander
209
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
y equivalentemente
0 0 0
0 0 1
0 2 0
1 3 1 0 1 0 1
3 = 2 ⇒ 3x2 + 2x + 1 , 1
¡Es el mismo polinomio! Recuerde que las componentes del vector multiplican a los vectores bases en el mismo orden.
re lim
in ar
3. Construyamos la representaci´ on para el mismo operador D del ejemplo anterior, pero ahora en las siguientes bases: |pi i = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 y |˜ pi i = 1, x, x2 de P3 y P2 , respectivamente. Entonces, nuevamente vemos que D |pj i implica d(1) = 0 = 0 · 1 + 0 · x + 0 · x2 dx d(1+x) = 1 = 1 · 1 + 0 · x + 0 · x2 0 1 1 1 dx ⇒ h˜ pα | D |pj i = 0 0 2 2 . 2 d 1+x+x ( ) 0 0 0 3 = 1 + 2x = 1 · 1 + 2 · x + 0 · x2 dx d(1+x+x2 +x3 ) = 1 + 2x + 3x2 = 1 · 1 + 2 · x + 3 · x2 dx Representaci´ on diagonal
Dado un operador lineal A ∈ L (V, W), donde dim (V) = dim (W) = n, y sea {|ei i} una base ortonormal para V y W, si adicionalmente se da el caso que
rP
A |ei i = |ei i ,
la representaci´ on matricial ser´ a diagonal
j
e A |ei i = Aji = ej |ei i = δij .
ad o
Esta afirmaci´ on tambi´en es v´ alida para dim (V) 6= dim (W) pero por simplicidad seguimos trabajando con matrices cuadradas. Representaci´ on de operadores herm´ıticos
Bo rr
La representaci´ on matricial de un operador herm´ıtico ser´a A†
i j
∗
∗ = ei A† |ej i = ej A |ei i = Aji ,
vale decir: el herm´ıtico conjugado de una matriz, es su traspuesta conjugada. Si la matriz es herm´ıtica, i.e. A† = A ⇒
A†
i j
= Aij .
Por lo tanto, las matrices herm´ıticas son sim´etricas respecto a la diagonal y los elementos de la diagonal son n´ umeros reales. Un operador herm´ıtico estar´a representado por una matriz herm´ıtica.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
210
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
Aqu´ı vale la pena probar algunas de las propiedades que arriba expresamos para operadores herm´ıticos conjugados, vale decir † † † † A† = A; (λA) = λ∗ A† ; (A + B) = A† + B† ; (AB) = B† A† . Es claro que A† y
†
→
†
i † i † ∗ † e A |ej i = A† j = Aji = Aij ,
∗ ∗ † (λA) → ei λA† |ej i = ej λA |ei i = λ∗ ej A |ei i = λ∗ ei A† |ej i = λ∗ A† ,
4.2.2.
in ar
pero m´ as interesante es
† † † (AB) → ei (AB) |ej i = Aik Bjk = (Ajk )∗ (Bik )∗ = (Akj )∗ (Bki )∗ = (Bki )∗ (Akj )∗ → B† A† .
Cambio de bases para vectores
c˜m
re lim
Dada una representaci´ on (una base) particular, un bra, un ket o un operador quedar´a representado por una matriz. Si cambiamos la representaci´on, ese mismo bra, ket u operador tendr´a otra matriz como representaci´ on. Mostraremos c´ omo est´ an relacionadas esas matrices. Dadas dos base discretas ortonormales {|ei i} y {|˜ei i}, entonces un vector cualquiera
k m |Ψi = ek hek | |Ψi = ek Ψi |ek i h˜ e |Ψi = e Ψi h˜em |ek i | {z } | {z } ck Skm
⇒ k k m e |Ψi = h˜ e | Ψi e |˜em i | {z } |Ψi = (|˜em i h˜em |) |Ψi = h˜em | Ψi |˜em i | {z } ˜k S m
rP
con lo cual, una vez m´ as, tendremos que la expresi´on de transformaci´on de componentes de un vector k m c˜m = Skm ck ⇔ ck = S˜m c˜ ,
ad o
k y Skm (o S˜m ) ser´ a la matriz de transformaci´on, cambio de base o cambio de representaci´on. Ahora bien, por la definici´ on de producto interno
∗ † k ∗ h˜em |ek i = ek |˜em i ⇒ Skm = Sm ≡ (Skm ) ,
por lo tanto, la matriz de transformaci´ on entre bases es herm´ıtica y la relaci´on anterior queda escrita como
k † m k † m c˜m = Skm ck ⇒ h˜em | Ψi = Skm ek Ψi ∧ ck = Sm c˜ ⇒ ek |Ψi = Sm h˜e | Ψi .
Bo rr
Igualmente, la regla de transformaci´ on de las representaciones matriciales de operadores lineales queda expresada como
i
˜e A |˜ej i = ˜ei |ek i ek A (|em i hem |) |˜ej i = ˜ei |ek i ek A |em i hem |˜ej i , | {z } | {z } Ski
(Sjm )†
por lo tanto
A˜ij = Ski Akm (Sjm )† ,
donde A˜ij es la representaci´ on del operador A respecto a la base {|˜ej i} y Akm su representaci´on en la base {|em i}. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
211
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
4.2.3.
Traza de operadores
La traza, Tr (A), de un operador A es la suma de los elementos diagonales de su representaci´on matricial A. Esto es, dado un operador A y una base ortogonal {|ei i} para Vn , entonces:
Tr (A) = ek A |ek i = Akk . Por ejemplo,
2 5 8
3 6 ⇒ Tr (A) = Aii = 15 . 9
in ar
1 Aij = 4 7 Invariancia de la Traza
La traza de una matriz no depende de la base que seleccionemos, es un invariante que caracteriza al operador independientemente de la base en la cual se represente. Entonces, dadas dos bases discretas ortonormales {|ei i} y {|˜ei i},
re lim
Akk = ek A |ek i = ek |˜em i h˜em | A |ek i = h˜em | A|ek i ek ˜em i = h˜em | A |˜em i = Am m. | {z } I
Donde una vez m´ as hemos utilizado las dos relaciones de cierre |˜em i h˜em | = |ek i ek = I. Es claro que el n´ umero que representa esta suma ser´ a el mismo independientemente de su representaci´on matricial. Propiedades de la Traza Claramente la traza es lineal
rP
Tr (A+λB) = Tr (A) + λ Tr (B) , ya que
Tr (A + λB) = ek A + λB |ek i = ek A |ek i + λ ek B |ek i = Tr (A) + λ Tr (B) . La traza de un producto conmuta, esto es
ad o
Tr (AB) = Tr (BA) ,
y es f´ acilmente demostrable
Tr (AB) = ek AB |ek i = ek A|em i hem |B |ˆek i = ek B|em i hem |A |ek i = Tr (BA) . | {z } | {z } I
I
Bo rr
Recuerde que ek B |em i y ek A |ek i son n´ umeros que pueden ser reordenados. Del mismo modo es f´ acil demostrar que la traza de un triple producto de matrices respeta la ciclicidad del orden de la matrices en el producto
Hern´ andez & N´ un ˜ez
Tr (ABC) = Tr (BCA) = Tr (CAB) .
Universidad de los Andes / Universidad Industrial de Santander
212
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
Practicando con Maxima: Dado el siguiente espacio vectorial V3 = {(x, y, z) : x + y + z = 0} en R3 , y la siguiente transformaci´ on lineal de V3 → V3 F (x, y, z) = (x + y + z, x + y − z, 2z) , (%i1) F(x,y,z):=[x+y+z,x+y-z,-x-y-z];
in ar
( %o1) F (x, y, z) := [x + y + z, x + y − z, −x − y − z] La representaci´ on matricial de esta transformaci´on la podemos obtener evaluando la funci´on en la base can´ onica, de la siguiente manera:
re lim
(%i2) F_matriz:transpose(matrix(F(1,0,0),F(0,1,0),F(0,0,1))); 1 1 1 1 −1 ( %o2) 1 −1 −1 −1 Para obtener el n´ ucleo de la transformaci´on ℵ (F ) = |vi ∈ V3 podemos proceder como se muestra a continuaci´on:
∧
F |vi = |0i ,
ad o
( %o4) z + y + x = 0 ( %o5) − z + y + x = 0 ( %o6) − z − y − x = 0
rP
(%i3) M:F_matriz.[x,y,z]; z+y+x ( %o3) −z + y + x −z − y − x (%i4) ecu1:M[1,1]=0; ecu2:M[2,1]=0;ecu3:M[3,1]=0;
(%i7) linsolve([ecu1,ecu2,ecu3],[x,y,z]);
Bo rr
solve: dependent equations eliminated: (1) ( %o7) [x = − %r1 , y = %r1 , z = 0] Es decir, la soluci´ on al sistema es: x = −C, y = C y z = 0. Una posible base para el espacio ℵ (F ) puede ser: (−1 1 0)T . Notemos que si evaluamos nuevamente la transformaci´on F para la base can´onica (%i7) Img:matrix(F(1,0,0),F(0,1,0),F(0,0,1)); 1 1 −1 ( %o7) 1 1 −1 1 −1 −1
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
213
´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION
Y si reducimos la matriz anterior, obtendremos (%i7) echelon(Img); 1 1 −1 ( %o7) 0 1 0 0 0 0 Es decir, una base para el espacio imagen = (F ) es el conjunto: {(1 1 − 1)T y (0 1 0)T }. Podemos tambi´en calcular una base para V3 = {(x, y, z) : x + y + z = 0}
in ar
(%i7) linsolve(x+y+z=0,[x,y,z]); ( %o7) [x = − %r3 − %r2 , y = %r3 , z = %r2 ]
Es una soluci´ on del tipo: x = −C3 − C2 , y = C3 y z = C2 . Una base vendr´a dada por digamos: {(−1 1 0)T y (−1 0 1)T }.
Ejercicios
re lim
4.2.4.
1. Considere el espacio P(t) de polinomios de grado N en t, vale decir |f it ↔ d adem´ as un operador T = exD ≡ exp(xD), con D = dt
PN
n=0
a0 tn , considere
a) Muestre que T |pit = |pit+x , esto es que el operador T puede ser considerado un operador traslaci´ on espacial para los polinomios P(t) de grado N .
rP
b) Considere que el espacio de polinomios est´a definido en el intervalo [−1, 1], que definimos un R1 producto interno de la forma hf | gi = −1 f g dt y un espacio de polinomios de grado N = 2. ¿Cu´ al es la representaci´ on matricial de T en la base de polinomios de Legendre {P0 , P1 , P2 }? 2. Heredando el formalismo de Mec´ anica Cl´asica, uno construye en Mec´anica Cu´antica el Operador Hamiltoniano, herm´ıtico, para un sistema unidimensional como
ad o
H=
P2 + V(X) , 2m
donde H, P y X son operadores, y V(X) un operador que es una funci´on de otro operador. Adicionalmente, uno puede construir el siguiente operador: [X, P] = i~I. a) Determine los siguientes conmutadores [H, P], [H, X] y [H, XP]
Bo rr
b) Suponga que H |ψn i = En |ψn i y entonces calcule la representaci´on matricial del siguiente operador hψ m | [A, H] |ψn i, para un operador arbitrario A.
3. Considere la representaci´ on matricial de un operador en la base can´onica de la forma 1 a A= 0 1 ¿Existir´ a alg´ un operador B, no singular, tal que D = B−1 AB, con D un operador diagonal? Si ese fuera el caso, ¿Cu´ al ser´ıa la representaci´ on matricial de ese operador B, en la base can´onica? Justifique su respuesta.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
214
´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION
4. Considere el siguiente “operador vectorial” σ = σx i + σy j + σz k donde las matrices σ x , σ y , σ z se conocen como operadores de Pauli y su representaci´on matricial en la base can´onica es: 0 1 0 −i 1 0 1 0 σx = ; σy = ; σz = ; I= . 1 0 i 0 0 −1 0 1 El vector direcci´ on puede escribirse como n = sen(θ) cos(φ)i + sen(θ)sen(φ)j + cos(θ)k = nx i + ny j + nz k , con lo cual: σ · n = nx σx + ny σy + nz σz .
√0 Ly = −i 2/2 0
√ i 2/2 √0 −i 2/2
√0 i 2/2 , 0
re lim
5. Dadas las siguientes matrices √ 2/2 √ 0 √0 Lx = 2/2 √ 0 2/2 , 2/2 0 0
in ar
A partir de todo lo anterior calcule la representaci´on matricial del siguiente operador en la base can´ onica i exp ψ σ·n . 2
−1 Lz = 0 0
0 0 0 0 . 0 1
Demuestre las siguientes reglas de conmutaci´on a) Lx Ly − Ly Lx = iLz . b) Ly Lz − Lz Ly = iLx . c) Lz Lx − Lx Lz = iLy .
4.3.
rP
d ) L2x + L2y + L2z = 2.
Diferenciaci´ on de operadores y algebra matricial
ad o
Dado un operador A (t) el cual supondremos dependiente de una variable arbitraria t podremos definir la derivada como A (t + ∆t) − A(t) dA(t) = l´ım ∆t→0 dt ∆t
k k por lo tanto si u A |ui i = A entonces i
dA(t) dt
Bo rr
k dA(t) u |ui i = dt
k i
d k dAki = u A(t) |ui i = = dt dt
dA11 dt dA21 dt
dA12 dt dA22 dt
dAn 1
dAn 2
dt
dt
.. .
··· ..
dA1n dt dA2n dt
. dAn n dt
,
con lo cual la regla es simple, la representaci´on matricial de la derivada de un operador ser´a la derivada de cada uno de sus elementos. Por ejemplo x x2 2 1 2x 0 d . 1 e−x 5x = 0 −e−x 5 dx 3 2 3x 3 cos(x) 9x 0 − sen(x)
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
215
´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION
4.3.1.
Reglas de diferenciaci´ on de operadores lineales
Las reglas usuales de la diferenciaci´ on se cumplir´an con la diferenciaci´on de operadores lineales. Esto se demuestra con la representaci´ on matricial d (A (t)) d (B (t)) d (A(t) + B (t)) = + , dt dt dt es decir: d (A(t) + B(t))
d k d k uk |ui i = u (A(t) + B(t)) |ui i = u A(t) |ui i + uk B(t) |ui i dt dt dt d k d k = u A (t) |ui i + u B(t) |ui i dt dt
dA(t)
dB(t) d (A(t)) d (B(t)) = uk |ui i + uk |ui i = + . dt dt dt dt
Del mismo modo se cumplir´ a que
re lim
d (A(t)B (t)) dA(t) dB(t) = B(t) + A(t) , dt dt dt
in ar
con la precauci´ on que no se puede modificar el orden de aparici´on de los operadores. Es f´acil ver que
rP
k d (A(t)B(t)) d k d k |ui i = u A (t) B(t) |ui i = u A (t) I B(t) |ui i u dt dt dt
k = u A(t) |um i hum | B(t) |ui i
d uk A(t) |um i m d hum | B(t) |ui i = hu | B(t) |ui i + uk A(t) |um i dt dt
k dA(t)
dB(t) = u |um i hum | B(t) |ui i + uk A(t) |um i hum | |ui i . dt dt
tendremos que
ad o
Otras propiedades de la derivaci´ on de operadores se demuestran a partir de sus expansiones en series. At Por ejemplo, si queremos conocer la expresi´on para dedt , con A 6= A(t), recordemos que # " # "∞ 2 n X (At)n (At) (At) At |vi = I + At + + ··· + · · · |vi , e |vi = n! 2! n! n=0
Bo rr
"∞ # "∞ # "∞ # # "∞ n X d (At)n X tn−1 An−1 X ntn−1 An deAt d X (At) |vi = |vi = |vi = |vi = A |vi . dt dt n=0 n! dt n! n! (n − 1)! n=0 n=0 n=0 | {z } eAt
N´ otese que la suma es hasta infinito, por lo tanto al cambiar de ´ındice p = n − 1, p sigue variando hasta infinito y la serie es la misma que la anterior. Entonces
Hern´ andez & N´ un ˜ez
deAt |vi = eAt A |vi ≡ AeAt |vi . dt
Universidad de los Andes / Universidad Industrial de Santander
216
´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION
in ar
Si un s´ olo operador est´ a siendo derivado el orden de presentaci´on de los operadores es indiferente. Ahora bien, cuando se presenta la siguiente situaci´on d eAt eBt deAt Bt deBt |vi = e |vi + eAt |vi = AeAt eBt |vi + eAt BeBt |vi = eAt AeBt |vi + eAt eBt B |vi , dt dt dt con A 6= A(t) y B 6= B(t) y siempre eBt , B = 0. Con lo cual, s´ olo para el caso en el que [A, B] = 0 podremos factorizar eAt eBt y d eAt eBt |vi = (A + B) eAt eBt |vi . dt Si [A, B] 6= 0 el orden de aparici´ on de los operadores eshMUY importante. i dA(t) Para el caso en el cual A = A(t) no necesariamente A(t), e dt = 0. Veamos:
re lim
"∞ "∞ # # n X 1 d (A(t))n deA(t) d X (A(t)) |vi = |vi |vi = dt dt n=0 n! n! dt n=0 "∞ # X 1 d (A(t)) d (A(t)) n−1 n−2 n−1 d (A(t)) = A(t) + A(t) A(t) · · · A(t) |vi . n! dt dt dt n=0 Adicionalmente
dF (B) dB Esta relaci´ on es f´ acilmente demostrable para el caso en el cual [A, B] = I, el operador identidad, en ese caso ten´ıamos que ABn − Bn A = nBn−1
rP
si [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B]
· · · B}A ABn − Bn A = ABB · · · B}−BB · · · B}A = (I + BA) BB · · · B} − BB | {z | {z | {z | {z n
=IB
n−1
n
n
n−1
· · · B}A + B (I + BA)BB · · · B} − BB | {z | {z n−2
n
ad o
· · · B}A = · · · = nBn−1 . = 2Bn−1 + B2 (I + BA)BB · · · B} − BB | {z | {z n−3
n
Obviamente, para este caso, se cumple que
[A, B] = I ⇒ [A, [A, B]] = [B, [A, B]] = 0 .
Bo rr
Para demostrar esta relaci´ on “desarrollemos en Serie de Taylor” la funcion F (B). Esto es " # ∞ ∞ ∞ ∞ X X X X Bn [A, Bn ] nBn−1 Bn−1 [A, F (B)] = A, fn = fn = [A, B] fn = [A, B] fn n! n! n! (n − 1)! n=0 n=0 n=0 n=0 = [A, B]
dF (B) . dB
Para el caso m´ as general se procede del mismo modo. Si [A, C] = [B, C] = 0 ,
Hern´ andez & N´ un ˜ez
?
con C = [A, B] ⇒ [A, F (B)] = [A, B]
dF (B) . dB
Universidad de los Andes / Universidad Industrial de Santander
217
´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION
Probaremos primero que con C = [A, B] ⇒ [A, Bn ] = ABn − Bn A = n [A, B] Bn−1 .
si [A, C] = [B, C] = 0 , Tendremos que
ABn − Bn A = ABB · · · B}−BB · · · B}A = (C + BA) BB · · · B} − BB · · · B}A | {z | {z | {z | {z n
= CB
n
n
n−1
· · · B}A + B (C + BA)BB · · · B} − BB | {z | {z n
n−2
n−1
= 2CB
n−1
+ B (C + BA)BB · · · B} − BB · · · B}A = · · · = nCBn−1 = n[A, B] B | {z | {z 2
n
n−3
,
in ar
n−1
con lo cual es inmediato demostrar que # " ∞ ∞ ∞ ∞ X X X X [A, Bn ] nBn−1 Bn−1 Bn = = [A, B] = [A, B] [A, F (B)] = A, fn fn fn fn n! n! n! (n − 1)! n=0 n=0 n=0 n=0
4.3.2.
dF (B) . dB
re lim
= [A, B]
La f´ ormula de Glauber
Ahora estamos en capacidad de demostrar limpiamente la f´ormula de Glauber. Esta es 1
eA eB = eA+B e 2 [A,B] .
rP
Para demostrarla, procedemos a considerar un operador F (t) = eAt eBt , por lo tanto deAt eBt dF(t) |vi = |vi = AeAt eBt |vi + eAt BeBt |vi = A + eAt Be−At eAt eBt |vi dt dt = A + eAt Be−At F(t) |vi .
ad o
Ahora bien, dado que
si [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B]
entonces
dF (B) , dB
At e , B = t [A, B] eAt ⇒ eAt B = BeAt + t [A, B] eAt ,
Bo rr
por lo cual
dF(t) |vi = A + eAt Be−At F(t) |vi = (A + B + t [A, B]) F (t) |vi , dt por tanteo uno puede darse cuenta que n
F(t) = e
o 2 (A+B)t+ t2 [A,B]
,
cumple con la ecuaci´ on anterior, por lo tanto absorbiendo t en los operadores correspondientes llegamos a la f´ ormula de Glauber 1 eA eB = eA+B e 2 [A,B] . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
218
´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION
4.3.3.
Algebra de matrices
Por comodidad supongamos que dim (V) = dim (W) = n y consideremos la base ortogonal {|en i}. De este modo, es claro que se obtienen nuevamente las conocidas relaciones para matrices cuadradas
i
e A + B |ej i = ei A |ej i + ei B |ej i = Aij + Bji
Ann + Bnn
An1 + B1n
A11 + B11 A21 + B12 .. .
=
An1
+
B1n
i
A12 + B21 A22 + B22 .. .
A1n + Bn1 A2n + Bn2 , n n An + B n
··· ..
.
= (A + B)j , con lo cual es directo la demostraci´on de la
A11 A21 .. .
A12 A22
An1
An2
···
1 B1 A1n B12 A2n = .. . n B1n An
re lim
en forma compacta puede demostrarse que Aij + Bji igualdad de matrices: 1 A1 + B11 A12 + B21 · · · A1n + Bn1 A21 + B12 A22 + B22 A2n + Bn2 =0 ⇒ .. .. .. . . .
in ar
con lo cual tenemos la suma de matrices. Esto es 1 1 B1 B21 · · · Bn1 A1 A12 · · · A1n 2 2 2 2 2 A1 A2 Bn2 An B1 B2 + .. . .. .. .. . . . B1n B2n Ann An1 An2 Ann
..
.
B21 B22
··· .. .
B2n
Bn1 Bn2 , n An
en donde Aij = Bji . De igual modo para la representaci´ on de composici´on de operadores
i
e AB |ej i = ei A I B |ej i = ei A |ek i ek B |ej i = ei A |ek i ek B |ej i = Aik Bjk
rP
para multiplicaci´ on de matrices, esto es 1 1 B1 A1 A12 · · · A1n 2 A21 A22 B12 A n .. × .. .. . . . B1n An1 An2 Ann
B21 B22
··· .. .
ad o
B2n
1 k Ak B 1 Bn1 A2k B1k Bn2 = .. . Ann Ank B1k
A1k B2k A2k B2k .. .
··· ..
.
A1k Bnk A2k Bnk , Ank Bnk
Bo rr
como ya sab´ıamos AB 6= BA →Aik Bjk 6=Bki Akj . De la misma manera, la multiplicaci´ on de un n´ umero por una matriz es la multiplicaci´on de todos sus elementos por ese n´ umero
i
e αA |ej i = α ei A |ej i = αAij .
4.3.4.
Ejercicios
1. Si
Mij (t) =
cos(ωt) −sen(ωt)
sen(ωt) cos(ωt)
Demuestre que
Hern´ andez & N´ un ˜ez
d2 M(t) = −ω 2 M(t) . dt2
Universidad de los Andes / Universidad Industrial de Santander
219
´ 4.4. UN PARENTESIS DETERMINANTE
2. Dada a matriz
1 Aji = 1 0
1 1 1
0 1 . 1
Eval´ ue: A2 , A3 , AAx . 3. Dada la matriz
Aji
0 = −i 0
0 0 −1
i 0 0
4.4.
in ar
Demuestre que An = AAA... = I, con n 6= 0.
Un par´ entesis determinante
re lim
El determinante se define con la siguiente aplicaci´on: det |A| : Mn×n → R, es decir, asocia real con cada matriz del espacio vectorial Mn×n de matrices n × n As´ı, dada una matriz 1 1 A1 A12 · · · A1n A1 A12 · · · A1n 2 2 A1 A22 A21 A22 A2n An ijk··· 1 2 3 A= . ⇒ det |A| = ε A A A · · · = . .. .. i j k .. .. . . n n n n n A1 A2 Ann A1 A2 An
un n´ umero
rP
Hemos generalizado los ´ındices de Levi Civita de tal forma que 0, si cualesquiera dos ´ındices son iguales 1, si los ´ındices i, j, k · · · constituyen una permutaci´on c´ıclica de 1, 2, 3 · · · n εijk··· = εijk··· = −1, si los ´ındices i, j, k · · · constituyen una permutaci´on antic´ıclica de 1, 2, 3 · · · n
con lo cual
ad o
Esta situaci´ on es clara para el caso de matrices 3 × 3, veamos. 1 1 A1 A1 A12 A13 ijk 1 2 3 2 2 2 A1 A2 A3 A= ⇒ det |A| = ε Ai Aj Ak = A21 A31 A31 A32 A33
A12 A22 A32
A13 A23 A33
,
det |A| = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33
Bo rr
= A11 A22 A33 + A13 A21 A32 + A12 A23 A31 − A11 A23 A32 − A13 A22 A31 − A12 A21 A33 . Propiedades de los determinantes 1. det |A| = det |AT |, donde AT es la traspuesta de A. Esta propiedad proviene de la definici´on del ´ındice de Levi Civita det |A| = εijk··· A1i A2j A3k · · · = εijk··· Ai1 Aj2 Ak3 · · · = det |AT | , que se traduce en que si se intercambian filas por columnas el 1 A1 A12 A13 A11 A21 2 A1 A22 A23 = A12 A22 3 A1 A32 A33 A13 A23
Hern´ andez & N´ un ˜ez
determinante no se altera A31 A32 . A33
Universidad de los Andes / Universidad Industrial de Santander
220
´ 4.4. UN PARENTESIS DETERMINANTE
2. Si dos filas o dos columnas son id´enticas el determinante se anula εiik··· A1i A2i A3k · · · = εiik··· Ai1 Ai2 Ak3 · · · = 0 1 A1 A12 A13 1 A1 A12 A13 = 0 3 A1 A32 A33
in ar
3. Si multiplicamos una fila o una columna por un n´ umero, el determinante queda multiplicado por el n´ umero εijk··· A1i λA2j A3k · · · = λεijk··· A1i A2j A3k · · · = λ det[A] εijk··· Ai1 Aj2 λAk3 · · · = λεijk··· Ai1 Aj2 Ak3 · · · = λ det[A] ,
Obvio que 1 A1 2 A1 3 A1 A13 A23 A33
A11 = λA11 A31
A12 λA12 A32
A13 A23 A33
1 A1 2 = A1 0
A13 λA13 A33
A12 A22 0
1 A1 = λ A21 3 A1
rP
al igual que 1 A1 λA11 2 A1 λA21 3 A1 λA31
0 0 0
re lim
de aqu´ı claramente se desprende que si una fila o una columna es cero (λ = 0) el determinante se anula. M´ as a´ un, si dos filas o dos columnas son proporcionales A1i = λA2j el determinante se anula, por cuanto se cumple la propiedad anterior 1 1 A1 A12 A13 A1 λA12 A13 A11 A12 A13 2 A1 λA22 A23 = A21 A22 A23 = λ A21 A22 A23 . 3 A31 A32 A33 A1 λA32 A33 λA31 λA32 λA33
ad o
4. Si se intercambian dos filas o dos columnas 1 A1 2 A1 ijk··· 1 2 3 det |A| = ε Ai Aj Ak · · · = . .. An 1
A13 A23 0
A11 A21 A31
= 0,
A13 A23 A33
1 A1 = λ A11 3 A1
A12 A12 A32
A13 A13 A33
= 0.
cambia de signo el determinante. A12 · · · A1n A22 A2n ˜ , ⇒ εijk··· A1j A2i A3k · · · = − det[A] .. . An An 2
n
Bo rr
˜ se han intercambiando un par de columnas. Claramente las propiedades del donde en la matriz A ´ındice de Levi Civita, obliga al cambio de signo ˜ = − det |A| . det |A|
N´ otese que una s´ıntesis de las propiedades anteriores nos lleva a reescribir el determinante de una matriz de manera que β γ det |A| = εαβγ··· det |A| = εijk··· Aiα Ajβ Akγ · · · ⇐⇒ det |A| = εαβγ··· det |A| = εijk··· Aα i Aj Ak · · ·
claramente, si αβγ · · · ⇐⇒ 123 · · · reobtenemos la definici´on anterior. Si se intercambian dos filas o dos columnas, el determinante cambia de signo debido al intercambio de dos ´ındices griegos. Si dos filas o dos columnas son iguales el determinante se anula debido a la propiedad de s´ımbolo de Levi Civita con ´ındices griegos.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
221
´ 4.4. UN PARENTESIS DETERMINANTE
5. El determinante de un producto es el producto de los determinantes det |AB| = det |A| det |B| . Antes de proceder a la demostraci´ on de este importante propiedad jugaremos un poco m´as con las propiedades de las matrices. Queremos se˜ nalar que si A es una matriz m × n y B es una matriz n × p, entonces tendremos que α (AB) = Aα B , esto es, que la α-esima fila de AB es igual a la multiplicaci´on de la α-esima fila de A, por toda la matriz B. Veamos por lo tanto la α-esima fila
B21 B22
B1n
B2n
··· ..
.
Bn1 Bn2 . Bnn
re lim
l α α α α α Cjα = Aα B ⇒ C = (A , A , A , · · · A , ) l j j 1 2 3 n
B11 B12 .. .
in ar
i
Cji = (AB)j = Ail Bjl
det |A| det |B| = det |A| εijk··· B1i B2j B3k · · · = εijk··· Aiα Ajβ Akγ · · · εabc··· B1a B2b B3c · · · , que siempre puede ser rearreglado a β γ i j k i β j γ k εijk··· Aα A A · · · ε B B B · · · = Aα ijk··· i j k 1 2 3 i B1 Aj B2 Ak B3 · · · = det [AB] . Veamos este desarrollo en el caso de matrices 3 × 3:
det |A| det |B| = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33
rP
ε123 B11 B22 B33 + ε312 B31 B12 B23 + ε231 B21 B32 B13 + ε132 B11 B32 B23 + ε321 B31 B22 B13 + ε213 B21 B12 B33 con lo cual
ad o
= A11 A22 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 − B11 B32 B23 − B31 B22 B13 − B21 B12 B33 + A13 A21 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 + A12 A23 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 − A11 A23 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 − A13 A22 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 − A12 A21 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
Bo rr
como son n´ umeros se pueden arreglar de la siguiente forma = A11 A22 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 + A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 + A12 A23 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 − A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 − A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 − A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 = εijk Aiα B1α Ajλ B2λ Akµ B3µ . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
222
´ 4.4. UN PARENTESIS DETERMINANTE
4.4.1.
F´ ormula de Laplace
La f´ ormula de Laplace permite expresar el determinate de una matriz en t´erminos de sus matrices menores o cofactores, matrices que definiremos en la siguiente secci´on. det |A] =
n X
Aij (Ac )ij ,
para cualquier i .
j=1
−2 2 2 −3 1 2
3 A= 1 4
el desarrollo de Laplace para la primera fila (i = 1) es: = = =
4.4.2.
A11 (Ac )11 + A12 (Ac )12 + A13 (Ac )13 1 1 −3 2 −3 + 2 − (−2) 3 4 4 2 1 2 3(7) + 2(14) + 2(−7) = 35 .
Ejercicios
1. Calcule los siguientes determinantes 0 1 0
2 0 , 0
1 1 2 2
1 2 − x2 3 3
2 3 2 3 1 5 1 9 − x2
,
1 0 3 −2
0 1 −3 1
rP
2 0 2
2 1
re lim
det [A]
in ar
Por ejemplo, para la matriz
2 −2 4 −2
3 1 −2 0
,
−2 1 3 2 0
5 0 −1 6 −3
0 3 0 −4 −1
−1 7 5 1 2
3 −2 −5 2 3
.
ad o
2. Utilizando las propiedades de los determinantes resuelva para x x+2 x+4 x−3 x+3 x x + 5 = 0 . x−2 x−1 x+1
Bo rr
3. Utilizando la propiedad lineal de los determinantes calcule a+b n+p ∆ = c+d q+r
.
4. Encuentre el determinante de la matriz 4 × 4 definida por la funci´on Aij =
1 . i+j−x
5. Muestre que si las filas de un determinante de orden n son linealmente independientes, entonces sus columnas son tambi´en linealmente independientes.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
223
´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS
4.5.
Un zool´ ogico de matrices cuadradas
A continuaci´ on presentaremos un conjunto de matrices fundamentales y de operaciones sobre matrices que ser´ an de gran utilidad para el resto de desarrollo del tema. Pero es bueno tener en mente que las matrices pueden tener todas sus componentes reales, diremos que son matrices pertenecientes al espacio vectorial de matrices reales Rn×m o tener como componentes n´ umeros complejos, en este caso diremos que pertenecen al espacio vectorial de matrices complejas Cn×m .
4.5.1.
Matriz unitaria y la matriz nula
in ar
La matriz unitaria es aquella que s´ olo tiene elementos en la diagonal iguales a la unidad I ⇒ Iji = δji .
Mientras que la matriz nula es aquella con todos los elementos iguales a cero
4.5.2.
Matriz diagonal a bloques
re lim
0 ⇒ 0ij = 0 .
Una matriz diagonal es aquella que contiene elementos u ´nicamente en la diagonal, las dem´as componentes son cero. Como veremos m´ as adelante existen algunos m´etodos para reducir una matriz a su forma diagonal. Una propiedad importante de estas matrices es que conmutan, es decir, AB = BA ,
rP
si A y B son diagonales. Pero tambi´en podemos tener matrices diagonales a bloques, vale decir 1 D1 D21 0 0 D12 D22 0 0 Dji = 0 0 D33 D43 0 0 D34 D44
Bo rr
ad o
Tambi´en tenemos las triangulares superior e inferior: 1 ˇ ˇ1 D ˇ1 D ˇ1 D D 1 2 3 4 2 ˇ2 ˇ2 ˇ ji = 0 D2 D3 D4 y D 3 ˇ ˇ3 0 0 D3 D 4 ˇ4 0 0 0 D 4
4.5.3.
ˆ1 D1 ˆ2 ˆ ji = D1 D D ˆ3 1 ˆ4 D 1
0 ˆ D22 D23 ˆ4 D 2
0 0 ˆ3 D 3 ˆ4 D 3
0 0 0 ˆ4 D 4
Matriz transpuesta
La matriz transpuesta es aquella que se obtiene intercambiando filas por columnas: A = Aij ⇒ AT = Aji .
Si A = AT , (Aij = Aji ), se dice que A es sim´etrica. Y si A = −AT , (Aij = −Aji ), es llamada antisim´etrica. Por lo tanto, una matriz cuadrada se puede representar por la suma de una matriz sim´etrica y una antisim´etrica A= Hern´ andez & N´ un ˜ez
1 1 A + AT + A − AT . 2 2
Universidad de los Andes / Universidad Industrial de Santander
224
´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS
4.5.4.
Matriz de cofactores
A una matriz A le podemos asociar una de cofactores Ac de la 1 1 (Ac )1 a1 a12 a13 i i c Aj = a21 a22 a23 ⇒ (A )j = (Ac )21 3 a31 a32 a33 (Ac )1
manera siguiente: 1 1 (Ac )2 (Ac )3 2 2 (Ac )2 (Ac )3 . 3 3 (Ac )2 (Ac )3
i
2
2+1
3 (Ac )1
3+1
4.5.5.
= (−1)
1 a2 3 a2
a13 a33
(Ac )2 = (−1)
2
2+2
1 a2 2 a2
a13 a23
3 (Ac )2
3+2
= (−1)
Matriz adjunta
1 a1 3 a1
a13 a33
(Ac )3 = (−1)
2
2+3
1 a1 3 a1
a12 a32
1 a1 2 a1
a13 a23
3 (Ac )3
3+3
1 a1 2 a1
a12 . a22
= (−1)
re lim
(Ac )1 = (−1)
a22 a32
in ar
Donde los (Ac )j forman la matriz de cofactores, estos cofactores son 2 2 2 2 2 1+3 a1 1+2 a1 a3 1+1 a2 a3 1 c 1 c 1 = (−1) (A ) = (−1) (A ) (Ac )1 = (−1) 3 2 a31 a31 a33 a32 a33
Llamaremos matriz adjunta, adj [A], a la traspuesta de la matriz de cofactores de una determinada matriz: T j T i = (Ac )i . adj [A] = (Ac ) ⇒ adj Aij = (Ac )j Por ejemplo 1 A= 4 7
2 5 8
−3 3 6 ⇒ adj [A] = 6 −3 9
rP
6 −3 −12 6 . 6 −3
Una matriz ser´ a autoadjunta si adj [A] = A.
Matriz singular
ad o
4.5.6.
A es singular si det[A] = 0. Adem´ as, si el determinate de la matriz A es diferente de cero, entonces det A−1 =
1 −1 = det |A| . det |A|
Bo rr
Rango de una matriz: Si det[A] 6= 0 se dice que la matriz cuadrada A tiene un valor de rango r. El rango de una matriz es el n´ umero m´ aximo de vectores filas o columnas linealmente independientes, es decir: 0 ≤ r ≤ n.
4.5.7.
Matriz inversa
Hemos visto que dada una transformaci´on lineal biyectiva, podemos definir una inversa para esa transformaci´ on lineal. Esa transformaci´ on lineal tendr´a como representaci´on un matriz. Por lo tanto dado un operador lineal A diremos que otro operador lineal B ser´a su inverso (por la derecha) si
AB = I → ei AB |ej i = δji → Aik Bjk = δji .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
225
´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS
Ejemplo Queremos hallar la matriz inversa de
2 2 −1
2 0 0
2 2 −1
3 1 1
3 2 5
1 1 1
4 3 8
4 1 2
1 0 0
4 1 . 2
0 0 0 0 2 3 4 1 1 0 → 0 2 3 1 −1 0 → 0 1 0 1 −1 1 2 0 1 0 0 −1 2 1 0 0 −1 0 → · · · → 0 1 0 5 −8 −6 0 0 1 −3 5 4 0 2
re lim
Entonces:
3 1 1
in ar
Ahora bien, como conocemos la matriz Aik y la suponemos no singular ( det Aik 6= 0) al tomar un j fijo tendremos un sistema de n ecuaciones lineales inhomog´eneo con n inc´ognitas: Bj1 , Bj2 , Bj3 , · · · Bjn . Al resolver el sistema tendremos la soluci´ on. Un procedimiento para encontrar la inversa es el m´etodo de eliminaci´on de Gauss Jordan. Veamos como funciona para una matriz Aij 3 × 3: 1 A1 A12 A13 1 0 0 1 0 0 B11 B21 B31 Jordan A21 A22 A23 0 1 0 Gauss→ 0 1 0 B12 B22 B32 . 3 3 3 0 0 1 A1 A2 A3 0 0 1 B13 B23 B33
Tambi´en se puede obtener la matriz inversa de A de la siguiente manera:
Por ejemplo, para la matriz
−2 2 7 6 2 1 −14 2 −3 ⇒ A−1 = −2 11 . 35 1 2 −7 −11 8
ad o
3 A= 1 4
Algunas propiedades importantes: −1 −1 T A−1 = A, AT = A−1 ,
4.5.8.
adj [A] . det [A]
rP
A−1 =
A†
−1
= A−1
†
,
(AB)
−1
= B−1 A−1 .
Matriz ortogonal
Bo rr
Anteriormente mencionamos que en el espacio real R3 podemos tener una transformaci´on de coordenadas cartesianas: (x, y, z) → (˜ x, y˜, z˜) que consiste en rotar, un ´angulo θ, uno de los sistemas respecto al otro. Si la rotaci´ on se hace, digamos alrededor del eje z, la relaci´on entre las coordenadas es la siguiente: 1 ˜ = x cos(θ) + y sen(θ) ˜ = x1 cos(θ) + x2 sen(θ) x x y˜ = −x sen(θ) + y cos(θ) ⇒ x ˜2 = −x1 sen(θ) + x2 cos(θ) ⇒ x ˜i = α ˜ ji xj . 3 3 z˜ = z x ˜ = x Si la longitud desde el origen a alg´ un punto P del espacio es la misma para ambos sistemas de coordenadas xi xi = x ˜i x ˜i = (˜ αki xk )(˜ αij xj ) = xk xj α ˜ ij α ˜ ki . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
226
´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS
entonces se tiene que cumplir que: α ˜ ij α ˜ ki = δkj . Esta resultado es una consecuencia de haber impuesto la condici´on para que las longitudes sean las mismas en ambos sistemas de coordenadas y se conoce como la condici´ on de ortogonalidad. En el lenguaje de la matrices reales la condici´on de ortogonalidad se puede enunciar de diferentes formas, todas ellas equivalentes: X j AT A = AAT = I , AT = A−1 , Ai Aik = δkj . i
4.5.9.
in ar
y diremos que la matrices que las satisfacen son matrices ortogonales.
Matrices complejas
re lim
Las matrices pueden tener todos sus componentes reales, Aij ∈ R, y se dice que pertenecen al espacio vectorial de matrices reales Rn×n . Las matrices con todas sus componentes reales no permite estudiar problemas que pueden aparecer en algunas ramas de la F´ısica, como en la Mec´anica Cu´antica. Por lo tanto, de necesita generalizar nuestro estudio a espacios vectoriales a el de espacios vectoriales de matrices complejas: Cn×n , donde en las componentes de las matrices aparecen n´ umeros complejos. Cuando las matrices son complejas surgen generalizaciones que podemos considerar, como mostramos a continuaci´on. La matriz adjunta conjugada o matriz transpuesta conjugada
Estas matrices se construyen tomado el complejo conjugado de cada elemento y luego la transpuesta de la matriz. Se acostumbra denotarlas con A†
La matriz herm´ıtica
rP
A† = (A∗ )T = (AT )∗ .
Son aquellas matrices que satisfacen la siguiente ecuaci´on: A† = A .
ad o
Notemos que si A es real, entonces A† = AT , y por lo tanto las matrices herm´ıticas reales son matrices sim´etricas. La matriz normal
Bo rr
Se llama matriz normal a aquella que satisface A† A = AA† .
La matriz unitaria
La matriz A es unitaria si: A† = A−1 .
Si A es real, entonces A−1 = AT , de manera que las matrices unitarias reales son ortogonales. Es decir, las matrices unitarias son el an´alogo a las matrices ortogonales reales y son de fundamental importancia en la Mec´ anica Cu´ antica porque dejan la norma de los vectores invariantes.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
227
´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS
Existe una relaci´ on importante entre matrices normales y matrices unitarias y es el hecho de que una matriz A es normal, si y s´ olo si, existe una matriz diagonal Λ y una unitaria U tal que: A = UΛU† . M´ as adelante veremos que los valores en la diagonal de Λ se denominan los autovalores de A y las columnas de U son los autovectores de A. Practicando con Maxima:
(%i1) A:matrix([1,2,3],[4,8,5],[9,5,4]); 1 2 3 ( %o1) 4 8 5 9 5 4
re lim
La transpuesta es:
in ar
En este ejercicio vamos a introducir algunos comandos b´asicos que nos permitir´an realizar operaciones t´ıpicas con matrices. Dada la siguiente matriz:
(%i2) transpose(A); 1 4 9 ( %o2) 2 8 5 3 5 4
(%i3) adjoint(A); 7 7 −14 7 ( %o3) 29 −23 −52 13 0
ad o
Para la matriz inversa:
rP
El comando adjoint(A) calcula el adjunto de la matriz A. La matriz adjunta es la transpuesta de la matriz de cofactores de A.
Bo rr
(%i4) invert(A); 1 1 2 − 13 − 13 13 23 1 − 13 ( %o4) − 29 91 91 4 1 −7 0 7 (%i5) determinant(A); ( %o5) − 91
Si se quiere, se puede calcular la inversa con el determinante afuera: (%i6) invert(A),detout; 7 7 −14 29 −23 7 −52 13 0 ( %o6) − 91
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
228
´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS
Podemos comprobar que A−1 A = I (%i7) invert(A).A; 1 0 0 ( %o7) 0 1 0 0 0 1 Para calcular la menor (i, j) de la matriz, es decir, eliminar la fila i y la columna j de una matriz se debe escribir:
in ar
(%i8) minor(A,2,2); 1 3 ( %o8) 9 4
rP
(%i9) triangularize(A); 1 2 3 ( %o9) 0 −13 −23 0 0 91 (%i10)echelon(A); 1 2 3 ( %o10) 0 1 23 13 0 0 1
re lim
Para generar una matriz triangular superior a partir de una matriz dada se debe usar el siguiente comando: triangularize(). El comando echelon() es equivalente pero normaliza a 1 el primer elemento no nulo de cada fila utilizando el m´etodo de eliminaci´on de Gauss Jordan.
Con el paquete nchrpl se puede calcular la traza de una matriz (%i11)load(nchrpl)$
( %o12) 13
ad o
(%i12)mattrace(A);
Consideremos ahora la matriz
([1, %i, 0], [1, 2 ,-%i], [%i, 1, 2] ); 0 −i 2
Bo rr
(%i13)M:matrix 1 i ( %o13) −1 2 i 1
Para el exponente de matrices tenemos la opci´on domxexpt (true o false). Cuando es true el exp(M ) se interpreta como la matriz cuyo elemento i, j es igual a exp(M [i, j]). En el otro caso, exp(M ) se interpreta como (x)M . (%i14)(1-x)^M;
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
229
´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS
i
1−x
(1 − x) 2 (1 − x)
1 ( %o14) 1−x i (1 − x) 1−x (%i15)domxexpt:false$
1 1 (1−x)i 2
(1 − x)
(%i16)(1-x)^M; 1
i 2 1
−1
i
( %o16) (1 − x)
0 −i 2
in ar
Y en cuanto al c´ alculo del rango de una matriz (%i17)rank(M); ( %o17) 3
4.5.10.
re lim
(%i18)kill(all)$
Ejercicios
1. Considere las matrices
−i 0 i
√ 3 1 B= √ 1 8 2
i −i , 0
rP
0 A= i −i
√ −√ 2 6 0
√ − 3 −1 . 2
Diga si son: (a) reales, (b) diagonales, (c) sim´etricas, (d) antisim´etricas, (e) singulares, (f) ortogonales, (g) hem´ıticas, (h) antiherm´ıticas, (i) unitarias o (j) normales. 2. Dada una matriz herm´ıtica
ad o
H=
10 3i −3i 0
construya la matriz unitaria U, tal que U† HU = D donde D es una matriz real y diagonal.
Bo rr
3. Utilizando el m´etodo de eliminaci´ on de Gauss Jordan encuentre la inversa dela matriz 1 2 3 A= 4 8 5 9 5 4 4. Encuentre la matriz inversa de
2 A= 1 −3
4 −2 3
3 −2 , 2
1 B= 1 0
1 1 1
0 1 , 1
1/2 1/2 C= 1/2 1/2
1/2 1/2 −1/2 −1/2
1/2 −1/2 1/2 −1/2
1/2 −1/2 . −1/2 1/2
Calcule: BT (A)−1 B y (2A + (B)−1 BT )AT . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
230
4.6. AUTOVECTORES Y AUTOVALORES
5. Considere matrices ortogonales, reales 3 × 3 las cuales, adicionalmente cumplen con: det[M] = 1. a) ¿Cu´ antos par´ ametros reales son necesarios para caracterizar un´ıvocamente a este tipo de matrices? b) ¿Este tipo de matrices forman grupo baja la multiplicaci´on de matrices? c) Si ahora considera la matrices ortogonales reales con det[M] = −1 ¿Este tipo de matrices formar´ an grupo bajo la multiplicaci´ on? Justifique su respuesta. 6. Si A y B son dos matrices herm´ıticas que no conmutan:
entonces pruebe que C es herm´ıtica. 7. Si A = exp (iαB) ,
α ∈ R.
Demuestre que si B es herm´ıtica entonces A es unitaria.
in ar
AB − BA = iC ,
4.6.
re lim
8. Pruebe que el producto directo de dos matrices unitarias resulta en una matriz unitaria.
Autovectores y Autovalores
La ecuaci´ on de Schr¨ odinger independiente del tiempo de la Mec´anica Cu´antica es una ecuaci´on, que escrita en la forma de operadores, tiene la siguiente forma: H |ΨE i = E|ΨE i ,
Bo rr
ad o
rP
donde H es un operador diferencial de segundo orden llamado el hamiltoniano y ΨE la funci´on de onda, en este caso representada por |ΨE i, un estado propio de H que corresponde a un valor propio de la energ´ıa E. Por tratarse de un espacio de Hilbert, es decir, un espacio vectorial con un producto interno bien definido, resulta de inter´es buscar soluciones en lo que se denomina el estado ligado de la ecuaci´on de Schr¨odinger. Esto significa buscar los |ΨE i en el espacio de las funciones de cuadrado integrable introduciendo una base unidimensional para representar ΨE y una matriz para representar H, en otras palabras: buscar una representaci´ on matricial para la ecuaci´ on de Schr¨odinger. Los vectores propios, |ΨE i, autovectores o eigenvectores de un operador lineal H son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un m´ ultiplo escalar de s´ı mismos, con lo que no cambian su direcci´ on. Este escalar E recibe el nombre de valor propio, autovalor, valor caracter´ıstico o eigenvalor. De manera que una transformaci´on queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio, eigenespacio o subespacio fundamental asociado al valor propio E es el conjunto de vectores propios con un valor propio com´ un.
4.6.1.
Definiciones y teoremas preliminares
De manera general, llamaremos a |ψi un autovector del operador A si se cumple que A |ψi = λ |ψi ,
en este caso λ (que, en general ser´ a un n´ umero complejo) se denomina el autovalor correspondiente al autovector |ψi. La ecuaci´ on A |ψi = λ |ψi es conocida en la literatura como la ecuaci´on de autovalores y se
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
231
4.6. AUTOVECTORES Y AUTOVALORES
cumple para algunos valores particulares de los autovalores λ. El conjunto de los autovalores se denomina el espectro del operador A. Supongamos que A : V → V y que dim V = n, supongamos adem´as que una base ortogonal para V es {|ei i}. Por lo tanto la repercusi´ on de esta ecuaci´on sobre la representaci´on matricial es la siguiente
i
e A |ej i ej |ψi = ei λ |ψi = λ ei |ψi ⇒ Aij cj = λci , claramente, si {|ei i} genera una representaci´on diagonal de A, entonces Aij ∝ δji
⇒
Aij cj ∝ δji cj = λci ⇒ Aij ∝ λδji .
in ar
Esto lo podemos resumir en el siguiente teorema que presentaremos sin demostraci´on.
un operador lineal A : Vn → Vn , si la representaci´on matricial de A es diagonal,
i Teorema: Dado i e A |ej i = Aj ∝ δji , entonces existe una base ortogonal {|e1 i , |e2 i , |e3 i , · · · |en i}5 y un conjunto de cantidades {λ1 , λn , · · · , λn } tales que se cumple con i = 1, 2, · · · n . J
re lim
A |ei i = λi |ei i
Igualmente se cumple que si existe una base ortogonal {|e1 i , |e2 i , |e3 i , · · · |en i} y un conjunto de cantidades {λ1 , λn , · · · , λn } tales que satisfagan A |ei i = λi |ei i
con i = 1, 2, · · · n ,
entonces se cumple que la representaci´ on matricial de A es diagonal
i e A |ej i = Aij = diag (λ1 , λn , · · · , λn ) .
rP
Algunos comentarios
ad o
1. N´ otese que si |ψi es autovector de A para un determinado autovalor λ entonces |φi = α |ψi (un vector proporcional a |ψi, con α un n´ umero complejo) tambi´en es un autovector para el mismo autovalor. Esto representa una inc´ omoda ambig¨ uedad: dos autovectores que corresponden al mismo autovalor. Un intento de eliminarla es siempre considerar vectores |ψi normalizados, i.e. hψ |ψi = 1. Sin embargo, no deja de ser un intento que no elimina la ambig¨ uedad del todo porque siempre queda el ´angulo de fase arbitrario. Esto es, el vector eiθ |ψi, con θ un n´ umero real arbitrario, tiene la misma norma del vector |ψi. Sin embargo esta arbitrariedad es inofensiva. En Mec´anica Cu´antica las predicciones obtenidas con |ψi son las mismas que con eiθ |ψi.
Bo rr
2. Un autovalor λ ser´ a no degenerado o simple si est´a asociado a un u ´nico autovector |ψi6 de lo contrario si denominar´ a degenerado si existen dos o m´as autovectores de A, linealmente independientes asociados al mismo autovalor λ. El grado (o el orden) de la degeneraci´ on es el n´ umero de vectores linealmente independientes que est´en asociados al mencionado autovalor λ. 3. El orden de degeneraci´ on de un autovalor λ expande un espacio vectorial S (λ) ⊂ Vn (denominado autoespacio) cuya dimensi´ on es el orden de la degeneraci´on. Esto es si λ es g−degenerado, entonces existen {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψg i} ⇒ A |ψi i = λ |ψi i ,
5 Realmente un conjunto de vectores linealmente independientes, pero como siempre se puede ortogonalizar mediante el m´ etodo de Gram Smith, consideraremos que es una base ortogonal de entrada. 6 Con la arbitrariedad del calibre antes mencionado.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
232
4.6. AUTOVECTORES Y AUTOVALORES
adicionalmente un autovector correspondiente al autovalor λ puede ser expresado como |ψi = ci |ψi i
con i = 1, 2, · · · , g ,
con lo cual A |ψi = ci A |ψi i = λ ci |ψi i = λ |ψi . Ejemplos E 1. Reflexi´ on respecto al plano xy. Si R : V3 → V3 es tal que R |ψi = ψ˜ donde se ha realizado una reflexi´ on en el plano xy. Esto es R |ji = |ji ;
R |ki = − |ki ,
in ar
R |ii = |ii ;
con |ii , |ji , |ki los vectores unitarios cartesianos. Es claro que cualquier vector en el plano xy ser´ a autovector de R con un autovalor λ = 1, mientras que cualquier otro vector |ψi ∈ V3 y que no est´e en el mencionado plano cumple con |ψi = c |ki y tambi´en ser´a autovector de R pero esta vez con un autovalor λ = −1.
re lim
2. Dos visiones de rotaciones de ´ angulo fijo θ. La rotaciones de un vector en el plano pueden verse de dos maneras. a) Se considera el plano como un espacio vectorial real V2 con una base cartesiana can´onica: |ii = (1, 0) , |ji = (0, 1), esto es, si: R |ai = λ |ai ⇒ el ´angulo de rotaci´on = nπ
con n entero.
b) Igualmente si consideramos el plano complejo unidimensional, expresemos cualquier vector en el plano en su forma polar |zi = reiθ por lo cual
rP
R |zi = rei(θ+α) = eiα |zi ,
si queremos λ = eiα reales, necesariamente α = nπ con n entero.
ad o
3. Autovalores y autovectores de proyectores. Es interesante plantearse la ecuaci´on de autovalores con la definici´ on del proyector para un determinado autoespacio. Esto es, dado Pψ = |ψi hψ| si este proyector cumple con una ecuaci´ on de autovalores para un |ϕi supuestamente arbitrario Pψ |ϕi = λ |ϕi ⇒ Pψ |ϕi = (|ψi hψ|) |ϕi ⇒ |ϕi ∝ |ψi ,
Bo rr
es decir, necesariamente |ϕi es colineal con |ψi. M´as a´ un, si ahora el |ϕi no es tan arbitrario sino que es ortogonal a |ψi , hψ |ϕi = 0 ⇒ λ = 0, entonces el espectro del operador Pψ = |ψi hψ| es 0 y 1, el primero de los cuales es infinitamente degenerado y el segundo es simple. Esto nos lleva a reflexionar que si existe un autovector de un determinado operador, entonces su autovalor es distinto de cero, pero pueden existir autovalores nulos que generan un autoespacio infinitamente degenerado.
4. El operador diferenciaci´ on: D |f i → D (f ) = f 0 . Los autovectores del operador diferenciaci´ on necesariamente deben satisfacer la ecuaci´on D |f i = λ |f i → D (f ) (x) = f 0 (x) = λf (x) ,
la soluci´ on a esta ecuaci´ on ser´ a una exponencial. Esto es |f i → f (x) = ceλx ,
con c 6= 0 ,
las f (x) se denominar´ an autofunciones del operador. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
233
4.6. AUTOVECTORES Y AUTOVALORES
4.6.2.
Autovalores, autovectores e independencia lineal
Uno de los teoremas m´ as u ´tiles e importantes tiene que ver con la independencia lineal de los autovectores correspondientes a distintos autovalores de un determinado operador lineal. Este importante teorema se puede concretar en lo siguiente: Teorema: Sean {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} autovectores del operador A : Vm → Vn . Supongamos que existen k autovalores: {λ1 , λ2 , · · · , λk }, distintos correspondientes a cada uno de los autovectores |ψj i, entonces los {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψk i} son linealmente independientes.
in ar
Demostraci´ on La demostraci´ on de este teorema es por inducci´on y resulta elegante y sencilla. Primeramente demostramos que j = 1. Obvio que el resultado se cumple y es trivial para el caso k = 1 (un autovector |ψ1 i que corresponde a un autovalor λ1 es obvia y trivialmente linealmente independiente).
re lim
Seguidamente supondremos que se cumple para j = k − 1. Si existen {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} autovectores de A correspondientes a {λ1 , λ2 , · · · , λk−1 } entonces los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} son linealmente independientes. Ahora lo probaremos para j = k. Por lo cual si tenemos k autovectores {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i}, podremos construir una combinaci´ on lineal con ellos, y si esa combinaci´ on lineal se anula ser´an linealmente independientes. cj |ψj i = 0
con j = 1, 2, · · · , k ,
al aplicar el operador A a esa combinaci´on lineal, obtenemos
rP
cj A |ψj i = 0 ⇒ cj λj |ψj i = 0 ,
multiplicando por λk y restando miembro a miembro obtenemos cj (λj − λk ) |ψj i = 0
con j = 1, 2, · · · , k − 1 ,
ad o
(n´ otese que el u ´ltimo ´ındice es k−1) pero, dado que los k−1 vectores |ψj i son linealmente independiente, entonces tendremos k − 1 ecuaciones cj (λj − λk ) = 0, una para cada j = 1, 2, · · · , k − 1. Dado que λj 6= λk necesariamente llegamos a que cj = 0 para j = 1, 2, · · · , k − 1 y dado que cj |ψj i = 0
Bo rr
con lo cual si
con j = 1, 2, · · · , k ⇒ cj 6= 0 ,
cj |ψj i = 0 ⇒ cj = 0
con j = 1, 2, · · · , k ,
y los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} son linealmente independientes y queda demostrado el teorema. J
Es importante acotar que el inverso de este teorema NO se cumple. Esto es, si A : Vm → Vn tiene {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψn i} autovectores linealmente independientes, NO se puede concluir que existan n autovalores {λ1 , λ2 , · · · , λn } distintos correspondientes a cada uno de los autovectores |ψj i. El teorema anterior lo complementa el siguiente que lo presentaremos sin demostraci´on. Este teorema ser´ a de gran utilidad en lo que sigue.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
234
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
Teorema: Si la dim (Vn ) = n cualquier operador lineal A : Vn → Vn tendr´a un m´aximo de n autovalores distintos. Adicionalmente, si A tiene precisamente n autovalores: {λ1 , λ2 , · · · , λn }, entonces los correspondientes n autovectores, {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψn i}, forman una base para Vn y la representaci´on matricial, en esa base, del operador ser´ a diagonal
i ψ A |ψj i = Aij = diag (λ1 , λ2 , · · · , λn ) . J
4.6.3.
Ejercicios
in ar
1. Si |v1 i y |v2 i son autovectores del operador lineal A que corresponden a distintos autovalores. Muestre que α |v1 i + β |v2 i (α 6= 0, β 6= 0) no puede ser un autovector de A. 2. Demuestre que si todo vector de un espacio vectorial V es un autovector del operador lineal A, entonces A = λI. Donde I es el operador identidad. 3. Demuestre que si el operador lineal A conmuta con todos operadores que act´ uan em un determinado espacio vectorial, entonces A = λI.
re lim
4. Si un operador lineal A tiene un autovector |v0 i con autovalor λ0 . Demuestre que |v0 i es tambi´en un autovector del operador A2 con autovalor λ20 . 5. Aun si un operador lineal A no tiene autovectores el operador A2 puede llegar a tenerlos. Demuestre que si A2 tiene un autovector con un autovalor no degenerado λ0 = µ2 , entonces A tiene un autovector.
4.7.
Autovalores y autovectores de un operador
rP
Una vez m´ as, supongamos que A : V → V y que dim V = n, y adem´as {|e1 i , |e2 i , |e3 i , · · · |en i} es una base ortogonal para V. Por lo tanto, la representaci´on matricial de la ecuaci´on de autovalores es la siguiente
i
e A |ej i ej |ψi = λ ei |ψi ⇒ Aij cj = λci ⇒ Aij − λδji cj = 0 ,
4.7.1.
ad o
con j = 1, 2, · · · , n. El conjunto de ecuaciones: Aij − λδji cj = 0, puede ser considerado un sistema (lineal y homog´eneo) de ecuaciones con n inc´ ognitas cj .
El polinomio caracter´ıstico.
Bo rr
Dado que un sistema lineal y homog´eneo de ecuaciones con n inc´ognitas tiene soluci´on si el determinante de los coeficientes se anula, tendremos que Aij − λδji cj = 0 ⇒ det [A−λ1] = 0 ⇒ P (λ) = det Aij − λδji = 0 . Esta ecuaci´ on se denomina ecuaci´ on caracter´ıstica (o secular) y a partir valores (el espectro) del operador A, esto es: 1 A1 − λ A12 ··· A1n 2 2 2 A A − λ A n 1 2 det Aij − λδji = .. . . . . n An A Ann − λ 2 1
Hern´ andez & N´ un ˜ez
de ella emergen todos los auto = 0.
Universidad de los Andes / Universidad Industrial de Santander
235
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
El resultado ser´ a un polinomio de grado n (el polinomio caracter´ıstico). Las ra´ıces de este polinomio ser´ an los autovalores que estamos buscando. Es claro que estas ra´ıces podr´an ser reales y distintas, algunas reales e iguales y otras imaginarias. Es importante se˜ nalar que polinomio caracter´ıstico ser´a independiente de la base a la cual est´e referida
el la representaci´ on matricial ui A |uj i del operador A. Primero los autovalores, luego los autovectores
Ejemplos
1 3 2−λ 3 3 20 − λ
re lim
1. Una matriz 3 × 3 con 3 autovalores reales distintos 2−λ 2 1 3
i i i 1 2 3 e A |ej i = ⇒ det Aj − λδj = 1 3 3 3 20
in ar
El procedimiento es el siguiente. Una vez obtenidos (los autovalores) las ra´ıces del polinomio caracter´ıstico, se procede a determinar el autovector, |ψj i , correspondiente a ese autovalor. Distinguiremos en esta determinaci´ on casos particulares dependiendo del tipo de ra´ız del polinomio caracter´ıstico. Ilustraremos estos casos con ejemplos para el caso espec´ıfico de matrices reales 3 × 3.
= 0,
con lo cual el polinomio caracter´ıstico queda expresado como
λ3 − 24λ2 + 65λ − 42 = (λ − 1) (λ − 2) (λ − 21) = 0 ,
a) λ1 = 1
2 1 3
1 2 3
rP
y es claro que tiene 3 ra´ıces distintas. Para proceder a calcular los autovectores correspondientes a cada autovalor resolvemos la ecuaci´ on de autovalores para cada autovalor. Esto es 1 1 x 3 x 3 x2 = x2 ⇐⇒ 20 x3 x3
2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3
= = =
x1 x2 x3 ,
ad o
que constituye un sistema de ecuaciones algebraicas de 3 ecuaciones con 3 inc´ognitas. Resolviendo el sistema tendremos el primer autovector ε(λ1 ) 1 x −1 ε(λ1 ) = x2 = α 1 , 0 x3 con α un n´ umero distinto de cero.
Bo rr
b) λ2 = 2
2 1 3
1 2 3
1 1 x 3 x 3 x2 = 2 x2 ⇐⇒ x3 20 x3
2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3
= 2x1 = 2x2 = 2x3 .
Resolviendo el sistema se tiene el segundo autovector 1 x −3 ε(λ2 ) = x2 = α −3 . x3 1
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
236
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
c) λ3 = 21
2 1 3
1 1 3 x x 3 x2 = 21 x2 ⇐⇒ 20 x3 x3
1 2 3
2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3
= = =
21x1 21x2 21x3 .
Al resolver este sistema el tercer autovector
in ar
ε(λ3 )
x1 1 = x2 = α 1 . x3 6
2. Una matriz 3 × 3 con 2 autovalores reales distintos, es decir, una matriz con autovalores repetidos 4−λ −3 1 4 −3 1
i i = 0, −1 − λ 0 e A |ej i = 4 −1 0 ⇒ det Aj − λδji = 4 1 7 −4 − λ 1 7 −4
re lim
con lo cual el polinomio caracter´ıstico queda expresado como 2
λ3 + λ2 − 5λ − 3 = (λ + 3) (λ − 1) = 0 ,
y es claro que tiene 2 ra´ıces iguales y una distinta. En este caso λ = 1 es un autovalor degenerado de orden 2. Ahora resolveremos la ecuaci´on de autovalores para cada autovalor. a) λ1 = −3 4 4 1
−3 −1 7
Resolviendo
1 1 x x 1 0 x2 = −3 x2 ⇐⇒ x3 x3 −4
rP
4x1 − 3x2 + x3 4x1 − x2 1 x + 7x2 − 4x3
= −3x1 = −3x2 = −3x3 .
−1 x1 = x2 = α 2 . 13 x3
ad o
ε(λ1 )
b) λ2 = 1 (autovalor 4 4 1
degenerado de −3 1 −1 0 7 −4
orden 2) 1 x1 x x2 = x2 ⇐⇒ x3 x3
4x1 − 3x2 + x3 4x1 − x2 1 x + 7x2 − 4x3
= x1 = x2 = x3 .
Bo rr
Resolviendo el sistema tendremos el segundo autovector 1 x 1 ε(λ2 ) = x2 = α 2 . x3 3
3. Otra matriz 3 × 3 con autovalores repetidos 2 1 1
i i 2−λ i 2 3 2 e A |ej i = ⇒ det Aj − λδj = 2 3 3 3 4
Hern´ andez & N´ un ˜ez
1 1 3−λ 2 3 4−λ
Universidad de los Andes / Universidad Industrial de Santander
= 0, 237
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
con lo cual el polinomio caracter´ıstico es 2
λ3 + λ2 − 5λ − 3 = (λ − 7) (λ − 1) = 0 , que tiene 2 ra´ıces iguales y una distinta. En este caso λ = 1 vuelve a ser un autovalor degenerado de orden 2. Volvemos a calcular los autovectores correspondientes a cada autovalor a) λ1 = 7 1 1 1 x x 2 x2 = 7 x2 ⇐⇒ 4 x3 x3
1 3 3
Al resolver el sistema
x1 1 = x2 = α 2 . x3 3
ε(λ1 ) b) λ2 = 1. En este caso el 2 1 2 3 3 3
2x1 + x2 + x3 2x1 + 3x2 + 3x3 3x1 + 3x2 + 4x3
autovalor degenerado de orden 2 presenta una peque˜ na 1 1 1 x x 2x1 + x2 + x3 = 2 2 2 x = x ⇐⇒ 2x1 + 3x2 + 2x3 = 4 x3 x3 3x1 + 3x2 + 4x3 =
Resolviendo
ε(λ2 ) =
7x1 7x2 7x3 .
= = =
in ar
2 2 3
patolog´ıa. Veamos
re lim
x1 x2 x3 .
1 x 1 x2 = α 0 −1 x3
rP
1 0 x x2 = β 1 −1 x3
ad o
con lo cual el autovector ε(λ2 ) correspondiente al autovalor λ2 = 1 se podr´a escribir como 1 x 1 0 ε(λ2 ) = αε1 (λ2 ) + βε2 (λ2 ) = x2 = α 0 + β 1 . −1 −1 x3
Bo rr
4. Una matriz 3 × 3 con 1 autovalor real y dos autovalores complejos 1−λ 1 2 3 i
i e A |ej i = 3 1 2 ⇒ det Aj − λδji = 3 2 2 3 1
2 3 1−λ 2 3 1−λ
= 0,
con lo cual el polinomio caracter´ıstico queda expresado como λ3 − 3λ2 − 15λ − 18 = (λ − 6) λ2 + 3λ + 3 = 0 ,
En este caso λ1 = 6 es un autovalor real. Adicionalmente existen dos √ √ autovalores complejos, uno el complejo conjugado del otro: λ2 = − 21 3 + i 3 y λ3 = − 12 3 − i 3 . Para proceder a calcular
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
238
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
los autovectores correspondientes a cada autovalor resolvemos la ecuaci´on autovalor real. En este caso existe un u ´ nico autovalor real λ = 6. 1 1 1 2 3 x x 4x1 − 3x2 + x3 3 1 2 x2 = 6 x2 ⇐⇒ 4x1 − x2 2 3 1 x3 x3 x1 + 7x2 − 4x3
de autovalores para cada = = =
6x1 6x2 6x3 .
Tendremos que para λ = 6 x1 1 = x2 = α 1 . x3 1
ε(λ=6)
Practicando con Maxima:
in ar
En este ejercicio aprenderemos a resolver el problema de autovalores y autovectores. Primeros lo haremos de manera indirecta, realizando los c´ alculos por pasos, y luego usando las funciones espec´ıficas del programa. Dada la matriz A del primer ejemplo anteriormente resuelto:
re lim
(%i1) A:matrix([2,1,3], [1,2,3], [3,3,20]); 2 1 3 ( %o1) 1 2 3 3 3 20
Generamos la matriz identidad 3 × 3 con el comando ident(n).
rP
(%i2) I:ident(3); 1 0 0 ( %o2) 0 1 0 0 0 1
Escribimos la ecuaci´ on de autovalores de manera matricial y la llamaremos M .
ad o
(%i3) M:A-lambda*I; 2−λ 1 3 2−λ 3 ( %o3) 1 3 3 20 − λ
El determinante nos da el polinomio caracter´ıstico, luego resolvemos para λ.
Bo rr
(%i4) factor(determinant(M)); ( %o4) − (λ − 21) (λ − 2) (λ − 1) (%i5) solve(%=0);
( %o5) [λ = 1, λ = 2, λ = 21]
Los autovalores son: λ1 = 1, λ2 = 2 y λ3 = 21. Para cada autovalor evaluaremos una matriz correspondiente:
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
239
(%i6) M1:M,lambda=1; M2:M,lambda=2; M3:M,lambda=21; 1 1 3 ( %o6) 1 1 3 3 3 19 0 1 3 ( %o7) 1 0 3 3 3 18 −19 1 3 −19 3 ( %o8) 1 3 3 −1
in ar
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
Necesitamos ahora resolver, para cada autovalor, la ecuaci´on de autovectores: AX = λi X. As´ı que podemos escribir las siguientes matrices:
re lim
(%i9) M1:M1.[x,y,z]; M2:M2.[x,y,z]; M3:M3.[x,y,z]; 3z + y + x ( %o9) 3 z + y + x 19 z + 3 y + 3 x 3z + y 3z + x ( %o10) 18 z + 3 y + 3 x 3 z + y − 19 x ( %o11) 3 z − 19 y + x −z + 3 y + 3 x
rP
Iremos ahora resolviendo cada uno de los sistemas de ecuaciones. Para λ1 = 1: (%i12)ec1:M1[1,1]=0; ec2:M1[2,1]=0; ec3:M1[3,1]=0;
ad o
( %o12) 3 z + y + x = 0 ( %o13) 3 z + y + x = 0 ( %o14) 19 z + 3 y + 3 x = 0
(%i15)solve([ec1,ec2,ec3],[x,y,z]); solve: dependent equations eliminated: (2) ( %o15) [[x = − %r4 , y = %r4 , z = 0]]
Bo rr
Recordemos que Maxima nos indica con el s´ımbolo %rn que se trata de una constante. As´ı que de las infinitas soluciones escogemos alguna de las m´as simples: (1, −1, 0). Repetimos los c´ alculos para el segundo autovalor, es decir, λ2 = 2: (%i16)ec1:M2[1,1]=0; ec2:M2[2,1]=0; ec3:M2[3,1]=0;
( %o16) 3 z + y = 0 ( %o17) 3 z + x = 0 ( %o18) 18 z + 3 y + 3 x = 0
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
240
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
(%i19)solve([ec1,ec2,ec3],[x,y,z]); solve: dependent equations eliminated: (3) ( %o19) [[x = −3 %r5 , y = −3 %r5 , z = %r5 ]] Por lo tanto un autovector puede ser: (1, 1, −1/3). Finalmente, para λ3 = 21: (%i20)ec1:M3[1,1]=0; ec2:M3[2,1]=0; ec3:M3[3,1]=0;
in ar
( %o20) 3 z + y − 19 x = 0 ( %o21) 3 z − 19 y + x = 0 ( %o22) − z + 3 y + 3 x = 0 (%i23)solve([ec1,ec2,ec3],[x,y,z]);
re lim
solve: dependent equations eliminated: (3) %r6 %r6 ,y = , z = %r6 ( %o23) x = 6 6 Podemos tomar como autovector a: (1, 1, 6). Maxima ofrece la posibilidad de resolver el problema de autovalores a trav´es de un determinado n´ umero de funciones. Por ejemplo, la funci´ on charpoly nos dar´a el polinomio caracter´ıstico directamente de la matriz que queremos estudiar y respecto de la variable que seleccionemos, es este caso ser´a λ. (%i24)charpoly(A,lambda);
( %o24) λ + ((2 − λ) (20 − λ) − 9) (2 − λ) + 3 (3 − 3 (2 − λ)) − 11
rP
(%i25)factor(%); ( %o25) − (λ − 21) (λ − 2) (λ − 1) (%i26)solve(%=0);
ad o
( %o26) [λ = 1, λ = 2, λ = 21]
El programa tambi´en permite obtener los autovalores directamente de la matriz problema. Esto se hace con el comando eigenvalues(M). El resultado ser´a una lista conformada a su vez por dos listas: la primera sublista la forman los valores propios de la matriz M y la segunda sus multiplicidades correspondientes. Veamos:
Bo rr
(%i27)eigenvalues(A); ( %o27) [[1, 2, 21] , [1, 1, 1]]
La funci´ on para calcular los autovectores es eigenvectors(M). El resultado ser´a una lista con dos elementos; el primero est´ a formado por dos listas: la primera con los valores propios de M y la segunda con sus respectivas multiplicidades, el segundo elemento es una lista de listas de vectores propios, una por cada valor propio. (%i28)eigenvectors(A);
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
241
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
1 ( %o28) [[1, 2, 21] , [1, 1, 1]] , [[1, −1, 0]] , 1, 1, − , [[1, 1, 6]] 3 Para el ejemplo 2 tratado anteriormente, ten´ıamos la matriz
( %o29) [[[−3, 1] , [1, 2]] , [[[1, −2, −13]] , [[1, 2, 3]]]] Notemos que s´ olo se obtienen dos autovectores. Para el ejemplo 3:
re lim
(%i28)C:matrix([2,1,1], [2,3,2], [3,3,4]); 2 1 1 ( %o29) 2 3 2 3 3 4 (%i28)eigenvectors(C);
in ar
(%i29)B:matrix([4,-3,1], [4,-1,0], [1,7,-4]); 4 −3 1 ( %o29) 4 −1 0 1 7 −4 (%i29)eigenvectors(B);
( %o29) [[[7, 1] , [1, 2]] , [[[1, 2, 3]] , [[1, 0, −1] , [0, 1, −1]]]] Y finalmente el ejemplo 4:
ad o
rP
(%i28)D:matrix([1,2,3], [3,1,2], [2,3,1]); 1 2 3 ( %o29) 3 1 2 2 3 1 (%i28)eigenvectors(D); # # """ √ ## "" ## ## """ √ √ √ √ √ 3i + 3 3i − 3 3i − 1 3i + 1 3i + 1 3i − 1 , , 6 , [1, 1, 1] , 1, ,− , 1, − , , [[1, 1, 1]] ( %o29) − 2 2 2 2 2 2
El caso degenerado
Bo rr
Como hemos visto, existen situaciones en las cuales un determinado autovalor λ = λ0 es degenerado, estudiemos esta situaci´ on con un poco de detalle. Consideremos una matriz n × n, Aij , por lo cual el polinomio caracter´ıstico P (λ) = det Aij − λδji = 0 tendr´ a una ra´ız degenerada de orden k ≤ n. Entonces el siguiente teorema garantiza la existencia de al menos un subespacio S (λ0 ) ⊂ Vn . Teorema: Sea un operador lineal A : Vn → Vn con una representaci´on matricial n × n tal que su polinomio P (λ) = det Aij − λδji = 0 tiene al menos una ra´ız degenerada λ = λ0 , de orden k ≤ n. Entonces
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
242
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
existen k autovectores, no triviales, que cumplen con A |ψj i = λ0 |ψj i
con j = 1, 2, · · · , k .
Demostraci´ on: La demostraci´ on tambi´en emerge de una variante del M´etodo de Inducci´ on Completa. Para ello, probamos que se cumple para j = 1. Esta afirmaci´ on es obvia. Si existe un λ = λ0 existe un |ψj i, tal que cumple con la ecuaci´ on anterior el es linealmente independiente con ´el mismo. Suponemos que se cumple para 1 ≤ j = m ≤ k. Es decir, existen m autovectores |ψj i de A para el autovalor λ0 . Definamos un subespacio Sλ0 = S (λ0 ) ⊂ Vn donde A |ψj i = λ0 |ψj i ⇒ A |ψj i ∈ Sλ0
/
con j = 1, 2, · · · , m ,
in ar
|ψj i ∈ Sλ0
por lo tanto, podremos separar Vn como una suma directa entre el subespacio Sλ0 y N , su complemento ortogonal Vn = Sλ0 ⊕ N / A |ψj i = λ0 |ψj i ∧ |φi ∈ N ⇒ hφ |ψj i = 0 ,
re lim
claramente Sλ0 es un subespacio invariante de A por cuanto su acci´on se circunscribe dentro del mismo subespacio Sλ0 . Mostraremos que se cumple para operadores herm´ıticos, por cuanto no es verdad en general, entonces hφ |ψj i = 0 ∧ ⇒ hψj |φi = 0 = hψj | A† |φi = hψj | A |φi , A |ψj i = λ0 |ψj i
ad o
rP
de donde se concluye que el vector es ortogonal a Sλ0 y por lo tanto est´a en el complemento ortogonal A |φi ∈ N (por hip´ otesis |φi ∈ N ). Esto implica que N tambi´en es un espacio invariante del operador herm´ıtico A. Entonces, el espacio Vn puede expresarse como una suma directa de los dos subespacios invariantes respecto al operador lineal A y su representaci´on matricial en la base de autovectores tendr´a la forma de una matriz diagonal a bloques: 1 1 ··· 0 0 ··· 0 Q1 · · · Q1m 0 · · · 0 .. . .. .. . .. . . .. .. .. . . . .. . . . .. 0 . . m m
j 0 ··· 0 Q1 Qm 0 · · · 0 0 · · · 1 j u A |ui i = Ai → m+1 m+1 ··· 0 1 0 0 0 · · · 0 Rm+1 · · · Rn 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0
···
0
0
···
1
0
···
0
n Rm+1
···
Rnn
Bo rr
α µ donde Qα β y Rυ son matrices m × m y (n − m) × (n − m), respectivamente. La matriz Qβ opera en Sλ0 µ mientras que Rυ act´ ua sobre el complemento ortogonal N . El polinomio caracter´ıstico de A puede expresarse como P (λ) = det Aij − λδji = 0 ⇒ P (λ) = det Qij − λδji det Rji − λδji = 0 ,
y como λ = λ0 es la ra´ız m´ ultiple del polinomio caracter´ıstico que anula el det Qij − λδji , tendremos que m det Qij − λ0 δji = 0 ⇒ P (λ) = (λ − λ0 ) F (λ)
Hern´ andez & N´ un ˜ez
con F (λ0 ) 6= 0 ,
Universidad de los Andes / Universidad Industrial de Santander
243
4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR
donde λ0 no es ra´ız del polinomio F (λ). Ahora bien, para que se cumpla cuando j = k el polinomio caracter´ıstico es k
m
k
j = k ⇒ P (λ) = (λ − λ0 ) R (λ) ⇒ (λ − λ0 ) F (λ) = (λ − λ0 ) R (λ) . Otra vez λ0 no es ra´ız del polinomio R (λ). La ecuaci´on anterior se cumple para todo λ en particular para λ = λ0 . Por lo tanto, k−m R (λ) 1 = (λ − λ0 ) . F (λ) Es claro que λ = λ0 obliga a k = m. J
Ejercicios
1. Encuentre los autovalores y autovectores de la siguiente 1 3 4 A= 3 −1 −2
in ar
4.7.2.
matriz −1 −2 2
2. Demuestre que la matriz
re lim
y verifique si los autovectores son ortogonales entre ellos. 2 A = −6 3
0 4 −1
0 4 0
rP
no tiene tres autovectores linealmente independientes y que cualquier autovector tiene la forma: λ 3λ − 2ν ν
ad o
3. Construimos un sistema con tres part´ıculas r´ıgidamente unidas, colocadas en tres puntos distintos de la siguiente forma −1 1 1 m2 = 2 → −1 y m3 = 1 → 1 m1 = 1 → 1 0 2 −2 a) Encuentre la matriz del tensor de inercia. b) Diagonalice esa matriz y encuentre los ejes principales de inercia.
Bo rr
4. En Mec´ anica Cu´ antica, el problema del oscilador arm´onico simple puede ser representado por un problema de autovalores L|ψ >= λ|ψ > ⇒ < x|L|ψ >= λ < x|ψ > ↔ Lψ(x) = λψ(x)
donde L ↔
d2 x2 1 + + 2 dx 4 2
Si construimos un par de operadores L+ =
x d + 2 dx
y
L− =
x d − 2 dx
Utilice los resultados del problema anterior y construya las nuevas autofunciones de L con sus autovalores.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
244
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
4.8.
Autovalores y autovectores de matrices importantes
En esta secci´ on presentaremos ejemplos de autovalores y autovectores de matrices de importancia en el campo de la F´ısica, esto incluye, por supuesto, el importante problema de las matrices complejas.
4.8.1.
Autovalores y autovectores de matrices similares
re lim
in ar
Supongamos la representaci´ on matricial de un determinado operador lineal A : V → V (dim V = n), y adem´ as que {|e1 i , |e2 i , |e3 i , · · · |en i} y {|w1 i , |w2 i , |w3 i , · · · |wn i} son dos bases ortogonales para V. Entonces A |ej i = Alj |el i y A |wj i = A˜lj |wl i ,
con: Aij = ei A |ej i y A˜ij = wi A |wj i. Ahora bien, cada uno de los vectores base {|ej i} y {|wj i} puede ser expresado en las otras bases {|wj i} y {|ej i} respectivamente como |wj i = αjl |el i , −1 ⇒ |wj i = αjl βlm |wm i ⇒ αjl βlm = βlm αjl = δjm ⇒ βlm = (αlm ) . m |el i = βl |wm i Las cantidades αjl son n´ umeros que pueden ser “arreglados” como una matriz. Esa matriz, adicionalmente es no singular7 por ser la representaci´ on de una transformaci´on lineal que aplica una base en otra. Entonces adem´ as |wj i = αjl |el i ⇒ A |wj i = αjl A |el i ⇒ A˜lj |wl i = αjm Akm |ek i = αjm Akm βkh |wh i , | {z } δjh
con lo cual
rP
A˜lj = αjm Akm βkl ⇒ A˜lj = βkl Akm αjm ⇒ A˜lj = αkl
−1
Akm αjm ,
que puede ser expresada en el lenguaje de operadores, finalmente como ˜ = C−1 AC A
⇐⇒
−1 k wi A |wj i = αki e A |em i αjm .
ad o
De esta manera hemos demostrado el siguiente teorema: Teorema: Dadas dos matrices, n × n, Alj y A˜ij las cuales corresponden a la representaci´on matricial de un operador A en las bases ortogonales {|ei i} y {|wi i}, respectivamente. Entonces existe una matriz αjl , no singular, tal que
˜ = C−1 AC ⇐⇒ wi A |wj i = αi −1 ek A |em i αm . J A k j
Bo rr
El inverso de este teorema tambi´en se cumple. Vale decir: Teorema: Si dos matrices n × n, Alj y A˜ij , est´an relacionadas por la ecuaci´on ˜ = C−1 AC ⇐⇒ A
i ˜ |wj i = αi −1 wk A |wm i αm , w A k j
˜ y A representan el mismo operador lineal. donde C es una matriz no singular, entonces A 7 det
αij
6= 0
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
245
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
Demostraci´ on: Para proceder a demostrarlo supondremos A : V → V y que dim V = n, supongamos adem´ as que: {|ei i} y {|wi i} son bases de V, de tal forma que |wj i = αjl |el i −1 ⇒ |wj i = αjl βlm |wm i ⇒ αjl βlm = βlm αjl = δjm ⇒ βlm = (αlm ) , m |el i = βl |wm i donde
αjl = el |wj i
y
βlm = (αlm )
−1
= hwm |el i .
Supongamos que
con: Aij = ei A |ej i
y
˜ |wj i = A˜l |wl i , A j
˜ |wj i , con: A˜ij = wi A
in ar
A |ej i = Alj |el i ,
al actuar A sobre |wj i tendremos
−1
A |wj i = αjl A |el i = αjl Akl |ek i = αjl Akl βkm |wm i = βkm Akl αjl |wm i = (αkm ) Akl αjl |wm i , | {z } ˜ ji hwi |A|w
re lim
˜ Con lo cual A ≡ A ˜ y queda demostrado el teorema. J que es exactamente la representaci´ on matricial de A. Definici´ on: Dos matrices, Akl y A˜ij , n × n, se denominar´an similares si existe una matriz no singular αki tal que
˜ |wj i = αi −1 wk A |wm i αm . J ˜ = C−1 AC ⇐⇒ wi A A k j Podemos juntar los dos teoremas anteriores y afirmar que:
rP
Teorema: Dos matrices, Akl y A˜ij , n × n, similares representan la misma transformaci´on lineal. Teorema: Dos matrices, Akl y A˜ij , n × n, similares tienen el mismo determinante. Demostraci´ on: La demostraci´ on es inmediata y proviene de las propiedades del determinante de un producto: h i ˜ = det C−1 AC = det C−1 det [A] det [C] = det [A] . J det A
ad o
Con lo cual es inmediato el siguiente Teorema.
Teorema: Dos matrices, Akl y A˜ij , n × n, similares tienen el mismo polinomio caracter´ıstico y con ello el mismo conjunto de autovalores. Demostraci´ on: Es inmediato verificar que
Bo rr
˜ − λI = C−1 AC − λI = C−1 (A − λI) C , A
y dado que
h i ˜ − λI = det C−1 (A − λI) C = det C−1 det [A − λI] det [C] = det [A − λI] . det A
˜ y A, tendr´an el mismo polinomio caracter´ıstico y con ello el mismo Por lo tanto, ambas matrices, A conjunto de autovalores. J Todos los teoremas de esta secci´ on pueden ser resumidos en el siguiente teorema Teorema: Sea un operador lineal A : V → V y dim V = n, supongamos adem´as que el polinomio caracter´ıstico tiene n ra´ıces distintas, {λ1 , λ2 , . . . , λn }. Entonces tendremos que:
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
246
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
Los diferentes autovectores {|u1 i , |u2 i , · · · , |un i} correspondientes a los {λ1 , λ2 , . . . , λn }, formar´ an una base para V.
La representaci´ on matricial del operador uk A |um i en la base de autovectores {|u1 i , |u2 i , · · · , |un i}, ser´ a diagonal
k A¯km = Wm = uk A |um i = diag (λ1 , λ2 , . . . , λn ) .
Cualquier otra representaci´ on matricial, ek A |em i, del operador A en otra base de V, estar´a relacionada con la representaci´ on diagonal mediante una transformaci´on de similaridad ⇐⇒
diag (λ1 , λ2 , . . . , λn ) = αki
−1 k e A |em i αjm ,
in ar
W = C−1 AC
donde αjm es una matriz, no singular y por lo tanto invertible, de cantidades que relacionan ambas bases |uj i = αjl |el i −1 ⇐⇒ βlm = (αlm ) ⇒ βlm αjl = δjm . m |el i = βl |um i
re lim
La demostraci´ on, en t´erminos de los teoremas anteriores es inmediata y se la dejamos como ejercicio al lector. Una clase importante de transformaciones de similaridad son aquellas en las que C es unitaria, en esta caso se tiene que W = C−1 AC = C† AC. Adem´as, si la base original {|ei i} es ortonormal y la matriz C es unitaria, entonces, la nueva base ser´ a ortonormal. Las siguientes propiedades pueden ser de gran utilidad: Si A es herm´ıtica (anti-herm´ıtica) entonces W es herm´ıtica (anti-herm´ıtica).
rP
W† = (C† AC)† = C† A† C = ±C† AC = ±W . Si A es unitaria, es decir A† = A−1 , entonces W es unitaria.
W† W = (C† AC)† (C† AC) = C† A† CC† AC = C† A† AC = C† IC = I .
ad o
Ejemplo Dada la siguiente matriz real
1 A= 0 3
0 −2 0
3 0 1
Bo rr
Los autovalores y autovectores para A son
λ1 = 4 λ2 = −2 P (λ) = −(λ − 4)(λ + 2)2 = 0 ⇒ λ3 = −2
La matriz A se puede diagonalizar a trav´es de vectores normalizados de A como columnas. 1 C= √ 2
Hern´ andez & N´ un ˜ez
|u1 i = (1 0 1)T |u2 i = (0 1 0)T ⇒ |u3 i = (−1 0 1)T
la transformaci´on C† AC, donde C se construye con los 1 0 1
√0 2 0
−1 0 . 1
Universidad de los Andes / Universidad Industrial de Santander
247
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
A pesar que los autovalores de independientes, por lo tanto: 1 √0 1 C† AC = 0 2 2 −1 0
A son degenerados (λ = 4, −2, −2) sus tres autovectores son linealmente 1 1 0 0 3 1
0 −2 0
1 3 0 0 1 1
√0 2 0
−1 4 0 = 0 0 1
0 −2 0
0 0 . −2
Practicando con Maxima:
(%i1) A:matrix([1,0,3], [0,-2,0], [3,0,1]); 1 0 3 ( %o1) 0 −2 0 3 0 1 (%i2) L:eigenvectors(A);
re lim
( %o2) [[[−2, 4] , [2, 1]] , [[[1, 0, −1] , [0, 1, 0]] , [[1, 0, 1]]]]
in ar
Consideremos el ejemplo anterior
El resultado es una lista con los autovalores y su multiplicidad, y para cada autovalor los autovectores como sublistas. Es necesario manipular estas sublistas para obtener los autovectores: (%i3) L2:L[2]$ SL1:L2[1]; SL2:L2[2]; ( %o3) [[1, 0, −1] , [0, 1, 0]] ( %o4) [[1, 0, 1]]
rP
Por lo tanto, una lista con los autovectores es la siguiente (%i5) [SL1[1],SL1[2],SL2[1]]; ( %o5) [[1, 0, −1] , [0, 1, 0] , [1, 0, 1]]
ad o
Notemos el orden: los dos primeros vectores corresponden al autovalor −2 y el tercero al autovalor 4. Vamos ahora a normalizar cada vector. (%i6) V1:SL1[1]sqrt(SL1[1].SL1[1]); V2:SL1[2]/sqrt(SL1[2].SL1[2]);
Bo rr
V3:SL2[1]/sqrt(SL2[1].SL2[1]); 1 1 ( %o6) √ , 0, − √ 2 2 ( %o7) [0, 1, 0] 1 1 ( %o8) √ , 0, √ 2 2 Hacemos una lista con los vectores normalizados: (%i9) Lvec:[V1,V2,V3];
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
248
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
( %o9)
1 1 1 1 √ , 0, − √ , [0, 1, 0] , √ , 0, √ 2 2 2 2
Construimos la matriz C: (%i10)C: transpose(apply(’matrix,Lvec));
√1 2
0 1 0
( %o10) 0 − √12
√1 2 0
√1 2
in ar
Y finalmente
4.8.2.
re lim
(%i11)transpose(C).A.C; −2 0 0 ( %o11) 0 −2 0 0 0 4
Autovalores y autovectores de matrices herm´ıticas
Tal y como mencionamos con anterioridad, un operador herm´ıtico cumple con ∗ i
∗ , A† = A ⇒ A† j = ei A† |ej i = ej A |ei i = Aji
rP
esto es: el herm´ıtico conjugado de una matriz, es su traspuesta conjugada. Por lo tanto, las matrices herm´ıticas son sim´etricas respecto a la diagonal y los elementos de la diagonal son n´ umeros reales. Por su parte, llamaremos antiherm´ıtico a un operador que cumpla con: ∗ i
∗ A† = −A ⇒ A† j = ei A† |ej i = − ej A |ei i = − Aji . Teorema: Suponga un operador herm´ıtico A = A† con autovalores: {λ1 , λ2 , . . . , λn }. Entonces:
ad o
Los autovalores {λ1 , λ2 , . . . , λn } son reales.
Los autovectores {|u1 i , |u2 i , · · · , |un i}, correspondientes a cada uno de los autovalores, ser´an ortogonales. Demostraci´ on:
Bo rr
Para demostrar que los autovalores {λ1 , λ2 , . . . , λn } son reales, proyectamos la ecuaci´on de autovalores en cada uno de los autovectores: A |ψi = λ |ψi ⇒ hψ| A |ψi = λ hψ |ψi .
Ahora bien, dado que hψ |ψi es real, si demostramos que hψ| A |ψi es real, estar´a demostrado que λ lo ser´ a tambi´en. Pero como A es herm´ıtico ∗
hψ| A |ψi = hψ| A† |ψi = hψ| A |ψi ⇒ hψ| A |ψi ∈ R ,
y por consiguiente los autovalores {λ1 , λ2 , . . . , λn } son reales. M´as a´ un, si A es herm´ıtico, y como sus autovalores son reales entonces hψ| A† = λ∗ hψ| = λ hψ| ⇒ hψ| A |φi = λ hψ |φi .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
249
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
Para demostrar que los autovectores {|u1 i , |u2 i , · · · , |un i} son ortogonales, consideremos dos autovectores con sus correspondientes autovalores de tal forma que se cumplen las siguientes ecuaciones A |ψi = λ |ψi
A |ϕi = µ |ϕi ,
y
in ar
pero como A es herm´ıtico entonces se cumple que hϕ| A = µ hϕ|, multiplicando a la izquierda por |ψi y a hψ| A = λ hψ| por hϕ| a la derecha. (hϕ| A = µ hϕ|) |ψi hϕ| A |ψi = µ hϕ |ψi ⇒ ⇒ (λ − µ) hϕ |ψi = 0 , hϕ| (A |ψi = λ |ψi) hϕ| A |ψi = hϕ |ψi y como hemos supuesto que λ 6= µ con lo cual hϕ |ψi = 0, los autovectores correspondientes a dos autovalores son ortogonales. J
re lim
Ejemplo La siguiente matriz es un ejemplo de una matriz herm´ıtica o autoadjunta: 1 −1 + 2i i 2 −1 ⇒ A† = A A = −1 − 2i −i −1 3 Los autovalores de esta matriz son:
λ1 = 4 √ 2 λ 2 = 1 + √5 P (λ) = − (λ − 4) λ − 2 λ − 4 = 0 ⇒ λ3 = 1 − 5
3√
ad o
√ 1 λ2 = 1+ 5 ⇒ |u2 i = 3
rP
Los tres autovalores reales generan los siguientes autovectores: 1 λ1 = 4 ⇒ |u1 i = −1 − i , 1
1 − 5i √ , − 5−2− 1+ 5 i
Bo rr
|ˆ u3 i = p
Hern´ andez & N´ un ˜ez
λ3 = 1− 5 ⇒ |u3 i =
√
Estos vectores normalizados son 1 |u1 i 1 −1 − i , |ˆ u1 i = p = 2 hu1 |u1 i 1
|ˆ u2 i = p
|u3 i hu3 |u3 i
hu2 |u2 i
=p
=p
30 − 6
1 √ 3
|u2 i
3
√
3 30 + 6
3√
1 + 5i √ . 5−2− 1− 5 i
3√
√ √ 1 − 5i √ , 5 − 5−2− 1+ 5 i 3√
1 + 5i √ . √ √ 5 5−2− 1− 5 i
Universidad de los Andes / Universidad Industrial de Santander
250
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
in ar
Se puede demostrar que los autovectores son ortogonales: 3√ 1 −1 + i 1 √ 1 − 5 i √ = 0 hu1 |u2 i = (u1 )† u2 = 0 ⇒ − 5−2− 1+ 5 i 3√ 1 + 5i √ = 0 1 −1 + i 1 √ hu1 |u3 i = (u1 )† u3 = 0 ⇒ 5−2− 1− 5 i 3√ √ √ √ 1 + 5i √ = 0 hu2 |u3 i = (u2 )† u3 = 0 ⇒ 3 1 + 5i − 5 − 2 + 1 + 5 i √ 5−2− 1− 5 i
30+6
a partir de los autovectores
re lim
La matriz A es entonces diagonalizable si construimos la siguiente matriz normalizados: 1 √ 9 √ √ 9 √ 2 30+6 5 30−6 5 √ √ 3(1+ 5 i) 3(1− 5 i) −1−i √ √ √ √ P= 2 30+6 5 30−6 5 √ √ √ √ 3( 5−2−(1− 5)i) 3(− 5−2−(1+ 5)i) 1 √ √ √ √ 2 5
30−6
5
rP
Si elegimos la matriz diagonal a partir de los autovalores: 4 0√ 0 0√ , Λ= 0 1+ 5 0 0 1− 5
entonces resulta que es posible factorizar la matriz A de la siguiente forma (Para el lector se deja la comprobaci´ on) A = PΛP† .
ad o
En este caso, se dice que A es diagonalizable unitariamente, por ser Λ diagonal y por ser P unitaria, es decir, por satisfacer la propiedad P† = P−1 . Es importante se˜ nalar el hecho de que si la matriz A es real, entonces A = PΛPT .
Bo rr
con Λ diagonal y P ortogonal: PT = P−1 . En resumen, si A es una matriz herm´ıtica perteneciente al espacio vectorial de matrices cuadradas n × n (A ∈ Cn×n o A ∈ Rn×n ) , entonces: Sus autovalores son reales. Los autovectores correspondientes a cada autovalor son ortogonales. Los autovectores de A resultan ser una base ortonormal del espacio vectorial (Cn×n o Rn×n ). Adem´ as: A = PΛP† , con P unitaria y Λ diagonal. (Si la matriz A es real P ser´a ortogonal).
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
251
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
4.8.3.
Autovalores y autovectores de matrices unitarias
Tal y como mencionamos anteriormente, un operador ser´a unitario si su inversa es igual a su adjunto. Esto es U−1 = U† ⇒ U† U = UU† = I . Dado que los operadores unitarios conservan la norma de los vectores sobre los cuales ellos act´ uan, i.e. |˜ xi = U |xi ⇒ h˜ y |˜ xi = hy| U† U |xi = hy |xi , |˜ y i = U |yi
in ar
son elementos naturales para representar cambios de base dentro de un espacio vectorial. De lo anterior se deduce que si {|ei i} es una base ortonormal, el conjunto de vectores transformados: |˜ej i = U |ej i, tambi´en ser´ an ortonormales:
|˜ej i = U |ej i ⇒ ˜ei |˜ej i = ˜ei U |ej i = ei U† U |ej i = δji .
re lim
Los operadores unitarios aplican vectores base de un espacio vectorial en otra. El siguiente teorema lo ilustra. Teorema: La condici´ on necesaria y suficiente para que un operador U : Vn → Vn sea unitario es que aplique vectores de una base ortonormal {|ei i} en otra {|˜ei i}, tambi´en ortonormal. Demostraci´ on: Demostremos primero la condici´on necesaria. Si es unitario aplica una base en otra. Esto es, supongamos que los vectores {|ej i} forman una base ortonormal para Vn . Sean |ψi, y U† |ψi ∈ Vn . Estos vectores pueden ser expresados en t´erminos de la base {|ej i} de Vn . Por lo tanto, si seleccionamos U† |ψi se cumple que:
rP
U† |ψi = cj |ej i ⇒ UU† |ψi = cj U |ej i = cj |˜ej i ⇒ |ψi = cj |˜ej i ,
ad o
donde hemos aplicado el operador U a la ecuaci´on U† |ψi = cj |ej i y el resultado es que el otro vector, |ψi, tambi´en se pudo expresar como combinaci´on lineal de los vectores transformados {|˜ej i} de la base {|ej i}. Y por lo tanto, los {|˜ej i} tambi´en constituyen una base. Es decir, los operadores unitarios aplican una base ortonormal en otra. La condici´ on de suficiencia (Si aplica una base en otra es unitario) se puede demostrar como sigue. Si {|ej i} y {|˜ej i} son bases ortonormales de Vn y una es la transformada de la otra implica que |˜ej i = U |ej i
con
|ej i ej = I ;
h˜ej | = hej | U† ,
i ˜e |˜ej i = δji ,
|˜ej i ˜ej = I ,
Bo rr
por lo tanto
ei |ej i = δji ,
y
U† U |ej i = U† |˜ej i = |ek i ek U† |˜ej i = |ek i ˜ek |˜ej i = |ek i δjk = |ej i .
Esto significa que U† U = I. J De un modo equivalente, se puede demostrar que UU† = I. Veamos:
U† |ej i = |ek i ek U† |ej i = |ek i ˜ek |ej i ,
y ahora, aplicando el operador U a esta ecuaci´on, tenemos
UU† |ej i = U |ek i ˜ek |ej i = |˜ek i ˜ek |ej i = |ej i . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
252
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
Queda entonces demostrado demostrado que U es unitario: U† U = UU† = I. Por otro lado, la representaci´ on de una matriz unitaria en una base {|ej i} implica
∗ j ∗ Ujk = ek U |ej i ; hem | U† |ej i = ej U |em i = Um , por lo que δjk
=
X
k
k j ∗ Um Um e |ej i = ek I |ej i = ek UU† |ej i = ek U |em i hem | U† |ej i =
=
X
k
∗ e |ej i = ek I |ej i = ek U† U |ej i = ek U† |em i hem | U |ej i = (Ukm ) Ujm .
m
δjk
in ar
m
Una vez m´ as, dado un operador lineal A, la representaci´on matricial del herm´ıtico conjugado de ese operador, A† , es la traspuesta conjugada de la matriz que representa al operador A. En el caso de operadores unitarios, lo cual es f´ acilmente verificable, basta comprobar la suma de los productos de los elementos de una columna (fila) de la matriz con los complejos conjugados de otra columna (fila) sea:
2. uno si las columnas (filas) son iguales.
re lim
1. cero si las columnas (filas) son distintas.
Ejemplos de matrices unitarias son las llamadas matrices de rotaci´on. Alrededor del eje z tendremos que cos(θ) sen(θ) 0 R (θ) = − sen(θ) cos(θ) 0 . 0 0 1 Tambi´en la matriz de rotaci´ on de una part´ıcula de esp´ın i
en el espacio de estados
(α, β, γ) =
i
e− 2 (α+γ) cos(β) −e 2 (α−γ) sen(β) i i e− 2 (α−γ) sen(β) e 2 (α+γ) cos(β)
rP
R
(1/2)
1 2
,
claramente se cumple la regla expuesta arriba.
ad o
Autovalores y autovectores: En cuanto a los autovalores y autovectores de matrices unitarias podemos ver que si |ψu i es un autovector, normalizado del operador U, correspondiente a un autovalor u tendremos que la norma al cuadrado ser´ a igual a U |ψu i = u |ψu i ⇒ hψ u | U† U |ψu i = 1 = u∗ u hψ u |ψu i = u∗ u ⇒ u = eiϕu ,
Bo rr
con ϕu una funci´ on real. Por lo cual podemos concluir que, necesariamente, los autovalores de los operadores unitarios ser´ an n´ umeros complejos de m´ odulo 1. Cuando los autovalores son diferentes, digamos w 6= u, entonces esta condici´ on implica que hψ w |ψu i = 0, con lo cual los autovectores de un operador unitarios son ortogonales. Transformaci´ on unitaria de operadores: Hemos visto como las transformaciones unitarias permiten construir bases ortogonales {|˜ei i} para el espacio vectorial Vn partiendo de otra base {|ei i} tambi´en ortogonal. Mostraremos aqu´ı como transforman los operadores lineales bajo transformaciones unitarias. Definici´ on: Dadas dos bases ortonormales {|ei i} y {|˜ei i} en Vn con; |˜ej i = U |ej i. Un operador lineal unitario U : Vn → Vn y un operador lineal A : Vn → Vn . Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
253
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
˜ : Vn → Vn como aquel cuya representaci´on matricial en la base Definiremos al operador transformado A
˜ |˜ei i = ej A |ei i. J {|˜ei i} es la misma que en la base {|ei i}: ˜ej A A partir de esta definici´ on es f´ acil concluir que
j ˜ |˜ei i = ej U† AU ˜ |ei i = ej A |ei i ⇒ U† AU ˜ = A ⇐⇒ A ˜ = UAU† . ˜e A ˜ = UAU† corresponde a la definici´on de la transformaci´on de un operador A Por lo tanto, la ecuaci´ on A mediante un operador unitario U† . Es f´ acil identificar las propiedades de estos operadores transformados:
† † ] †) , ˜ = UAU† = U† A† U = (A A
in ar
El herm´ıtico conjugado y funciones de un operador transformado:
˜ en particular se sigue de esta propiedad que si A = A† , es herm´ıtico, tambi´en lo ser´a A:
Del mismo modo
re lim
† ˜= A ˜ . A = A† ⇐⇒ A
2 2) , ] ˜ = UAU† UAU† = UA2 U† =(A A
con lo cual
n n−2 n) ] ˜ A = UAU† · · · UAU† = UAn U† =(A
˜ , F˜ (A) = F A
rP
donde F (A) es una funci´ on del operador A.
⇒
Los autovalores y autovectores de un operador transformado
ad o
E Ser´ a un autovector |φµ i de A correspondiente a un autovalor µ, y sea φ˜µ el transformado de |φµ i mediante el operador unitario U. Entonces E E ˜ φ˜µ = UAU† U |φµ i = UA |φµ i = µU |φµ i = µ φ˜µ , A |φµ i = µ |φµ i ⇒ A E ˜ con el mismo autovalor µ : con lo cual es claro que φ˜µ es un autovector de A
E E ˜ φµ = µ φ˜µ .
Bo rr
Equivalentemente podemos afirmar que los autovectores transformados de A, ser´an autovectores del ˜ operador transformado A. Ejemplo Dada la matriz
√1 2
i A= − √2 0
√1 2
0
√i 2
0 .
0
i
Esta matriz es unitaria, ya que: A† = A−1 .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
254
4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
Los autovalores de esta matriz son:
P (λ) = (λ − i) 2 λ2 −
√
√ √ 2(1+i)−2 −3i λ1 = √ 4 √ −3i 2(1 + i)λ + 2 i = 0 ⇒ λ2 = 2(1+i)+2 4 λ3 = i
λ3 λ∗3
=
i(−i) = 1
Estos tres autovalores generan los autovectores: λ1
=
√ 2(1 + i) − 2 −3i ⇒ |u1 i = 4
√ i− −6i−1 2
,
re lim
√
1
in ar
Notemos que los valores propios est´ an normalizados a la unidad ! √ √ ! √ √ 2(1 + i) − 2 −3i 2(1 − i) − 2 3i ∗ =1 λ1 λ1 = 4 4 ! √ √ ! √ √ 2(1 + i) + 2 −3i 2(1 − i) + 2 3i λ2 λ∗2 = =1 4 4
0
√ λ2
=
2(1 + i) + 2 4
√
−3i
⇒ |u2 i =
1
√ i+ −6i−1 2
,
0
0 = i ⇒ |u3 i = 0 , 1
rP
λ3
ad o
Se puede demostrar que los autovectores son ortogonales: hu1 |u2 i =
Bo rr
hu1 |u3 i =
hu2 |u3 i =
(u1 )† u2 = 0 ⇒
(u1 )† u3 = 0 ⇒
(u2 )† u3 = 0 ⇒
√
1
−i− 6i−1 2
1
√ −i− 6i−1 2
1
√ −i+ 6i−1 2
0
1
√ i+ −6i−1 2
=0
0
0 0 =0 1 0 0 0 =0 1 0
Con los autovectores normalizados construimos la matriz U, que tambi´en ser´a unitaria, y la matriz diagonal Λ con los autovalores. √ √ √ 1√ √ 1√ 0 2(1+i)−2 −3i 3+√ 3 3− 3 0 0 √ 4 (1−i) 3+1 √ √ 3−1 ( ) (1−i) 2(1+i)+2 −3i U= √( √ ) 0 0 0 , − √ √ , Λ= 4 2 3+ 3 2 3− 3 0 0 i 0 0 1 Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
255
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN
Como dijimos con anterioridad, existe una relaci´on entre las matrices normales y las matrices unitarias: una matriz A es normal, s´ı y s´ olo s´ı, existe una matriz diagonal Λ y una unitaria U tal que: A = UΛU† . Dejamos al lector la comprobaci´ on. Esto significa que A es tambi´en normal, es decir AA† = A† A .
4.8.4.
Ejercicios
1. Diagonalizar unitariamente A=
2 i
−i 1
,
2. Diagonalizar ortogonalmente A=
1 −3
1 1+i 5 B= 1−i −2i −3
−3 1
3. Demuestre que la matriz
,
3 B = −2 4
x x + iy
rP
C=
2i −3 0
re lim
in ar
El lector puede entonces demostrar que las matrices herm´ıticas, semi-herm´ıticas y las unitarias son matrices normales.
x − iy −z
−2 6 2
4 2 3
es igual a C = xσ 1 + yσ 2 + zσ 3 . Donde las matrices σ i son la matrices de Pauli.
Conjunto completo de observables que conmutan
ad o
4.9.
n n Definici´ on: Diremos que un operador A : V → V es un observable si el conjunto de autovectores ui(µ) de un operador herm´ıtico A, forman una base de Vn . D D A ui(µ) = ai ui(µ) ⇒ ui(µ) ui(µ) = 1 ⇐⇒ ui(µ) uj(ν) = δji δνµ ,
Bo rr
donde el ´ındice µ indica el grado de degeneraci´on del autovalor λi . J Un ejemplo trivial de un observable lo constituyen los proyectores, P|ψi = |ψi hψ| con hψ| ψi = 1. Claramente, la ecuaci´ on de autovalores para un proyector obliga a que tenga dos autovalores 0 y 1. El autovalor nulo es infinitamente degenerado y est´a asociado a todos los vectores ortogonales a |ψi, mientras que el autovalor 1 corresponde a un autovalor simple y est´a asociado a todos los vectores colineales al mismo vector |ψi. Esto es: P|ψi |ψi = |ψi y P|ψi |φi = 0 si hψ| φi = 0 . M´ as a´ un, sea un vector arbitrario |ϕi ∈ Vn . Siempre se podr´a expresar como |ϕi = P|ψi |ϕi + I − P|ψi |ϕi ⇒ P|ψi |ϕi = P|ψi |ϕi + I − P|ψi |ϕi ,
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
256
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN
por lo tanto P|ψi |ϕi = P|ψi P|ψi |ϕi + P|ψi − P2|ψi |ϕi = P|ψi |ϕi =⇒ P|ψi P|ψi |ϕi = P|ψi |ϕi , ya que P2|ψi = P|ψi , por definici´ on de proyector. Entonces, se deduce que P|ψi |ϕi es un autovector de P|ψi con autovalor 1. Igualmente I − P|ψi |ϕi es un autovector de P|ψi con autovalor 0, y la demostraci´ on es inmediata P|ψi I − P|ψi |ϕi = P|ψi − P2|ψi |ϕi = 0 .
i
i
Para los observables que conmutan se tienen los siguientes teoremas:
in ar
Para el caso de autoespacios correspondientes a autovalores degenerados se puede definir un observable A de la forma X D para: µ = 1, 2, · · · , k . A= ai Pi con: Pi = ψ·(µ) ψ ·(µ)
Demostraci´ on: La demostraci´ on es sencilla
re lim
Teorema: Si dos operadores lineales A y B, operadores herm´ıticos, conmutan, [A, B] = 0, y |ψi es autovector de A con autovalor σ, entonces B |ψi tambi´en ser´a autovector de A con el mismo autovalor σ.
A |ψi = a |ψi ⇒ B (A |ψi = σ |ψi) ⇒ BA |ψi = A (B |ψi) = σ (B |ψi)
J
Ahora bien, de esta situaci´ on se puede distinguir un par de casos:
rP
si el autovalor σ es no degenerado los autovectores asociados con este autovalor son, por definici´on, colineales con |ψi. Por lo tanto B |ψi, ser´a necesariamente colineal con |ψi. La conclusi´on a esta afirmaci´ on es que NECESARIAMENTE |ψi es autovector de B. si el autovalor σ se degenerado, B |ψi ∈ Sσ , es decir B |ψi est´a en el autoespacio Sσ con lo cual Sσ es globalmente invariante bajo la acci´ on de B.
ad o
Teorema: Si dos observables A y B conmutan, [A,
B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0 Demostraci´ on: Si A |ψ1 i = σ1 |ψ1 i y A |ψ2 i = σ2 |ψ2 i entonces
0 = ψ 1 [A, B] |ψ2 i = ψ 1 AB − BA |ψ2 i = ψ 1 A B |ψ2 i − ψ 1 B (A |ψ2 i)
= σ1 ψ 1 B |ψ2 i − σ2 ψ 1 B |ψ2 i = (σ1 − σ2 ) ψ 1 B |ψ2 i ⇒ ψ 1 B |ψ2 i = 0 . J
Bo rr
Teorema: Si dos observables A y B, operadores herm´ıticos, conmutan, [A, B] = 0, los autovectores {|ψi i} comunes a A y B constituyen una base ortonormal para Vn . Demostraci´ on: Denotemos los autovectores de A como ψi(µ) , de tal modo A ψi(µ) = σi ψi(µ) donde i = 1, 2, .., n − kn + 1 y µ = 1, 2, .., kn ,
kn indica el orden de la degeneraci´ on de un determinado autovalor σn . Dado que A es un observable, los ψi(µ) forman una base, claramente: D ψ i(µ) ψj(ν) = δji δνµ .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
257
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN
Dado que los elementos de la matriz ψ i(ν) B ψj(ν) = δji , entonces esto quiere decir que los elementos
i(µ) an nulos para i 6= j, pero no podemos decir nada a priori para el caso µ 6= υ y Bj(ν) = ψ i(µ) B ψj(ν) ser´ i = j. En general, al ordenar la base ψ1(1) , ψ1(2) , · · · ψ1(k ) , ψ2(1) , ψ2(2) , · · · , ψ2(k ) , · · · , ψ3(1) , · · · ψn−k (1) , 2 n 1
re lim
in ar
para el caso que consideraremos ser´ a ψ1(1) , ψ1(2) , ψ1(3) , ψ2(1) , ψ2(2) , ψ3(1) , ψ4(1) , ψ4(2) , ψ5(1) . J
La representaci´ on matricial de B en esa base, ψ i(µ) B ψj(ν) , tendr´a la forma de una matriz diagonal a bloques 1 (1) 1 (1) 1 (1) B1 (1) B1 (2) B1 (3) 0 0 0 0 0 0 1 (2) (2) 1 (2) B1 (1) B11 (2) B1 (3) 0 0 0 0 0 0 B 1 (3) B 1 (3) B 1 (3) 0 0 0 0 0 0 1 (1) 1 (2) 1 (3) 2 (1) 2 (1) 0 0 0 B B 0 0 0 0 2 (1) 2 (2) 2 (2) 2 (2) 0 0 0 B2 (1) B2 (2) 0 0 0 0 3 (1) 0 0 0 0 0 B3 (1) 0 0 0 4 (1) 4 (1) 0 0 0 0 0 0 B4 (1) B4 (2) 0 4 (2) 4 (2) 0 0 0 0 0 0 B4 (1) B4 (2) 0 5 (1) 0 0 0 0 0 0 0 0 B5 (1)
rP
Tal y como hemos mencionado los subespacios: E 1 , E 2 , y E 4 corresponden a los autovalores degenerados σ1 , σ2 , y σ4 (de orden 3, 2 y 2 respectivamente). Una vez m´ as surgen dos casos a analizar: Si σn es un autovalor no degenerado, entonces existe un u ´nico autovector asociado a este autovalor (la dimensi´ on del autoespacio es 1 → kj = 1, y no hace falta). Esto corresponde al ejemplo hipot´etico anterior para los autovalores simples σ3 , y σ5 .
Bo rr
ad o
Si σn es un autovalor degenerado, entonces existe un conjunto de autovectores asociados a este autovalor σn (en este caso la dimensi´ on del autoespacio es kn ). Como los ψj(µ) son autovectores de A su representaci´ on matricial ser´ a diagonal a bloques. Ahora bien, como el autoespacio Sa es globalmente
i (µ) invariante bajo la acci´ on de B y Bj(µ) = ψ i(µ) B ψj(µ) es herm´ıtico, por ser B herm´ıtico, entonces B es diagonalizable dentro del bloque que la define. Es decir, se podr´a conseguir una base χj(µ) tal que la representaci´ on matricial de B en esa base es diagonal D D i(µ) ˜ i(µ) = βj(µ) δji , Bj = ψ i(µ) B ψj(µ) =⇒ χi(µ) B χj(µ) = B j(µ) que no es otra cosa que los vectores χj(µ) ser´an autovectores de B B χj(µ) = βj(µ) χj(µ) .
Es importante recalcar que los autovectores ψj(µ) de A asociados con un autovalor degenerado NO son necesariamente autovectores de B. S´ olo que como B es herm´ıtico puede ser diagonalizado dentro del autoespacio.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
258
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN
De ahora en denotaremos los autovectores comunes a dos operadores A y B con distintos auto adelante valores como u i|j(µ) tal que y B u n|m(µ) = βm u n|m(µ) , A u n|m(µ) = σn u n|m(µ) donde hemos dejado “espacio” para permitir la degeneraci´on la cual ser´a indicada por el ´ındice µ. La prueba del inverso del teorema anterior es bien simple comunes a A y B, entonces A y B conmutan, Teorema: Si existe una base de autovectores uj(µ) [A, B] = 0
in ar
Demostraci´ on: Es claro que AB u n|m(µ) = βm A u n|m(µ) = βm σn u n|m(µ) BA u n|m(µ) = σn B u n|m(µ) = σn βm u n|m(µ)
re lim
restando miembro a miembro obtenemos de manera inmediata (AB − BA) u n|m(µ) = [A, B] u n|m(µ) = (βm σn − σn βm ) u n|m(µ) = 0 . J
Definici´ on: Los operadores: {A, B, C, D · · ·} constituye un conjunto completo de observables que conmuntan si: 1. Obviamente los operadores del conjunto conmutan entre ellos:
[A, B] = [A, C] = [A, D] = [B, C] = [B, D] = [C, D] = · · · = 0 2. Al especificar el conjunto de autovalores para los operadores
rP
{αn , βm , γk , δl , · · ·}
se especifica de manera un´ıvoca un u ´nico autovector com´ un a todos estos operadores {αn , βm , γk , δl , · · ·} ⇒ u n|m|k|l··· (µ) . J
ad o
Ejemplos
1. Considere, que el espacio de estados para un determinado sistema f´ısico viene expandido por una base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i}. Definimos dos operadores Lz y S de la siguiente manera Lz |ξ1 i = |ξ1 i ; S |ξ1 i = |ξ3 i ;
Lz |ξ2 i = 0; S |ξ2 i = |ξ2 i ;
Lz |ξ3 i = − |ξ3 i S |ξ3 i = |ξ1 i
Bo rr
En la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} las representaciones matriciales para siguientes 1 0 0 1 0
i
i 2 ξ Lz |ξj i = 0 0 0 , ξ Lz |ξj i = 0 0 0 0 −1 0 0 0
i ξ S |ξj i = 0 1
Hern´ andez & N´ un ˜ez
0 1 0
1 0 , 0
1
i 2 ξ S |ξj i = 0 0
0 1 0
Lz , L2z , S y S2 ser´ an las 0 0 1
0 0 1
Universidad de los Andes / Universidad Industrial de Santander
259
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN
Es claro que estas matrices son reales y sim´etricas y, por lo tanto, son herm´ıticas y, al ser el espacio de dimensi´ on finita, deben ser diagonalizables y sus autovectores formar´an base para ese espacio. Por lo tanto, Lz , L2z , S y S2 son observables. Ahora bien: ¿Cu´al ser´a la forma m´as general de una representaci´ on matricial de un operador que conmute con Lz ?
Esto se desprende de manera directa de
0 = ξ i [M, Lz ] |ξj i = ξ i MLz − Lz M |ξj i = (λj − λi ) ξ i M |ξj i ,
in ar
Notamos que los vectores de la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} son autovectores para Lz con autovalores {1, 0, −1}, con lo cual su representaci´on matricial tiene que ser diagonal. Recuerde que si dos observables A y B conmutan, [A, B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0, con lo cual M11 0 0
i M22 0 . [M, Lz ] = 0 ⇔ ξ M |ξj i = 0 0 0 M33
con
(λj − λi ) 6= 0
para i 6= j .
L2z |ξ1 i = |ξ1 i ;
re lim
Si nos planteamos la misma pregunta para L2z , vemos que sus autovalores son {1, 0}. Esto es L2z |ξ2 i = 0;
L2z |ξ3 i = |ξ3 i ,
rP
con lo cual tendremos que la representaci´on matricial para ese operador que conmute con L2z , no es diagonal. Esto es 1 N1 0 N31
[N, L2z ] = 0 ⇔ ξ i N |ξj i = 0 N22 0 , N13 0 N33 ya que
0 = ξ 1 [N, L2z ] |ξ3 i ⇒ ξ 1 N |ξ3 i = ξ 1 N |ξ3 i , y vale para cualquier elemento N31 (y equivalentemente para N13 ).
ad o
Adicionalmente, si ordenamos la base de autovectores de Lz , como {|ξ1 i , |ξ3 i , |ξ2 i} tendremos como representaci´ on matricial diagonal a bloques, correspondiente a un autorvalor degenerado 1 1 N1 N31 0
i ˜ |ξj i = N13 N22 0 . ξ N 0 0 N33
Bo rr
Finalmente, la representaci´ on matricial, m´as general, de un operador que conmute con S2 es 1 P1 P21 P31
[P, S2 ] = 0 ⇔ ξ i P |ξj i = P12 P22 P32 . N13 P23 P33
Ahora intentaremos construir una base com´ un de autovectores para L2z y S. Para ello notamos que |ξ2 i 2 es un autovector com´ un a Lz y S, por lo tanto existir´a un subespacio expandido por {|ξ1 i , |ξ3 i}. En ese subespacio las respresentaciones matriciales para L2z y S, ser´an
i 2
i 1 0 0 1 ξ Lz |ξj iS13 = , ξ S |ξj iS13 = . 0 1 1 0
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
260
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN
Acto seguido planteamos el problema de autovalores para S, esto es |q2 i = 0 1 q1 q1 S |qj i = λj |uj i ⇒ =λ ⇒ 1 0 q2 q2 |q3 i =
√1 2
(|ξ1 i + |ξ3 i)
√1 2
(|ξ1 i − |ξ3 i)
con lo cual tendremos Autovalor L2z 0 1 1
Autovalor S 1 1 -1
in ar
Autovectores |q1 i = |ξ2 i |q2 i = √12 (|ξ1 i + |ξ3 i) |q3 i = √12 (|ξ1 i − |ξ3 i)
Cuadro 4.1: Dado que no hay l´ıneas repetidas L2z y S forman un CCOC.
m¨ x1 + kx1 − k(x2 − x1 )
=
0
m¨ x2 + kx2 + k(x2 − x1 )
=
0,
re lim
2. Consideremos otro ejemplo proveniente de la Mec´anica Cl´asica. Se trata de dos osciladores arm´onicos, de igual masa, acoplados con resortes con la misma constante el´astica k. La ecuaciones de movimiento para este sistema son:
rP
con lo cual, podremos expresar estas ecuaciones en forma de operadores: ! d2 m dt −k x1 2 + 2k D |xi = 0 ⇔ = 0. 2 x2 −k m d 2 + 2k dt
ad o
Si pensamos esta ecuaci´ on como una ecuaci´on de autovalores, el autovalor es claramente λ = 0 y como las masas y las constantes el´ asticas son iguales podemos intercambiar las part´ıculas y la f´ısica (las ecuaciones de movimiento) no cambian. Esto se puede expresar matem´aticamente como el operador permutaci´ on de las part´ıculas 1 2 0 1 0 1 x x P= ⇒ = . 1 0 1 0 x2 x1
Bo rr
Es inmediato comprobar que [D, P] = 0, con lo cual existir´a una combinaci´on lineal de autovectores de D (asociados con el autovalor λ = 0) los cuales tambi´en ser´an autovectores de P. Para ello procedamos a calcular los autovalores y autovectores de P −λ 1 1 1 1 1 P |xi = λ |xi ⇒ = 0 ⇒ λ ± 1 ⇔ |ˆe1 i = √ ; |ˆe2 i = √ . 1 −λ 1 −1 2 2
F´ acilmente podemos expresar el vector posici´on como una combinaci´on lineal de estos dos autovectores de P, esto es 1 1 ξ1 = √2 (x1 + x2 ) ξ ξ x 1 1 1 2 =√ +√ ⇒ x2 1 −1 2 2 ξ2 = √12 (x1 − x2 )
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
261
4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN
Es claro que 1 |u1 i = √ (x1 + x2 ) 2
1 1
y
1 |u2 i = √ (x1 − x2 ) 2
1 −1
,
son autovectores de P y D.
4.9.1.
Ejercicios
in ar
Dado un observable A y un vector de estado |ψi general, definiremos el valor esperado de A a la cantidad hAi = hψ| A |ψi, y la relaci´ on de dispersi´ on de A como D E D E 2 2 2 2 (∆A) = (A − hAi I) = A2 − hAi ≡ hψ| A2 |ψi − hψ| A |ψi ,
re lim
donde I es el operador identidad. N´ otese que el valor esperado es un n´ umero que representa la dispersi´ on de un observable y tiene la misma estructura e interpretaci´on de la variancia en estad´ıstica. D E 2 1. Muestre que la dispersi´ on siempre es positiva, i.e (∆A) > 0. Para ello:
a) Inicie mostrando que para cualquier operador herm´ıtico C se cumple C2 > 0. b) Termine mostrando que A − hAi I es un operador herm´ıtico.
2. Muestre que la dispersi´ on se anula para el caso en que |ψi es autovector de A con autovalor hAi. 3. Utilizando la desigualdad de Cauchy-Schwarz muestre que las relaciones de dispersi´on entre dos observables A y B siempre cumplen
rP
D ED E 1 2 2 2 (∆A) (∆B) > |h[A, B]i| 4
con
[A, B] = AB − BA .
Esta es la forma general de la relaci´ on de incertidumbre.8
ad o
4. En Mec´ anica Cu´ antica se define el operador de spin como Si = ~2 σi donde las σi son las matrices de Pauli y los valores de i = 1, 2, 3 representan las direcciones x, y, z, respectivamente. a) Encuentre la expresi´ on para el conmutador [Si , Sj ], con i, j = 1, 2, 3.
Bo rr
b) Considere un vector de estado general |ψi = a |+i + b |−i, donde a y b son n´ umeros complejos que cumplen con a2 + b2 = 1 y {|+i , |−i} la base de autovectores de Sz . Muestre que D ED E 2 2 (∆Sz ) (∆Sx ) > ~4 [Im(ab∗ )]2 , con Im(◦) la parte imaginaria del argumento.
8 Para
detalles de las implicaciones de este problema se puede consultar Dumitru, S. “On the uncertainty relations and quantum measurements: conventionalities, shortcomings, reconsideration. arXiv preprint quant-ph/0504058 (2005). Y tambi´ en Dumitru, S. “A possible general approach regarding the conformability of angular observables with mathematical rules of Quantum Mechanics. arXiv preprint quant-ph/0602147 (2006).
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
262
4.10. SISTEMAS DE ECUACIONES LINEALES
4.10.
Sistemas de ecuaciones lineales
A11 x1 + A12 x2 + · · · A1n xn
=
c1
A21 x1 + A22 x2 + · · · A2n xn
= .. .
c2
Am1 x1 + Am2 x2 + · · · Amn xn
=
cm ,
Este sistema puede ser expresado de una forma m´as compacta i α Aα i x =c
y α = 1, 2, .., m , por lo tanto, tendremos m ecuaciones lineales para n inc´ognitas x1 , x2 , · · · xn . Las cantidades Aα i resultan ser las componentes de la matriz de los coeficientes. Si todos los ci son cero el sistema se denomina homog´eneo, en caso contrario inhomog´eneo. Puede resultar que el conjunto de las inc´ ognitas {xi } represente una soluci´on, infinitas soluciones o que simplemente no exista una soluci´ on para el sistema. Este problema puede ser pensado como un problema de un operador A en el espacio vectorial de transformaciones lineales L (V, W) donde dim (V) = n y dim (W) = m, con las cα las componentes del vector transformado i |ci = A |xi → cα = Aα i x .
re lim
con i = 1, 2, .., n
in ar
Una de las aplicaciones m´ as u ´tiles del ´algebra de matrices es la resoluci´on de sistemas de ecuaciones lineales.
Ejemplo
4.10.1.
= 5 = 3 = 10
2 ⇒ 4 −2
3 −1 x 5 4 −3 y = 3 . 3 −1 z 1
ad o
2x + 3y − z 4x + 4y − 3z −2x + 3y − z
rP
El operador A aplicar´ a todo vector de V en alg´ un subespacio (o todo el espacio) de W. A este subespacio se le denomina el rango o recorrido de A y su dimensi´on es igual al rango de la matriz A. Si A (o A) es no singular, entonces existe alg´ un subespacio de V que es aplicado al vector cero de W, es decir, se cumple que A |x0 i = |0i donde el conjunto de vectores {|x0 i} se le llama el espacio nulo de A.
Eliminaci´ on de Gauss Jordan
Bo rr
Uno de los m´etodos m´ as utilizados es el de la eliminaci´on de Gauss Jordan, el cual se basa en el intercambio de ecuaciones y la multiplicaci´ on apropiada e inteligente por constantes y resta de ecuaciones. La idea es construir una matriz triangular superior para poder luego despejar desde abajo. Veamos como se aplica el m´etodo para resolver el sistema de ecuaciones. Primeramente escribimos el siguiente arreglo: a 2 3 −1 5 b 4 4 −3 3 , c −2 3 −1 1 entonces para eliminar x de la fila c (o la ecuaci´on ser´ a la nueva c a 2 b 4 c0 0 Hern´ andez & N´ un ˜ez
c) sumamos la fila a con la c, a + c y esta nueva ecuaci´ on 3 −1 5 4 −3 3 , 6 −2 6
Universidad de los Andes / Universidad Industrial de Santander
263
4.10. SISTEMAS DE ECUACIONES LINEALES
ahora −2a + b ser´ a la nueva b
finalmente 3b0 + c0
a 2 b0 0 c0 0
3 −2 6
−1 −1 −2
5 −7 , 6
a 2 b0 0 c00 0
3 −2 0
−1 −1 −5
5 −7 . −15
Este sistema es equivalente al primer sistema de ecuaciones. La soluci´on emerge r´apidamente: −2y − z = −7 → −2y − 3 = −7 → y = 2 ,
2x + 3 (2) − 3 = 5 → x = 1 .
in ar
−5z = −15 → z = 3 ,
Es bueno recalcar que los sistemas de ecuaciones lineales no necesariamente tienen soluci´on y a veces tienen m´ as de una soluci´ on.
4.10.2.
El m´ etodo de la matriz inversa
re lim
El an´ alisis matricial nos puede ayudar a investigar sobre las posibles soluciones de un sistema de ecuaciones lineales, como vimos, en notaci´ on de matrices el sistema se puede escribir de la manera siguiente: A11 A12 · · · A1n x1 c1 A21 A22 · · · A2n x2 c2 .. .. = .. ⇒ AX = C . .. . . . . Am1 Am2 · · · Amn xn cm
rP
Podemos considerar a cada columna de la matriz A como un vector, entonces el rango r de la matriz A ser´ a igual al n´ umero de vectores linealmente independientes, este n´ umero es tambi´en la dimensi´ on del espacio vectorial que expanden estos vectores. Con respecto a las posibles soluciones del sistema podemos decir: 1. Si C pertenece al rango de A y adem´as r = n, entonces todos los vectores del conjunto son linealmente independientes y el sistema tendr´ a como u ´nica soluci´on al conjunto {x1 , x2 , . . . xn }.
ad o
2. Si C pertenece al rango de A y adem´as r < n, entonces u ´nicamente r vectores ser´an linealmente independientes. Esto significa que podremos escoger los coeficientes de los n − r vectores de manera arbitraria sin dejar de satisfacer el sistema. Por tanto, existir´a un n´ umero infinito de soluciones, que expanden un espacio vectorial de dimensi´on n − r. 3. La otra posibilidad es que el sistema no tenga soluci´on, en este caso C NO pertenece al rango de A.
Bo rr
Cuando el sistema es homog´eneo, C = 0, claramente existe una soluci´on que viene a ser la trivial: {x1 = x2 = · · · = xn = 0}, adem´ as, si r = n ´esta ser´a la u ´nica soluci´on. Es bueno anotar que si hay menos ecuaciones que inc´ ognitas (m < n) entonces autom´aticamente r < n, por lo tanto un conjunto de ecuaciones lineales homog´eneas con menos ecuaciones que inc´ognitas siempre tiene una infinidad de soluciones. Debemos considerar el importante caso cuando m = n, es decir, la matriz A es cuadrada y existe igual n´ umero de ecuaciones como de inc´ ognitas. Al ser cuadrada la matriz se tiene que la condici´on r = n implica que la matriz es no singular (det[A] 6= 0). El caso r < n se corresponde a que det[A] = 0. Para resolver el sistema de ecuaciones consideremos lo siguiente: dada la matriz A, n × n no singular, entonces A tiene una matriz inversa, tal que: AX = C ⇒ X = A−1 C .
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
264
4.10. SISTEMAS DE ECUACIONES LINEALES
Ejemplo Resolver el sistema 2x1 + 4x2 + 3x3
=
4
x1 − 2x2 − 2x3
=
0
−3x1 + 3x2 + 2x3
=
−7
Lo anterior es igual a
4 −2 3
3 x1 4 −2 x2 = 0 , 2 x3 −7
in ar
2 1 −3
al calcular la matriz inversa de A entonces resulta que 2 1 −2 4 x1 2 1 4 x2 = 13 7 0 = −3 . 11 −3 −18 −8 −7 x3 4
4.10.3.
re lim
Existe entonces una u ´nica soluci´ on al sistema, que es: {x1 = 2, x2 = −3, x3 = 4}.
Factorizaci´ on LU
El m´etodo de la matriz inversa es relativamente simple, pero laborioso cuando se trata de resolver sistemas de ecuaciones muy grandes. La factorizaci´on o descomposici´on LU (Lower-Upper) es una t´ecnica, existen varias de este tipo, para factorizar una matriz como el producto de una matriz triangular inferior y una matriz triangular superior. Si A es un matriz cuadrada no singular, entonces AX = C ⇒ A = LU ,
ad o
rP
las matrices L y U ser´ an u ´nicas. Este m´etodo es b´ asicamente una versi´ on de el m´etodo de Gauss Jordan, pero es m´as eficiente a la hora de ser implementado en algoritmos computacionales tanto algebraicos como num´ericos. Para matrices 3 × 3 el m´etodo se implementa de la siguiente manera. U11 U12 U13 U11 U12 U13 1 0 0 1 0 0 U22 U23 = L21 U11 L21 U12 + U22 L21 U13 + U23 A = L21 L31 L32 1 0 0 U33 L31 U11 L31 U12 + L32 U22 L31 U13 + L32 U23 + U33 las nueve inc´ ognitas se obtienen igualando con las componentes conocidas de la matriz A. Con L y U determinadas tenemos entonces que LUX = C ,
Bo rr
por lo tanto, se debe realizar los c´ alculos en dos partes: primero LY = C y luego
UX = Y .
Ejemplo Resolver el siguiente sistema de ecuaciones: 2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 .
La matriz de los coeficientes es:
Hern´ andez & N´ un ˜ez
2 A= 1 −3
4 −2 3
3 −2 2
Universidad de los Andes / Universidad Industrial de Santander
265
4.10. SISTEMAS DE ECUACIONES LINEALES
C´ alculo de L y U 2 4 1 −2 −3 3
3 U11 −2 = L21 U11 2 L31 U11
U13 L21 U13 + U23 L31 U13 + L32 U23 + U33
U12 L21 U12 + U22 L31 U12 + L32 U22
Con los valores de inicio: U11 = 2, U12 = 4, U13 = 3 se procede a resolver las ecuaciones:
por lo tanto
1 A = LU = 1/2 −3/2
0 1 −9/4
0 2 0 0 1 0
4 −4 0
in ar
L31 U11 = −3 L21 U13 + U23 = −2 L31 U13 + L32 U23 + U33 = 2
L21 U11 = 1 L21 U12 + U22 = −2 L31 U12 + L32 U22 = 3
3 −7/2 −11/8
re lim
Resolvemos primero LY = C, lo cual es bastante f´acil 1 0 0 y1 4 y1 = 4 1/2 y2 = −2 1 0 y2 = 0 ⇒ −3/2 −9/4 1 y3 −7 y3 = − 11 2
rP
Con este resultado resolvemos: UX = Y, y obtenemos la soluci´on x1 4 2 4 3 x1 = 2 0 −4 −7/2 x2 = −2 ⇒ x2 = −3 x3 −11/2 x3 = 4 0 0 −11/8
4.10.4.
ad o
Con la matrices L y U se puede calcular el determinante de la matriz A de una manera m´as directa, ya que n Y Uii . det |A| = det |L| det |U| = det |U| = i=1
M´ etodo de Cramer
Bo rr
Un m´etodo alternativo para resolves sistemas de ecuaciones lineales es la conocida regla de Cramer. El funcionamiento del m´etodo lo podemos ilustrar con un sistema de tres ecuaciones y tres inc´ognitas: A11 x1 + A12 x2 + A13 x1
= c1
A21 x1 + A22 x2 + A23 x2
= c2
A31 x1 + A32 x2 + A33 x3
= c3 ,
Como mencionamos anteriormente, el determinate de A11 |A| = A21 A31
Hern´ andez & N´ un ˜ez
una matriz, det(A) = |A|, A12 A13 A22 A23 , A32 A33
Universidad de los Andes / Universidad Industrial de Santander
266
4.10. SISTEMAS DE ECUACIONES LINEALES
no cambia bajo la operaci´ on, A11 |A| = A21 A31
por ejemplo, de A12 A13 A22 A23 = A32 A33
sumarle a la primera columna las cantidades: A11 + (x2 /x1 )A12 + (x3 /x1 )A13 A12 A13 A21 + (x2 /x1 )A22 + (x3 /x1 )A23 A22 A23 A31 + (x2 /x1 )A32 + (x3 /x1 )A33 A32 A33
lo cual es igual a 1 |A| = x1
c1 c2 c3
A12 A22 A32
A13 A23 A33
≡ 1 |∆1 | . x1
x1 =
|∆1 | , |A|
x2 =
|∆2 | , |A|
x3 =
|∆3 | . |A|
A11 |∆3 | = A21 A31
re lim
Donde los determinantes, |∆n |, son los determinantes de Cramer: A11 c1 A13 c1 A12 A13 |∆1 | = c2 A22 A23 , |∆2 | = A21 c2 A23 , A31 c3 A33 c3 A32 A33
in ar
Se puede hacer lo mismo con las otras dos columnas para obtener:
A12 A22 A32
c1 c2 c3
.
Se puede demostrar que si |A| = 6 0, entonces la soluci´on as´ı obtenida es u ´nica. Ejemplo Resolver, nuevamente, el siguiente sistema de ecuaciones:
esto es:
rP
2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 . 2 4 A = XC ⇒ 1 −2 −3 3
x1 4 3 −2 x2 = 0 ⇒ |A| = 11 . −7 2 x3
de manera que
ad o
Los diferentes determinantes de Cramer son: 4 2 4 3 |∆1 | = 0 −2 −2 = 22 , |∆2 | = 1 −7 3 −3 2
Bo rr
x1 =
4.10.5.
22 = 2, 11
4 0 −7
x2 = −
3 −2 2
= −33 ,
33 = −3 , 11
x3 =
2 |∆3 | = 1 −3
4 −2 3
4 0 −7
= 44 .
44 = 4. 11
Ejercicios
1. Resuelva
Hern´ andez & N´ un ˜ez
2x + 3y + z
=
11
x+y+z
=
6
5x − y + 10z
=
34
Universidad de los Andes / Universidad Industrial de Santander
267
4.10. SISTEMAS DE ECUACIONES LINEALES
2. Resuelva x1 + 2x2 + 3x3
=
1
3x1 + 4x2 + 5x3
=
2
x1 + 3x2 + 4x3
=
3
x+y+z
=
1
x + 2y + 4z
=
η
x + 4y + 10z
=
η2
in ar
3. Demuestre que el siguiente sistema s´olo tiene soluci´on si η = 1 o η = 2
4. Encuentre las condiciones sobre η para que al resolver el sistema x1 + ηx2
=
1
= −1 = −2
re lim
x1 − x2 + 3x3 2x1 − 2x2 + ηx3 a) tenga una soluci´ on b) no tenga soluci´ on c) tenga infinitas soluciones
Encuentre todas las soluciones que puedan existir.
3 A= 1 2
rP
5. Encuentre la factorizaci´ on LU de 9 5 , 16
6 0 −2
2 1 B= 5 3
−3 4 3 −6
1 −3 −1 −3
3 −3 . −1 1
ad o
Resuelva AX = C, cuando: a) C = (21 9 28)T , b) C = (21 7 22)T para la matriz A. Y cuando: c) C = (−4 1 8 − 5)T y d) C = (−10 0 − 3 − 24)T para la matriz B.
Bo rr
6. Utilizando la regla de Cramer resuelva
Hern´ andez & N´ un ˜ez
13x1 + 22x2 − 13x3
=
4
10x1 − 8x2 − 10x3
=
44
9x1 − 18x2 − 9x3
=
72 .
Universidad de los Andes / Universidad Industrial de Santander
268
4.11. ALGUNOS EJEMPLOS RESUELTOS
4.11.
Algunos ejemplos resueltos
1. Dados dos operadores lineales tales que: AB = −BA;
A2 = I;
B2 = I;
y
[A, B] = 2iC
a) Muestre que C2 = I y que [B, C] = 2iA. Soluci´ on: = AB − BA = 2iC ⇒ 2AB = 2iC ⇒ ABAB = −C2 ⇒ −AABB = −C2 ⇒ I = C2
[B, C]
= −i (BAB − ABB) = 2iA ⇒ −i (BAB − A) = 2iA ⇒ −i (−BBA − A) = 2iA
in ar
[A, B]
b) Evalue [[[A, B] , [B, C]] , [A, B]]. Soluci´ on: =
[[2iC, 2iA] , 2iC] = 8 [[AB, iA] , AB] = 8i [(ABA − AAB) , AB]
=
8i [−2B, AB] = 16i (BAB − ABB) = 32iA .
re lim
[[[A, B] , [B, C]] , [A, B]]
2. Sean A y B dos operadores herm´ıticos, con autovalores no degenerados y un operador unitario definido como: U = A + iB. Muestre que : a) [A, B] = 0 y A2 + B2 = I. Soluci´ on: Como †
†
UU† = U† U = (A + iB) (A + iB) = (A + iB) (A + iB) ⇒ (A + iB) (A − iB) = (A − iB) (A + iB) BA − AB = −BA + AB ⇒ [B, A] = −[B, A] ⇒ [B, A] = 0
rP
La segunda de las afirmaciones se puede demostrar, a partir de
† UU† = I ⇒ (A + iB) (A + iB) = (A + iB) (A − iB) = A2 + B2 + i (BA − AB) ⇒ I = A2 +B2
ad o
b) Los autovectores de A tambi´en lo son de B Soluci´ on: Si {|ui i} son autovectores de A entonces A |ui i = λi |ui i ⇒ BA |ui i = λi B |ui i
como [B, A] = 0 ,
entonces AB |ui i = λi B |ui i
por lo tanto, B |ui i es un autovector de A. Pero la soluci´on para la ecuaci´on de autovectores (A − λi I) |ui i = 0 es u ´nica, por lo cual todos los autovectores de A son proporcionales. Esto es B |uj i = µj |uj i, con lo cual que damostrado que los autovectores de A son autovalores de B.
Bo rr
c) Si U |vi i = νi |vi i entonces |µi | = 1. Soluci´ on: Es claro que
j †
v U U |vi i = v j I |vi i ⇒ µ∗j µi v j |vi i = v j I |vi i ⇒ µ2i = 1
3. Dada una matriz de la forma
1 A= β 0
α 1 0
0 0 1
y
A |vi i = λi |vi i
con α y β n´ umeros complejos distintos de cero. Encuentre: Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
269
4.11. ALGUNOS EJEMPLOS RESUELTOS
a) las relaciones que deben cumplir α y β para que λi sea real. Soluci´ on: El Polinomio caracter´ıstico y la condici´on para que λ sea real ser´a: p (1 − λ)(1 − 2λ + λ2 − αβ) = 0 ⇒ λ = 1 ± αβ ⇒ αβ > 0 ∧ αβ ∈ R
con lo cual
v 2 |v3 i = 0 ⇒
−β √ αβ
1 0
in ar
b) Las relaciones que deben cumplir α y β para que v j |vi i = δij . Soluci´ on: Los autovalores y autovectores para esta matriz ser´an β √ 0 p p αβ λ1 = 1 ⇒ |v1 i = 0 ; λ2 = 1+ αβ ⇒ |v2 i = 1 ; λ3 = 1+ αβ ⇒ |v3 i = 1 0 β2 = 1 ⇒ |α| = |β| αβ
4. Dadas las siguientes matrices: A=
−2 9
−9 −10 −10 5
1 8
B=
D=
8 −11
14 2
rP
C=
6 −2
re lim
c) Suponga que A es herm´ıtica, encuentre las relaciones que deben cumplir α y β. Soluci´ on: Si A es herm´ıtica, entonces α∗ = β, con lo cual se cumplen autom´aticamente ambas aseveraciones.
2 11
Determine cuales conmutan entre ellas y encuentre la base de autovectores comunes.
ad o
Soluci´ on: Notamos que [A, B] = [A, D] = [D, B] = 0 y 0 2 0 −8 [A, C] = , [B, C] = , −2 0 8 0 Los autovectores comunes a A, B, D, ser´an 1 −2 |u1 i = , 1
Bo rr
5. Dada la representaci´ on matricial de dos operadores 0 0 1 A= 0 1 0 y 1 0 0 a) Eval´ ue [A, B]. Soluci´ on:
Hern´ andez & N´ un ˜ez
0 AB = 1 0
0 0 0
|u2 i =
0 B= 1 1
[D, C] =
2 1
0 2
−2 0
1 0 1
1 1 0
0 0 = BA ⇒ [A, B] = 0 0
Universidad de los Andes / Universidad Industrial de Santander
270
4.11. ALGUNOS EJEMPLOS RESUELTOS
b) Muestre que A tiene por autovalores λ1 = 1 y λ2 = −1 con λ1 un autovalor degenerado. Construya la base de autovectores para A. Soluci´ on: 0 0 1 x x −λ 0 1 x 0 1 0 y = λ y ⇒ 0 1 − λ 0 y 1 0 0 z z 1 0 −λ z Entonces para 1 0 −λ
con lo cual tiene dos autovalores 0 0 0 1 1 0
= λ(1 − λ)λ − (1 − λ) = λ2 − 1 (1 − λ) = 0
in ar
0 1−λ 0
λ = 1 y λ = −1. Para el caso de λ = −1 se cumple que 1 x x z = −x 0 y = − y ⇒ y = −y 0 z z x = −z
re lim
−λ 0 1
con lo cual el autovector asociado con el autovalor λ = −1 tendr´a la forma de 1 |ui−1 = α 0 −1 Para λ = 1 se cumple
0 1 0
x x 1 0 y = y ⇒ z z 0
rP
0 0 1
z=x y=y x=z
ad o
con lo cual hay dos vectores linealmente independientes asociados con λ = 1, a saber 1 0 |ui1a = β 0 y |ui1b = y con y arbitrario 1 0 N´ otese que estos tres autovectores {|ui1a , |ui1b , |ui−1 } son ortogonales entre si.
Bo rr
c) ¿Cu´ al es la representaci´ on matricial de A en la Soluci´ on: Diagonal de la forma
1 u A |u1 i u1 A |u2 i
A˜ij = u2 A |u1 i u2 A |u2 i u3 A |u1 i u3 A |u2 i
base de autovectores?
1 1
u2 A |u3 i A |u3 i = 0 u
3 0 u A |u3 i
0 1 0
0 0 −1
ya que los autovectores forman una base ortogonal. Obviamente se cumple que
Hern´ andez & N´ un ˜ez
˜ = −1 det[A] = det[A]
y
˜ = 1. Tr[A] = Tr[A]
Universidad de los Andes / Universidad Industrial de Santander
271
4.11. ALGUNOS EJEMPLOS RESUELTOS
d ) A partir de los autovectores de A encuentre los autovalores y autovectores de B Soluci´ on: Claramente B |u−1 i = − |u−1 i con lo cual tenemos el primer autovector de B asociado al autovalor λ = −1. Para encontrar los otros autovectores tendremos −λ 1 1 1 0 1 −λ 1 y = 0 1 1 −λ 1 0 6. Dada la siguiente matriz 2 A= 2 −2
2 −1 4
−2 4 , −1
in ar
encuentre una matriz C que diagonalize A
re lim
Soluci´ on: Primeramente procedemos a calcular los autovalores de A. 2−λ 2 −2 = −(λ − 3)2 (λ + 6) = 0 . −1 − λ 4 P (λ) = 2 −2 4 −1 − λ Para λ = −6:
8 2 −2
2 −2 x1 x1 14x1 + 2x2 − 2x3 = 0 5 4 x2 = −6 x2 ⇒ 2x1 + 11x2 + 4x3 = 0 4 5 x3 x3 −2x1 + 4x2 + 11x3 = 0
Un autovector puede ser:
1 1 1 |u1 i = −2 ⇒ |ˆ u1 i = −2 3 2 2
rP
ad o
Para el autovalor degenerado λ = 3, tenemos x1 −1 2 −2 x1 −4x1 + 2x2 − 2x3 = 0 2 −4 4 x2 = 3 x2 ⇒ 2x1 − 7x2 + 4x3 = 0 −2 4 −4 −2x1 + 4x2 − 7x3 = 0 x3 x3
Bo rr
En este caso podemos tomar como autovectores 1 1 0 0 2 1 u2 i = √ 0 , |u3 i = 1 ⇒ |ˆ |u2 i = 0 ⇒ |ˆ u3 i = √ 1 5 2 −1/2 −1/2 1 1 Construimos la matriz C
1 3 − 2 3 2 3
C=
√2 5
0 − √15
0
√1 2 √1 2
de manera que:
1 3 √
5 C−1 AC = 4 √ 9 2 2 9
Hern´ andez & N´ un ˜ez
2 − √3
5
5 9 √ 2 9
2 3√
2 −√95 2 4 2 −2 9
2 −1 4
1 −2 3 4 − 23 2 −1 3
√2 5
0 − √15
0
−6 √1 = 0 2 √1 0 2
Universidad de los Andes / Universidad Industrial de Santander
0 0 3 0 . 0 3 272
4.11. ALGUNOS EJEMPLOS RESUELTOS
7. En Mec´ anica Cl´ asica la cantidad de momento angular viene definida como L = r × p. Para pasar a Mec´ anica Cu´ antica se asocia r y p con los operadores posici´on y cantidad de movimiento los cuales, al operar sobre la funci´ on de onda nos proveen ∂ ∂ hr| X |ψi = x hr |ψi = x ψ (r) hr| Px |ψi = −i~ hr |ψi = −i~ ψ (r) ∂x ∂x hr| Py |ψi =
hr| Z |ψi = z hr |ψi = z ψ (r)
hr| Pz |ψi =
−i~
∂ ∂y
hr |ψi = −i~
∂ ψ (r) ∂y
∂ ∂ −i~ hr |ψi = −i~ ψ (r) ∂z ∂z
in ar
hr| Y |ψi = y hr |ψi = y ψ (r)
En coordenadas cartesianas, en la representaci´on de coordenadas {|ri} tendremos que hr| R |ψi = r ψ (r)
hr| Px |ψi = −i~ ∇ ψ (r)
y
hr| L |ψi = −i~ (r×∇) ψ (r) hr| L |ψi = −i~
y
∂ ∂ −z ∂z ∂y
re lim
De forma que en Mec´ anica Cu´ antica las componentes cartesianas del operador cantidad de movimiento angular son
ψ (r) i − i~
z
∂ ∂ −x ∂x ∂z
ψ (r) j − i~
x
∂ ∂ −y ∂y ∂x
ψ (r) k
rP
Utilizando las definiciones anteriores muestre que el conmutador de las componentes cartesianas de la cantidad de movimiento angular cumple con [Lx , Ly ] |ψi = i~Lz |ψi
con L1 = L1 = Lx ; L2 = L2 = Ly ; L3 = L3 = Lz . En general: [Ll , Lm ] = i~εlmn Ln .
ad o
Soluci´ on: Dado que
Bo rr
[L1 , L2 ] |ψi = [Lx , Ly ] |ψi = (Lx Ly − Ly Lx ) |ψi ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ −z z −x − z −x y −z ψ (r) = −i~ y ∂z ∂y ∂x ∂z ∂x ∂z ∂z ∂y ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ = y z −x −z z −x − z y −z −x y −z ψ (r) ∂z ∂x ∂z ∂y ∂x ∂z ∂x ∂z ∂y ∂z ∂z ∂y Con lo cual
=
=
Hern´ andez & N´ un ˜ez
∂ ∂ ∂2 ∂ ∂ +y − xy 2 − z 2 − zx ∂z∂x ∂x ∂z ∂y∂x ∂y∂z ∂ ∂ ∂ ∂ ∂ − z2 − yx 2 − zx −x ψ (r) − zy ∂x∂z ∂y∂x ∂z ∂z∂y ∂y
yz
y
∂ ∂ −x ∂x ∂y
ψ (r) .
Universidad de los Andes / Universidad Industrial de Santander
273
4.11. ALGUNOS EJEMPLOS RESUELTOS
8. Dados dos Operadores Vectoriales A y B que conmutan entre ellos y con L tales que [A, B] = [A, L] = [L, B] = 0 Demuestre entonces que [A · L, B · L] = i~ (A × B) · L Soluci´ on: [A · L, B · L] = i~εklm Al B m Lk == Al B m i~εklm Lk = Al B m [Ll , Lm ] = Al B m Ll Lm − Al B m Lm bm Ll
in ar
= Al Ll B m Lm − B m Lm Al Ll 9. Considere, que el espacio de estados para un determinado sistema f´ısico viene expandido por la base ortonormal {|u1 i , |u2 i , |u3 i}. Definimos dos operadores Lz y S de la siguiente manera Lz |u1 i = |u1 i ;
Lz |u2 i = 0;
a) Encuentre la representaci´ on matricial Soluci´ on: La matriz ser´ a 1 u Lz S − SLz |u1 i 2 u Lz S − SLz |u1 i
3 u Lz S − SLz |u1 i
S |u3 i = |u1 i
en la base {|u1 i , |u2 i , |u3 i} del operador: [Lz , S]
u1 Lz S − SLz |u2 i
u2 Lz S − SLz |u2 i
u3 Lz S − SLz |u2 i
u1 Lz S − SLz |u3 i
2 u Lz S − SLz |u3 i
3 u Lz S − SLz |u3 i
rP
con lo cual
1 u Lz S |u1 i − u1 SLz |u1 i 2
u Lz S |u1 i − u2 SLz |u1 i
3 u Lz S |u1 i − u3 SLz |u1 i
Lz |u3 i = − |u3 i
S |u2 i = |u2 i ;
re lim
S |u1 i = |u3 i ;
u1 Lz S |u2 i − u1 SLz |u2 i
u2 Lz S |u2 i − u2 SLz |u2 i
u3 Lz S |u2 i − u3 SLz |u2 i
ad o
u1 Lz S |u3 i − u1 SLz |u3 i
2 u Lz S |u3 i − u2 SLz |u3 i
3
3 u Lz S |u3 i − u SLz |u3 i
de donde
Bo rr
i u [Lz , S] |uj i =
0−0
0−0
1 − (−1)
0−0
0−0
0−0
(−1) − 1
0−0
0−0
0
= 0 −2
0 0 0
2
0 0
b) ¿Lz , S y [Lz , S] ser´ an biyectivas? Soluci´ on: Por definici´ on S es biyectiva ya que cada vector tiene su imagen, Lz no lo es por cuanto el vector |u2 i no tiene imagen y,
finalmente [Lz ,S] tampoco ser´a biyectiva dado que ui [Lz , S] |uj i i no tiene inversa ya que del det u [Lz , S] |uj i = 0 c) Encuentre la dimensi´ on del Dominio, del Rango y del n´ ucleo de la transformaciones Lz , S y [Lz , S]
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
274
4.11. ALGUNOS EJEMPLOS RESUELTOS
Soluci´ on: Lz S [Lz , S]
Dominio 3 3 3
Rango 2 3 2
N´ ucleo 1 0 2
dado que [Lz , S] |u2 i = 0 . 10. Encuentre la expresi´ on matricial para los operadores lineales de Pauli: R2 7−→ R2 dado que act´ uan como σz |−i = − |−i
σx |+ix = |+ix ,
σx |−ix = − |−ix
σy |+iy = |+iy ,
σy |−iy = − |−iy
con ,
|−i
1 |+ix = √ [|+i + |−i] , 2 1 |+iy = √ [|+i + i |−i] , 2 Soluci´ on: Ahora bien h+ |+ix = 1
y
h+ |+iy = 1
x
y
1 |−ix = √ [|+i − |−i] 2 1 |−iy = √ [|+i − i |−i] 2
h+ |−ix =x h− |+ix = 0
rP
x
0 1
re lim
|+i
1 0
in ar
σz |+i = |+i ,
h+ |−iy =y h− |+iy = 0
x
h− |−ix = 1
y
h− |−iy = 1
n o Es decir, los vectores {|+ix , |−ix } y |+iy , |−iy forman bases ortonormales, por lo que los vectores {|+i , |−i} se pueden expresar en t´ermino de esas bases como 1 |−i = √ [|+ix − |−ix ] 2
i 1 h |+i = √ |+iy + |−iy 2
i −i h |−i = √ |+iy − |−iy 2
ad o
1 |+i = √ [|+ix + |−ix ] 2
Bo rr
As´ı las expresiones matriciales ser´ an h+| σz |+i i (σz )j = h−| σz |+i
Hern´ andez & N´ un ˜ez
h+| σz |−i
1
0
0
−1
= h−| σz |−i
Universidad de los Andes / Universidad Industrial de Santander
275
4.11. ALGUNOS EJEMPLOS RESUELTOS
y i
h+| σx |+i
h+| σx |−i
(σx )j =
h−| σx |+i
h−| σx |−i
1 [x h+| +x h−|] σx [|+ix + |−ix ] 2 = 1 [x h+| −x h−|] σx [|+ix + |−ix ] 2
in ar
1 [x h+| +x h−|] σx [|+ix − |−ix ] 2 1 [x h+| −x h−|] σx [|+ix − |−ix ] 2
1 [x h+| +x h−|] [|+ix − |−ix ] 2 = 1 [x h+| −x h−|] [|+ix − |−ix ] 2 0
1
i
(σx )j =
1
i
h+| σy |+i
h+| σy |−i
h−| σy |+i
h−| σy |−i
rP
(σy )j =
0
re lim
1 [x h+| +x h−|] [|+ix + |−ix ] 2 1 [x h+| −x h−|] [|+ix + |−ix ] 2
ad o
h i 1 [y h+| +y h−|] σy |+iy + |−iy 2 = i h i [y h+| −y h−|] σy |+iy + |−iy 2
Bo rr
h i 1 [y h+| +y h−|] |+iy − |−iy 2 = i h i [y h+| −y h−|] |+iy − |−iy 2
0
−i
i
0
h i −i [y h+| +y h−|] σy |+iy − |−iy 2 i h 1 [y h+| −y h−|] σy |+iy − |−iy 2
h i −i [y h+| +y h−|] |+iy + |−iy 2 i h −1 [y h+| −y h−|] |+iy + |−iy 2
i
(σy )j =
11. Un operador Cantidad de Movimiento Generalizado se define como aquel conjunto de operadores herm´ıticos que cumplen con [Jx , Jy ] = i~Jz
Hern´ andez & N´ un ˜ez
[Jy , Jz ] = i~Jx
[Jz , Jx ] = i~Jy ,
es decir
[Ji , Jj ] = i~ijk Jk
Universidad de los Andes / Universidad Industrial de Santander
276
4.11. ALGUNOS EJEMPLOS RESUELTOS
con ijk el s´ımbolo de Levy Civita (Los ´ındices repetidos NO indican suma). Adicionalmente, definimos los siguientes operadores J2 = J2x + J2y + J2z ;
J+ = Jx + iJy
J− = Jx − iJy
Muestre que 2 J , J+ = J2 , J− = J2 , Jz = 0 Soluci´ on:
in ar
Para probar esta propiedad se puede demostrar de forma gen´erica que J2k , Jm = 0 con k, m = 1, 2, 3 ≡ x, y, z esto es 2 Jk , Jm = [Jk Jk , Jm ] = Jk Jk Jm − Jm Jk Jk = Jk Jk Jm − (i~mkl Jl + Jk Jm ) Jk con lo cual
2 Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − Jk (i~mkn Jn + Jk Jm )
re lim
y claramente se anula por cuanto los ’indices no suman pero si son mudos, y mkl = −mlk 2 Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − i~mkn Jk Jn − Jk Jk Jm
al conmutar los cuadrados de las componentes con cualquiera de las componentes, y dado que los conmutadores son lineales entonces queda demostrado que 2 J , J± = J2x + J2y + J2z , Jx ± iJy = J2y , Jx + J2z , Jx ± i J2x , Jy ± i J2z , Jy = 0 12. Si definimos los autovectores comunes a J2 y Jz como |j, mi como Jz |j, mi = m~ |j, mi
rP
J2 |j, mi = j (j + 1) ~2 |j, mi
adicionalmente tenemos que p J− |j, mi = ~ j(j + 1) − m(m − 1) |j, m − 1i
con hj, m |j 0 , m0 i = δjj 0 δmm0
p J+ |j, mi = ~ j(j + 1) − m(m + 1) |j, m + 1i
ad o
y si suponen (es f´ acil demostrarlo) que −j ≤ m ≤ j esto quiere decir que dado el valor un j, m var´ıa entre −j y j de uno en uno, esto es m = −j, −j + 1, −j + 2, · · · , j − 2, j − 1, j. Suponga ahora que j = 21 . Encuentre:
Bo rr
a) la representaci´ on matricial para: Jz , J− , J+ , J2 , en la base de autovectores de Jz , J2 . Soluci´ on: Si |j, mi son autovectores de J2 y Jz su representaci´on matricial ser´a diagonal y como m var´ıa entre −j y j con incrementos de 1 tendremos que ser´an matrices 2 × 2. La base ortogonal de autovectores ser´ a 12 , − 12 , 12 , 12
1 1 1 1 1 1 1 1 1 0 2 , 2 Jz 2 , 2 2 , 2 Jz 2 , − 2 ~ ≡
1 1 1 1 1 1 1 1 2 0 −1 2 , − 2 Jz 2 , 2 2 , − 2 Jz 2 , − 2
1 1 2 1 1 1 1 2 1 1 , 1 0 2, 2 J 2 2 2, 2 J 2, −2 3 2 ≡ ~
1 1 2 1 1 1 1 2 1 1 4 0 1 2, −2 J 2, 2 2, −2 J 2, −2
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
277
4.11. ALGUNOS EJEMPLOS RESUELTOS
La representaci´ on matricial para J− , J+ 1 1 1 1 2 , 2 J+ 2 , 2
1 1 1 1 2 , − 2 J+ 2 , 2 1 1 1 1 2 , 2 J− 2 , 2 1 1
1 1 2 , − 2 J− 2 , 2
obviamente no ser´a diagonal
1 1 1 1 0 1 2 , 2 J+ 2 , − 2 ≡ ~
1 1 1 1 J+ , − 0 0 , − 2 2 2 2 1 1
1 1 0 0 2 , 2 J− 2 , − 2 ≡ ~ 1 1
1 1 1 0 2 , − 2 J− 2 , − 2
Bo rr
ad o
rP
re lim
in ar
b) Encuentre los autovalores y autovalores para Jz , J− , J+ , J2 . Soluci´ on: son autovectores de J2 y Jz . En el caso de J2 con un autovalor de Otra vez, 12 , − 12 , 12 , 12 3 2 an ± ~2 respectivamente. Para 4 ~ para ambos autovectores y en el caso de Jz los autovalores ser´ J− , J+ no tendr´ an autovalor distinto de cero en esta base.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
278
5
in ar
Cap´ıtulo
Bo rr
ad o
rP
re lim
Ap´endice
279
´ A LOS CAS 5.1. INTRODUCCION
5.1.
Introducci´ on a los CAS
Los sistemas algebraicos computacionales o sistemas de ´algebra computacional (CAS: Computer Algebra System) son sistemas o calculadoras avanzadas, que permiten realizar operaciones de manera simb´olica. Esto significa que el computador puede efectuar operaciones con ecuaciones y f´ormulas simb´olicamente, es decir, a + b = c se interpreta como la suma de variables y no como la suma de n´ umeros previamente asignados. Estos sistemas permiten operar de manera exacta con s´ımbolos que representan objetos matem´ aticos tales como:
Polin´ omios, Funciones Racionales, Sistemas de Ecuaciones. Grupos, Anillos, Algebras . . . A diferencia de los sistemas tradicionales de computaci´on num´erica: FORTRAN, Basic, C, C++, Java => Precisi´on fija (Punto Flotante)
in ar
N´ umeros (Enteros, racionales, reales, complejos...)
re lim
Otra caracter´ıstica principal radica en el hecho de que son interactivos (interpretados o ejecutados al momento de proveer una instrucci´ on), es decir, trabajan de la forma: Input : solve(problema); Output : respuesta
Los CAS se pueden clasificar en dos grandes grupos:1
rP
Sistemas de Prop´ osito Especial (Creados para hacer c´alculos en un ´area espec´ıfica): FORM, GAP, CAMAL, SHEEP, STENSOR, LiE, KANT.
ad o
Sistemas de Prop´ osito General (¡Especies de navajas suizas!): Axiom, Derive, Reduce, Maple, MatLab, Mathematica, Maxima, MuPAD. Recientemente, lenguajes como Python comienzan a incorporar bibliotecas que permiten generar formas de c´alculo simb´olico2 que ofrecen una perspectiva interesante para integrar ambientes algebr´ aicos-num´ericos-visuales. Los CAS modernos de prop´ osito general son ambientes completamente integrados de computaci´on para la investigaci´ on y la educaci´ on conformados por: Interfaz gr´ afica (worksheet) o ambiente interactivo:
Bo rr
Procesador de texto, de f´ ormulas y de gr´aficas. Con salidas en Latex, RTF, HTML, FORTRAN y C; o hyperlinks a otros documentos. Manuales en l´ınea.
Enlaces a otros programas y bibliotecas Capacidades para c´ alculo num´erico Capacidades para visualizaci´ on, con salidas gr´aficas en diferentes formatos: PostScript, GIF,JPG, . . . Pensado para usuarios no especializados en computaci´on
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
280
re lim
in ar
´ A LOS CAS 5.1. INTRODUCCION
Figura 5.1: Ventana gr´afica de vxMaxima
rP
La principal ventaja de estos programas radica en la enorme capacidad para realizar c´alculos algebraicos largos y tediosos. Por ejemplo, se puede demostrar que la funci´on: √ nz x2 +y 2 +z 2 √ 2 2 sen y +z p f= 2 x + y2 + z2
ad o
es soluci´ on de la ecuaci´ on diferencial:
2 ∂4f ∂4f ∂2f ∂4f 2 ∂ f + + + n + =0 ∂x4 ∂y 2 x2 ∂z 2 x2 ∂x2 ∂y 2
Bo rr
y la realizaci´ on de ´este c´ alculo le puede tomar a un PC est´andar un tiempo de CPU relativamente corto: tiempo de cpu =
1,065 seg
Un ejemplo de un CAS es Maxima que b´asicamente consta de una hoja de trabajo (worksheet) que es una interfaz tipo procesador de textos. Las hojas de trabajo constan de dos modos b´asicos de funcionamiento: el modo texto y el modo c´ alculo. Maxima opera en la celda de c´alculos de la manera siguiente: Input (Instrucci´ on de entrada) Output (respuesta del programa)
1 Una comparaci´ on de los diferentes CAS puede verse en: https://en.wikipedia.org/wiki/List_of_computer_algebra_ systems 2 http://docs.sympy.org/
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
281
´ 5.2. MAXIMA: SINTAXIS BASICA
Existe la posibilidad de introducir textos de la misma manera que en un procesador de textos est´ andar y de generar gr´ aficas en 2D y 3D a trav´es de los respectivos comandos. La interacci´ on con la hoja de trabajo se hace a trav´es de lo que denominamos la celda del Input, que aparece se˜ nalado por un aviso de espera o PROMPT [ -->
Maxima: Sintaxis b´ asica
re lim
5.2.
in ar
El c´ odigo fuente de Maxima, c´ odigo de software libre, puede ser compilado sobre diferentes sistemas operativos: Windows, Linux, MacOS X y Android, y puede obtenerse en: http://sourceforge.net/projects/ wxmaxima o en http://andrejv.github.io/wxmaxima, con la respectiva documentaci´on. Utilizaremos la versi´ on gr´ afica wxMaxima para los fines pedag´ogicos del desarrollo de estas notas. Tambi´en existe una versi´ on que funciona s´olo en modo texto para ser ejecutada en una consola o terminal. En la Figura 5.1 se puede apreciar el despliegue de una hoja de c´alculo con algunos instrucciones sencillas, notemos que cada instrucci´ on (en azul) termina con un punto y coma, de esta manera se le dice al programa la finalizaci´ on del comando a ejecutar. Luego de escribir la instrucci´on y presionar la tecla Enter el Output aparecer´ a a continuaci´ on en color negro.
Es necesario familiarizarse con los comandos b´asicos del programa, para ello iremos desarrollando algunos c´ alculos sencillos a manera de conocer la filosof´ıa de c´omo funciona Maxima, y durante el transcurso de este curso iremos haciendo un despliegue de las aplicaciones del programa para c´alculos m´as espec´ıficos. (%i1) 3!+3^5; ( %o1) 249
rP
Veamos ahora la diferencia entre el igual = y los dos puntos : (%i2) a=b+c; ( %o2) c+b
( %o3) a (%i4) a:b+c; ( %o4) c+b
Bo rr
(%i5) a;
ad o
(%i3) a;
( %o5) c+b
Al usar “=”no asignamos a la variable lo que est´a del lado derecho mientras que con “:”si le asignamos el objeto a la nueva variable. Los c´ alculos se pueden hacer tanto con n´ umeros enteros como en Punto Flotante: (%i6) 15+5^(50);
( %o6) 88817841970012523233890533447265640
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
282
´ 5.2. MAXIMA: SINTAXIS BASICA
(%i7) 15.0+5^(50); ( %o7) 8,881784197001253 × 1034 Pero el ´enfasis radica en los c´ alculos exactos:
y si queremos el valor num´erico podemos escribir (%i9) float(%); ( %o9) 1,180812852661949
in ar
(%i8) cos(%pi/12)^2 + log(2/3+5)/7; π log 17 2 3 + ( %o8) cos 12 7
re lim
Aqu´ı hemos hecho uso de varios s´ımbolos nuevos. Las constantes matem´aticas en Maxima se escriben de la siguiente manera: La unidad imaginaria i: %i El n´ umero π: %pi. El s´ımbolo ∞: inf. El n´ umero e: %e. En cuanto a los logaritmos:
rP
ex = exp(x).
log(x): la funci´ on logaritmo en base e
log(x)/log(b) el logaritmo de x en base b.
(%i10)3^12$
Bo rr
(%i11)%;
ad o
Para las funciones trigonom´etricas es lo est´andar: sin(x), asin(x), cos(x), acos(x), tan(x), atan(x), csc(x), sec(x), cot(x). Tambi´en hemos utilizado % para introducir la u ´ltima salida en la siguiente instrucci´on, veamos nuevamente como funciona, pero ahora pondremos al final del comando el s´ımbolo $ en lugar de ; para decirle al programa que ejecute la instrucci´ on sin escribir la salida.
( %o11) 531441
Veamos otro ejemplo: (%i12)alpha;
( %o12) α
(%i13)%+sqrt(beta);
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
283
´ 5.2. MAXIMA: SINTAXIS BASICA
( %o13)
p β+α
(%i14)%o12+2*gamma^2; ( %o14) 2 γ 2 + α Es importante tener cuidado a la hora de poner los par´entesis en las expresiones: (%i15)1+2*3^2;
(%i16)(1+2)*3^2; ( %o16) 27 El volumen de un cilindro V = π(radio)2 × altura (%i17)radio:5$
re lim
(%i18)altura:50$
in ar
( %o15) 19
(%i19)area:%pi*radio^2; ( %o19) 25 π (%i20)volumen:area*altura; ( %o20) 1250 π
rP
Para limpiar la memoria del programa de todas las variables utilizadas se puede usar el comando kill(all) (Existen otras opciones que veremos m´ as adelante). Esta es una manera de reiniciar la hoja de trabajo. (%i21)volumen; ( %o21) 1250 π
( %o22) done
ad o
(%i22)kill(all);
(%i23)volumen; ( %o23) volumen
C´ alculos elementales
Bo rr
5.2.1.
Se puede definir, evaluar y derivar funciones abstractas utilizando := como se muestra a continuaci´ on (%i1) f(x,y):=exp(x^2+y^2)/(x-y); exp y 2 + x2 ( %o1) f (x, y) := x−y (%i2) f(2,3);
( %o2) − e13 Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
284
´ 5.2. MAXIMA: SINTAXIS BASICA
(%i3) %,numer; ( %o3) − 442413,3920089205 (%i4) f(alpha^(1/2),beta^(1/2)); ( %o4) √
eβ+α √ α− β
Derivando respecto a x y y;
2
( %o5)
2
2
2 y ey +x 2 x ey +x + x−y x−y
2
(%i6) f(x):=3*sin(x+1)+2*sqrt(x); √ ( %o6) f (x) := 3 sin (x + 1) + 2 x (%i7) F:3*sin(x+1)+2*sqrt(x); √ ( %o7) 3 sin (x + 1) + 2 x (%i8) f(8); F(8); 5
rP
( %o8) 3 sin 9 + 2 2 √ ( %o9) 3 sin (x + 1) + 2 x (8)
re lim
Aqu´ı es bueno acotar que una expresi´ on NO es una funci´on:
in ar
(%i5) diff(f(x,y),x) + diff(f(x,y),y);
Por lo tanto, F es u ´nicamente una expresi´on que no puede ser evaluada como la funci´on f . Pero se le puede dar la vuelta para evaluarla con ev() (%i10)ev(F,x=8); 5
ad o
( %o10) 3 sin 9 + 2 2
Consideremos los siguientes c´ alculos b´ asicos: (%i11)kill(all)$
Bo rr
(%i1) sigma(x):=2*x/sqrt(x^2+1); ( %o1) σ (x) := √
2x x2 + 1
La primera derivada:
(%i2) diff(sigma(x),x);
( %o2) √
2
x2 + 1
−
2 x2
3
(x2 + 1) 2
La cuarta derivada: Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
285
´ 5.2. MAXIMA: SINTAXIS BASICA
(%i3) diff(sigma(x),x,4); 90 x
( %o3)
(x2 + 1)
5 2
−
300 x3 (x2 + 1)
7 2
210 x5
+
9
(x2 + 1) 2
Si queremos reutilizar la derivada para definir una nueva funci´on, en este caso la funci´on derivada, lo podemos hacer utilizando dos ap´ ostrofos ” (No es la doble comilla) (%i4) dsigma(x):=’’ %o2; 2 x2 + 1
2 x2
−
3
(x2 + 1) 2
in ar
( %o4) dsigma (x) := √ (%i5) dsigma(2); 2 3
52 (%i6) integrate(sigma(x),x); p ( %o6) 2 x2 + 1
re lim
( %o5)
La misma integral, pero definida para x entre 0 y 1. (%i7) integrate(sigma(x),x,0,1); √ ( %o7) 2 2−1
rP
L´ımites: (%i8) limit(sigma(x),x,1/2);
( %o9) 2 Sumatorias:
ad o
2 ( %o8) √ 5 (%i9) limit(sigma(x),x,inf);
(%i10)sum(sigma(i),i,0,6);
Bo rr
√ 10 8 6 4 12 ( %o10) √ + √ + √ + √ + √ + 2 37 26 17 10 5 Podemos calcular series de Taylor, digamos, alrededor de x = 1 y hasta orden 4. (%i11)taylor(sigma(x),x,1,4);
( %o11)
1 1 1 −1 1 1 1 −1 1 4 3 2 5 2 2 (x − 1) + 3 2 2 (x − 1) + 3 2 2 (x − 1) + 2 2 (x − 1) + 2 2 + · · · 128 16 8 2
Al rededor de x = 0 es m´ as simple todo:
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
286
´ 5.2. MAXIMA: SINTAXIS BASICA
(%i12)taylor(sigma(x),x,0,6); ( %o12)
3 5 x + (−1) x3 + 2 x + · · · 4
Y por supuesto, tambi´en podemos hacer una gr´afica de la funci´on. Para ello utilizaremos el comando wxplot2d que nos generar´ a un gr´ afico embebido dentro de la misma hoja de trabajo. (%i13)wxplot2d(sigma(x),[x,-10,10]);
rP
re lim
in ar
( %o13)
Los c´ alculos anteriores se pueden repetir para que queden de una manera m´as elegante usando una camilla, esto har´ a que no se efect´ ue la evaluaci´on de las operaciones.
1
√
x
Bo rr
Z
ad o
(%i14)’diff(sigma(x),x)=diff(sigma(x),x); d 2x 2 2 x2 √ ( %o14) =√ − 3 dx x2 + 1 x2 + 1 (x2 + 1) 2 (%i15)’integrate(sigma(x),x,0,1)=integrate(sigma(x),x,0,1); ( %o15) 2
dx = 2
√
2−1
x2 + 1 (%i16)’limit(sigma(x),x,inf)=limit(sigma(x),x,inf); x =2 ( %o16) 2 l´ım √ x→∞ x2 + 1 (%i17)’sum(sigma(i),i,0,6)=sum(sigma(i),i,0,6); 0
( %o17) 2
6 X i=0
√
i
i2
Hern´ andez & N´ un ˜ez
√ 12 10 8 6 4 =√ +√ +√ +√ +√ + 2 37 26 17 10 5 +1 Universidad de los Andes / Universidad Industrial de Santander
287
´ 5.2. MAXIMA: SINTAXIS BASICA
Anteriormente mencionamos que uno de las ventajas de los programas de manipulaci´on simb´olica es la gran capacidad de llevar a cabo c´ alculos largos y tediosos, veamos entonces como se hace para demostrar que la funci´ on antes mencionada: (%i18)f(x,y,z):=sin(n*z*sqrt(x^2+y^2+z^2)/sqrt(y^2+z^2))/sqrt(x^2+y^2+z^2); √ n z z 2 +y 2 +x2 √ 2 2 sin z +y p ( %o18) f (x, y, z) := 2 z + y 2 + x2 2 ∂4f ∂4f ∂4f ∂2f 2 ∂ f + 2 2 + 2 2 +n + 2 =0 ∂x4 ∂y x ∂z x ∂x2 ∂y
in ar
es soluci´ on de la ecuaci´ on diferencial
(%i19)diff(f(x,y,z),x,4)+diff(diff(f(x,y,z),x,2),y,2)+diff(diff(f(x,y,z),x,2),z,
( %o19) (( Expression too long to display! ))
re lim
2)+n^2*(diff(f(x,y,z),x,2)+diff(f(x,y,z),y,2));
rP
Aqu´ı Maxima no hace un despliegue en la pantalla de los c´alculos porque la expresi´on matem´ atica es muy larga. Existen opciones para que muestre en pantalla los que nos interese que iremos viendo m´ as adelante. Necesitamos entonces decirle al programa que la expresi´on anterior sea simplificada, es decir, que minimice la expresi´ on a su valor m´ as simple. Para simplificar expresiones que contienen radicales, exponenciales o logaritmos es conveniente utilizar el comando ratsimp. Tambi´en existe la opci´on fullratsimp (%i20)ratsimp(%); ( %o20) 0
ad o
En la mayor´ıa de los casos Maxima no factoriza ni desarrolla autom´aticamente las expresiones, por lo tanto, debemos indicarle al programa que haga las respectivas simplificaciones. Veamos un ejemplo con polinomios: (%i21)kill(all)$
(%i1) p:(x+2)*(x-1);
Bo rr
( %o1) (x − 1) (x + 2) (%i2) q:(x-3)^2; 2
( %o2) (x − 3) (%i3) p-q;
( %o3) (x − 1) (x + 2) − (x − 3)
2
(%i4) expand(p-q);
( %o4) 7 x − 11 Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
288
´ 5.2. MAXIMA: SINTAXIS BASICA
(%i5) expand(p/q); ( %o5)
x2
x 2 x2 + − − 6 x + 9 x2 − 6 x + 9 x2 − 6 x + 9
Si queremos dividir usando fracciones simples podemos hacer lo siguiente: (%i6) partfrac(p/q,x); ( %o6)
7 10 + +1 x − 3 (x − 3)2
in ar
Las funciones logexpand y radexpand permiten controlar si queremos simplificar logaritmos y radicales cuando contienen productos. Veamos: (%i7) log(x*y);
(%i8) sqrt(x*y); √ ( %o8) x y (%i9) sqrt(x^2); ( %o9) |x| (%i10)radexpand:all$ logexpand:all$ (%i11)log(x*y); sqrt(x*y); sqrt(x^2);
rP
( %o11) √ log y + log x √ ( %o12) x y ( %o13) x
re lim
( %o7) log (x y)
Lo inverso a la expansi´ on de expresiones es la factorizaci´on:
( %o14) 23 52
ad o
(%i14)factor(200);
(%i15)factor(x^2+x-2);
Bo rr
( %o15) (x − 1) (x + 2) (%i16)p:x^3-1;
( %o16) x3 − 1
(%i17)factor(%);
( %o17) (x − 1) x2 + x + 1
La evaluaci´ on de expresiones se realiza de la manera siguiente
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
289
´ 5.2. MAXIMA: SINTAXIS BASICA
(%i18)ev(p,x=8); ( %o18) 511 O tambi´en (%i19)p,x=%pi; ( %o19) π 3 − 1
in ar
(%i20)ev(x+(x+y)^2-3*(x+y)^3,x+y=t); ( %o20) x − 3 t3 + t2
Para finalizar con esta gu´ıa r´ apida de Maxima veamos el uso de uno de los comandos m´as comunes de estos programas, y que tiene que ver con la soluci´on de ecuaciones.
( %o21) x3 + 2 x2 + 2 x = 2 x2 (%i22)sol:solve(ecu,x); h i √ √ ( %o22) x = − 2 %i, x = 2 %i, x = 0
re lim
(%i21)ecu:3*x^2+2*x+x^3-x^2=2*x^2;
Recordemos que %i es la notaci´ on para el imaginario i. Si necesitamos aislar una de las soluciones usamos el comando rhs (de right-hand side):
rP
(%i23)rhs(part(sol,1)); rhs(part(sol,2)); √ ( %o23) √ − 2 %i ( %o24) 2 %i
Para un sistema de ecuaciones, digamos, dos ecuaciones con dos inc´ognitas:
ad o
(%i25)ecu1:x^2+y^2=1; ( %o25) y 2 + x2 = 1
(%i26)ecu2:(x-2)^2+(y-1)^2=4; 2
2
Bo rr
( %o26) (y − 1) + (x − 2) = 4
(%i27)solve([ecu1,ecu2],[x,y]); 4 3 ( %o27) x = , y = − , [x = 0, y = 1] 5 5 Cuando el sistema no tiene soluci´ on Maxima responde de la siguiente manera (%i28)solve([x+y=0,x+y=1],[x,y]);
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
290
´ 5.2. MAXIMA: SINTAXIS BASICA
( %o28) [ ] En el caso de un sistema que tiene m´as inc´ognitas que ecuaciones el programa utiliza los s´ımbolos %r1 , %r2 ... para indicar los par´ ametros arbitrarios (%i29)solve([x+y+z=9,x-y=2*z],[x,y,z]); 3 %r1 − 9 %r1 + 9 ,y = − , z = %r1 ( %o29) x = 2 2
(%i30)ecus:[x+y+z+w=1,x-y+z-w=-2,x+y-w=0]; ( %o30) [z + y + x + w = 1, z − y + x − w = −2, y + x − w = 0]
re lim
(%i31)linsolve(ecus,[x,y,z]); 4w − 3 2w − 3 ( %o31) x = ,y = − ,z = 1 − 2w 2 2
in ar
En lugar de solve se puede recurrir a un comando diferente que hace lo mismo, pero que es m´as eficiente desde el punto de vista de los recursos usados por el computador, el comando es linsolve para ecuaciones lineales.
En el caso de polin´ omios de orden superior el resultado estar´a dado de forma aproximada: (%i32)ec:x^7+x^5-x^3+x-2; ( %o32) x7 + x5 − x3 + x − 2
rP
(%i33)allroots(ec);
ad o
[ x=0.766414088337633 %i+0.5507199727230275 , x=0.5507199727230275-0.766414088337633 %i , x=0.4922671445862202 %i - 0.9637112977011089 , x=-0.4922671445862202 %i -0.9637112977011089 , x=1.381985877916414 %i -0.08700867502191806 , x=-1.381985877916414 %i -0.08700867502191806 , x=0.9999999999999988 ]
(%i34)realroots(ec);
Bo rr
( %o34) [x = 1]
Otro tipo de ecuaciones a resolver son las ecuaciones diferenciales. Veamos como funciona con la ecuaciones diferenciales ordinarias (%i35)ecd:(2*x+1)*’diff(y,x)+y*(x-1)=0; d y + (x − 1) y = 0 ( %o35) (2 x + 1) dx (%i36)ode2(ecd,y,x);
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
291
´ 5.2. MAXIMA: SINTAXIS BASICA
( %o36) y = %c e
3 log(2 x+1) −x 4 2
Por ser una ecuaci´ on diferencial de primer orden debe aparecer una constante en la soluci´on. La constante aqu´ı es denotada por “ %c”. (%i37)ecd2:’diff(y,x,2)-3*’diff(y,x)+2*y=x; d d2 y−3 ( %o37) y + 2y = x d x2 dx (%i38)ode2(ecd2,y,x);
in ar
2x + 3 4
( %o38) y = %k1 e2 x + %k2 ex +
Para el caso de que se tengan condiciones iniciales utilizamos ic2 para indicar las condiciones
( %o39) y =
5 e2 x 2x + 3 − 2 ex + 4 4
Y para valores de contorno bc2
re lim
(%i39)ic2(%o38,x=0,y=0,diff(y,x)=1);
(%i40)bc2(%o38,x=0,y=0,x=1,y=0); 3 e2 − 5 ex 2x + 3 (3 e − 5) e2 x − + ( %o40) y = 4 e2 − 4 e 4 e2 − 4 e 4
rP
Existe el comando desolve para resolver tambi´en ecuaciones o sistemas de ecuaciones diferenciales ordinarias lineales utilizando transformadas de Laplace. Trabaja de manera parecida a ode2 pero se necesita especificar la dependencia de las funciones con las variables independientes. (%i41)ecd3:’diff(y(x),x,2)-y(x)=2*x;
d2 y (x) − y (x) = 2 x d x2 (%i42)desolve(ecd3,[y(x)]); ex ddx y (x) x=0 + y (0) + 2 e−x ( %o42) y (x) = − 2
ad o
( %o41)
d dx
y (x) x=0 − y (0) + 2 − 2x 2
Si tenemos condiciones iniciales en x = 0 entonces podemos escribir:
Bo rr
(%i43)atvalue(y(x),x=0,1); atvalue(diff(y(x),x),x=0,2);
( %o43) 1 ( %o44) 2
(%i45)desolve(ecd3,[y(x)]);
( %o45) y (x) =
5 ex 3 e−x − − 2x 2 2
Si desolve no encuentra una soluci´ on, entonces devuelve “false”.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
292
´ 5.2. MAXIMA: SINTAXIS BASICA
Veamos un ejemplo de un sistema de ecuaciones diferenciales (%i46)ecd_1: ’diff(f(x),x)=’diff(g(x),x)+sin(x); d d f (x) = g (x) + sin x dx dx (%i47)ecd_2: ’diff(g(x),x,2)=’diff(f(x),x)-cos(x);
( %o46)
d d2 g (x) = f (x) − cos x 2 dx dx (%i48)atvalue(’diff(g(x),x),x=0,a)$ atvalue(f(x),x=0,b)$ atvalue(g(x),x=0,c)$ (%i51)desolve([ecd_1, ecd_2], [f(x),g(x)]);
( %o51) [f (x) = a ex + b − a, g (x) = cos x + a ex + c − a − 1] (%i52)kill(all)$ Operaciones b´ asicas con matrices:
in ar
( %o47)
rP
re lim
(%i1) A:matrix([1,2,3],[4,5,6],[7,8,9]);B:matrix([9,8,7],[6,5,4],[3,2,1]); 1 2 3 ( %o1) 4 5 6 7 8 9 9 8 7 ( %o2) 6 5 4 3 2 1 (%i3) A+B; 10 10 10 ( %o3) 10 10 10 10 10 10
(%i4) A.B; 30 ( %o4) 84 138
ad o
El producto ordinario de matrices:
24 69 114
18 54 90
El producto elemento a elemento
Bo rr
(%i5) A*B; 9 16 21 ( %o5) 24 25 24 21 16 9
El cociente elemento a elemento (%i6) A/B;
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
293
´ 5.2. MAXIMA: SINTAXIS BASICA
1 ( %o6)
9 2 3 7 3
1 4
3 7 3 2
1 4
9
El producto por un escalar: (%i7) n*A; n 2n ( %o7) 4 n 5 n 7n 8n
3n 6 n 9n
in ar
Podemos generar matrices de muchas maneras
(%i9) A:genmatrix(a,4,4); 2 5 10 17 5 8 13 20 ( %o9) 10 13 18 25 17 20 25 32 Tambi´en de manera interactiva: (%i10)n:3$ (%i11)M:entermatrix(n,n)$
4. General
ad o
(%i12)M; 3 (y + x) ( %o12) 0 0
3. Antisymmetric
rP
Is the matrix 1. Diagonal 2. Symmetric Answer 1, 2, 3 or 4 : 1; Row 1 Column 1: (x+y)^n$ Row 2 Column 2: (x-y)^(n+1)$ Row 3 Column 3: (x.y)^(n-1)$ Matrix entered.
re lim
(%i8) a[i,j]:=i^2 + j^2$
0 4 (x − y) 0
0 0 2 (x · y)
Bo rr
La matriz identidad de tama˜ no n x n usamos el comando ident(n), como mostramos a continuaci´ on (%i13)ident(4); 1 0 0 0 1 0 ( %o13) 0 0 1 0 0 0
Hern´ andez & N´ un ˜ez
0 0 0 1
Universidad de los Andes / Universidad Industrial de Santander
294
´ 5.2. MAXIMA: SINTAXIS BASICA
5.2.2.
Bibliotecas
No todos los comandos est´ an disponibles en la memoria cuando el programa es iniciado. S´olo los comandos est´ andar son cargados autom´ aticamente. Pero podemos contar con funciones adicionales para trabajar cargando al programa los diferentes paquetes, m´odulos o librer´ıas que dispone Maxima. Por ejemplo, el paquete vect nos permite introducir vectores y operar con ellos. El paquete vect debe entonces ser previamente cargado y se hace de la manera siguiente: (%i1) load(vect)$
in ar
Las operaciones b´ asicas de suma, resta, multiplicaci´on y multiplicaci´on por escalares de vectores las podemos ver a continuaci´ on, pero primero debemos saber como introducir los vectores al programa. Por ejemplo, para los vectores a = 2i + 4j + 6k, b = 5i + 7j + 9k y c = i + 3j, tenemos: (%i2) a:[2,4,6]; ( %o2) [2, 4, 6] (%i3) b:[5,7,9];
re lim
( %o3) [5, 7, 9] (%i4) c:[1,3,0]; ( %o4) [1, 3, 0] (%i5) a+b+c; ( %o5) [8, 14, 15]
rP
(%i6) 3*a+5*b-c; ( %o6) [30, 44, 63]
Si queremos calcular el m´ odulo de los vectores podemos hacerlo definiendo una funci´on: la funci´on m´ odulo, como mostramos a continuaci´ on:
ad o
(%i7) modulo(a):=sqrt(a.a); √ ( %o7) modulo(a) := a.a
Bo rr
(%i8) modulo(a); modulo(b); modulo(c); √ ( %o8) 2√ 14 ( %o9) √155 ( %10) 10 Para el producto escalar usamos un punto (%i11)a.b;
( %11) 92
Mientras que para el producto vectorial debemos usar la tilde ∼ y escribir lo siguiente
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
295
re lim
in ar
´ 5.2. MAXIMA: SINTAXIS BASICA
Figura 5.2: Curvas integrales para y 0 = −x + e−y
( %o12) [−6, 12, −6] (%i13)express(b~a);
ad o
( %o13) [6, −12, 6]
rP
(%i12)express(a~b);
De manera que el producto triple lo podemos calcular asi: (%i14)c.(express(a~b)); ( %o14) 30
Bo rr
Otra librer´ıa que podemos explorar es plotdf que nos permite realizar gr´aficos del tipo y 0 = f (x, y) y hacernos una idea de c´ omo es la soluci´ on de ´esta ecuaci´on diferencial. (%i1) load(plotdf)$
La librer´ıa plotdf nos permite estudiar los campos de direcciones y las curvas integrales a trav´es del estudio de las pendientes. Veamos la siguiente ecuaci´on diferencial y 0 = −x + e−y
su soluci´ on, de manera gr´ afica, es decir los campos de direcciones lo podemos obtener escribiendo el siguiente Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
296
re lim
in ar
´ 5.2. MAXIMA: SINTAXIS BASICA
Figura 5.3: Curva integrales para y 0 = −x + e−y y que pasa por el punto (2, 3)
(%i2) plotdf(-x+exp(-y));
rP
comando.
ad o
La gr´ afica que resulta puede verse en la Figura 5.2 y cada curva integral (curvas en rojo) se obtiene haciendo un “click”sobre un punto de la gr´afica, esto generar´a la curva integral que pasa por ese punto. Por otra parte, existen varias opciones para el comando plotdf. Supongamos que queremos la trayectoria que pase por el punto espec´ıfico (2, 3). Para tal fin escribimos (%i3) plotdf(-x+exp(-y),[trajectory_at,2,3]);
Bo rr
Y la gr´ afica obtenida puede verse en la Figura 5.3. Tambi´en nos podemos encontrar con que la ecuaci´on diferencial depende de alg´ un par´ametro, digamos κ. Por ejemplo y 0 = −x + κe−y y nos gustar´ıa obtener una gr´ afica para alg´ un valor del par´ametro en part´ıcular, digamos κ = −0,5. Entonces podemos escribir (%i4) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"]);
O, si queremos recorrer, en una misma figura, los diferentes valores del par´ametro usamos la opci´ on sliders, como se muestra a continuaci´ on
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
297
re lim
in ar
´ 5.2. MAXIMA: SINTAXIS BASICA
Figura 5.4: Curva integrales para y 0 = −x + κe−y y para diferentes valores de κ.
rP
(%i5) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"],[sliders,"kappa=-3:3"]);
Bo rr
ad o
La gr´ afica que se obtiene se muestra en la Figura 5.4, y como se puede ver, en la parte inferior aparece un bot´ on deslizante y el valor del par´ ametro κ. Al deslizar el bot´on, estaremos cambiando el valor del par´ametro que en este caso variar´ a entre −3 y 3, podremos apreciar entonces como los campos de direcciones y las curvas integrales seleccionadas cambian.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
298
´ 5.2. MAXIMA: SINTAXIS BASICA
5.2.3.
Maxima en modo texto
re lim
Obatala%maxima Maxima 5.36.1 http://maxima.sourceforge.net using Lisp SBCL 1.2.10 Distributed under the GNU Public License. See the file COPYING. Dedicated to the memory of William Schelter. The function bug_report() provides bug reporting information. (%i1) integrate( tan(x), x ); (%o1) log(sec(x)) (%i2) float(sqrt(%pi)); (%o2) 1.772453850905516 (%i3) quit();
in ar
Es posible utilizar Maxima en un computador que funcione bajo alguno de los diferentes versiones de sistemas operativos tipo UNIX, como por ejemplo Linux, esto lo podemos hacer cuando no queremos utilizar el ambiente gr´ afico. Podemos recurrir al ambiente de texto escribiendo el comando maxima en un terminal de nuestro computador, esto har´ a que entremos en un ambiente de c´alculo que funcionar´a exclusivamente en modo texto y aparecer´ a, luego de una bienvenida, el aviso de espera o prompt. Para finalizar una sesi´ on en Maxima se utiliza el comando quit(). Esta posibilidad que ofrece el programa es muy conveniente a la hora de realizar grandes c´alculos ya que podemos dejar el proceso en modo “background” y utilizar el computador en otra actividad. Al entrar en este modo al programa tendremos un mensaje como el que se muestra a continuaci´ on y donde aprovecharemos de hacer un par de c´alculos a modo de ejemplo.
Obatala% maxima < archimax.txt
rP
Sobre UNIX podemos utilizar los archivos de entradas y salidas est´andar para leer e imprimir informaci´ on en el terminal: , |.
ad o
Con esta instrucci´ on Maxima ejecutar´a todos los comandos que se encuentran en el archivo de texto archimax.txt e ir´ a mostrando los resultados en pantalla En la siguiente instrucci´ on Maxima ejecutar´a todos los comandos que se encuentran en el archivo de texto archimax.txt pero escribir´ a los resultados en el archivo de salida llamado archimax.out Obatala% maxima < archimax.txt > archimax.out Tambi´en se puede hacer que todos los comandos del archivo sean ejecutados para luego ser enviados al terminal pero paginados.
Bo rr
Obatala% maxima < archimax.txt | more
Maxima puede ser detenido temporalmente con el comando “Control Z” de manera que para poner procesos en “background” se procede de la manera usual: Obatala% maxima < archimax.txt > archimax.out ^Z Suspended Obatala%> bg [2] maxima < archimax.txt > archimax.out & Obatala% Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
299
´ 5.2. MAXIMA: SINTAXIS BASICA
O si lo preferimos, y de manera equivalente, podemos escribir la instrucci´on pero ponemos al final & Obatala% maxima [1] 5114
5.2.4.
< archimax.txt > archimax.out &
Invocando la ayuda
El ambiente wxMaxima permite acceder al manual de ayuda f´acilmente visible en la barra de herramientas, parte superior de la ventana. Pero tambi´en si conocemos el comando podemos escribir, por ejemplo:
0: diff (Functions and Variables for Differentiation) 1: diff (Functions and Variables for Differentiation) 2: diff (Functions and Variables for itensor) Enter space-separated numbers, ‘all’ or ‘none’:
in ar
(%i1) describe(diff);
re lim
Al seleccionar una de las opciones, por ejemplo si escribimos 1 despu´es de los dos puntos, aparecer´ a la descripci´ on completa del comando:
Bo rr
ad o
rP
-- Function: diff diff (, , , ..., , ) diff (, , ) diff (, ) diff () Returns the derivative or differential of with respect to some or all variables in . ’diff (, , )’ returns the ’th derivative of with respect to . ’diff (, , , ..., , )’ returns the mixed partial derivative of with respect to , ..., . It is equivalent to ’diff (... (diff (, , ) ...), , )’. ’diff (, )’ returns the first derivative of with respect to the variable . ’diff ()’ returns the total differential of , that is, the sum of the derivatives of with respect to each its variables times the differential ’del’ of each variable. No further simplification of ’del’ is offered. The noun form of ’diff’ is required in some contexts, such as stating a differential equation. In these cases, ’diff’ may be quoted (as ’’diff’) to yield the noun form instead of carrying out the differentiation..... There are also some inexact matches for ‘diff’. Try ‘?? diff’ to see them.
Tambi´en podemos utilizar:
(%i2) apropos("diff");
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
300
5.3. EJERCICIOS
[covdiff,diff,maxtaydiff,pdiff_diff_var_names,pdiff_prime_limit...] O pedirle al programa algunos ejemplos (%i3) example(diff); kill(f,g,h,x,y) done diff(sin(x)+x^3+2*x^2,x) cos(x)+3*x^2+4*x diff(sin(x)*cos(x),x) cos(x)^2-sin(x)^2 diff(sin(x)*cos(x),x,2) -4*cos(x)*sin(x)
in ar
(%i4) (%o4) (%i5) (%o5) (%i6) (%o6) (%i7) (%o7) . . .
5.3.
Ejercicios
1. Calcule:
2. Para la siguiente funci´ on
rP
a) los 70 primeros decimales del n´ umero e b) el arco coseno hiperb´ olico de 1 c) la expansi´ on de sin(2 arctan(x))
re lim
Las ayudas completas de Maxima se pueden consultar en: http://maxima.sourceforge.net/es/
(x + 1)3 f (x) = √ x2 − 1
Calcule ∂f (x) ∂f (x) ∂x , ∂x2
ad o
a) b)
Z
c)
Z f (x)dx ,
Bo rr
l´ım f (x) ,
x→∞
4
f (x)dx 2
l´ım f (x) ,
x→−∞
l´ım f (x)
x→0
d ) Haga un gr´ afico de f (x) para valores de x ∈ [−5, 5].
3. Encuentre las ra´ıces de
p = x7 + x5 + 2x + x
4. Resuelva la siguiente ecuaci´ on diferencial x
dy(x) = y(x) ln(xy(x)) − y(x); dx
y haga una gr´ afica del campo de direcciones que muestre algunas curvas integrales. Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
301
5.3. EJERCICIOS
5. Resuelva la siguiente ecuaci´ on diferencial dy(t) d2 y(t) − 1 − y(t)2 + y(t) = 0 , d2 t dt
con: y(0) = 0 ,
dy(t) = −0,1 dt
6. Realice los ejercicios de la secci´ on 1.4 con la ayuda de la librer´ıa vect de Maxima. 7. En un archivo de texto escriba las siguientes instrucciones que tienen que ver con operaciones de n´ umeros complejos:
re lim
in ar
z_1=1+2%i; z_2=3+4%i; z_1+z_2; z_1*z_2; expand(%); z_1/z_2; rectform(%); polarform(%);
guarde el archivo con el nombre pruebamax.txt y en un terminal de su computador, y en el mismo directorio donde est´ a el archivo escriba: localhost%
maxima < pruebamax.txt > pruebamax.out &
Bo rr
ad o
rP
y verifique que en el archivo pruebamax.out se haya realizado los c´alculos.
Hern´ andez & N´ un ˜ez
Universidad de los Andes / Universidad Industrial de Santander
302
View more...
Comments