Matematica para la física 1

May 2, 2017 | Author: david teran | Category: N/A
Share Embed Donate


Short Description

Descripción: Introducción para métodos matemáticos...

Description

Matem´ aticas Avanzadas: de los espacios lineales al an´alisis vectorial

in ar

H. Hern´ andez Departamento de F´ısica, Facultad de Ciencias, Universidad de Los Andes, M´erida-Venezuela

re lim

L. A. N´ un ˜ ez Escuela de F´ısica, Facultad de Ciencias, Universidad Industrial de Santander, Bucaramanga-Colombia

Bo rr

ad o

rP

1 de junio de 2016

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Bo rr

ad o

rP

re lim

1. Los vectores de siempre 1.1. Vectores, escalares y ´ algebra vectorial . . . . . . . . . . . . . 1.1.1. Escalares y vectores . . . . . . . . . . . . . . . . . . . ´ 1.1.2. Algebra de vectores . . . . . . . . . . . . . . . . . . . 1.1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Independencia lineal, vectores base y el producto de vectores 1.2.1. Vectores linealmente independientes . . . . . . . . . . 1.2.2. Productos de vectores . . . . . . . . . . . . . . . . . . 1.2.3. Producto escalar . . . . . . . . . . . . . . . . . . . . . 1.2.4. Producto vectorial . . . . . . . . . . . . . . . . . . . . 1.2.5. Producto triple o mixto . . . . . . . . . . . . . . . . . 1.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Componentes, coordenadas y cosenos directores . . . . . . . . 1.3.1. Bases, componentes y coordenadas . . . . . . . . . . . 1.3.2. Cosenos directores . . . . . . . . . . . . . . . . . . . . 1.3.3. Una divisi´ on fallida . . . . . . . . . . . . . . . . . . . . 1.3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Algebra vectorial y coordenadas . . . . . . . . . . . . . . . . . 1.4.1. Suma y resta de vectores . . . . . . . . . . . . . . . . 1.4.2. Dependencia e independencia lineal . . . . . . . . . . . 1.4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Aplicaciones del ´ algebra vectorial . . . . . . . . . . . . . . . . 1.5.1. Rectas y vectores . . . . . . . . . . . . . . . . . . . . . 1.5.2. Planos y vectores . . . . . . . . . . . . . . . . . . . . . 1.5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . ´ 1.6. Algebra vectorial con ´ındices . . . . . . . . . . . . . . . . . . 1.6.1. Convenci´ on de Einstein . . . . . . . . . . . . . . . . . 1.6.2. Los vectores y los ´ındices . . . . . . . . . . . . . . . . 1.6.3. Un par de c´ alculos ilustrativos . . . . . . . . . . . . . 1.6.4. Escalares, pseudoescalares, vectores y pseudovectores . 1.6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 1.7. Un comienzo a la derivaci´ on e integraci´on de vectores . . . . 1.7.1. Vectores variables . . . . . . . . . . . . . . . . . . . .

in ar

´Indice general

2

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 6 6 7 9 9 10 11 12 12 13 14 15 15 16 17 17 17 17 18 20 21 21 23 24 24 24 26 27 27 29 30 30

´INDICE GENERAL

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

31 33 35 37 39 43 45 45 46 47 49 52 53 58

2. Espacios Vectoriales Lineales 2.1. Grupos, cuerpos y espacios vectoriales . . . . . . . . . . . . . . . . . . 2.1.1. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3. Espacios vectoriales lineales . . . . . . . . . . . . . . . . . . . . 2.1.4. Ejemplos espacios vectoriales . . . . . . . . . . . . . . . . . . . 2.1.5. La importancia de la conceptualizaci´on y la notaci´on . . . . . . 2.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Espacios m´etricos, normados y con producto interno . . . . . . . . . . 2.2.1. M´etricas y espacios m´etricos . . . . . . . . . . . . . . . . . . . 2.2.2. Normas y espacios normados . . . . . . . . . . . . . . . . . . . 2.2.3. Espacios vectoriales con producto interno: Espacios euclidianos 2.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Dependencia/Independencia lineal . . . . . . . . . . . . . . . . 2.3.2. Bases de un espacio vectorial . . . . . . . . . . . . . . . . . . . 2.3.3. El determinante de Gram . . . . . . . . . . . . . . . . . . . . . 2.3.4. Ortogonalidad y bases ortogonales . . . . . . . . . . . . . . . . 2.3.5. Ortogonalizaci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.6. Complementos ortogonales y descomposici´on ortogonal . . . . . 2.3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Aproximaci´ on de funciones . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1. Condiciones para la aproximaci´on de funciones . . . . . . . . . 2.4.2. El m´etodo de m´ınimos cuadrados . . . . . . . . . . . . . . . . . 2.4.3. Interpolaci´ on polinomial de puntos experimentales . . . . . . . 2.4.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

66 67 67 69 69 70 72 72 74 74 75 76 81 81 81 83 84 85 89 94 96 97 97 100 105 109 111 115

in ar

. . . . . . . . . . . . . .

Bo rr

ad o

rP

re lim

1.7.2. Derivaci´ on . . . . . . . . . . . . . . . 1.7.3. Velocidades y aceleraciones . . . . . 1.7.4. Vectores y funciones . . . . . . . . . 1.7.5. El operador ∇ . . . . . . . . . . . . 1.7.6. Integraci´ on . . . . . . . . . . . . . . 1.7.7. Ejercicios . . . . . . . . . . . . . . . 1.8. Vectores y n´ umeros complejos . . . . . . . . 1.8.1. Los n´ umeros complejos y su ´algebra 1.8.2. Vectores y el plano complejo . . . . 1.8.3. F´ ormulas de Euler y De Moivre . . . 1.8.4. Algunas aplicaciones inmediatas . . 1.8.5. Ejercicios . . . . . . . . . . . . . . . 1.9. Algunos ejemplos resueltos . . . . . . . . . . 1.10. Ejercicios propuestos . . . . . . . . . . . . .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

3

´INDICE GENERAL

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4. Matrices, Determinantes y Autovectores 4.1. Operadores Lineales . . . . . . . . . . . . . . . . . . . . 4.1.1. Espacio vectorial de operadores lineales . . . . . 4.1.2. Composici´ on de operadores lineales . . . . . . . . 4.1.3. Proyectores . . . . . . . . . . . . . . . . . . . . . 4.1.4. Funciones de operadores . . . . . . . . . . . . . . 4.1.5. Espacio Nulo e Imagen . . . . . . . . . . . . . . . 4.1.6. Operadores biyectivos e inversos . . . . . . . . . 4.1.7. Operadores herm´ıticos conjugados . . . . . . . . 4.1.8. Operadores herm´ıticos . . . . . . . . . . . . . . . 4.1.9. Operadores unitarios . . . . . . . . . . . . . . . . 4.1.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 4.2. Representaci´ on matricial de operadores . . . . . . . . . 4.2.1. Bases y la representaci´ on matricial de operadores

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

121 122 124 124 124 126 128 129 130 134 135 138 143 144 144 145 147 151 153 154 156 163 163 164 168 169 169 171 175 178 179 181 187

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

191 192 194 195 197 198 199 201 202 203 203 204 205 206

in ar

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Bo rr

ad o

rP

re lim

3. Vectores Duales y Tensores 3.1. Funcionales lineales . . . . . . . . . . . . . . . . . . . . . 3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.2. Par´entesis tensorial . . . . . . . . . . . . . . . . . . . . . 3.2.1. Tensores, una definici´ on funcional . . . . . . . . 3.2.2. Producto tensorial . . . . . . . . . . . . . . . . . 3.2.3. La tentaci´ on del producto interno . . . . . . . . . 3.2.4. Bases para un producto tensorial . . . . . . . . . 3.2.5. Tensores, sus componentes y sus contracciones . 3.2.6. Tensor m´etrico, ´ındices y componentes . . . . . . 3.2.7. Teorema del cociente . . . . . . . . . . . . . . . . 3.2.8. Un par de tensores . . . . . . . . . . . . . . . . . 3.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.3. Repensando los vectores nuevamente . . . . . . . . . . . 3.3.1. Vectores, covectores y leyes de transformaci´on . . 3.3.2. Transformaci´ on de los vectores base . . . . . . . 3.3.3. Cartesianas y polares, otra vez . . . . . . . . . . 3.3.4. Repensando las componentes . . . . . . . . . . . 3.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.4. Transformaciones, vectores y tensores . . . . . . . . . . 3.4.1. Un ejemplo detallado . . . . . . . . . . . . . . . 3.5. Vectores, tensores y espacios pseudo-euclideanos . . . . 3.5.1. Espacios minkowskianos . . . . . . . . . . . . . . 3.5.2. Un toque de Relatividad Especial . . . . . . . . . 3.5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.6. Espacios de funciones . . . . . . . . . . . . . . . . . . . 3.6.1. La funci´ on delta de Dirac . . . . . . . . . . . . . 3.6.2. Bases continuas . . . . . . . . . . . . . . . . . . . 3.6.3. Transformada de Fourier. Bases de ondas planas 3.6.4. Las representaciones |ri y |pi . . . . . . . . . . . 3.6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3.7. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . 3.8. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

4

´INDICE GENERAL

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

rP

ad o

Bo rr Hern´ andez & N´ un ˜ez

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

209 210 212 213 214 216 217 217 218 221 221 222 222 222 222 223 223 223 223 224 225 228 229 229 232 233 233 233 242 243 243 247 250 254 254 260 261 261 262 263 264 265 267

in ar

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

re lim

4.2.2. Cambio de bases para vectores . . . . . . . . . . . 4.2.3. Traza de operadores . . . . . . . . . . . . . . . . . 4.2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.3. Diferenciaci´ on de operadores y algebra matricial . . . . . 4.3.1. Reglas de diferenciaci´ on de operadores lineales . . 4.3.2. La f´ ormula de Glauber . . . . . . . . . . . . . . . . 4.3.3. Algebra de matrices . . . . . . . . . . . . . . . . . 4.3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.4. Un par´entesis determinante . . . . . . . . . . . . . . . . . 4.4.1. F´ ormula de Laplace . . . . . . . . . . . . . . . . . 4.4.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.5. Un zool´ ogico de matrices cuadradas . . . . . . . . . . . . 4.5.1. Matriz unitaria y la matriz nula . . . . . . . . . . 4.5.2. Matriz diagonal a bloques . . . . . . . . . . . . . . 4.5.3. Matriz transpuesta . . . . . . . . . . . . . . . . . . 4.5.4. Matriz de cofactores . . . . . . . . . . . . . . . . . 4.5.5. Matriz adjunta . . . . . . . . . . . . . . . . . . . . 4.5.6. Matriz singular . . . . . . . . . . . . . . . . . . . . 4.5.7. Matriz inversa . . . . . . . . . . . . . . . . . . . . 4.5.8. Matriz ortogonal . . . . . . . . . . . . . . . . . . . 4.5.9. Matrices complejas . . . . . . . . . . . . . . . . . . 4.5.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.6. Autovectores y Autovalores . . . . . . . . . . . . . . . . . 4.6.1. Definiciones y teoremas preliminares . . . . . . . . 4.6.2. Autovalores, autovectores e independencia lineal . 4.6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.7. Autovalores y autovectores de un operador . . . . . . . . . 4.7.1. El polinomio caracter´ıstico. . . . . . . . . . . . . . 4.7.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.8. Autovalores y autovectores de matrices importantes . . . 4.8.1. Autovalores y autovectores de matrices similares . 4.8.2. Autovalores y autovectores de matrices herm´ıticas 4.8.3. Autovalores y autovectores de matrices unitarias . 4.8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.9. Conjunto completo de observables que conmutan . . . . . 4.9.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.10. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . 4.10.1. Eliminaci´ on de Gauss Jordan . . . . . . . . . . . . 4.10.2. El m´etodo de la matriz inversa . . . . . . . . . . . 4.10.3. Factorizaci´ on LU . . . . . . . . . . . . . . . . . . 4.10.4. M´etodo de Cramer . . . . . . . . . . . . . . . . . . 4.10.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 4.11. Algunos ejemplos resueltos . . . . . . . . . . . . . . . . . .

Universidad de los Andes / Universidad Industrial de Santander

5

´INDICE GENERAL

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

277 278 280 282 293 297 298 299

Bo rr

ad o

rP

re lim

in ar

5. Ap´ endice 5.1. Introducci´ on a los CAS . . . . 5.2. Maxima: Sintaxis b´ asica . . . . 5.2.1. C´ alculos elementales . . 5.2.2. Bibliotecas . . . . . . . 5.2.3. Maxima en modo texto 5.2.4. Invocando la ayuda . . . 5.3. Ejercicios . . . . . . . . . . . .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

6

1

Bo rr

ad o

rP

re lim

Los vectores de siempre

in ar

Cap´ıtulo

7

´ 1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL

1.1.

Vectores, escalares y ´ algebra vectorial

Desde los primeros cursos de F´ısica en educaci´on media, venimos hablando de vectores como cantidades que tienen que ser representadas con m´ as de un n´ umero. Son varias las razones que obligan a introducir este (y otro) tipo de cantidades “multidimensionales”. Enumeraremos algunas que, a nuestro criterio personal, son las m´ as representativas. 1. Necesidad de modelos matem´ aticos de la naturaleza. Desde los albores del renacimiento, con Galileo Galilei a la cabeza, nos es imperioso representar cantidades de manera precisa. Las matem´ aticas nos apoyan en esta necesidad de precisi´on y desde ese entonces son el lenguaje de la actividad cient´ıfica.

in ar

2. Los modelos tienen que tener contrastaci´ on experimental. Las ciencias y sus modelos, en u ´ltima instancia, tienen que ver con la realidad, con la naturaleza y por ello debemos medir y contrastar las hip´ otesis con esa realidad que modelamos. Necesitamos representar cantidades medibles (observables) y que, por lo tanto, tienen que ser representadas de la forma m´as compacta, pero a la vez m´as precisa posible.

re lim

3. Las leyes de los modelos deben ser independiente de los observadores. Cuando menos a una familia significativa de observadores, el comportamiento de la naturaleza no puede depender de la percepci´ on de un determinado observador, por lo tanto, los modelos que construimos para describirla tampoco pueden depender de los observadores. Es com´ un que tropecemos con: escalares, vectores, tensores y espinores, dependiendo del n´ umero de cantidades que necesitemos para representar determinado objeto matem´atico. Podremos constatar que las leyes de la F´ısica vienen escritas en forma vectorial (o tensorial) y, por lo tanto, ser´a la misma ley para la familia de observadores equivalentes.

Escalares y vectores

rP

1.1.1.

Dejaremos para m´ as adelante caracterizar objetos como tensores y espinores, por ahora nos contentaremos con refrescar nuestros recuerdos con cantidades como:

ad o

Escalares: Ser´ an aquellas cantidades las cuales se representan con UN solo n´ umero, una magnitud: temperatura, volumen, masa, entre otras. Es costumbre no denotarlas de manera especial, as´ı T = 5o C representar´ a una temperatura de 5 grados cent´ıgrados.

Bo rr

Vectores: Ser´ an cantidades las cuales, para ser representadas por un objeto matem´aticos requieren m´as de una cantidad: requieren de UN n´ umero, UNA direcci´on y UN sentido. Entre las cantidades que t´ıpicamente reconocemos como vectores est´ an: la velocidad, la aceleraci´on, la fuerza. En t´erminos gr´aficos podremos decir que un vector ser´ a un segmento orientado, en el cual la dimensi´on del segmento representar´ a su m´ odulo y su orientaci´ on la direcci´ on y el sentido. Para diferenciarlos de las cantidades escalares hay una variedad de representaciones, entre ellas: en negrita a; con una flecha arriba de la cantidad ~a; con −−→ una tilde arriba o abajo a ˜; o explicitando el origen del segmento orientado OP . El m´odulo del vector lo representaremos dentro de la funci´ on valor absoluto, o sencillamente sin la flecha arriba a = |a| = |~a| . Los vectores son independientes del sistema de coordenadas. Sus caracter´ısticas (m´odulo, direcci´ on y sentido) se preservar´ an en todos los sistemas de coordenadas. M´as a´ un, habr´a vectores que podremos desplazarlos (conservando su m´ odulo direcci´ on y sentido) paralelos a ellos mismos, en el espacio y seguir´ an siendo los mismos, por ello encontraremos el t´ermino de vectores deslizantes. Un ejemplo son las fuerzas que act´ uan en un determinado cuerpo, como se muestra el cuadrante I en la Figura 1.1. Tambi´en habr´a vectores Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

8

re lim

in ar

´ 1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL

Figura 1.1: Vectores y sus operaciones

1.1.2.

rP

atados a un punto en el espacio, por cuanto representan una de sus propiedades: la velocidad del viento, el campo el´ectrico, o sus variaciones son algunos ejemplos de estos vectores atados (observe la Figura 1.2 como ejemplos ilustrativos).

´ Algebra de vectores

ad o

Enumeraremos r´ apidamente el ´ algebra de vectores sin hacer referencia a un sistema de coordenadas. Desde cursos anteriores nos ense˜ naron a representar gr´aficamente este ´algebra, as´ı tenemos que: Vector nulo. Es aquel que tiene por m´ odulo cero y no se le pude asignar direcci´on ni sentido. El frecuente representar al vector nulo por 0.

Bo rr

Vector unitario. Es aquel que tiene por m´odulo la unidad, es muy u ´til por cuanto, para efectos algebraicos, “contiene” u ´nicamente direcci´ on y sentido. Lo denotaremos con un acento circunflejo, com´ unmente llamado a ˆ a = |a| , con lo cual todo vector se podr´a expresar por un m´odulo en la direcci´on y sentido de “sombrero” u ˆ a = aˆ un vector unitario: a = |a| u ua .

Comparaci´ on de vectores. Al comparar sus m´odulos diremos que pueden ser mayores, menores o iguales. Por lo tanto, tal y como mostramos en el cuadrante IIa de la Figura 1.1, dos vectores ser´an iguales, a = b, si tienen la misma direcci´ on y sentido.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

9

re lim

in ar

´ 1.1. VECTORES, ESCALARES Y ALGEBRA VECTORIAL

rP

Figura 1.2: Ejemplos de vectores atados

ad o

Multiplicaci´ on por un escalar. Un vector multiplicado por un escalar, α, cambiar´a su m´odulo si α > 0 y cambiar´ a su sentido, y eventualmente su m´odulo, si α < 0. Tal y como puede apreciarse en el cuadrante IIa de la Figura 1.1. Claramente dos vectores proporcionales ser´an colineales. Diremos adem´as, que el inverso del vector a ser´ a la multiplicaci´ on de a por (−1). Esto es: (−1) a = −a.

Bo rr

Suma de vectores. Aprendimos que para sumar vectores utilizamos la regla del paralelogramo, es decir, desplazamos paralelamente uno de los vectores y lo colocamos a continuaci´on del otro, de tal forma que la diagonal del paralelogramo, que tiene por lados los vectores sumandos, constituye el vector suma (ver cuadrantes IIa y IIb de la Figura 1.1). Este esquema se puede generalizar para varios vectores tal y como lo mostramos en el cuadrante III de la Figura 1.1. All´ı construimos un pol´ıgono cuyos lados los constituyen los vectores sumandos a, b, c, d y n con n = a + b + c + d. N´ otese que a´ un en el caso tridimensional, el vector suma siempre ser´a coplanar (estar´a en el mismo plano) a los sumandos que lo generaron. Igualmente, podemos definir la resta de vectores al sumar el inverso. Esto es a − b ≡ a + (−b)

⇒ 0 = a − a ≡ a + (−a) .

En t´erminos gr´ aficos la resta de dos vectores se representa colocando los vectores (minuendo y sustraendo) con el mismo origen y uniendo las cabezas de flecha. Dependiendo de cual vector es el minuendo y cual sustraendo el vector resta apuntar´ a del sustraendo hacia el minuendo, esto es, (a + b + c) − a = b + c.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

10

1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

Claramente, el m´ odulo del vector resta representa la distancia entre los dos extremos de los vectores minuendo y el sustraendo. Un resumen de propiedades.

Podemos resumir las propiedades del ´algebra de vectores como sigue:

La suma de vectores: • tiene un u ´nico elemento neutro 0 + a = a + 0 = a, ∀ a, • existe un elemento sim´etrico −a (uno para cada vector) tal que 0 = a − a ≡ a + (−a), • es conmutativa a + b = b + a,

in ar

• es asociativa (a + b) + c = a + (b + c),

• es distributiva respecto a la multiplicaci´on por escalares: α (a + b) = αa + αb; La multiplicaci´ on de escalares por vectores:

• es asociativa α (βa) = (αβ) a, • es distributiva (α + β) a = αa + βa.

1.1.3.

Ejercicios

re lim

• es conmutativa aα = αa,

1. Un paralelogramo tiene un ´ angulo agudo de π/3 y lados de longitud a = 1 y b = 2. Si pensamos que esos lados como vectores a y b encuentre a) Encuentre los vectores: a + b y a − b

rP

b) Encuentre los vectores: 2a + 3b y 5a − 7b

ad o

2. Se tiene un sistema de n part´ıculas de masas {mn }, y sea ri el radio vector para la i-es´ıma part´ıcula respecto al origen de coordenadas. El centro de masa del sistema estar´a indicado por el vector: Pn mi ri rCM = Pi=1 n i=1 mi Encuentre el centro de masas para los siguientes sistemas: a) Masas iguales a: 1, 2, 3 ubicadas en los v´ertices de un tri´angulo equil´atero cuyos lados son de longitud a = 2.

Bo rr

b) Masas iguales a: 1, 2, 3, 4 en los v´ertices de un cuadrado de lados a = 2. c) Masas iguales a: 1, 2, 3, 4 en los v´ertices inferiores de un cubo cuyos lados son de longitud a = 2 y masas iguales a: 5, 6, 7, 8 en la v´ertices superiores.

1.2.

Independencia lineal, vectores base y el producto de vectores

Armados con el ´ algebra y explicitando sus propiedades podemos construir la primera aproximaci´on a uno de los conceptos fundamentales del ´ algebra lineal. La noci´on de independencia o dependencia lineal.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

11

1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

1.2.1.

Vectores linealmente independientes

Diremos que tres vectores a, b, c son linealmente independientes si se cumple que α a+β b+γ c=0



α=β=γ=0

in ar

es decir, que la u ´nica manera que al sumar cualquier m´ ultiplo de a, b y c de manera que la suma se anule es obligando a que los escalares sean necesariamente nulos. Si no se cumple lo anterior entonces diremos que uno de los vectores ser´ a linealmente dependiente y por lo tanto se podr´a expresar como combinaci´on lineal de los otros dos    α 6= 0  β 6= 0 α a + β b + γ c = 0 alguno de ⇒ c=α ¯ a + β¯ b   γ 6= 0 Es muy importante se˜ nalar que los vectores linealmente independientes formar´an una base para el espacio donde estos vectores “viven” y el n´ umero m´aximo de vectores linealmente independientes ser´a la dimensi´ on de ese espacio de “residencia”. M´ as adelante estudiaremos con m´as detalle el concepto de bases. Tratemos de concretar algunas de estas afirmaciones.

re lim

Dos vectores linealmente dependientes son colineales. Es claro que:



α a + β b = 0 con alguno de

α 6= 0 β 6= 0



 β    a = −αb ⇒    b = −αa β

el contrario tambi´en ser´ a cierto: si dos vectores son colineales ellos ser´ an linealmente dependientes.

rP

a = λb ⇒ αa + βb = 0 ⇒ αλb + βb = 0 ⇒ (αλ + β) b = 0 ⇒ λ = −

β , α

con lo cual podremos afirmar que si dos vectores son linealmente independientes ellos no son colineales. Tres vectores linealmente dependientes son coplanares.

ad o

Por ser los tres vectores linealmente dependientes al menos uno de los escalares tiene que ser distinto de cero, digamos γ, esto es α β α a + β b + γ c = 0 ⇒ c = − a − b = ξ1a + ξ2b , γ γ

Bo rr

pero como ξ 1 a ∝ a y ξ 2 b ∝ b, esto significa que ξ 1 a y a son colineales, de la misma manera que ξ 2 b y b, y por lo tanto, la suma estar´ a en el mismo plano. Dos vectores linealmente independientes expanden todos los vectores coplanares.

Dado dos vectores a y b linealmente independientes, entonces cualquier vector c, coplanar con a y b, podr´ a expresarse como una combinaci´on lineal de ´estos. Diremos que c se expresa en t´erminos de a y b como c = ξ 1 a + ξ 2 b y esa expresi´ on es u ´nica. La primera de las afirmaciones es directa por cuanto hemos visto que si a y b son linealmente independientes y c es coplanar con a y b, entonces, necesariamente a, b y c son linealmente dependientes. Esto es: β α α a + β b + γ c = 0 ⇒ c = − a − b = ξ1a + ξ2b γ γ

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

12

re lim

in ar

1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

Figura 1.3: Productos de Vectores

rP

La demostraci´ on de que la expansi´ on es u ´nica viene de suponer que existen dos maneras distintas de representar al mismo vector c   1 c = ξ1a + ξ2b   ξ − ζ 1 = 0 ⇒ ξ1 = ζ 1   ⇒ 0 = ξ1 − ζ 1 a + ξ2 − ζ 2 b ⇒   2 c = ζ 1a + ζ 2b ξ − ζ 2 = 0 ⇒ ξ2 = ζ 2 debido a que a y b son linealmente independientes.

ad o

La demostraci´ on para el caso tridimensional es equivalente. Es decir tres vectores linealmente independientes a, b y c expanden, de manera un´ıvoca, todos los vectores del espacio. Esta demostraci´on queda para el lector. Vectores Base.

Bo rr

Cuando un vector c se pueda expresar en t´erminos de dos vectores linealmente independientes, a y b, por ejemplo: c = ξ 1 a + ξ 2 b, diremos que a y b forman una base para todos los vectores coplanares a ´estos. Igualmente para el caso tridimensional: tres vectores linealmente independientes a, b y c conformar´ an una base para los vectores del espacio. Los n´ umeros ξ 1 y ξ 2 para el caso bidimensional se denominan las componentes de c a lo largo de a y b, respectivamente. Equivalentemente, ξ 1 , ξ 2 , ξ 3 ser´ an las componentes de cualquier vector para el caso 3D a lo largo de a, b y c, respectivamente. Esta nomenclatura ser´ a m´ as evidente luego de la pr´oxima secci´on.

1.2.2.

Productos de vectores

Hemos sumado y restado vectores, el siguiente paso es multiplicarlos. B´asicamente existen dos formas de multiplicar vectores: el producto escalar y el producto vectorial, veremos a continuaci´on de que se trata y sin especificar un sistema de coordenadas para referirlos.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

13

1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

1.2.3.

Producto escalar

Denominaremos producto escalar de dos vectores a y b a un escalar cuyo valor ser´a igual al producto de los m´ odulos multiplicado por el coseno del ´angulo que ellos forman ζ = a · b = |a| |b| cos(θ)ha,bi El significado geom´etrico del producto escalar es evidente, cuadrante I de la Figura 1.3. El producto escalar representa la proyecci´ on de a sobre b y equivalentemente la proyecci´on de b sobre a. De esta definici´ on se derivan varias consecuencias las cuales por obvias no dejan de ser importantes:

in ar

El producto escalar de un vector consigo mismo, siempre es positivo: 2 ζ = a · a = |a| ≥ 0,√y s´ olo ser´ √a nulo si a es el vector nulo. Esto es, ζ = 0 ⇒ a = 0. Con esto podemos concluir que |a| = a · a = ζ. El producto escalar es conmutativo: ζ = a · b = b · a, ya que el ´ angulo entre los vectores es el mismo y la multiplicaci´on entre escalares es conmutativa.

re lim

El producto escalar es distributivo: Esto es, a · (b + c) = a · b + a · c. La demostraci´on (gr´afica) puede apreciarse en el cuadrante II de la Figura 1.3. La multiplicaci´ on por un escalar : ζ¯ = αζ = |α| (a · b) = (αa) · b = a · (αb) = |αa| |b| cos(θ)ha,bi = |a| |αb| cos(θ)ha,bi . Desigualdad de Cauchy-Schwarz. A partir de la definici´ on de producto interno es inmediata la comprobaci´on de la siguiente desigualdad: 2

ya que 0 ≤ cos2 (θ)ha,bi ≤ 1.

2

2

2

2

⇒ (a · b) ≤ |a| |b|

rP

(a · b) = |a| |b| cos(θ)ha,bi

⇔ a · b ≤ |a| |b|

ad o

Del producto escalar surge el Teorema del Coseno. Es inmediato calcular el producto escalar de un vector consigo mismo, para ello vamos a suponer que c = a − b, con lo cual 2

2

2

c = a − b ⇒ c · c = (a − b) · (a − b) ⇒ |c| = |a| + |b| − 2 |a| |b| cos(θ)ha,bi que no es otra cosa que el teorema del coseno y est´a ilustrado en el cuadrante III de la Figura 1.3.

Bo rr

Dos vectores no nulos son ortogonales (perpendiculares) si su producto escalar es nulo. Esta afirmaci´ on es inmediata a ⊥ b ⇒ θha,bi =

1.2.4.

π ⇒ a · b = |a| |b| cos(θ)ha,bi = 0 . 2

Producto vectorial

A diferencia del producto escalar que genera un escalar, el producto vectorial tiene como resultado otro vector: c = a × b (realmente un pseudovector o vector axial en contraposici´on a los vectores polares, pero eso lo veremos m´ as adelante en la secci´ on 1.6.4), con las siguientes caracter´ısticas:

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

14

1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

El m´ odulo de c, ser´ a |c| = |a| |b| sen(θ)ha,bi . Es claro que el m´odulo de c representa el ´area del paralelogramo cuyos lados est´ an formados por a y b (ver el cuadrante V de la Figura 1.3). Tal y como muestran los cuadrantes IV y V de la Figura 1.3, c tendr´a como direcci´on la perpendicular al plano que forman a y b, y como sentido la regla del pulgar derecho, regla de la mano derecha, o de manera m´ as elegante, ser´ a positiva cuando la multiplicaci´on de a×b corresponda al sentido antihorario. Podemos deducir algunas consecuencias de esta definici´on.

in ar

El producto vectorial es anticonmutativo. a × b = −b × a, y se sigue de la definici´on que expresa el cuadrante IV de la Figura 1.3. El producto vectorial es distributivo respecto a la suma. a × (b + c) = a × b + a × c. La demostraci´on de esto lo dejaremos para m´as adelante. La multiplicaci´ on por un escalar.

|c| = |α| |a × b| = |(αa) × b| = |a × (αb)| = |αa| |b| sen(θ)ha,bi = |a| |αb| sen(θ)ha,bi

re lim

Dos vectores ser´ an colineales si su producto vectorial se anula. Como en el caso cuando se anulaba el producto escalar identific´abamos a dos vectores ortogonales, cuando se anula el producto vectorial tendremos dos vectores paralelos. Es claro que esto se cumple de inmediato a k b ⇒ θha,bi = 0 ⇒ |c| = |a × b| = |a| |b| sen(θ)ha,bi = 0

1.2.5.

rP

Si el m´ odulo del vector es cero, obvio que es el vector nulo. Ahora bien, tambi´en de aqu´ı deducimos que c = a × b ⇒ c · a = (a × b) · a = c · b = (a × b) · b = 0 .

Producto triple o mixto

Analicemos ahora el n´ umero (pseudoescalar) que proviene de la multiplicaci´on

ad o

V = c · (a × b) = |c| |(a × b)| cos(θ)hc,a×bi Este producto tambi´en cumple con algunas propiedades que enunciaremos ahora y demostraremos m´as tarde El producto mixto representa el volumen del paralelep´ıpedo cuyos lados son los vectores a, b y c. |a × b| representa el ´ area de la base y la altura est´a representada por la proyecci´on del vector c sobre la perpendicular al plano de la base que es, precisamente |c| cos(θ)hc,a×bi .

Bo rr

El producto mixto es c´ıclico respecto a sus factores. (a × b) · c = (c × a) · b = (b × c) · a

Esta afirmaci´ on se ver´ a demostrada m´as adelante.

El producto mixto se anula cuando se repite alguno de sus factores. (a × b) · a = (a × b) · b = (a × a) · c = (b × b) · c = 0 .

Claramente, si (a × b) ⊥ a ⇒ (a × b) · a = 0. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

15

1.2. INDEPENDENCIA LINEAL, VECTORES BASE Y EL PRODUCTO DE VECTORES

Si los tres vectores a, b y c son coplanares (linealmente dependientes) entonces: (a × b) · c = 0 , dicho de manera m´ as elegante, u ´til e impactante: tres vectores que cumplen con: (a × b) · c 6= 0 ,

1.2.6.

in ar

son linealmente independientes y forman una base para el espacio tridimensional. Esa base se denominar´ a lev´ ogira (contraria al giro de las manecillas del reloj) si el producto (a × b) · c < 0 y dextr´ ogira (la convencional base de la mano derecha) si (a × b) · c > 0.

Ejercicios

1. Las componentes de un vector y la regla para sumar vectores se combinan para introducir la forma m´ as simple de representar un vector como una combinaci´on lineal de los vectores m´as elementales que podemos tener. Estos vectores forman lo que conocemos la base can´onica: {i, j, k}, vectores de longitud unitaria que apuntan en la direcci´ on positiva de los ejes x, y y z.

a) e1 = 2i + j − 3k ,

e2 = i − 4k ,

b) e1 = i − 3j + 2k ,

re lim

Diga, entonces, si los siguientes vectores forman una base

e3 = 4i + 3j − k

e2 = 2i − 4j − k ,

e3 = 3i + 2j − k

2. ¿Los siguientes vectores son linealmente independientes?

rP

a = (0, 2, −1) , b = (0, 1/2, −1/2) , c = (0, −2/3, −1/3) . 3. Un paralelogramo tiene un ´ angulo agudo de π/4 y lados a = 1, b = 2. Si consideramos que los lados son vectores, encuentre:

ad o

a) El ´ area del paralelogramo.

b) La proyecci´ on de cada lado sobre la direcci´on del otro.

Bo rr

4. Considere un tri´ angulo cuyos lados est´an conformados por los vectores a, b y c = a+b. Con el producto vectorial entre ellos demuestre la ley del seno: b c a = = sin(α) sin(β) sin(γ)

donde α, β, γ son los ´ angulos opuestos a los lados a, b, c respectivamente.

5. Demuestre que el volumen de un tetraedro puede escribirse de la manera siguiente:

Hern´ andez & N´ un ˜ez

V =

1 |a · (b × c)| 6

Universidad de los Andes / Universidad Industrial de Santander

16

re lim

in ar

1.3. COMPONENTES, COORDENADAS Y COSENOS DIRECTORES

Figura 1.4: Vectores, bases y componentes

1.3.

Componentes, coordenadas y cosenos directores

Bases, componentes y coordenadas

ad o

1.3.1.

rP

La formulaci´ on de las leyes f´ısicas debe hacerse en t´ermino de cantidades vectoriales (tensoriales). Esto independiza su formulaci´ on de un sistema particular de coordenadas, pero llegado el momento de calcular valores y utilizar estas leyes, es mucho m´ as conveniente referirla a un sistema de coordenadas particularmente adaptado a la geometr´ıa del problema. En ese caso la ecuaci´on vectorial se convertir´a en tantas ecuaciones como componentes (referidas al sistema de coordenadas utilizado) tengan los vectores en ese sistema de coordenadas.

Bo rr

Tal y como mencionamos anteriormente, tres vectores no coplanares cualesquiera son linealmente independientes y constituyen una base para el espacio tridimensional. Denominaremos a estos vectores base como {wi }, y por ser linealmente independientes podremos expresar cualquier vector A como una combinaci´ on lineal u ´nica, tal y como lo mostramos en el cuadrante I de la Figura 1.4. Con los vectores base {w1 , w2 , w3 } podemos construir un sistema (oblicuo en general) de coordenadas al colocarlos con un mismo origen, esto es A = ξ 1 w1 + ξ 2 w2 + ξ 3 w3

 donde las cantidades ξ 1 , ξ 2 , ξ 3 son n´ umeros (no son escalares) que representan las componentes del vector A a lo largo de cada uno de los vectores base {w1 , w2 , w3 }. N´otese que por costumbre (la cual ser´a evidente m´ as adelante) etiquetamos estos n´ umeros con super´ındices y la letra que identifica el vector. −−→ M´ as a´ un, cada punto P del espacio viene definido por un radiovector r (P ) ≡ OP que une el origen de coordenadas con el punto P y se le asocian tres n´ umeros x1 , x2 , x3 , los cuales son las proyecciones

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

17

1.3. COMPONENTES, COORDENADAS Y COSENOS DIRECTORES

a lo largo de cada uno de los ejes coordenados

n o  0x1 , 0x2 , 0x3 . Los n´ umeros x1 , x2 , x3 se denominar´ an

in ar

componentes de r (P ) en el sistema de referencia {w1 , w2 , w3 }. Existe una familia de sistemas de coordenadas en la cual sus vectores base son ortogonales (o mejor ortonormales), es decir los vectores base {e1 , e2 , e3 } son perpendiculares entre si. Tal y como mostraremos m´ as adelante, siempre se puede construir un sistema ortogonal {e1 , e2 , e3 } u ortonormal {i1 , i2 , i3 } a partir de una base gen´erica de vectores linealmente independientes {w1 , w2 , w3 }. Cuando el sistema sea ortogonal sus componentes se denominar´ an rectangulares. Dependiendo del signo del triple producto mixto el sistema de coordenadas ser´ a dextr´ ogiro ((e1 × e2 ) · e3 > 0) o lev´ogiro ((e1 × e2 ) · e3 < 0), tal y como se muestra en el cuadrante III de la Figura 1.4. Es costumbre ancestral, por relaciones de dominaci´on de los derechos sobre los izquierdos (en lat´ın e italiano los zurdos son siniestros) utilizar la convenci´on dextr´ogira donde el producto: (e1 × e2 ) · e3 > 0, y en ese caso utilizamos el bien conocido conjunto de vectores unitarios {i, j, k} con los que ya hemos estado familiarizados a = ax i + ay j + az k y r (P ) = x i + y j + z k .

a = a1 i1 + a2 i2 + a3 i3

y

re lim

Tambien es costumbre representar este sistema de coordenadas ortonormal como: i ≡ i1 , j ≡ i2 y k ≡ i3 para recordar que estamos en un sistema de coordenadas cartesianas y utilizaremos los super´ındices 1, 2, 3 para indicar las componentes del vector. r (P ) = x1 i1 + x2 i2 + x3 i3 .

Obviamente el m´ odulo del vector se podr´a expresar con la utilizaci´on del Teorema de Pit´agoras p p |a| = (a1 )2 + (a2 )2 + (a3 )2 y |r (P )| = (x1 )2 + (x2 )2 + (x3 )2

Igualmente para un vector unitario

rP

y la multiplicaci´ on por un escalar ser´ a     αa = α a1 i1 + a2 i2 + a3 i3 = αa1 i1 + αa2 i2 + αa3 i3

p

(a1 )2 + (a2 )2 + (a3 )2

a1 i1 + a2 i2 + a3 i3 a =p |a| (a1 )2 + (a2 )2 + (a3 )2

ad o

ˆa = u

⇒ |αa| = α

con lo cual todo vector

ˆa = a = |a| u

1.3.2.

p ˆa . (a1 )2 + (a2 )2 + (a3 )2 u

Cosenos directores

Bo rr

Como se puede apreciar en el cuadrante IV de la Figura 1.4, podemos construir tres tri´angulos rect´angulos con el radiovector A (P ) como hipotenusa de cada uno de ellos. Los ´angulos que forma el radiovector A (P ) con cada uno de los ejes coordenados {x, y, z} son {α, β, γ} respectivamente, con lo cual Ax = |A| cos(α) ,

Ay = |A| cos(β)

y

Az = |A| cos(γ) ⇒ cos2 (α) + cos2 (β) + cos2 (γ) = 1

pero adem´ as

Hern´ andez & N´ un ˜ez

ˆA = u

A = cos(α) i + cos(β) j + cos(γ) k . |A|

Universidad de los Andes / Universidad Industrial de Santander

18

1.4. ALGEBRA VECTORIAL Y COORDENADAS

1.3.3.

Una divisi´ on fallida

Uno esperar´ıa que para cada una de las definiciones de productos vectoriales, existiera el vector cociente, es decir, que pudi´eramos “despejar” uno de los multiplicados en t´erminos del otro. La situaci´on es que esta operaci´ on no est´ a definida un´ıvocamente y lo podemos intuir a partir de una de las definiciones de producto. Supongamos que tenemos un producto escalar: ζ = a · b con lo cual, si pudi´eramos “despejar”,digamos  ζ ζ b = ¿Tendr´ıamos entonces definido b de una manera un´ıvoca? La respuesta es NO, ya que ζ = a· +d a a ζ donde a ⊥ d, por lo cual existen infinitos b = + d que cumplen ζ = a · b. a

Ejercicios

in ar

1.3.4.

1. Encuentre la distancia del punto P al origen si P viene dado por el vector posici´on r = 2i + 4j − 3k. Y si para un punto arbitrario el vector posici´on es r = xi + yj + zk ¿Qu´e superficie describe ´este vector cuando |r| = 3? 2. Encuentre los cosenos directores y los correspondientes ´angulos para los siguientes vectores

re lim

a) a = i + j + k b) b = i − 2j + 2k c) c = 4i − 2j + 3k

3. Sea {i1 , i2 , i3 } una base ortonormal dextr´ogira. Verifique que los vectores

a = i + 2j + 3k , b = i + 5j , c = 3i + 2j + k

1.4.

rP

forman una base ¿Esta base ser´ a del tipo dextr´ogiro o lev´ogiro?

Algebra vectorial y coordenadas

1.4.1.

ad o

Es posible reescribir toda el ´ algebra vectorial que hemos visto mediante operaciones referidas a sistemas de coordenadas, como mostraremos a continuaci´on. Por simplicidad, anclaremos nuestro sistema de coordenadas a la base can´ onica {ii }.

Suma y resta de vectores

  Para los vectores a = a1 i1 + a2 i2 + a3 i3 y b = b1 i1 + b2 i2 + b3 i3 , la suma ser´a representada por

Bo rr

     a + b = a1 i1 + a2 i2 + a3 i3 + b1 i1 + b2 i2 + b3 i3 = a1 + b1 i1 + a2 + b2 i2 + a3 + b3 i3

y obviamente, la resta

     a − b = a1 i1 + a2 i2 + a3 i3 − b1 i1 + b2 i2 + b3 i3 = a1 − b1 i1 + a2 − b2 i2 + a3 − b3 i3

con lo cual la distancia entre dos puntos P y M ser´a q 2 2 2 d (P, M ) = |(r (P ) = a) − (r (M ) = b)| = (x1 − y 1 ) + (x2 − y 2 ) + (x3 − y 3 ) .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

19

1.4. ALGEBRA VECTORIAL Y COORDENADAS

1.4.2.

Dependencia e independencia lineal

Ahora es f´ acil estudiar la dependencia o independencia lineal en coordenadas. Otra vez, tres vectores: a = a1 i1 + a2 i2 + a3 i3 , b = b1 i1 + b2 i2 + b3 i3 y c = c1 i1 + c2 i2 + c3 i3 , ser´an linealmente independientes si se cumple que α a+β b+γ c=0 ⇒ α=β =γ =0 Antes de proseguir en forma general, veamos algunos casos particulares La base can´ onica: i1 = i ≡ (1, 0, 0) , i2 = j ≡ (0, 1, 0) , i3 = k ≡ (0, 0, 1). Estos vectores son claramente linealmente independientes y por lo tanto constituyen una base.

in ar

Consideremos los vectores: e1 = i ≡ (1, 0, 0) , e2 = i + j ≡ (1, 1, 0) , e3 = i + j + k ≡ (1, 1, 1), al escribir el sistema de ecuaciones resulta: α = 0, α + β = 0, α + β + γ = 0 ⇒ α = 0, β = 0, γ = 0,

con lo cual demostramos que son linealmente independientes y por lo tanto constituyen una base para los vectores tridimensionales.

re lim

En general tendremos que    0 = α a1 i1 + a2 i2 + a3 i3 + β b1 i1 + b2 i2 + b3 i3 + γ c1 i1 + c2 i2 + c3 i3

  αa1 + βb1 + γc1 = 0    1 1 1 2 2 2 3 3 3 αa2 + βb2 + γc2 = 0 = αa + βb + γc i1 + αa + βb + γc i2 + αa + βb + γc i3 ⇒  αa3 + βb3 + γc3 = 0

ad o

Producto escalar

rP

Esto no es otra cosa que un sistema de 3 ecuaciones lineales con 3 inc´ognitas: {α, β, γ} y la soluci´on que estamos buscando α = β = γ = 0 se cumplir´a si 1 1 1 a b c 2 2 2    a b c = a1 b2 c3 − b3 c2 + a2 b3 c1 − b1 c3 + a3 b1 c2 − b2 c1 6= 0 . 3 3 3 a b c

Bo rr

Ahora refrasearemos, en t´ermino de una base de vectores ortogonales, lo expresado en la secci´on 1.2.3. Representaremos el producto escalar de dos vectores en una base cartesiana {i1 , i2 , i3 }, que es una base ortonormal, de la siguiente manera:   a · b = a1 i1 + a2 i2 + a3 i3 · b1 i1 + b2 i2 + b3 i3 = a1 b1 + a2 b2 + a3 b3 ya que por ser ortogonales se tiene que: i1 · i1 = i2 · i2 = i3 · i3 = 1 ,

y

  i1 · i2 = i2 · i1 = 0 i1 · i3 = i3 · i1 = 0  i2 · i3 = i3 · i2 = 0

Las propiedades del producto escalar en coordenadas cartesianas se comprueban f´acilmente

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

20

1.4. ALGEBRA VECTORIAL Y COORDENADAS

El producto escalar de un vector consigo mismo, siempre es positivo. 2

ζ = a · a = |a| = (a1 )2 + (a2 )2 + (a3 )2 ≥ 0 y (a1 )2 + (a2 )2 + (a3 )2 = 0 ⇒ a1 = a2 = a3 = 0 p √ √ Adicionalmente |a| = ζ = a · a = (a1 )2 + (a2 )2 + (a3 )2



a=0

El producto escalar es conmutativo

in ar

ζ = a · b = b · a = a1 b1 + a2 b2 + a3 b3 = b1 a1 + b2 a2 + b3 a3 . El producto escalar es distributivo:        a · (b + c) = a1 i1 + a2 i2 + a3 i3 · b1 + c1 i1 + b2 + c2 i2 + b3 + c3 i2 , por lo tanto:

La multiplicaci´ on por un escalar.

   a1 b1 + a1 c1 + a2 b2 + a2 c2 + a3 b3 + a3 c3

re lim

   a1 b1 + c1 + a2 b2 + c2 + a3 b3 + c3 =   1 1 2 2 3 3 1 1 2 2 3 3 = a b +a b +a b + a c +a c +a c =

a·b+a·c

      |α| (a · b) = (αa) · b = a · (αb) = αa1 b1 + αa2 b2 + αa3 b3 = a1 αb1 + a2 αb2 + a3 αb3 Desigualdad de Cauchy Schwarz. p

(a1 )2 + (a2 )2 + (a3 )2

rP

a · b = a1 b1 + a2 b2 + a3 b3 ≤

p (b1 )2 + (b2 )2 + (b3 )2 = |a| |b|

Diremos que dos vectores, no nulos son ortogonales (perpendiculares) si su producto escalar es nulo. Esta afirmaci´ on es inmediata

por lo cual

ad o

a ⊥ b ⇒ θha,bi =

π ⇒ a · b = |a| |b| cos(θ)ha,bi = 0 , 2

a1 b1 + a2 b2 + a3 b3 = |a| |b| cos(θ)ha,bi ⇒ cos(θ)ha,bi = p

a1 b1 + a2 b2 + a3 b3 p (a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2

Bo rr

de donde se deduce que para dos vectores perpendiculares a⊥b ⇒ 0 = a1 b1 + a2 b2 + a3 b3 .

Del producto escalar surge el Teorema del Coseno. Es inmediato generalizar el producto escalar de un vector consigo mismo, para ello suponemos que c = a − b, con lo cual 2

2

2

c = a − b ⇒ c · c = (a − b) · (a − b) ⇒ |c| = |a| + |b| − 2 |a| |b| cos(θ)ha,bi ,

que no es otra cosa que el teorema del coseno y est´a ilustrado en el cuadrante III de la Figura 1.3. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

21

1.4. ALGEBRA VECTORIAL Y COORDENADAS

Producto vectorial De igual manera, lo que aprendimos en la secci´on 1.2.4 ahora lo expresamos en t´erminos de las componentes de los vectores en una base ortonormal de la forma    c = a × b = a2 b3 − a3 b2 i1 + a3 b1 − a1 b3 i2 + a1 b2 − a2 b1 i3 matriz i2 a2 b2

i3 a3 b3



con lo cual q

2

2

in ar

lo anterior se puede organizar como el determinante de la i1 c = a × b = a1 b1

2

(a2 b3 − a3 b2 ) + (a3 b1 − a1 b3 ) + (a1 b2 − a2 b1 ) p p = (a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2 sen(θ)ha,bi

|c| =

re lim

Triple producto mixto

Finalmente, analicemos el n´ umero (pseudoescalar) que proviene de la 1 c V = c · (a × b) = |c| |a × b| cos(θ)hc,a×bi = a1 b1

multiplicaci´on c2 c3 a2 a3 . b2 b3

1.4.3.

Ejercicios

1. Dados los vectores

B = 4i1 + 5i2 + 6i3 ,

ad o

A = i1 + 2i2 + 3i3 ,

rP

Obviamente, este n´ umero representa del volumen del paralelep´ıpedo cuyos lados quedan definidos por a, b y c.

C = 3i1 + 2i2 + i3 ,

D = 6i1 + 5i2 + 4i3

a) Encuentre

A + B + C + D,

A + B − C − D,

A − B + C − D,

−A + B − C + D

b) El ´ angulo entre los vectores A, B, C, D y los vectores base i1 , i2 , i3 .

Bo rr

c) La magnitud de los vectores A, B, C, D. d ) El ´ angulo entre A y B y entre C y D. e) La proyecci´ on de A sobre B. f ) ¿Son los vectores A, B, C, D coplanares?

g) Encuentre (A + B) · (C + D)

h) Los productos A × B, B × C, C × D y los ´angulos que estos forman con D. i ) C · (A × B).

2. Encuentre la intensidad del campo magn´etico H = 5i + 3j + 7k en la direcci´on del vector s = 2i − j + 2k. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

22

´ 1.5. APLICACIONES DEL ALGEBRA VECTORIAL

3. Verifique la desigualdad triangular: |a + b| ≤ |a| + |b|, para los siguientes vectores a) a = i + 2j + 3k y b = 2i + j + 7k b) a = 2i − j − 2k y b = 3i + 2j + 3k 4. Si a y b son vectores arbitrarios y α y β escalares, demuestre que |αa + βb|2 ≤ α2 |a|2 + 2αβ(a · b) + β 2 |b|2

α(b × c) + β(c × a) + γ(a × b) + d = 0 demuestre que si a, b y c son linealmente independientes, entonces a·d , a · (b × c)

α=−

β=−

b·d , a · (b × c)

γ=−

in ar

5. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen

c·d a · (b × c)

re lim

6. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen αa + βb + γc + d = 0

demuestre que si a, b y c son linealmente independientes, entonces α=−

d · (b × c) , a · (b × c)

β=−

d · (c × a) , a · (b × c)

γ=−

d · (a × b) a · (b × c)

rP

Ayuda: tome el producto escalar de la ecuaci´on con b × c, a × c y a × b.

7. Demuestre que los vectores a = i+2j+k, b = 2i−j−k y c = 4i+3j+k son linealmente independientes. Escoja un vector d y verifique los resultados de los dos u ´ltimos ejercicios.

Aplicaciones del ´ algebra vectorial

ad o

1.5.

Uno de los terrenos m´ as exitosos de las aplicaciones del ´algebra vectorial es la geometr´ıa anal´ıtica. Esto se realiza en base a la definici´ on que hici´eramos de radio vector, en la cual a cada punto, P, del espacio le asoci´ abamos un radiovector posici´ on tal y como lo mostramos en el cuadrante I de la Figura 1.4 .  P ←→ (x, y, z) ≡ x1 , x2 , x3 ⇒ r (P ) = x i + y j + z k = x1 i1 + x2 i2 + x3 i3 = xi ii

Bo rr

A partir de esta definici´ on todas las propiedades geom´etricas del espacio las podemos construir con vectores.

1.5.1.

Rectas y vectores

La ecuaci´ on de la recta en t´ermino de vectores la definiremos fijando uno de sus puntos, digamos: r (P1 ) ≡ X (P1 ) = X1 = x1 i + y1 j + z1 k = x1(1) i1 + x2(1) i2 + x3(1) i3 ←→ (x1 , y1 , z1 ) ,

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

23

in ar

´ 1.5. APLICACIONES DEL ALGEBRA VECTORIAL

re lim

Figura 1.5: Geometr´ıa anal´ıtica y vectores cartesianos

rP

y un vector que indique su direcci´ on, digamos A = A1 i + A2 j + A3 k (ver cuadrante I de la Figura 1.5) con lo cual la ecuaci´ on de una recta en lenguaje vectorial ser´a:  x = x1 + λA1      y = y1 + λA2 X = X1 + λA ⇒ x1 i + y1 j + z1 k+ λ (A1 i + A2 j + A3 k) ⇒      z = z1 + λA3 donde X = x i + y j + z k es el conjunto de puntos gen´ericos que cumple con la ecuaci´on de la recta en 3D. Existe una manera m´ as elegante, como veremos en la secci´on siguiente, de reescribir las ecuaciones anteriores utilizando la notaci´ on de ´ındices, las ecuaciones ahora son m´as evidentes:

Bo rr

ad o

X = X1 + λA ⇒ xi ii = xi(1) ii + λAi ii ⇒ xi = xi(1) + λAi para i = 1, 2, 3 .  donde: (x, y, z) ≡ x1 , x2 , x3 y (i, j, k) ≡ (i1 , i2 , i3 ). N´ otese que efectivamente se cumplen tres ecuaciones escalares y cada una de ellas tiene la forma de una recta. Adem´ as, tal y como se muestra la Figura 1.5 el punto gen´erico (x, y, z) lo describe (sobre la recta) la variaci´ on del m´ odulo de A mediante la constante de proporcionalidad λ. Si se requiere describir una recta que pase por dos puntos: (x1 , y1 , z1 ) y (x2 , y2 , z2 ) entonces una vez seleccionado uno de los puntos (digamos (x1 , y1 , z1 )) seleccionamos el vector A = r (P2 ) − r (P1 ) como la resta de los dos radiovectores a los puntos P2 y P1 . Esto es X1 + δX2 X1 − X X = X1 + λ (X2 − X1 ) ⇒ X = , con δ = . 1−δ X2 − X Aqu´ı la divisi´ on entre vectores δ tiene sentido porque no es una divisi´on entre vectores gen´ericos es una divisi´ on entre vectores que tienen la misma direcci´on N´otese adem´as que, lo mismo ocurre cuando “despejamos” λ de la ecuaci´ on de la recta λ=

xi − xi(1) X − X1 x − x1 y − y1 z − z1 ⇒ xi = xi(1) + λAi ⇒ λ = = = = i A A Ax Ay Az

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

24

´ 1.5. APLICACIONES DEL ALGEBRA VECTORIAL

y equivalentemente ocurre cuando “despejamos” λ de la ecuaci´on de la recta que pasa por dos puntos. λ=

1.5.2.

  xi − xi(1) X − X1 y − y1 z − z1 x − x1 ⇒ xi = xi(1) + λ xi(2) − xi(1) ⇒ λ = i = = = i X2 − X1 x2 − x1 y2 − y1 z2 − z1 x(2) − x(1)

Planos y vectores

B

Esto es, se tiene que cumplir la condici´ on

re lim

in ar

Ocurre exactamente lo mismo cuando construimos la ecuaci´on vectorial para un plano. En general una superficie la define su vector normal (perpendicular). En el caso de una superficie plana (un plano) tendr´ a una u ´nica normal que lo define, por lo tanto, un plano vendr´a definido por su vector perpendicular en un punto, digamos Q = P1 : (x1 , y1 , z1 ). La ecuaci´on vectorial del plano vendr´a definida por todos los vectores −−→ P Q tales que sean perpendiculares a un determinado vector A (ver cuadrante II de la Figura 1.5). Donde el punto P es un punto gen´erico (x, y, z) que define un radiovector. La ecuaci´on vectorial del plano ser´ a simplemente   −−→ A · P Q = A · r (P ) − r (P1 ) = 0 ⇔ A · (r − r1 ) = 0 ⇔ A · r = A · r1 | {z } | {z } b

(A1 i + A2 j + A3 k) · [(x i + y j + z k) − (x1 i + y1 j + z1 k)] = 0 (A1 i + A2 j + A3 k) · [(x − x1 ) i + (y − y1 ) j + (z − z1 ) k] = 0

rP

A1 (x − x1 ) + A2 (y − y1 ) + A3 (z − z1 ) = 0 con lo cual la ecuaci´ on del plano queda como siempre la hemos conocido A1 x + A2 y + A3 z − A1 x1 − A2 y1 − A3 z1 = 0 ⇒ A1 x + A2 y + A3 z = b = A1 x1 + A2 y1 + A3 z1

ad o

es decir, de manera m´ as compacta

Ai xi − Aj xj1 = 0 ⇒ Ak xk = b = Al xl1

Bo rr

Es claro que A · r1 = b es la proyecci´ on del radiovector r (P1 ) sobre la perpendicular que define al plano. Por lo tanto ser´ a la distancia entre el plano y el origen de coordenadas. Si b = 0 el plano pasa por el origen de coordenadas. Consideremos ahora el cuadrante III de la Figura 1.5. All´ı est´an especificados tres puntos en el espacio caracterizados por sus correspondientes radiovectores posici´on: r (P1 ) = r1 , r (P2 ) = r2 y r (P3 ) = r3 . Estos tres puntos ser´ an coplanares si  m n n l l (r1 − r2 ) · [(r2 − r3 ) × (r3 − r1 )] = 0 ⇔ εmnl (xm 1 − x2 ) (x2 − x3 ) x3 − x1 = 0 y la ecuaci´ on vectorial del plano vendr´ a dada por

Hern´ andez & N´ un ˜ez

(r − r1 ) · [(r2 − r1 ) × (r3 − r1 )] = 0 .

Universidad de los Andes / Universidad Industrial de Santander

25

´ 1.6. ALGEBRA VECTORIAL CON ´INDICES

1.5.3.

Ejercicios

1. Para las rectas dadas a continuaci´ on encuentre los vectores posici´on para dos puntos diferentes sobre la recta y un vector unitario paralelo a la recta L. a) L : b) L :

3x−1 4 2x+1 3

= =

2y+3 2 3y+2 3

= 2 − 3z =

2−4z −1

2. Dada una linea recta L1 que pasa a trav´es de los puntos (−2, 3, 1) y (1, 4, 6) encuentre:

in ar

a) El vector posici´ on de un punto sobre la recta y un vector paralelo a ´esta. b) Una recta L2 paralela a L1 y que pase por el punto (1, 2, 1) 3. Una linea recta tiene como ecuaci´ on vectorial: r = a + λb, donde a = 3j + 2k y b = 2i + j + 2k. Encuentre la ecuaci´ on cartesiana de la recta y las coordenadas de tres puntos sobre la recta. 4. Una linea recta pasa por el punto (3, 2, −3) y paralela al vector a = 2i + 3j − 3k. Encuentre la ecuaci´ on cartesiana de la recta y las coordenadas de tres puntos sobre la recta.

a) A = 2i − 3j + k, P = (1, 0, 1) b) A = i − 2j + 2k, P = (2, −3, 4)

re lim

5. Encuentre la ecuaci´ on del plano con normal A y que contiene el punto P cuando:

6. Dado un plano que pasa por el punto (2, 3, −5) y con vector normal A = 2i + k, encuentre la forma cartesiana de la ecuaci´ on del plano. 7. El ´ angulo entre dos planos se define como el ´angulo entre sus normales. Encuentre el ´angulo entre los siguientes planos

1.6.

rP

a) x + 3y + 2z = 4 y 2x − 5y + z = 2 b) 3x + 2y − 2z = 4 y 2x + y + 2z = 1

´ Algebra vectorial con ´ındices

1.6.1.

ad o

Antes de comenzar con la presentaci´ on de este esquema de c´alculo cabe aclarar algunas costumbres y convenciones con la notaci´ on de ´ındices.

Convenci´ on de Einstein

Bo rr

1. Los ´ındices repetidos (arriba y abajo) indicar´an suma por los valores que tomen los ´ındices. Las componentes de los vectores tendr´ an ´ındices arriba y los vectores base abajo: a = a1 e1 + a2 e2 + a3 e3 =

3 X

am em



a = am em = ai ei .

m=1

2. Los ´ındices repetidos son mudos (no importa la letra que lo etiquete) y representan suma. As´ı K j Aj = K m Am = K 1 A1 + K 2 A2 + K 3 A3 = B .

En este punto del discurso, la posici´ on de los ´ındices (arriba y abajo) solo tiene sentido est´etico y solo as´ı indican suma. M´ as adelante veremos que representan cantidades distintas.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

26

´ 1.6. ALGEBRA VECTORIAL CON ´INDICES

3. Llamaremos contracci´ on cuando sumamos respecto a un par de ´ındices, vale decir: X Aii = A11 + A22 + A33 =⇒ Aii = A11 + A22 + A33 i

in ar

Las cantidades con dos o m´ as ´ındices las llamaremos componentes de tensores, son arreglos bidimensionales (tridimensionales, tetradimensionales, seg´ un el n´ umero de ´ındices) y ser´an considerados en detalle posteriormente. Por ahora, content´emonos con saber qu´e cosas son cantidades con dos ´ındices. Es claro que la contracci´ on de ´ındices convierte un conjunto de n´ umeros (i × j) → 1, en un s´olo n´ umero. Los ´ındices libres (aquellos que no est´an sumados) indican el n´ umero de objetos disponibles y deben mantenerse. Por ejemplo:  1 K1 A1 + K12 A2 + K13 A3 = B1      K21 A1 + K22 A2 + K23 A3 = B2 Bi = Kik Ak ⇔      1 K1 A1 + K12 A2 + K13 A3 = B1

=0 k Kij

δki

=

1 K1j

δ11

+

|{z} =1

1 K2j

=0

=0

re lim

con lo cual Bi = Kik Ak representa 3 ecuaciones. La operaci´on Bij = Kik Akj representa 9. La delta de Kronecker1 δik lleva un ´ındice arriba y uno abajo y representa δik = 1 si i = k, es nula en los otros casos. Por ejemplo: =0

=0

=0

z}|{ z}|{ z}|{ z}|{ z}|{ z}|{ 1 2 2 2 3 3 3 δ12 + K3j δ13 + K1j δ21 + K2j δ22 + K3j δ23 + K1j δ31 + K2j δ32 + K3j δ33 |{z} |{z} =1

es decir

=1

rP

k i k i 1 2 3 Kij δk = Kkj = Kij = K1j + K2j + K3j .

ad o

Adem´ as de la delta de Kronecker introduciremos el s´ımbolo de permutaci´on de Levi-Civita2 εijk para el caso de tres dimensiones, vale decir i, j, k = 1, 2, 3   +1 cuando {(i, j, k) = (1, 2, 3) ; (3, 1, 2) ; (2, 3, 1)} permutaci´on c´ıclica −1 cuando {(i, j, k) = (1, 3, 2) ; (3, 2, 1) ; (2, 1, 3)} permutaci´on impar o antic´ıclica εijk = εijk =  0 cuando {i = j , i = k ∧ j = k} y quiere decir que es distinto de cero cuando todos los ´ındices son diferentes: 1 si la permutaci´on de ´ındices es c´ıclicas (o par) y −1 si la permutaci´ on es antic´ıclica (o impar). Si queremos calcular, por ejemplo: ci = εijk aj bk , entonces resulta:

Bo rr

c1 = ε111 a1 b1 + ε112 a1 b2 + ε113 a1 b3 + ε121 a2 b1 + ε122 a2 b2 + ε123 a2 b3 + ε131 a3 b1 + ε132 a3 b2 + ε133 a3 b3 c2 = ε211 a1 b1 + ε212 a1 b2 + ε213 a1 b3 + ε221 a2 b1 + ε222 a2 b2 + ε223 a2 b3 + ε231 a3 b1 + ε232 a3 b2 + ε233 a3 b3 c3 = ε311 a1 b1 + ε312 a1 b2 + ε313 a1 b3 + ε321 a2 b1 + ε322 a2 b2 + ε323 a2 b3 + ε331 a3 b1 + ε332 a3 b2 + ε333 a3 b3

1 LEOPOLD KRONECKER (7 diciembre 1823 Legnica, Polonia, 29 diciembre 1891, Berlin, Alemania) Matem´ atico polaco con importantes contribuciones en teor´ıa de n´ umeros, funciones el´ıpticas y a ´lgebra, as´ı como la interrelaci´ on entre estas disciplinas. 2 TULLIO LEVI-CIVITA (1873 Padova, Veneto, 1941 Roma, Italia) Ge´ ometra italiano y uno de los desarrolladores del C´ alculo Tensorial que m´ as tarde ser´ıa utilizado por Einstein y Weyl como el lenguaje de la Relatividad General.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

27

´ 1.6. ALGEBRA VECTORIAL CON ´INDICES

con lo cual

 1 c = ε123 a2 b3 + ε132 a3 b2 = a2 b3 − a3 b2      c2 = ε231 a3 b1 + ε213 a1 b3 = a3 b1 − a1 b3 ci = εijk aj bk ⇒      3 c = ε312 a1 b2 + ε321 a2 b1 = a1 b2 − a2 b1

A continuaci´ on enumeramos algunas propiedades de la delta de Kronecker y del s´ımbolo de permutaci´ on de Levi-Civita, dejamos al lector su demostraci´on. Ellas son:

εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki , εjmn εimn = 2δji , εijk εijk = 6 .

1.6.2.

Los vectores y los ´ındices

in ar

δjj = 3 ,

re lim

Disponemos ahora de una manera m´ as elegante para escribir ecuaciones que involucren vectores. Veamos que forma toma el ´ algebra vectorial con esta nueva notaci´on. Sumas de vectores

La suma de vectores ser´ a expresada de la siguiente manera  a + b = ai ei + bi ei = ai + bi ei = ci ei ⇒ ci = ai + bi

rP

Producto escalar

con i = 1, 2, 3

A partir da ahora y de forma equivalente, expresaremos el producto escalar en t´ermino de los ´ındices. De forma y manera que a · b = |a| |b| cos(θ)ab = ai bi con i = 1, 2, 3

ad o

Producto vectorial

En t´erminos de ´ındices, la componente i del producto vectorial se puede expresar como i

ci = (a × b) = εijk aj bk

con i, j, k = 1, 2, 3

Bo rr

todas las particularidades de producto vectorial ahora descansan en las propiedades del s´ımbolo de Levy Civita. Triple producto mixto

Analicemos ahora el n´ umero (pseudoescalar) que proviene de la multiplicaci´on 1 c i j k i j k c · (a × b) = |c| |a × b| cos(θ)hc,a×bi = c εijk a b = εijk c a b = a1 b1

Hern´ andez & N´ un ˜ez

c2 a2 b2

Universidad de los Andes / Universidad Industrial de Santander

c3 a3 b3



28

´ 1.6. ALGEBRA VECTORIAL CON ´INDICES

1.6.3.

Un par de c´ alculos ilustrativos

Mostraremos a continuaci´ on dos casos de identidades vectoriales que pueden ser f´acilmente demostradas mediante la utilizaci´ on de ´ındices. 1. a × (b × c) = (c · a) b − (a · b) c El resultado ser´ a un vector, por lo tanto i

(a × (b × c)) = εijk aj (b × c)k

= εijk aj εkmn bm cn = εijk εkmn aj bm cn = εijk εmnk aj bm cn  i j j i i j j i = δm δn − δm δn aj bm cn = δm δn aj bm cn − δm δn aj bm cn

in ar

i m j j = δm b δn aj cn − δni cn δm aj bm = bi an cn − ci aj bj | {z } |{z} (c·a)

i

i

(a·b)

= b (c · a) − c (a · b) = b (c · a) − c (a · b) En la segunda l´ınea hemos hecho uso de la identidad

re lim

εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki 2. (a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c) El lado derecho es un escalar, por lo tanto: l

(a × b) · (c × d) = (a × b) (c × d)l

rP

= εljk aj bk εlmn cm dn = εljk εlmn aj bk cm dn  j k k j = εjkl εmnl aj bk cm dn = δm δn − δm δn aj bk cm dn j k k j = δm δn aj bk cm dn − δm δn aj bk cm dn

j = δm aj cm δ k bk dn − δ k bk cm δ j aj dn | {z }|n {z } |m {z }|n {z } (a·c)

(b·d)

(b·c)

(a·d)

1.6.4.

ad o

= (a · c) (b · d) − (b · c) (a · d) .

Escalares, pseudoescalares, vectores y pseudovectores

Bo rr

La diferencia entre vectores polares y axiales proviene del siguiente comportamiento bajo transformaciones de coordenadas y bases. Un vector polar (normal, com´ un y corriente) queda invariante bajo la siguiente transformaci´ on (reflexi´ on)   ei → −ei =⇒ a = ai ei → −ai (−ei ) = ai ei = a . ai → −ai Mientras que un pseudovector o vector axial cambia de signo cuando las componentes de los vectores y sus vectores base que lo generan tambi´en lo hacen:  ei → −ei    ai → −ai =⇒ c = a × b → εijk (−aj ) (−bk ) (−ei ) = −ci ei = −c  bi → −bi

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

29

´ 1.6. ALGEBRA VECTORIAL CON ´INDICES

es decir    a × b = a2 b3 − a3 b2 e1 + a3 b1 − a1 b3 e2 + a1 b2 − ay b1 e3 , luego de la reflexi´ on:          −a2 −b3 − −a3 −b2 (−e1 ) + −a3 −b1 − −a1 −b3 (−e2 )      + −a1 −b2 − −a2 −b1 (−e3 )      = − a2 b3 − a3 b2 e1 + a3 b1 − a1 b3 e2 + a1 b2 − a2 b1 e3 = − (a × b) 

in ar

a×b=

re lim

Existen varias e importantes cantidades f´ısicas que vienen representadas por pseudovectores, entre ellas mencionamos: Velocidad Angular: v =ω×r Cantidad de Movimiento Angular: L=r×p Torque: τ =r×F ∂B = −∇ × E Campo de Inducci´on Magn´etica: ∂t Adicionalmente el volumen, V = c · (a × b), como era de esperarse, no es invariante bajo el cambio del espacio  ci → −ci    ai → −ai =⇒ V = c · (a × b) = ci εijk aj bk → (−ci ) εijk (−aj ) (−bk ) = −V ,  bi → −bi

rP

el volumen es un pseudoescalar. Mientras que los escalares si son invariantes bajo esta transformaci´on   ai → −ai =⇒ ζ = a · b = ai bi → −ai (−bi ) = ζ . bi → −bi

ad o

En general tambi´en tendremos multiplicaci´on entre algunos de estos objetos, con lo cual construiremos otros objetos.

Bo rr

Rotaci´ on de coordenadas: Ya que hablamos de invariancia de cantidades, existe otro tipo de transformaci´ on de coordenadas diferente a las reflexiones y que se denomina: rotaci´on de coordenadas. Consideremos un sistema de coordenadas cartesiano (x, y, z) y su base can´onica {i, j, k}. Si rotamos el sistema de coordenadas un ´ angulo φ alrededor del eje z tendremos un nuevo sistema de coordenadas (ˆ x, yˆ, zˆ) ˆ La regla de transformaci´on que relaciona ambos sistemas de coordenadas es y una nueva base {ˆi, ˆj, k}.   ˆ cos(φ) − yˆ sen(φ) ˆ = x cos(φ) + y sen(φ)  x = x  x y = x ˆ sen(φ) + yˆ cos(φ) ⇐⇒ yˆ = −x sen(φ) + y cos(φ)   z = zˆ zˆ = z Mientras que las bases transformar´ an, como   ˆi = ˆj =  ˆ k =

Hern´ andez & N´ un ˜ez

veremos m´as adelante, como: i cos(φ) + j sen(φ) −i sen(φ) + j cos(φ) k

Universidad de los Andes / Universidad Industrial de Santander

30

´ 1.6. ALGEBRA VECTORIAL CON ´INDICES

 Diremos que un triplete de n´ umeros a1 , a2 , a3 definen las componente de un vector a = a1 i + a2 j + a3 k si estas cantidades transforman bajo la rotaci´on predicha de la siguiente manera:

in ar

a ˆ1 = a1 cos(φ) + a2 sen(φ) , a ˆ2 = −a1 sen(φ) + a2 cos(φ) , a ˆ3 = a3  Si a1 , a2 , a3 no transforman de esta manera, se dice que no son covariantes y no representan las componentes de un vector. Notemos tambi´en lo siguiente, al usar la notaci´on de ´ındices podemos escribir las ecuaciones de transformaci´ on de coordenadas as´ı  ˆ = x cos(φ) + y sen(φ) x ˆ1 = α11 x1 + α21 x2 + α31 x3  x yˆ = −x sen(φ) + y cos(φ) ⇒ x ˆ2 = α12 x1 + α22 x2 + α32 x3 ⇒ x ˆi = α ˆ ji xj , i, j = 1, 2, 3  3 3 1 3 2 3 3 zˆ = z x ˆ = α1 x + α2 x + α3 x Se puede ver f´ acilmente que las cantidades α ˆ ji , en coordenadas cartesianas, vienen dadas por α ˆ ji =

∂x ˆi ∂xj

re lim

Como la transformaci´ on de coordenadas es invertible, se tiene que xj = αij x ˆi , con: αij =

∂xj ∂x ˆi

Y cumplen con la siguiente condici´ on de ortogonalidad:

α ˆ ki αij = δkj

Y por lo tanto, las componentes de un vector transformar´an de la manera siguiente:

1.6.5.

rP

a ˆi = α ˆ ji aj .

Ejercicios

1. Verifique las siguientes identidades

a) A × (B × C) + B × (C × A) + C × (A × B) = 0

ad o

b) (A × B) × (C × D) = B[A · (C × D)] − A[B · (C × D)] c) (A × B) · (C × D) + (B × C) · (A × D) + (C × A) · (B × D) = 0 d ) A · (B × A) = 0

Bo rr

e) (A × B) · (A × B) = A2 B 2 − (A × B)2 A·C A·D f ) (A × B) · (C × D) = B·C B·D

2. Demuestre la siguiente tabla de relaciones vector vector pseudovector vector vector pseudovector

Hern´ andez & N´ un ˜ez

· · · × × ×

vector pseudovector pseudovector vector pseudovector pseudovector

= escalar = pseudoescalar = escalar = pseudovector = vector = pseudovector

Universidad de los Andes / Universidad Industrial de Santander

31

re lim

in ar

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Figura 1.6: Vectores variables

3. Demuestre que

rP

α ˆ ki αij = δkj

y adem´ as que, como un caso especial, establecer la relaci´on con los cosenos directores que satisfacen cos(α)2 + cos(β)2 + cos(γ)2 = 1

a) (−y, x) b) (x, −y)

ad o

4. Demuestre si las siguientes componentes son componentes de un vector.

c) (x − y, x + y)

Bo rr

d ) (x + y, x − y)

1.7.

1.7.1.

Un comienzo a la derivaci´ on e integraci´ on de vectores Vectores variables

Los vectores podr´ an ser constantes o variables. Ahora bien, esta caracter´ıstica se verificar´a tanto en las componentes como en la base. Esto quiere decir que cuando un vector es variable podr´an variar su m´ odulo, su direcci´ on, su sentido, o todo junto o por separado. Obviamente esta variabilidad del vector depender´ a de

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

32

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

la base en la cual se exprese, por lo cual un vector podr´a tener una componente constante en una base y no constante en otra, vale decir 0 A (t) = Ak (t) ek (t) = Ak ek0 (t) . N´ otese que hemos utilizado una base {ek (t)} de vectores variables a diferencia de la tradicional base de vectores cartesianos, los cuales son constantes en m´odulo, direcci´on y sentido (ver los cuadrantes I y II de la Figura 1.6). M´ as a´ un, tal y como se muestra en cuadrante II de la Figura 1.6, todo vector variable podr´ a ser expresado como la suma de una variable, a (t), m´as otro constante c A (t) = a (t) + c .

Derivaci´ on

in ar

1.7.2.

Ahora bien, esto implica que

d d A (t) + B (t) , dt  dt   d d = α (t) A (t) + α (t) A (t) , dt dt     d d = A (t) · B (t) + A (t) · B (t) , dt dt     d d = A (t) × B (t) + A (t) × B (t) . dt dt =

rP

d [A (t) + B (t)] dt d [α (t) A (t)] dt d [A (t) · B (t)] dt d [A (t) × B (t)] dt

re lim

De esta manera, cuando uno piensa en un vector variable A (t) uno r´apidamente intenta establecer un cociente incremental: ∆A (t) dA (t) A (t + ∆t) − A (t) = l´ım = l´ım ∆t→0 ∆t→0 ∆t ∆t dt el cuadrante IV de la Figura 1.6 ilustra gr´ aficamente este cociente incremental. Como siempre, las propiedades de esta operaci´on derivaci´on ser´an:

  d Ak (t) ek (t) dAk (t) dek (t) dA (t) = = ek (t) + Ak (t) A (t) = A (t) ek (t) ⇒ dt dt dt dt

ad o

k

Bo rr

con lo cual hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional de la base y componentes. Habr´ a sistemas de coordenadas (bases de vectores) que ser´an constantes y otros en los cuales sus vectores bases cambiar´ an en su direcci´on. El primer t´ermino de la u ´ltima ecuaci´on representa la variaci´ on del m´ odulo, y el segundo muestra la contribuci´on de los cambios en direcci´on del vector. M´as a´ un, mostraremos apoy´ andonos en la ilustraci´ on de el cuadrante III de la Figura 1.6 que, independientemente del sistema de coordenada, el cambio en el m´odulo apunta en la direcci´on del vector, mientras que las contribuciones en direcci´ on apuntan en la direcci´on perpendicular al vector. Esto es: dA (t) d |A (t)| ˆ k + |A (t)| u ˆ⊥ , = u dt dt

ˆk · u ˆ⊥ = 0 . con u

Es f´ acil convencernos de la forma del primer t´ermino. Siempre podemos representar un vector como su m´ odulo y un vector unitario en la direcci´ on apropiada. Esto es ˆ (t) ⇒ A (t) = |A (t)| u

Hern´ andez & N´ un ˜ez

ˆ (t)] dA (t) d [|A (t)| u d |A (t)| dˆ u (t) ˆ (t) + |A (t)| = = u , dt dt dt dt

Universidad de los Andes / Universidad Industrial de Santander

33

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

2

Adicionalmente: |A (t)| = A (t) · A (t), por lo tanto h i 2 d |A (t)| d [A (t) · A (t)] d |A (t)| dA (t) ≡ = 2 |A (t)| ≡ 2A (t) · , dt dt dt dt con lo cual, al despejar de esta u ´ltima ecuaci´on A (t) dA (t) dA (t) d |A (t)| ˆ (t) · ≡ · =u , dt |A (t)| dt dt | {z } para que finalmente

in ar

ˆ (t) u

 d |A (t)| dA (t)   ˆ (t) · =   u dt dt

  dA (t) d |A (t)| dˆ u (t) ˆ (t) · ˆ (t) · ˆ (t) + |A (t)| u =u u ⇒  dt dt dt   

ˆ (t) · u

dˆ u (t) =0 dt

re lim

Es decir que el cambio en el m´ odulo de un vector se manifiesta en la direcci´on del mismo vector, tal y como era intuitivo suponer. Adicionalmente, vemos que el vector siempre ser´a perpendicular a su derivada. Gr´ aficamente podemos apreciarlo en el cuadrante IV de la Figura 1.6 , pero tambi´en surge anal´ıticamente si derivamos el vector unitario en la direcci´ on de A (t)   2 d |ˆ u (t)| ˆ (t)] d [ˆ u (t) · u d (1) dˆ u (t) dˆ u (t) ˆ (t) · ˆ (t) ⊥ ≡ = ≡0=u ⇒ u , dt dt dt dt dt es decir

rP

ˆ (t)] d [|A (t)| u d |A (t)| dˆ u (t) d |A (t)| dA (t) ˆ (t) + |A (t)| ˆ k + |A (t)| u ˆ⊥ . = = u = u dt dt dt dt dt Supongamos que ahora definimos un vector

ad o ˆ ∆θ = ∆θ v

con

 ˆ×u ˆk = u ˆ⊥ v      ˆ⊥ × v ˆ=u ˆk u ⇒       ˆk × u ˆ⊥ = v ˆ u

  ˆ⊥u ˆk   v 

ˆ⊥u ˆ⊥ v

          

donde ∆θ es el ´ angulo de rotaci´ on del vector A (t) (ver cuadrante V de la Figura 1.6). Claramente

Bo rr

ˆ ⊥ ≈ [A (t + ∆t) ∆θ] u ˆ ⊥ ⇒ ∆A⊥ = ∆θ × A (t) , ∆A⊥ = [A (t + ∆t) sen (∆θ)] u

entonces

    ∆A⊥ ∆A ∆θ dA (t) dθ (t) ˆ⊥ u ˆ⊥ = ˆ × A (t) = ω × A (t) , ≡ · A⊥ A⊥ = × A (t) ⇒ ·u v ∆t ∆t ∆t dt dt

ˆ as all´a observando el cuadrante V de la Figura 1.6, donde hemos identificado ω = dθ(t) dt v. Podemos ir m´ vemos que si suponemos que el m´ odulo del vector es constante, entonces   dA (t) dA (t) d |A (t)| ˆ⊥ ⇒ ˆ⊥ u ˆ ⊥ = ω × A (t) . =0 ⇒ = |A (t)| u ·u dt dt dt

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

34

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

1.7.3.

Velocidades y aceleraciones

El radio vector posici´ on de una part´ıcula genera los vectores velocidad y aceleraci´on r = r (t) ⇒ v (t) =

dr (t) dv (t) d2 r (t) , ⇒ a (t) = = dt dt dt2

ahora bien ˆ r = cos(θ) i + sen(θ) j . con: u

Si suponemos que la part´ıcula describe una trayectoria entonces   r = r (t)   x = x (t) ˆr = u ˆ r (t) ; y = y (t) ; u ⇐⇒   θ = θ (t) z = z (t)

i = const j = const k = const

in ar

r = rˆ ur = xi + yj + zk ,

dˆ ur dt

=

re lim

Es muy com´ un denotar a la derivada temporal sobre funciones de una variable con un punto, es decir, podemos utilizar la siguiente notaci´ on dg (t) , g(t) ˙ ≡ dt con lo cual d [cos(θ (t))i + sen(θ (t))j] ˙ ˙ uθ , = θ(t)[− sen(θ (t))i + cos(θ (t))j] = θ(t)ˆ | {z } dt ˆθ u

Ya que

p p ˆr · u ˆ r = [cos(θ (t)) i + sen(θ (t)) j] · [cos(θ (t)) i + sen(θ (t)) j] = 1 u

|ˆ uθ | =

p p ˆθ · u ˆ θ = [− sen(θ (t)) i + cos(θ (t)) j] · [− (sen(θ (t)))i + cos(θ (t))j] = 1 , u

rP

|ˆ ur | =

entonces: M´ as a´ un

ad o

ˆθ · u ˆr = u ˆr · u ˆ θ = [− sen(θ (t)) i + cos(θ (t)) j] · [cos(θ (t)) i + sen(θ (t)) j] = 0 . u

dˆ uθ d [−sen(θ (t)) i + cos(θ (t)) j] ˙ [cos(θ (t)) i + sen(θ (t)) j] = −θ(t)ˆ ˙ ur . = = −θ(t) dt dt

Bo rr

Para una part´ıcula que sigue un movimiento arbitrario, su trayectoria vendr´a descrita, en coordenadas cartesianas, por: r = x (t) i + y (t) j + z (t) k , Su velocidad ser´ a v (t) =

dr (t) d [x (t) i + y (t) j + z (t) k] = = x(t)i ˙ + y(t)j ˙ + z(t)k ˙ = vx (t) i + vy (t) j + vz (t) k , dt dt

Y su aceleraci´ on

a (t) = v˙ x (t)i + v˙ y (t)j + v˙ z (t)k = ax (t) i + ay (t) j + az (t) k .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

35

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Mientras que en coordenadas polares las ecuaciones son: ˆ r (t) ⇒ v (t) = r (t) = r (t) u

ˆ r (t)] d [r (t) u dˆ ur (t) = r(t)ˆ ˙ ur (t) + r (t) , dt dt

Velocidad: ˙ uθ (t) , ˆ r (t) + r (t) θ(t)ˆ v (t) = vr (t) u Aceleraci´ on: dv (t) = dt

= r¨(t)ˆ ur (t) + r(t) ˙ 



ˆ r (t)] d [vr (t) u + dt

dt

dˆ ur (t) uθ (t) ˙ uθ (t) + r (t) θ(t)ˆ ¨ uθ (t) + r (t) θ(t) ˙ dˆ + r(t) ˙ θ(t)ˆ dt dt

˙ r¨(t) − r (t) θ(t)

2 

n o ˙ + r (t) θ(t) ¨ ˆ r (t) + 2 r(t) ˆ θ (t) . u ˙ θ(t) u

re lim

=

=

dt

h i ˙ uθ (t) d r (t) θ(t)ˆ

in ar

a (t) =

h i ˙ uθ (t) ˆ r (t) + r (t) θ(t)ˆ d vr (t) u

rP

Claramente para el caso de un movimiento circular  ˆ r (t) r (t) = R u      dR ˙ uθ v (t) = R θ(t)ˆ =0 ⇒ r = R = const ⇒  dt     ˙ 2u ¨ uθ (t) ˆ r (t) + R θ(t)ˆ a (t) = −R θ(t)

ad o

De aqu´ı podemos ver claramente que el vector velocidad v (t) y el vector posici´on r (t) son ortogonales. La velocidad, v (t) , siempre es tangente a la trayectoria r (t) y en este caso la trayectoria es una circunferencia. En general el vector Z X X X ∆ r (ti ) = dr (t) = r (t) , rmed = ∆ r (ti ) = (r (ti + ∆ti ) − r (ti )) ⇒ l´ım i

i

es decir dr (t) = l´ım∆t→0

P

i

∆t→0

i

∆ r (ti ) es tangente a la trayectoria. Es claro que

dr (t) = d [x (t) i + y (t) j + z (t) k] ≡

dx (t) dy (t) dz (t) i+ j+ k. dt dt dt

Bo rr

Tal y como mencionamos arriba, para el sistema de coordenadas cartesiano podemos definir un vector (en este caso) velocidad angular ω tal que:  ω ˆr = u ˆv  ×u   |ω|       ω ˆr ˆv × =u u ⇒ v (t) = ω × r (t) |ω|      ω     ˆr × u ˆv = u |ω|

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

36

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Supongamos por simplicidad que elegimos el sistema de coordenadas cartesiano, donde r est´a en el plano x, y. En este caso es inmediato comprobar que v i = εijk ωj xk , y dado que r y v tienen u ´nicamente componentes 1 y 2 entonces, necesariamente ω tiene u ´nicamente componente 3, Es decir   1  r = ri ei   v = ε1j2 ωj x2  ⇒ ⇒ ω = |ω| e3 = ωk ,   2  v = v i ei v = ε2j1 ωj x1 como r = x (t) i + y (t) j , entonces

in ar

dr (t) ˙ = vx (t) i + vy (t) j = ω × r (t) = θ(t)k × [x (t) i + y (t) j] , dt se ver´ a m´ as claro en coordenadas polares, esto es v (t) =

dr (t) ˙ uθ (t) = [|ω| u ˆ n (t)] × [r (t) u ˆ r (t)] , |r (t)| = const =r (t) θ(t)ˆ dt ˙ u ˙ ≡ |ω| . ˆ θ (t) = |ω| r (t) u ˆ θ (t) ⇒ θ(t) =r (t) θ(t) | {z } v⊥

1.7.4.

Vectores y funciones

re lim

v (t) =

Antes de continuar con la integraci´ on repensemos algunas funciones de tipo φ (x, y, z) y V (x, y, z). Estas funciones son sin duda funciones de varias variables: φ = φ (x, y, z) ,

rP

V = V (x, y, z) = iVx (x, y, z) + jVy (x, y, z) + kVz (x, y, z) .

ad o

Un par de reflexiones se pueden hacer en este punto, primeramente, dado que hemos relacionado un punto del espacio con un radio vector posici´ on, entonces   φ = φ (x, y, z) ≡ φ (r) P(x,y,z) ↔ (x, y, z) ↔ r = x i + y j + z k ⇒  V = V (x, y, z) ≡ V (r)

Bo rr

La primera funci´ on, φ (r), ser´ a una funci´ on escalar de argumento vectorial o, simplemente un campo escalar y la segunda, V (r), se conoce como una funci´on vectorial de argumento vectorial o campo vectorial. Como hemos dicho, este tipo de funciones y las operaciones que pueden ser realizadas con ellas, y su significado, ser´ an analizadas en detalle m´ as adelante durante el desarrollo de este curso. En segundo lugar, siempre podremos parametrizar las coordenadas y tendremos φ = φ (t) = φ (x (t) , y (t) , z (t)) , V = V (t) = V (x (t) , y (t) , z (t)) = Vx (x (t) , y (t) , z (t)) i + Vy (x (t) , y (t) , z (t)) j + Vz (x (t) , y (t) , z (t)) k .

Este caso lo hemos encontrado en montones de situaciones, por ejemplo, el movimiento parab´olico viene

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

37

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

descrito por vectores velocidad y posici´ on dados por:   vx = v0x vy = v0y v(t) = −gt k + v0 = −gt k + (v0x i + v0y j + v0z k) ⇒  vz = v0z − gt

Derivada de funciones φ (r (t))

in ar

  x = v0x t g 2 g 2 y = v0y t r(t) = − t k + v0 t = − t k + (v0x i + v0y j + v0z k) t ⇒  2 2 z = v0z t − g2 t2

Al derivar una funci´ on de argumento vectorial tambi´en se aplica la “regla de la cadena”. Esto es, si φ (r (t)) = φ (x (t) , y (t) , z (t)) entonces:

 =

re lim

∂φ (x (t) , y (t) , z (t)) dx (t) ∂φ (x (t) , y (t) , z (t)) dy (t) ∂φ (x (t) , y (t) , z (t)) dz (t) dφ (r (t)) = + + dt ∂x dt ∂y dt ∂z dt    ∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) dx (t) dy (t) dz (t) i+ j+ k · i+ j+ k ∂x ∂y ∂z dt dt dt

donde hemos representado ∇φ (r (t)) ≡

dr (t) , dt

rP

= ∇φ (x (t) , y (t) , z (t)) ·

  ∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) i+ j+ k = ∂ i φ xj ii = φ,i xj ii , ∂x ∂y ∂z

Bo rr

ad o

y lo llamaremos el gradiente de la funci´ on φ (r (t)). El gradiente de un campo escalar es uno de los objetos m´as u ´tiles que encontraremos en el estudio de problemas de f´ısica-matem´ atica, el cual lo utilizaremos por ahora de manera operacional. Es bueno recordar que emerge como consecuencia de una derivaci´on contra un par´ametro. El gradiente mide el cambio de la funci´ on φ (x, y, z). La idea de gradiente nos lleva a considerar a ∇ como un operador vectorial que act´ ua sobre la funci´ on escalar de variable vectorial φ (r (t)). Es decir, y con un poquito de imaginaci´on   ∂ ∂ ∂ ∇φ (r (t)) ≡ i+ j+ k φ (x, y, z) = ii ∂ i φ (x, y, z) ∂x ∂y ∂z ⇓

∇ (◦) =

Hern´ andez & N´ un ˜ez



 ∂ ∂ ∂ i+ j+ k (◦) = ii ∂ i (◦) . ∂x ∂y ∂z

Universidad de los Andes / Universidad Industrial de Santander

38

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Derivada de funciones V (r (t)) De modo que inspirados en la regla de la cadena de una funci´on escalar de variable vectorial podemos comprobar que dV dVx (x, y, z) dVy (x, y, z) dVz (x, y, z) dV i (x, y, z) = i+ j+ k= ii dt dt dt dt dt por consiguiente, si V,  tiene por componentes cartesianas (Vx , Vy , Vz ) las componentes del vector derivado  dVz x dVy ser´ an dV , , dt dt dt . Con lo cual cada componente

in ar

     d V i (x (t) , y (t) , z (t)) d V i xj (t) ∂ V i xj dxk (t) dr (t) = = = · ∇ V i (x, y, z) , dt dt ∂xk dt dt en t´erminos vectoriales 

 dr (t) d (◦) · ∇ V ≡ (v · ∇) V ⇒ = (v · ∇) (◦) ≡ v i ∂i (◦) , dt dt

re lim

dV = dt

con v la derivada del radiovector posici´ on r (t), es decir, la velocidad. Entonces, estamos viendo que el cambio del vector V respecto al tiempo es el cambio de sus componentes en la direcci´on de la velocidad. Si se nos ocurre calcular la derivada del vector velocidad para encontrar la aceleraci´on tendremos que nos quedar´ a expresada como dv a= = (v · ∇) v ⇒ ai = (v · ∇) v i , dt

1.7.5.

El operador ∇

rP

donde las componentes cartesianas de los vectores velocidad y aceleraci´on son: v i = v i (x (t) , y (t) , z (t)) y ai = ai (x (t) , y (t) , z (t)), respectivamente.

El operador vectorial ∇ (◦) merece un poco de atenci´on en este nivel. Tal y como hemos visto: El Gradiante

ad o

∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) i+ j+ k, ∂x ∂y ∂z  = ∂ 1 φ (x, y, z) i1 + ∂ 2 φ (x, y, z) i2 + ∂ 3 φ (x, y, z) i3 = ∂ i φ xj ii .

∇φ (x, y, z) =

Bo rr

Pero es posible construir otras combinaciones realizando operaciones igual como con un vector com´ un y corriente El Rotor

As´ı en el caso de ∇ × E, que se denomina rotor de E, este viene definido por   ∂ ∂ ∂ ∇×E= i+ j+ k × (Ex i + Ey j + Ez k) ∂x ∂y ∂z 

=

Hern´ andez & N´ un ˜ez

∂Ez ∂Ey − ∂y ∂z



 i+

∂Ex ∂Ez − ∂z ∂x



 j+

∂Ey ∂Ez − ∂x ∂y



k = εijk ∂j Ek ii .

Universidad de los Andes / Universidad Industrial de Santander

39

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Divergencia Tambi´en podemos hablar del “producto escalar” de nabla por un vector A. A esta operaci´on la llamaremos divergencia de A:   ∂Ax (x, y, z) ∂Ay (x, y, z) ∂Az (x, y, z) ∂Ai xj ∇·A= ≡ ∂i Ai xj ≡ + + , i ∂x ∂x ∂y ∂z pero por ahora consideremos nabla ∇ como un vector. De este modo habr´ a una gran cantidad de relaciones vectoriales que involucran a ∇, las cuales se podr´ an demostrar. Veamos algunos ejemplos.

   ~ × b + εijk bj (∇ × a) bj ∂ j ai + εijk aj ∇ k k  i j ijk m n ijk m n bj ∂ a + ε aj εkmn ∂ b + ε bj εkmn ∂ a  bj ∂ j ai + εijk εmnk aj ∂ m bn + εijk εmnk bj ∂ m an    i j j i i j j i bj ∂ j ai + δm δn − δm δn aj ∂ m bn + δm δn − δm δn bj ∂ m an

re lim

mientras que el lado derecho  i (∇ (a · b)) = aj ∂ j bi +  = aj ∂ j bi +  = aj ∂ j bi +  = aj ∂ j bi +

in ar

1. ∇ (a · b) = (a · ∇) b + (b · ∇) a + a × (∇ × b) + b × (∇ × a) El resultado es un gradiente, es decir un vector. El lado izquierdo ser´a    i (∇ (a · b)) = ∂ i (a · b) = ∂ i aj bj = ∂ i aj bj + ∂ i bj aj

i j j i i j j i = aj ∂ j bi + bj ∂ j ai + δm δn aj ∂ m bn − δm δn aj ∂ m bn + δm δn bj ∂ m an − δm δn bj ∂ m an

= aj ∂ j bi + bj ∂ j ai + an ∂ i bn − am ∂ m bi + bn ∂ i an − bm ∂ m ai

rP

= aj ∂ j bi − am ∂ m bi + bj ∂ j ai − bm ∂ m ai + an ∂ i bn + bn ∂ i an {z } | {z } | =0 =0  = an ∂ i bn + bn ∂ i an = ∂ i aj bj = ∂ i (a · b) .

2. ∇ × (a · ∇) a = (∇ · a) (∇ × a) − [∇ · (∇ × a)] a + (a · ∇) (∇ × a) − [(∇ × a) · ∇] a

ad o

Iniciamos la traducci´ on a ´ındices por el lado izquierdo de la ecuaci´on, as´ı ∇ × (a · ∇) a = ijk ∂j (am ∂ m ) ak = ijk (∂j am ) ∂ m ak + ijk am ∂j ∂ m ak  = ijk (∂j am ) ∂ m ak + am ∂ m ijk ∂j ak ,

el lado derecho lo traduciremos t´ermino por t´ermino

Bo rr

 (∇ · a) (∇ × a) = (∂ m am ) ijk ∂j ak     − [∇ · (∇ × a)] a = − ∂m mjk ∂j ak ai = − mjk ∂m ∂j ak ai = 0  (a · ∇) (∇ × a) = am ∂ m ijk ∂j ak    − [(∇ × a) · ∇] a = − mjk ∂j ak ∂m ai .

El segundo t´ermino se anula por cuanto mjk es antisim´etrico respecto a los ´ındices m, j mientras que ∂m ∂j es sim´etrico. El tercer t´ermino del desarrollo del lado derecho corresponde con el segundo del desarrollo del lado izquierdo. Por lo tanto, llegamos a la siguiente igualdad     ijk (∂j am ) ∂ m ak = (∂ m am ) ijk ∂j ak − mjk ∂j ak ∂m ai

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

40

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Para verificar la igualdad tendremos que evaluar componente a componente. Esto es, para el lado izquierdo: 1jk (∂j am ) ∂ m ak = 123 (∂2 am ) ∂ m a3 + 132 (∂3 am ) ∂ m a2 = (∂2 am ) ∂ m a3 − (∂3 am ) ∂ m a2 = (∂2 a1 ) ∂ 1 a3 + (∂2 a2 ) ∂ 2 a3 + (∂2 a3 ) ∂ 3 a3 − (∂3 a1 ) ∂ 1 a2 − (∂3 a2 ) ∂ 2 a2 − (∂3 a3 ) ∂ 3 a2 , mientras que para el primer t´ermino del lado derecho    (∂ m am ) 1jk ∂j ak = (∂ m am ) 123 ∂2 a3 + (∂ m am ) 132 ∂3 a2 α

in ar

= ∂2 a3 ∂ 1 a1 + ∂2 a3 ∂ 2 a2 + ∂2 a3 ∂ 3 a3 − ∂3 a2 ∂ 1 a1 − ∂3 a2 ∂ 2 a2 − ∂3 a2 ∂ 3 a3 , | {z } | {z } β

y el segundo t´ermino se escribe como       − mjk ∂j ak ∂m ai = − 1jk ∂j ak ∂1 a1 − 2jk ∂j ak ∂2 a1 − 3jk ∂j ak ∂3 a1

re lim

= − (∂2 a3 − ∂3 a2 ) ∂1 a1 − (∂3 a1 − ∂1 a3 ) ∂2 a1 − (∂1 a2 − ∂2 a1 ) ∂3 a1

= ∂3 a2 ∂1 a1 − ∂2 a3 ∂1 a1 + ∂1 a3 ∂2 a1 − ∂3 a1 ∂2 a1 + ∂2 a1 ∂3 a1 − ∂1 a2 ∂3 a1 . | {z } | {z } | {z } | {z } α

β

γ

γ

Al sumar ambos t´erminos se eliminan los sumandos indicados con letras griegas, y queda como     (∂ m am ) 1jk ∂j ak − mjk ∂j ak ∂m ai = ∂2 a3 ∂2 a2 + ∂2 a3 ∂3 a3 Ξ

Υ

−∂3 a2 ∂2 a2 −∂2 a2 ∂3 a3 + ∂1 a3 ∂2 a1 −∂1 a2 ∂3 a1 ,

rP



Ψ

Λ

Σ

y al compararlo con el desarrollo del lado derecho e identificar t´ermino a t´ermino queda demostrada la igualdad 1jk (∂j am ) ∂ m ak = (∂2 a1 ) ∂1 a3 + (∂2 a2 ) ∂2 a3 + (∂2 a3 ) ∂3 a3 Λ

Ξ

Υ

ad o

− (∂3 a1 ) ∂1 a2 − (∂3 a2 ) ∂2 a2 − (∂3 a3 ) ∂3 a2 . Σ



Ψ

De igual manera se procede con i = 2 e i = 3.

1.7.6.

Integraci´ on

Bo rr

Despu´es de haber diferenciado campos escalares y vectoriales, el siguiente paso es integrarlos. Encontraremos algunos objetos vectoriales a integrar y ser´an: Integraci´ on de un vector por un escalar Z V (u) du

Integraci´ on de un escalar a lo largo de un vector Z φ (x, y, z) dr c

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

41

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Integraci´ on de un vector a lo largo de otro vector Z V (x, y, z) · dr c

El primero de los casos es el tipo de integral que siempre hemos utilizado para encontrar la posici´ on a partir de la velocidad. Los siguientes tres casos se conocen con el nombre de integrales de l´ınea por cuanto es importante la “ruta” o trayectoria que sigamos al integrar. Esto aparece indicado por la letra C en la integral y ser´ a evidente m´ as adelante. En general la integral de l´ınea depender´a de la trayectoria. R

V (u) du

in ar

Un vector por un escalar:

El primer caso de este tipo integrales es el trivial que ya sabemos calcular: Z  Z Z Z Z i V (u) du = i Vx (u) du + j Vy (u) du + k Vz (u) du = V (u) du ii .

re lim

La integral de un vector (en un sistema de coordenadas cartesianas) por un escalar se convierte en la suma de tres integrales, cada una a lo largo de las componentes cartesianas del vector. As´ı integramos la aceleraci´ on de un movimiento parab´olico Z Z dv = a = −g k ⇒ v = a dt = k −g dt = −k gt + v0 = −k gt + iv0x + jv0y + kv0z dt

rP

Ahora bien, existen sutilezas en este caso que debemos tener en cuenta. Por ejemplo, considere la integral  Z     Z    Z d da da da d da da d2 a a× − × = dt a× =a× + c. dt a × 2 = dt dt dt dt dt dt dt dt dt Pero en general los casos quedan resueltos integrando componente a componente con la ayuda de la notaci´ on de ´ındices Z  Z  ijk dt (a × b) = dt ε aj bk ii .

ad o

Ejemplo: Tal vez, uno de los problemas que ilustra mejor esta situaci´on es el movimiento bajo fuerzas centrales. La Ley de Gravitaci´ on de Newton nos dice que para un sistema de dos masas, m y M se tiene: X

F = m a ⇒ mG

M

2 rmM

u ˆr = m

dv dv GM ⇒ = 2 u ˆr . dt dt rmM

Bo rr

Es costumbre definir la velocidad aerolar, va , como el ´area barrida por el radio vector posici´on, r (t) que describe la trayectoria de la part´ıcula   dr d (r u ˆr ) dr dˆ ur dˆ ur dˆ ur 2va = r × =ru ˆr × = rˆ ur × u ˆr + r =ru ˆr × r = r2 u ˆr × . dt dt dt dt dt dt N´ otese que:

d dt

  dˆ ur dˆ ur dˆ ur u ˆr × =0 ⇒ u ˆr × = c ⇒ 2va = r2 u ˆr × = const , dt dt dt

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

42

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

donde c es un vector constante, con lo cual d dv GM GM (v × va ) = × va = 2 u ˆ r × va = dt dt rmM 2 d GM (v × va ) = dt 2

   dˆ ur u ˆr × u ˆr × dt

   dˆ ur dˆ ur GM dˆ ur u ˆr · u ˆ r − (ˆ ur · u ˆr ) = , dt dt 2 dt

integrando GM u ˆr + p 2 donde p es un vector arbitrario que aparece como constante de integraci´on. Finalmente nos damos cuenta que   GM GM u ˆr + p = r + rp cos(θ) r · (v × va ) = r u ˆr · 2 2

in ar

v × va =

y entonces va2

re lim

= εijk ri vj vak ≡ va · (r × v) = va · va = va2

GM r + rp cos(θ) ⇒ r = = 2

GM 2

va2 ≡ + p cos(θ) 1+

2 2va GM 2p GM cos(θ)

que constituye la ecuaci´ on de una curva c´ onica ¿Cu´al curva? R C

φ (r) dr

rP

Un escalar a lo largo de un vector:

El segundo objeto que “tropezaremos” es la integraci´on de funciones de varias variables a lo largo de una curva determinada. Esto es Z Z Z Z Z φ (x, y, z) dr = φ (x, y, z) (dxi + dyj + dzk) = i φ (x, y, z) dx + j φ (x, y, z) dy + k φ (x, y, z) dz . C

C

C

C

ad o

C

La integral se nos ha convertido en tres integrales, las cuales son ahora componentes de un vector. Esto es posible dado que la base (i, j, k) es una base constante. Ahora bien, cada una de estas integrales son interdependientes, dado que hay que seguir la misma curva C. Consideremos el caso bidimensional que es m´ as simple y contiene toda la riqueza conceptual del tridimensional.

Bo rr

Ejemplo:

φ (x, y) = 3x2 + 2y ⇒

Z

(1,2)

(0,0)

 3x2 + 2y dr = i

Z

(1,2)

(0,0)

 3x2 + 2y dx + j

Z

(1,2)

 3x2 + 2y dy

(0,0)

Se requiere especificar la curva C a lo largo de la cual integraremos desde el punto P1 → (0, 0) al punto P2 → (1, 2).

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

43

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Si recorremos la ruta C1 : (0, 0) → (1, 0) → (1, 2) podemos hacerlo de la manera m´as sencilla: Z (1,0) Z (1,0) Z 1    2 2 (0, 0) → (1, 0) ⇒ y = cte = 0 ⇒ 3x + 2y dr = i 3x + 2y dx = i 3x2 dx = i (0,0)

(0,0)

(1,0)

 3x2 + 2y dr = j

(1,2)

Z

 3x2 + 2y dy = j

Z

(3 + 2y) dy = 10j 0

(0,0)

(0,0)

con lo cual Z C1 ←→ (0, 0) → (1, 0) → (1, 2) ⇒ −−−−−→ −−−−−→ C1A

C1B

2

(1,2)

 3x2 + 2y dr = i + 10j

in ar

Z (1, 0) → (1, 2) ⇒ x = cte = 1 ⇒

0

(0,0)

Si hubi´eramos seleccionado la recta que une a estos dos puntos como la curva C2 entonces C2 : y = 2x ⇒ dy = 2dx , entonces (1,2)

 3x2 + 2y dr = i

(0,0)

Z

(1,2)

 3x2 + 2y dx + j

(0,0) 1

Z =i

(1,2)

Z

re lim

Z

 3x2 + 2y dy

(0,0) 1

 3x2 + 2 (2x) dx + j

0

Z

 3x2 + 2 (2x) 2dx = 3i + 6j

0

En general la curva C se puede param´etrizar y las integrales en varias variables se convertir´an en integrales a lo largo del par´ ametro que caracteriza la curva

rP

C : {x = x (τ ) , y = y (τ ) , z = z (τ )}

ad o

Por lo tanto:   Z Z ∂x (τ ) ∂y (τ ) ∂z (τ ) φ (x, y, z) dr = φ (x (τ ) , y (τ ) , z (τ )) dτ i + dτ j + dτ k ∂τ ∂τ ∂τ C C Z Z ∂x (τ ) ∂y (τ ) =i φ (x (τ ) , y (τ ) , z (τ )) dτ + j φ (x (τ ) , y (τ ) , z (τ )) dτ ∂τ ∂τ C C Z ∂z (τ ) dτ . +k φ (x (τ ) , y (τ ) , z (τ )) ∂τ C

Bo rr

Las parametrizaciones para las curvas anteriores son muy simples     x=τ  x=2  x=τ C1A = ; C1B = ; C2 =    y=0 y=τ y = 2τ

Un vector a lo largo de otro vector:

R C

F (r) · dr

R Quiz´ a la integral de l´ınea m´ as conocida sea una del tipo C F (r) · dr por cuanto nos la hemos “tropezado” en el c´ alculo del trabajo que realiza una fuerza. Todo lo que hemos considerado al parametrizar la curva en el caso anterior, sigue siendo v´ alido. Z Z Z Z Z  F (r) · dr = Fx (x, y, z) dx + Fy (x, y, z) dy + Fz (x, y, z) dz = F i xj dxi C

Hern´ andez & N´ un ˜ez

C

C

C

C

Universidad de los Andes / Universidad Industrial de Santander

44

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

Ejemplo:

Si consideramos  F (r) = 3x2 + 2xy 3 i + 6xy j ,

entonces Z (1, 43 √2)

Z (1, 34 √2)

  3x2 + 2xy 3 i + 6xy j (dx i + dy j)

F (r) · dr = (0,0)

Z (1, 34 √2) =

2

3x + 2xy

3



Z (1, 43 √2) dx +

(0,0)

6xy dy , (0,0)

in ar

(0,0)

y si la curva que une esos puntos viene parametrizada por   ∂x(τ ) x = 2τ 2   ∂τ = 4τ ⇒   ∂y(τ ) y = τ3 + τ = 3τ 2 + 1 ∂τ

Z (1, 34 √2)



2

3x + 2xy

 3

Z

2 2

dx =



3 2τ 2

2

0

(0,0)



Z

2 2

= 0

Y la segunda

Z

√ 2 2

Z (1, 43 √2)

1.7.7.



τ3 + τ

3x2 + 2xy

 3

3 

(4τ ) dτ



 65 , 3τ 2 + 1 dτ = 32

Z (1, 43 √2)

dx +

(0,0)

ad o

(0,0)

6 2τ 2

0

Z (1, 34 √2) F (r) · dr =

τ3 + τ



rP

6xy dy = (0,0)

+ 2 2τ 2

 9305 √ 16 τ 12 + 48 τ 10 + 48 τ 8 + 16 τ 6 + 48 τ 5 dτ = 1 + 2. 24024

Z (1, 43 √2)

con lo cual

re lim

entonces la primera de las integrales resulta

6xy dy = (0,0)

97 9305 √ + 2. 32 24024

Ejercicios

1. Demuestre que

 dB [A · (B × C)] = dA dt · (B × C) + A · dt × C + A · B × h  i   d d2 A d3 A b) dt A · dA = A · dA dt × dt2 dt × dt3 d dt

dC dt



Bo rr

a)

c) ∇ × (∇ × A) = ∇∇ · A − ∇ · ∇A

d ) ∇ × (φ∇φ) = 0

e) ∇ × [A × (∇ × A)] = 0, si A = (y, z)i.

2. Para los vectores dados a continuaci´ on, encuentre dr/ds a) r = ti + 3t2 j − (t − 1)k, y t = ln(1 + s2 ) b) r = sen(t)i + cos(t)j + tan(t)k, y t = 2 + s2

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

45

´ E INTEGRACION ´ DE VECTORES 1.7. UN COMIENZO A LA DERIVACION

3. Una part´ıcula describe un movimiento dado por el vector posici´on r. Encuentre la componente de su velocidad en la direcci´ on del vector indicado a) r = t2 i + 4 cos(2t)j + 3sen(2t)k,

2i + j + 2k.

2

b) r = 3 cos(t)i + 3sen(t)j + (t − 2)k,

i + 2j − k

4. Si u, v y w son funciones que dependen del par´ametro t, demuestre que   du d dv a) dt [u · (v × w)] = u · v × dw dt + u · dt × w + dt · (v × w)   du d dv b) dt [u × (v × w)] = u × v × dw dt + u × dt × w + dt × (v × w)

in ar

5. Si u = 2ti − t2 j + k, v = 2i + 3tj + tk y w = ti + 2tj − tk. Utilice el resultado del ejercicio anterior (a) d [u · (v × w)]. para encontrar dt 6. Si u = ti − tj + t2 k, v = −ti + 2tj − t2 k y w = 2ti − 2tj + tk. Utilice el resultado del ejercicio anterior d [u × (v × w)]. (b) para encontrar dt a) φ(x, y, z) = x2 + 3xyz − yz 2 −1 b) φ(x, y, z) = x2 + 2y 2 + 4z 2

re lim

7. Encuentre el gradiente de los siguientes campos

8. Encuentre la divergencia de los siguientes campos a) V(x, y, z) = x2 yi + y 2 z 2 j + xz 3 k b) V(x, y, z) = (1 − x2 )i + sen(yz)j + exyz k 9. Encuentre el rotor de los siguientes campos

rP

a) V(x, y, z) = xyz 2 i + x2 yzj + xy 2 k

b) V(x, y, z) = senh(xy)i + cosh(yz)j + xyzk

ad o

10. Eval´ ue las siguientes integrales  R a) tsen(t)i + 2t2 j − 7tk dt  R b) cosh2 (t)i + 2sen2 (2t)j − k dt

11. Un campo de fuerza act´ ua sobre un oscilador descrito por: F = −kxi − kyj Compare el trabajo hecho al moverse en contra de este campo al ir desde el punto (1, 1) al punto (4, 4) siguiendo los siguientes caminos:

Bo rr

a) (1, 1) → (4, 1) → (4, 4)

b) (1, 1) → (1, 4) → (4, 4)

y 12. Dado el campo de fuerza: F = − x2 +y 2i +

c) (1, 1) → (4, 4) siguiendo el camino x = y

x x2 +y 2 j

Calcule el trabajo hecho en contra de este campo de fuerza al moverse al rededor de un circulo de radio uno y en el plano x − y a) desde 0 a π en sentido contrario a la agujas del reloj. b) desde 0 a −π en sentido de las agujas del reloj.

13. Evaluar la siguiente integral I r · dr .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

46

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

1.8.

Vectores y n´ umeros complejos

Desde los primeros cursos de matem´ atica nos hemos tropezado con las llamadas ra´ıces imaginarias o complejas de polinomios. De este modo la soluci´on a un polinomio c´ ubico    x = 2i  x = −2i x3 − 3x2 + 4x − 12 = 0 ⇒ ⇒ (x + 2i) (x − 2i) (x − 3) = 0   x=3 o cuadr´ atico



Los n´ umeros complejos y su ´ algebra

re lim

1.8.1.

in ar

 x = 2i ⇒ (x + 2i) (x − 2i) x = −2i √ umero imaginario nos lleva a definir un n´ umero i2 = −1 ⇒ i = −1. Como vimos arriba al multiplicar el n´ i por cualquier n´ umero real obtendremos el n´ umero imaginario puro ib, con b ∈ R. La nomenclatura de n´ umeros imaginarios surgi´ o de la idea de que estas cantidades no representaban mediciones f´ısicas. Esa idea ha sido abandonada pero el nombre qued´ o. x2 + 4 = 0 ⇒

Un n´ umero complejo, z, es la generalizaci´on de los n´ umeros imaginarios (puros), ib. Esto es  a → parte real z = a + ib con a, b ∈ R ⇒ b → parte imaginaria

rP

Obviamente los n´ umeros reales ser´ an a + i0 n´ umeros complejos con su parte imaginaria nula. Los n´ umeros imaginarios puros ser´ an n´ umeros complejos con su parte real nula, esto es, 0 + ib. Por ello, en general diremos que z = a + ib ⇒ a = Re (z) ∧ b = Im (z) , es decir, a corresponde a la parte real de z y b a su parte imaginaria. Cada n´ umero complejo, z tendr´ a asociado un n´ umero complejo conjugado, z ∗ tal que

ad o

z = a + ib



∗ ∗



(z ) = z

claramente

z ∗ = a − ib



z · z ∗ = a2 + b2 ,

2

2

z · z ∗ ≥ 0 ⇒ |z| = |z ∗ | = z · z ∗ = a2 + b2 .

Bo rr

Es importante se˜ nalar que, en general, no existe relaci´on de orden entre los n´ umeros complejos. Vale decir, que no sabremos si un n´ umero complejo es mayor que otro. No est´a definida esta operaci´on. z1 ≯ z2



z1 ≮ z2 .

Las relaciones de orden s´ olo se podr´ an establecer entre m´odulos de n´ umeros complejos y no n´ umeros complejos en general. R´ apidamente recordamos el ´ algebra de los n´ umeros complejos: Dos n´ umeros complejos ser´ an iguales si sus partes reales e imaginarios lo son z1 = z2 ⇒ (a1 + ib1 ) = (a2 + ib2 ) ⇒ a1 = a2

Hern´ andez & N´ un ˜ez



b1 = b2 .

Universidad de los Andes / Universidad Industrial de Santander

47

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

Se suman dos n´ umeros complejos sumando sus partes reales y sus partes imaginarias. z3 = z1 + z2 ⇒ (a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ) = a3 + ib3 , | {z } | {z } a3

b3

claramente z + z ∗ = 2 Re z, tambi´en z − z ∗ = 2 Im z. Igualmente es inmediato comprobar que ∗

(z1 + z2 ) = z1∗ + z2∗ .

in ar

Se multiplican n´ umeros complejos por escalares multiplicando el escalar por sus partes reales e imaginarias z3 = αz1 ⇒ α (a1 + ib1 ) = (αa1 ) + i (αb1 ) . Se multiplican n´ umeros complejos entre si, multiplicando los dos binomios y teniendo cuidado que i2 = −1. z3 = z1 z2 ⇒ (a1 + ib1 ) · (a2 + ib2 ) = (a1 a2 − b1 b2 ) + i (a1 b2 + b1 a2 ) , ∗

tambi´en es inmediato comprobar que (z1 z2 ) = z1∗ z2∗ .

re lim

Se dividen n´ umeros complejos siguiendo la estrategia de racionalizaci´on de fracciones irracionales. Esto es (a1 + ib1 ) (a1 + ib1 ) (a2 − ib2 ) a1 a2 + b1 b2 z1 b1 a 2 − a 1 b2 ⇒ = = z3 = +i , 2 2 z2 (a2 + ib2 ) (a2 + ib2 ) (a2 − ib2 ) (a2 + b2 ) (a22 + b22 ) es claro que el divisor ser´ a cualquier n´ umero complejo excepto el cero complejo: 0 + i0.

1.8.2.

Vectores y el plano complejo

rP

Mirando con cuidado el ´ algebra de n´ umeros complejos nos damos cuenta que un n´ umero complejo puede ser representado por una dupla de n´ umeros, es decir, z = (a + ib)



z = (a, b)

ad o

Las propiedades entre n´ umeros complejos de igualdad, suma y multiplicaci´on por un escalar arriba expuestas se cumplen de forma inmediata con esta nueva representaci´on. Hay que definir las operaciones de multiplicaci´ on y divisi´ on entre n´ umeros complejos de forma que   a1 a2 + b1 b2 b1 a2 − a1 b2 (a1 , b1 ) = (a1 , b1 ) (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + b1 a2 ) ∧ , (a2 , b2 ) (a22 + b22 ) (a22 + b22 )

Bo rr

Esta asociaci´ on de un n´ umero complejo con una pareja de n´ umeros inmediatamente nos lleva a imaginar un punto en un plano (complejo) en el cual la primera componente (horizontal) representa la parte real y la segunda componente (vertical) representa la parte imaginaria. De esta forma asociamos a un n´ umero complejo a un vector que une a ese punto (a, b) con el origen del plano complejo. Esta representaci´ on de n´ umeros complejos como vectores en el plano (complejo) se conoce con el nombre de Diagrama de Argand3 a on pesar que no fue Jean Argand, sino Caspar Wessel4 el primero en proponerlo. Por cierto, esta interpretaci´ 3 En honor a JEAN ROBERT ARGAND (Ginebra, Suiza, 18 Julio 1768; Par´ ıs, Francia 13 agosto 1822). Contador pero matem´ atico aficionado, propuso esta interpretaci´ on de n´ umeros complejos como vectors en un plano complejo en un libro autoeditado con sus reflexiones que se perdi´ o y fue rescatado 7 a˜ nos despu´ es, fecha a partir de la cual Argand comenz´ o a publicar en Matematicas. 4 CASPAR WESSEL (Vestby, Noruega 8 junio 1745; 25 marzo 1818, Copenhagen, Dinamarca) Matem´ atico noruego que se dedic´ o principalemente al levantamiento topogr´ afico de Noruega. Su trabajo sobre la interpretaci´ on de n´ umeros complejos permaneci´ o desconocido por casi 100 a˜ nos.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

48

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

fue tres veces redescubierta, primero por Caspar Wessel en 1799, luego por Jean Argand en 1806 y finalmente por Gauss5 en 1831. De esta manera, como un recordatorio al plano real  p √ ∗ 2 2   r = zz = |z| = x + y z = x + iy z = r (cos(θ) + i sen(θ)) con   tan(θ) = y donde − π ≤ θ ≤ π x La interpretaci´ on vectorial de n´ umeros complejos permite que la suma de n´ umeros complejos sea representada por la “regla del paralelogramo”. Mientras que los productos escalar y vectorial nos llevan a ∧

z1 × z2 = Im (z1∗ z2 ) = −Im (z1 z2∗ )

in ar

z1 · z2 = Re (z1 z2∗ ) = Re (z1∗ z2 ) Con esta interpretaci´ on tendremos

1.8.3.







componente real del vector z o parte real de z componente imaginaria del vector z o parte imaginaria de z m´ odulo, magnitud o valor absoluto de z angulo polar o de fase del n´ ´ umero complejo z

re lim

x = Re z y =√ Im z r = zz ∗ = |z| θ

F´ ormulas de Euler y De Moivre

rP

En cursos anteriores, nos hemos tropezado con la expansi´on en Taylor6 de funciones, esta serie permite expresar cualquier funci´ on infinitamente diferenciable alrededor de un punto x0 como una serie infinita de potencias del argumento de la funci´ on, esto es: 1 d2 f (x) 1 d3 f (x) df (x) 2 3 (x − x0 ) + (x − x0 ) + (x − x0 ) + · · · · · · f (x) = 1 + dx x=x0 2 dx2 x=x0 3! dx3 x=x0 1 dn f (x) n y donde n = 0, 1, 2, 3, . . . f (x) = Cn (x − x0 ) , con Cn = n! d xn x=x0

ad o

Si consideramos x0 = 0, podremos ver a continuaci´on algunos desarrollos en series de funciones elementales 1 1 1 1 5 1 6 1 7 ex = 1 + x + x2 + x3 + x4 + x + x + x + ······ 2 6 24 120 720 5040

Bo rr

1 1 1 6 cos(x) = 1 − x2 + x4 − x + ······ 2 24 720 1 1 5 1 7 sen(x) = x − x3 + x − x + ······ 6 120 5040

5 JOHANN CARL FRIEDRICH GAUSS (30 abril 1777, Brunswick, Alemania; 23 febrero 1855, G¨ ottingen, Alemania). Uno de los m´ atem´ aticos m´ as geniales y precoces de la Historia. Desde los 7 a˜ nos comenz´ o a mostrar sus condiciones de genialidad. Sus contribuciones en Astronom´ıa y Matem´ aticas son m´ ultiples y diversas. 6 BROOK TAYLOR (18 agosto 1685, Edmonton, Inglaterra; 29 diciembre 1731, Londres, Inglaterra) F´ ısico y Matem´ atico ingl´ es contemporaneo de Newton y Leibniz y junto con ellos particip´ o profundamente en el desarrollo del C´ alculo diferencial e integral. Adem´ as de sus aportes al estudio del magnetismo, capilaridad y termometr´ıa, desarroll´ o el ´ area de diferencias finitas que hasta hoy utilizamos para c´ alculos en computaci´ on. Invent´ o la integraci´ on por partes y descubri´ o la serie que lleva su nombre.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

49

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

Es f´ acil convencerse que para la serie de ex se tiene     1 1 1 1 5 1 6 1 eiθ = 1 + iθ − θ2 + − i θ3 + θ4 + iθ − θ + − i θ7 + · · · · · · 2 6 24 120 720 5040 y que puede rearreglarse como     1 1 1 1 6 1 5 1 7 eiθ = 1 − θ2 + θ4 − θ + · · · · · · + i θ − θ3 + θ − θ + ······ 2 24 720 6 120 5040 {z } {z } | | sen(θ)

in ar

cos(θ)

eiθ = cos(θ) + i sen(θ) ,

esta relaci´ on se conoce como la relaci´ on de Euler7 . Con lo cual ahora tenemos tres formas de representar un n´ umero complejo z = x + iy z = r (cos(θ) + i sen(θ)) z = reiθ .

re lim

La expresi´ on z = x + iy se conoce como forma cartesiana de representaci´on de un n´ umero complejo, la forma z = r (cos(θ) + i sen(θ)) ser´ a la forma trigonom´etrica o polar y la expresi´on z = eiθ ser´a la forma de Euler. Es importante notar una sutileza impl´ıcita en esta notaci´on. La forma cartesiana representa un´ıvocamente a un n´ umero complejo, mientras que la forma polar (y la de Euler), es ambigua z = r (cos(θ) + i sen(θ)) = r (cos(θ + 2nπ) + i sen(θ + 2nπ)) ,

(1.1)

π

i = ei 2 ,

rP

es decir, existen varios valores del argumento que definen el mismo n´ umero complejo. Esto se considerar´ a m´ as adelante cuando tratemos las funciones de n´ umero complejos. La f´ ormula de Euler, para cuando −π < θ < π resulta en los siguientes simp´aticos resultados −1 = eiπ ,

π

−i = e−i 2 ,

1 = ei2kπ con k = 0, ±1, ±2, ±3 . . .

M´ as a´ un, si

ad o

Las sumas de n´ umeros complejos son m´as f´acilmente planteables en su forma cartesiana. Mientras las multiplicaci´ on y divisi´ on ser´ an directas en la forma de Euler  z1 = r1 eiθ1  ⇒ z1 z2 = eiθ1 eiθ2 = ei(θ1 +θ2 ) = r1 r2 (cos (θ1 + θ2 ) + i sen (θ1 + θ2 )) . iθ2  z2 = r2 e z = x + iy ⇒ ez = e(x+iy) = ex eiy = ex (cos(y) + i sen(y)) ,

Bo rr

a partir de la relaci´ on o f´ ormula de Euler se puede demostrar la De Moivre8 n n eiθ = einθ = (cos(θ) + i sen(θ)) = cos (nθ) + i sen (nθ) , con n entero.

7 LEONHARD EULER (15 abril 1707, Basilea, Suiza; 18 septiembre 1783, San Petersburgo, Rusia). Uno de los matem´ aticos m´ as prol´ıficos de todos los tiempos. Desarroll´ o inmensamente campos como la geometr´ıa anal´ıtica y trigonometr´ıa, siendo el primero que consider´ o el coseno y el seno como funciones. Hizo aportes significativos en el desarrollo del c´ alculo diferencial e integral as´ı como tambi´ en, astronom´ıa, elasticidad y mec´ anica de medios cont´ınuos. 8 ABRAHAM DE MOIVRE (26 mayo 1667 in Vitry-le-Fran¸ cois, Francia; 27 noviembre 1754, Londres Inglaterra) Matem´ atico franc´ es que tuvo que emigrar a Inglaterra por razones religiosas. Contemporaneo de Newton, Liebniz y Halley, fue pionero con sus contribuciones en geometr´ıa anal´ıtica y teor´ıa de probabilides.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

50

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

1.8.4.

Algunas aplicaciones inmediatas

Presentaremos algunas aplicaciones inmeditas la f´ormula de De Moivre en diferentes ´ambitos. Identidades trigonom´ etricas La primera de las aplicaciones de la f´ ormula de De Moivre es para construir identidades trigonom´etricas en las cuales se expresa el coseno, o el seno, de factores de un ´angulo. Veamos las siguientes (nada triviales) identidades trigonom´etricas sen(3θ) = 3 sen(θ) − 4sen3 (θ) ,

o

in ar

cos(3θ) = 4 cos3 (θ) − 3 cos(θ)

para demostrar estas (y otras) identidades utilizamos la f´ormula de De Moivre, es decir 3

cos(3θ) + i sen( 3θ) = (cos(θ) + i sen(θ))

 = cos3 (θ) − 3 cos(θ) sen2 (θ) + i 3 cos2 (θ) sen(θ) − sen3 (θ) , igualando ahora parte real e imaginaria tendremos

re lim

cos(3θ) = cos3 (θ) − 3 cos(θ) sen2 (θ)

 = cos3 (θ) − 3 cos(θ) 1 − cos2 (θ) = 4 cos3 (θ) − 3 cos(θ) sen(3θ) = 3 cos2 (θ) sen(θ) − sen3 (θ)  = 3 1 − sen2 (θ) sen(θ) − sen3 (θ) = 3 sen(θ) − 4sen3 (θ) .

rP

El m´etodo puede extenderse a expresiones de senos y cosenos de nθ. Igualmente podemos desarrollar un m´etodo para encontrar expresiones de potencias de funciones trigon nom´etricas en t´ermino de funciones de factores de ´angulo del tipo (cos(θ)) = F (cos(nθ), sen(nθ)). Para empezar, supongamos que tenemos un n´ umero complejo de m´odulo 1, de tal forma que

z = eiθ = cos(θ) + i sen(θ) ⇒

 1 n    z + z n = 2 cos(nθ)

ad o

   z n − 1 = 2i sen(nθ) zn

Estas identidades surgen de manera inmediata de 1 n −n = (cos(θ) + i sen(θ)) + (cos(θ) + i sen(θ)) = (cos(nθ) + i sen(nθ)) + (cos (−nθ) + i sen (−nθ)) zn = cos(nθ) + i sen(nθ) + cos(nθ) − i sen(nθ) = 2 cos(nθ) ,

Bo rr

zn +

igualmente puede demostrarse la segunda de las afirmaciones anteriores. Ahora bien, supongamos adem´ as que n = 1, con lo cual se cumple que z+

1 = eiθ + e−iθ = 2 cos(θ) z

y

z−

1 = eiθ − e−iθ = 2i sen(θ) , z

que tambi´en lo sab´ıamos desde la m´ as temprana edad de nuestros cursos de bachillerato.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

51

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

Ahora bien, lo que quiz´ a no sab´ıamos en ese entonces (y quiz´a ahora tampoco) es que a partir de aqu´ı podemos construir, por ejemplo:         5  1 1 10 1 1 1 5 1 5 5 3 = 5 z + 5 + 5z + 3 + 10z + z+ ⇒ cos (θ) = 5 z + , cos(θ) = 2 z 2 z 2 z z z es decir

1 [2 cos(5θ) + 10 cos(3θ) + 20 cos(θ)] , 25 de la misma manera se puede proceder con otras potencias y con potencias de la funci´on seno. cos5 (θ) =

in ar

Ra´ıces de polinomios

La f´ ormula de De Moivre nos puede ayudar para encontrar ra´ıces de polinomios. Supongamos, para empezar, que queremos encontrar las n ra´ıces de la ecuaci´on z n = 1. Para ello procedemos con el siguiente artificio z n = 1 = cos (2πk) + i sen (2πk) = ei(2πk) , donde k = 0, 1, 2, ....

re lim

con lo cual las n ra´ıces de la ecuaci´ on z n = 1 ser´an z n = 1 ⇒ z = ei( z z 0 = 1;

z1 = e

1 2πi( n )

;

z2 = e

2 2πi( n )

;

2πk n

)

⇓ }| 3 2πi( n ); · · · z3 = e

zn−2 = e

2πi( n−2 n )

{

;

zn−1 = e

2πi( n−1 n )

Supongamos la siguiente ecuaci´on polin´omica con sus ra´ıces:  4  z + 2 = 0 ⇒ z 4 = −2  5 4 4 z − z + 2z − 2 = 0 ⇒ z + 2 (z − 1) = 0 ⇒  z−1=0 ⇒ z =1

ad o

Ejemplo:

rP

es decir, n ra´ıces corresponder´ an a los n valores de k = 0, 1, 2, · · · n − 2, n − 1. Mayores valore de k no proveen nuevas ra´ıces. 2πk 2π 4π Las ra´ıces de la ecuaci´ on z 3 = 1 ser´ an entonces: z = ei( 3 ) ⇒ z0 = 1, z1 = ei( 3 ) , z2 = ei( 3 ) . Estas propiedades pueden extenderse a ra´ıces de polinomios con m´as t´erminos.

Entonces, del resultado anterior

Bo rr

  h  i1/4 2πk 2πk 23/4 (1 + i) ei( 4 ) z 4 = −2(1) = −2 ei(2πk) ⇒ z = −2 ei(2πk) = (−2)1/4 ei( 4 ) = 2 √ π 1/2 π donde hemos utilizado el hecho de que: (−1)1/4 = i1/2 = ei 2 = ei 4 = 22 (1 + i) . Por lo tanto: z0

=

z2

=

1

21/4 1

21/4

(1 + i) , (1 + i) ei(π) = −

z1 = 1 21/4

(1 + i) ,

z3 =

1 21/4 1 21/4

(1 + i) ei( 2 ) = π

(1 + i) ei(

3π 2

i 21/4

(1 + i)

) = − i (1 + i) . 21/4

La ecuaci´ on z 5 − z 4 + 2z − 2 = 0, tendr´a las siguientes cinco ra´ıces: z0 =

1 1 1 1 (1 + i) , z1 = − 1/4 (1 − i) , z2 = − 1/4 (1 + i) , z3 = 1/4 (1 − i) , z4 = 1 . 21/4 2 2 2

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

52

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

Una afirmaci´ on que nos han dicho, y que quiz´a no sepamos de d´onde viene, es que si un polinomio con coeficientes reales tiene ra´ıces complejas, ellas ser´ an complejas conjugadas unas de otras. Vale decir, si z 5 − z 4 + 2z − 2 = 0 tiene como ra´ız (1 + i), tambi´en tendr´a como ra´ız (1 − i), como hemos visto. Esta afirmaci´ on se prueba de forma general si suponemos que tenemos la siguiente ecuaci´on ai z i = 0 ,

con i = 0, 1, 2, · · · n − 1, n ⇒ a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ,

donde los coeficientes a0 , a1 , a2 , · · · , an−1 , an los suponemos reales, esto es: ai = a∗i para todos los valores del ´ındice i. Al tomar el complejo conjugado nos queda: 2

n−1

como los coeficientes son reales tenemos que 2

n

+ a∗n (z ∗ ) = 0 ,

in ar

a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ⇐⇒ a∗0 + a∗1 z ∗ + a∗2 (z ∗ ) · · · + a∗n−1 (z ∗ )

n−1

a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ⇐⇒ a0 + a1 z ∗ + a2 (z ∗ ) · · · + an−1 (z ∗ )

n

+ an (z ∗ ) = 0 ,

esto nos dice que si z es soluci´ on tambi´en lo ser´a z ∗ ya que la ecuaci´on es la misma por tener los mismos coeficientes (reales). Ahora consideremos el siguiente polinomio complejo

re lim

Ejemplo:

P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = 0 .

Si por alg´ un m´etodo comprobamos que (z 3 − 2) es uno de sus factores, entonces podremos encontrar las ra´ıces del polinomio P (z). Veamos, claramente si (z 3 − 2) es un factor podemos expresar P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = (z 3 − 2)(z 3 − z 2 + 4z − 4) = (z 3 − 2)(z − 1)(z 2 + 4) , con lo cual, como z es complejo, hay que tener cuidado con las ra´ıces encubiertas. Entonces, la ra´ıces son: z3 = 2 ,

Para z 3 = 2 ⇒ z 3 = 2 ei(2πk) Por lo tanto:



 1/3 2πk ⇒ z = 2 ei(2πk) = 21/3 ei( 3 ) ) = −2

2π 3

ad o

z0 = 21/3 , z1 = 21/3 ei( 6

5

4

z 2 = −4

rP

Para z 2 = −4 ⇒ z = ±2i .

z = 1,

3

1/3

2

h

1−

√ i √ i 4π 21/3 h 3i , z2 = 21/3 ei( 3 ) = − 1 + 3i . 2

2

La ecuaci´ on z − z + 4z − 6z + 2z − 8z + 8 = 0, tendr´a las siguientes seis ra´ıces: √ √ i 1 h 3 z = 2, z = −√ 3 i , z = 1 , z = ±2i . 1 ± 3 4

Bo rr

Logaritmos y potencias de n´ umeros complejos Definamos la siguiente funci´ on z = eiθ

⇐⇒

Ln(z) = iθ ,

donde Ln representa el logaritmo natural del n´ umero complejo z. N´otese que hemos utilizado Ln en lugar de tradicional ln y la raz´ on es la ambig¨ uedad impl´ıcita en la notaci´on de Euler, vale decir z = reiθ

⇐⇒

Ln(z) = ln(r) + i (θ + 2nπ) = ln(r) + iθ ,

en otras palabras, Ln(z) no es funci´ on por el hecho de ser multivaluada. Se supera esta dificultad cuando se restringe el argumento −π < θ ≤ π y esta se conoce como el valor principal de la funci´ on

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

53

´ 1.8. VECTORES Y NUMEROS COMPLEJOS

Ejemplos:

h i  π  π Ln (−3i) = Ln 3ei(− 2 +2nπ) = ln(3) + i − + 2nπ con n = 0, 1, 2, · · · 2 decimos que el valor principal del Ln (−3i) ser´a ln(3) − i π2 . Con la misma intuici´ on se procede con las potencias de n´ umeros complejos. Si queremos evaluar z = i−5i tendremos que proceder como sigue h π i π   z = i−5i ⇒ Ln (z) = Ln i−5i = −5i Ln (i) = −5i Ln ei( 2 +2nπ) = 5 + 2nπ , 2

in ar

con lo cual z = i−5i ¡es un n´ umero real! h√ 3 i Para finalizar consideremos otro par de casos de potencias y logaritmos: ii y Ln 3+i . h π ii 2 π π ii = ei( 2 +2nπ) = ei ( 2 +2nπ) = e−( 2 +2nπ) ,

1.8.5.

h √

3+i

3 i

     h    i i arctan √13 = 3 Ln 2e = 3 ln(2) + i arctan √13 + 2nπ = ln(8) + i

Ejercicios

π 2

 + 6nπ .

re lim

Ln

1. Si los n´ umeros complejos z1 = x1 + iy1 y z2 = x2 + iy2 se pueden representar como vectores en el plano z1 = x1 i + y1 j y z2 = x2 i + y2 j, muestre que z1∗ z2 = z1 · z2 + ik · (z1 × z2 ) 2. Demuestre que

rP

a) cos(3α) = cos3 (α) − 3 cos(α)sen2 (α)

b) sen(3α) = 3 cos2 (α)sen(α) − sen3 (α) 3. Demuestre que a) cos4 (α) =

(3 + 4 cos(2α) + cos(4α))

b) cos (α) + sen3 (α) =

1 4

 cos(3α) + 3 cos(α) − sen3 (α) + 3sen(α)

ad o

3

1 8

4. Demuestre que



ix − 1 ix + 1

iy

= e(−2y cot

−1

(x))

Bo rr

donde x y y son n´ umeros reales. 5. Encuentre las ra´ıces de a) 2i

Hern´ andez & N´ un ˜ez

b) 1 −



3i

c) (−1)1/3

d) 81/6

√ e) (−8 − 8 3i)1/4

Universidad de los Andes / Universidad Industrial de Santander

54

1.9. ALGUNOS EJEMPLOS RESUELTOS

1.9.

Algunos ejemplos resueltos

1. Hemos definido como la posici´ on, R, del centro de masa para un sistema de N part´ıculas como R=

ΣN i=1 mi ri ΣN j=1 mj

donde ri corresponde con la posici´ on de la i−´esima part´ıcula. Determine la posici´ on del centro de masa para un sistema de tres masas, mi = 1,2,3, colocadas en los v´ertices de un tri´ angulo equil´ atero de lado l = 2.

in ar

Soluci´ on: Al colocar el origen de coordenadas en uno de los v´ertices y uno de los ejes de coordenadas sobre uno de los lados, entonces √  √ 1 · 2i + 3 · i + 3j Σ3i=1 mi ri m1 r1 + m1 r1 3 5 R= 3 = = = i+ j Σj=1 mj MT 6 6 2

a = 3i + 2j + k ,

re lim

2. Dada una base ortonormal {i, j, k} y los siguientes vectores b = 3i − 2j + k ,

c=i−k

rP

a) Comprobar si {a, b, c} forman una base. Soluci´ on: Para que los vectores formen una base tienen que ser linealmente independientes. Esto es αa + βb + γc = 0 ⇒ α = β = γ = 0, con lo cual   3α + 3β + γ = 0 2α − 2β = 0 α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) = 0 ⇒  α+β−γ =0

ad o

y al resolver el sistema se obtiene: α = β = γ = 0 con lo cual se demuestra que son linealmente independientes. Otra manera de resolverlo es mostrar que: c · (a × b) 6= 0 y efectivamente 1 0 −1 1 = 4 6= 0 . c · (a × b) = 3 2 3 −2 1

Bo rr

b) Si {a, b, c} forman una base, exprese d = i + 2j , e = 3i − 2j y f = a × b en t´ermino de esa base {a, b, c}. De lo contrario, construya una base como {a, b, a × b} y exprese los vectores {d, e, f } en t´ermino de esa nueva base. Soluci´ on: Como forman base expresamos los vectores en esos t´erminos. Esto es   3α + 3β + γ = 1 2α − 2β = 2 i + 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒  α+β−γ =0 resolviendo tendremos que d = 85 a − 38 b + 41 c. Seguidamente   3α + 3β + γ = 3 2α − 2β = −2 3i − 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒  α+β−γ =0

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

55

1.9. ALGUNOS EJEMPLOS RESUELTOS

resolviendo tendremos que e = − 18 a + 78 b + 43 c Ahora bien i f = a × b ≡ (3i + 2j + k) × (3i − 2j + k) ≡ 3 3

j 2 −2

k 1 1

= 4i − 12k

con lo cual

in ar

  3α + 3β + γ = 4 2α − 2β = 0 4i − 12k = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒  α + β − γ = −12 y finalmente f = a × b = −a − b + 10c .

3. Utilizando la notaci´ on de ´ındices demostrar que para cualquier tr´ıo de vectores {a, b, c} se cumple que a × (b × c) + b × (c × a) + c × (a × b) = 0. Soluci´ on: En notaci´ on de ´ındices

re lim

a × (b × c) + b × (c × a) + c × (a × b) = lmi am ijk bj ck + lmi bm ijk cj ak + lmi cm ijk aj bk con lo cual, arreglando

lmi ijk am bj ck + lmi ijk bm cj ak + lmi ijk cm aj bk =    δjl δkm − δjm δkl am bj ck + δjl δkm − δjm δkl bm cj ak + δjl δkm − δjm δkl cm aj bk y ahora desarrollando los productos de las δ’s, e indentificando t´ermino a t´ermino, notamos que se anula       I

II

rP

ak bl ck −ak bk cl  + bk cl ak −bk ck al  + ck al bk −ck ak bl  = 0 . | {z } | {z } | {z } | {z } | {z } | {z } II

III

III

I

4. Una part´ıcula se mueve a lo largo de una curva descrita por

ad o

x(t) = 3t2

y(t) = 4t3 − t

z(t) = t

a) Encuentre las expresiones para los vectores: posici´on, velocidad y aceleraci´on de esa part´ıcula. Soluci´ on: r(t) = 3t2 i + (4t3 − t)j + tk ,

v = 6ti + (12t2 − 1)j + k ,

a = 6i + 24tj .

Bo rr

b) Encuentre las expresiones, m´ as generales, de los vectores tangentes y perpendiculares a todo punto de la trayectoria de la part´ıcula. Soluci´ on: Vector tangente a todo punto de la trayectoria es el vector velocidad v = 6ti + (12t2 − 1)j + k ,

El perpendicular a todo punto, ser´a un vector b = bx i + by j + bz k, tal que (6ti + (12t2 − 1)j + k) · (bx i + by j + bz k) = 6tbx + (12t2 − 1)by + bz = 0 ,

con lo cual

b = bx i + by j − (6tbx + (12t2 − 1)by )k . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

56

1.9. ALGUNOS EJEMPLOS RESUELTOS

5. El campo de fuerzas del oscilador anarm´onico anis´otropo bidimensional se escribe como F = −k1 x2 i + k2 yj . Encuentre el trabajo realizado,

R (x2 ,y2 ) (x1 ,y1 )

(1.2)

dr · F a lo largo de las siguientes trayectorias

a) (1, 1) → (4, 1) → (4, 4) Soluci´ on: Z Z (4,1) (idx) · (−k1 x2 i + k2 j) +

(4,4)

(jdy) · (−k1 16i + k2 yj) = −21k1 +

b) (1, 1) → (1, 4) → (4, 4) Soluci´ on: Z (1,4) Z (jdy) · (−k1 i + k2 yj) + (1,1)

in ar

(4,1)

(1,1)

(4,4)

(idx) · (−k1 x2 i + k2 4j) = −21k1 +

(1,4)

re lim

c) (1, 1) → (4, 4) para x = y Soluci´ on: Z (4,4) Z (idx + jdx) · (−k1 x2 i + k2 xj) = (1,1)

15k2 2

15k2 2

(4,4)

(−k1 x2 + k2 x)dx = −21k1 +

(1,1)

15k2 2

6. Dados los siguientes puntos en el espacio (1, 0, 3); (2, −1, 0); (0, −1, 1); (−1, 0, 1).

rP

a) Considere los tres primeros puntos. ¿Estos tres puntos son coplanares? ¿por qu´e? Explique. Soluci´ on: Tres puntos en el espacio definen un plano, por lo tanto siempre ser´an coplanares.

y

ad o

b) Encuentre el ´ area del tri´ angulo que tiene por v´ertices esos tres puntos. Soluci´ on: Para ello seleccionamos uno de los puntos como un v´ertice privilegiado (digamos (2, −1, 0)) respecto al cual construir´emos dos vectores que representan dos de los lados del tri´ angulo. Esto es a = (1, 0, 3) − (2, −1, 0) ↔ a = −i + j + 3k , b = (0, −1, 1) − (2, −1, 0) ↔ b = −2i + k ,

Bo rr

con lo cual, el ´ area del v´ertice ser´a la dos vectores. Es decir i 1 A = |a × b| ⇒ a × b = −1 2 −2

mitad del ´area del paralelogramo que tiene por lados estos j 1 0

k 3 1

√ = i − 5j + 2k ⇒ A = 1 |i − 5j + 2k| = 30 . 2 2

c) Encuentre la ecuaci´ on del plano que los contiene Soluci´ on: La ecuaci´ on del plano vendr´a dada por (r − r1 ) · ((r2 − r1 ) × (r3 − r1 )) = 0 ,

donde

r = xi + yj + zk, Hern´ andez & N´ un ˜ez

r1 = i + 3k,

r2 = 2i − j,

r3 = −j + k,

Universidad de los Andes / Universidad Industrial de Santander

57

1.9. ALGUNOS EJEMPLOS RESUELTOS

con lo cual la ecuaci´ on del plano queda como (x − 1) y (z − 3) 1 −1 −3 = 0 ⇒ −(x − 1) + 5y − 2(z − 3) = 0 ⇒ x − 5y + 2z = 7 . −1 −1 −2

in ar

d ) Considere los cuatro puntos ¿Estos cuatro puntos son coplanares? ¿por qu´e? De NO ser coplanares, encuentre la distancia del cuarto punto al posible plano que contiene a los otros tres. Soluci´ on: Para verificar si el cuarto punto est´a en el plano, verificamos si cumple la ecuaci´on que lo define (−1) − 5(0) + 2(1) 6= 7 , los cuatro puntos no son coplanares. Para calcular la distancia del cuarto punto al plano se construye el vector unitario normal al plano ˆP = n

a×b 1 = √ (i − 5j + 2k) , |a × b| 30

1 ˆ P · c = √ (i − 5j + 2k) · (−3i + j + k) , d=n 30

re lim

con lo cual la distancia al cuarto punto ser´a

1 6 ˆ P · c = √ (i − 5j + 2k) · (−3i + j + k) = − √ . d=n 30 30 7. Considere los siguientes tres vectores w1 = i + 3k ,

w2 = 2i − 3j ,

w3 = −j + k .

rP

a) ¿Forman una base para R3 ? Explique detalladamente Soluci´ on: Son linealmente independientes, estos es

αw1 + βw2 + γw3 = 0 ⇒ α = β = γ = 0 ,

ad o

que se comprueba directamente al resolver α



+2β −3β

−γ +γ

=0 =0 =0

Bo rr

b) Si es que forman base, exprese el vector a = i − 3j + 3k en la posible base {w1 , w2 , w3 } Soluci´ on: Como son linealmente independientes, forman base, con lo cual cualquier vector puede ser expresado como combinaci´ on lineal de estos tres. Eso es:  1     α= 3   =1   α +2β  −3β −γ = −3 β = 13 a = αw1 + βw2 + γw3 ⇒ ⇒     3α +γ = 3    γ=2

8. Utilizando la notaci´ on de ´ındices muestre si se cumple la siguiente identidad ∇ × (a × b) = a (∇ · b) − b (∇ · a) + (b · ∇) a − (a · ∇) b.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

58

1.9. ALGUNOS EJEMPLOS RESUELTOS

Soluci´ on: j i j ∇ × (a × b) = ijk ∂j (klm al bm ) = (δli δm − δm δl )∂j (al bm ) = ∂m (ai bm ) − ∂l (al bi ) ,

expandiendo la derivada ∇ × (a × b) = bm ∂m (ai ) + ai ∂m (bm ) − bi ∂l (al ) − al ∂l (bi ) ≡ (b · ∇)a + (∇ · b)a − (∇ · a)b − (a · ∇)b . 9. La trayectoria de un punto en el plano vista por un observador 1 es

in ar

r1 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j . a) Exprese las aceleraciones radiales y tangenciales de esta part´ıcula. Soluci´ on: Es claro que la part´ıcula describe un movimiento circular donde θ(t) = 3t2 r(t) = 5ˆ ur ⇒ v(t) =

dθ(t) da(t) dr(t) ˆ θ = 30t u ˆ θ ⇒ a(t) = ˆ θ − 30t u ˆr . =5 u = 30 u dt dt dt

re lim

b) Considere ahora un segundo observador, el cual describe una trayectoria respecto al primero representada por r21 (t) = (t3 − 4t)i + (t2 + 4t) j . Encuentre las expresiones para los vectores posici´on, velocidad y aceleraci´on de la part´ıcula medidos respecto al segundo observador. Soluci´ on: La trayectoria de la part´ıcula respecto al segundo observador ser´a

con lo cual

rP

r2 (t) = r1 (t) − r21 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j − ((t3 − 4t)i + (t2 + 4t) j) ,     r2 (t) = 5 cos(3t2 ) − t3 + 4t i + 5 sen(3t2 ) − t2 − 4t j , entonces

y

        dv2 (t) = −6 30 cos 3t2 t2 + 5sen 3t2 + t i − 2 90sen 3t2 t2 − 15 cos 3t2 + 1 j . dt

Bo rr

a2 (t) =

      dr2 (t) = − 30 sen 3 t2 t + 3 t2 − 4 i + 30 cos 3 t2 t − 2 t − 4 j , dt

ad o

v2 (t) =

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

59

1.10. EJERCICIOS PROPUESTOS

1.10.

Ejercicios propuestos

1. Utilizando un programa de manipulaci´on simb´olica (ver Ap´endice 5.1) realice las siguientes tareas.

A = i1 + 2i2 + 3i3 ,

B = 4i1 + 5i2 + 6i3 ,

in ar

a) Calcule la funci´ on f (z) = ez a partir de su expansi´on en serie que la define. Calcule tambi´en f (z) inπ cuando z = e 6 para n = 0, 1, 2, . . . , 12. Para los diferentes valores de n haga una tabla con los z z z valores de: θ = nπ 6 , Re (z), Im (z), Re (e ), Im (e ), |z| y la fase de e . b) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (senh(z)), Im (senh(z)), |senh(z)| y la fase de senh(z). c) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (cosh(z)), Im (cosh(z)), | cosh(z)| y la fase de cosh(z). d ) Dados los siguientes vectores C = 3i1 + 2i2 + i3 ,

D = 6i1 + 5i2 + 4i3

re lim

Encuentre: 1) A + B + C + D , A + B − C − D , A − B + C − D , −A + B − C + D 2) El ´ angulo entre los vectores A, B, C, D y los vectores base i1 , i2 , i3 . 3) La magnitud de los vectores A, B, C, D. 4) El ´ angulo entre A y B y entre C y D. 5) La proyecci´ on de A sobre B. 6) ¿Son los vectores A, B, C, D coplanares? 7) Encuentre (A + B) · (C + D) 8) Los productos A × B, B × C, C × D y los ´angulos que estos forman con D. 9) C · (A × B).

ad o

rP

2. Auguste Bravais9 se dio cuenta que replicando un arreglo geom´etrico muy simple, se puede describir una estructura cristalina. Dicho de otro modo, que conociendo una celda simple, podemos conocer la estructura cristalina. Esto es que las posiciones de los ´atomos en una red cristalina puede ser descrita por un vector R = a + b + c = n1 a1 + n2 a2 + n3 a3 = ni ai donde los ai son vectores no coplanares (vectores primitivos o, simplemente en nuestro lenguaje, vectores base). Los ni son n´ umeros enteros (negativos, cero o positivos). La posici´ on de cada ´atomo de un cristal puede ser descrita como reescalamientos (discretos) de este vector gen´erico o, de manera m´as precisa, la traslaci´on del origen de coordenadas por un vector. Ese concepto se conoce como redes de Bravais10 . En cada red puede haber varios vectores primitivos11 . Se puede definir la celda primitiva como la estructura m´ınima que replicada reproduce todo el cristal. Vale decir la estructura cristalina es invariante bajo traslaciones espaciales del tipo R0 = R + T con T = mi ai .

Bo rr

a) Redes de Bravais bidimensionales. Tal y como muestra la Figura 1.7 existen 5 tipos distintos de redes de Bravais bidimensionales. 1) Dada la red bidimensional de la Figura 1.8 encuentre todos los posibles vectores primitivos y celdas primitivas asociadas. 2) La humanidad ha estado seducida por la geometr´ıa desde que empez´o a representar figuras. A partir de las cuatro im´ agenes que se ilustran en la Figura 1.9, encuentre todos los posibles vectores y celdas primitivas asociadas.

9 http://en.wikipedia.org/wiki/Auguste_Bravais

10 http://en.wikipedia.org/wiki/Bravais_lattice 11 http://www.engr.sjsu.edu/rkwok/Phys175A/Chapter%201.pdf

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

60

re lim

in ar

1.10. EJERCICIOS PROPUESTOS

Figura 1.7: Las 5 redes de Bravais bidimensionales fundamentales: 1 Oblicuas, 2 rectangular, 3 rectangular centrada (r´ ombica), 4 hexagonal, y 5 cuadrada. Figura tomada de http://en.wikipedia.org/wiki/ Bravais_lattice

rP

3) Maurits Cornelis Escher12 fue un fenomenal dibujante holand´es, quien se interes´o por las simetr´ıas de los grupos de im´agenes de papel tapiz. Berend, hermano de Maurits, era cristal´ ografo y le mostr´ o la belleza de las simetr´ıas de la naturaleza. En las cuatro obras del g´enero de Teselado13 de M.C. Escher, presentadas en la Fig 1.10 encuentre todos los posibles vectores y celdas primitivas asociadas.

ad o

b) Redes de Bravais Tridimensionales. Este tipo de redes complica un poco mas el escenario. Se puede demostrar que existen 14 de estas redes, tal y como se muestran en la Figura 1.11

Bo rr

Muestre que los vol´ umenes de ocupaci´on at´omica, para los sistemas Monocl´ınico, Tricl´ınico, Ortor´ ombico, Tetragonal, Rombo´edrico, exagonal y c´ ubico, corresponden a las expresiones que se muestran en la Figura 1.11. El sistema c´ ubico, el m´ as simple, corresponde a un sistema con un u ´nico par´ametro de red a = |a|, ya que a = b = c. Adem´as, una posible descripci´on, para el caso m´as simple, es a = i; b = j; c = k, los tres vectores cartesianos ortogonales. Existen otros sistemas que tambi´en est´ an asociados al c´ ubico. Estos son el sistema c´ ubico cara centrada (fcc por sus siglas en ingl´es) y c´ ubico cuerpo centrado (bcc). En el primero existen ´atomos en el centro de cada una de las caras del cubo definido por la tr´ıada, a = b = c. En el sistema fcc se a˜ nade un ´ atomo la centro del cubo simple. 1) Muestre que un sistema bcc tambi´en puede ser descrito por los vectores primitivos: a = ai, b = aj y c = a(i + j + k)/2. Dibuje la celda primitiva y calcule su volumen.

12 http://en.wikipedia.org/wiki/M._C._Escher 13 http://en.wikipedia.org/wiki/Tessellation

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

61

Figura 1.8: Red cristalina bidimensional.

in ar

1.10. EJERCICIOS PROPUESTOS

b×c ; a · (b × c)

b0 =

c×a ; a · (b × c)

rP

a0 =

re lim

2) Muestre que un sistema bcc tambi´en puede ser descrito por los vectores primitivos: a = a(j + k − i)/2, b = a(k + i − j)/2 y c = a(i + j − k)/2. Dibuje la celda primitiva y calcule su volumen. 3) Muestre que un sistema fcc tambi´en puede ser descrito por los vectores primitivos: a = a(j + k)/2, b = a(i + k)/2 y c = a(i + j)/2. Otra vez, dibuje la celda primitiva y calcule su volumen. Se puede definir la red rec´ıproca como y

c0 =

a×b ; a · (b × c)

ad o

De esta manera es claro que, por construcci´on, a0 · b = a0 · c = 0 y adem´as a0 · a = 1. Con 0 0 lo cual podemos generalizarlo como ˆ ei · ˆ ej = δji . Exprese los vectores y las celdas rec´ıprocas para los sistemas c´ ubico simple, y los distintos bcc y fcc. Calcule adem´as el vol´ umen de cada celda rec´ıproca. 3. Considerando que

r = x i + y j + z k = xm im ,

A = A(r) = A(x, y, z) = Ai (x, y, z)ii y B = B(r) = B(x, y, z) = B i (x, y, z)ii y ψ = ψ(r) = ψ(x, y, z)

Bo rr

φ = φ(r) = φ(x, y, z)

usando la notaci´ on de ´ındices e inspir´andose en las secciones 1.6.3, 1.7.5 y 1.9, muestre las siguientes identidades vectoriales a) ∇(φψ) = φ∇ψ + ψ∇φ b) ∇ · (φA) = φ∇ · A + (∇φ) · A c) ∇ × ∇φ = 0, tambi´en ∇ · (∇ × A) y ¿qu´e puede decir de ∇ × (∇ · A)?

d ) ∇ · (A × B) = (∇ × A) · B + A × (∇ × B) e) ∇ × (∇ × A) = ∇(∇ · A) − ∇2 A

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

62

re lim

in ar

1.10. EJERCICIOS PROPUESTOS

Figura 1.9: Cuatro detalles geom´etricos. Cuadrante I: Mural egipcio. Cuadrante II: Mural Mural Asirio. Cuadrante III: Tejido Tahit´ı. Cuadrante IV: Ilustraci´on en pieza de porcelana china. Tomado de http: //en.wikipedia.org/wiki/Wallpaper_group

4. Una part´ıcula se mueve bajo la ley r(t) = x(t)i + y(t)j + z(t)k con y(t) = t2 − 4t;

z(t) = 3t − 5.

rP

x(t) = 2t2 ;

El par´ ametro t representa el tiempo. Encuentre las expresiones para la aceleraci´on y la velocidad de la part´ıcula, para t = 1 y en la direcci´ on del vector i − 3j + 2k.

ad o

5. Suponga ahora el caso general de una part´ıcula que se mueve en una curva descrita por r(t) = x(t)i + y(t)j + z(t)k. Muestre que el vector velocidad es tangente a la trayectoria descrita 6. Encuentre la ecuaci´ on vectorial para una trayectoria recta que pasa por los puntos P → (1, 2, 3) y Q → (1, 1, 1) 7. Encuentre el ´ angulo entre los siguientes planos x + y + z = 9 y x + y − z = 3.

Bo rr

8. Un fluido se considera irrotacional si su campo de velocidades v = v(r) = v(x, y, z) cumple con la ecuaci´ on ∇ × v = 0. Suponga, ahora que v = (x + 2y + az)i + (bx − 3y − z)j + (4x + cy + 2z)k. a) Encuentre el valor de a, b y c para que este campo de velocidades sea irrotacional b) Es intuitivo convencerse que si ∇ × v = 0 ⇒ v = ∇ψ. Encuentre expresi´on para la funci´ on potencial ψ = ψ(r) = ψ(x, y, z) R c) Considere la siguiente integral I = C dr · v. Donde C es el circuito a recorrer. 1) Calcule el valor de la integral I a lo largo del trayecto: (0, 0, 0) → (1, 1, 0) mediante una segmento de recta. Luego, de (1, 1, 0) → (2, 0, 0) a lo largo de otro segmento de recta. Finalmente regresando (2, 0, 0) → (0, 0, 0) tambi´en siguiendo una recta.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

63

re lim

in ar

1.10. EJERCICIOS PROPUESTOS

Figura 1.10: Teselados de M.C. Escher, tomados de http://www.wikipaintings.org/en/ paintings-by-genre/tessellation?firstArtist=m-c-escher#artist-m-c-escher

rP

2) Calcule el valor de la integral I de (0, 0, 0) → (2, 0, 0) a lo largo de un arco de circunferencia que cumple con la ecuaci´ on (x−1)2 +y 2 = 1. Ahora regresando de (2, 0, 0) → (0, 0, 0) tambi´en a trav´es de una recta. 3) ¿Qu´e puede concluir del campo v? 9. Dos funciones complejas Z1 (t) y Z2 (t) cumplen con las siguientes ecuaciones

ad o

dZ1∗ −i == dt Z1 − Z2

−i dZ2∗ == dt Z2 − Z1

y

Muestre que las siguientes cantidades son constantes.

Bo rr

Z1 + Z2 |Z1 − Z2 | |Z1 |2 + |Z2 |2

10. Considere la siguiente ecuaci´ on z 7 − 4z 6 + 6z 5 − 6z 4 + 6z 3 − 12z 2 + 8z + 4 = 0

Encuentre sus ra´ıces sabiendo que z 3 = 2.

11. Muestre que la expansi´ on binomial puede ser escrita como (1 + x)n =

n X m=0

Hern´ andez & N´ un ˜ez

Am (n) xm

con Am (n) =

n! m!(n − m)!

Universidad de los Andes / Universidad Industrial de Santander

64

rP

re lim

in ar

1.10. EJERCICIOS PROPUESTOS

ad o

Figura 1.11: Las 14 Redes de Bravais Tridimensionales y las estructuras cristalinas asociadas. Tomado de http://en.wikipedia.org/wiki/Bravais_lattice

Bo rr

Si est´ a convencido de la expansi´ on anterior, considere ahora una parecida: 1 + eiθ n X

n

n X

n

n

y muestre que

    θ nθ Am (n) cos(nθ) = 2 cos cos 2 2 m=0 n

y

    θ nθ Am (n) sen(nθ) = 2 cos sen 2 2 m=0 n

12. Las funciones hiperb´ olicas se definen como

Hern´ andez & N´ un ˜ez

cosh(x) =

ex + e−x 2

y

senh(x) =

ex − e−x 2

Universidad de los Andes / Universidad Industrial de Santander

65

1.10. EJERCICIOS PROPUESTOS

y de manera an´ aloga a las funciones trigonom´etricas tendremos el resto de funciones tanh(x) =

senh(x) ; cosh(x)

sech(x) =

1 ; cosh(x)

csech(x) =

1 ; senh(x)

ctanh(x) =

1 ; tanh(x)

a) Muestre las siguientes equivalencias cosh(x) = cos(ix),

i senh(x) = sen(ix),

cos(x) = cosh(ix)

y

i sen(x) = senh(x)

b) Muestre las siguientes identidades sech2 (x) = 1 − tanh2 (x);

cosh(2x) = cosh2 (x) + senh2 (x)

c) Resuelva las siguientes ecuaciones hiperb´olicas cosh(x) − 5senh(x) − 5 = 0,

2 cosh(4x) − 8 cosh(2x) + 5 = 0

y

in ar

cosh2 (x) − senh2 (x) = 1;

cosh(x) = senh(x) + 2sech(x)

re lim

˜ puede expresarse en d ) La posici´ on de una part´ıcula vista desde dos observadores relativistas O y O t´ermino de funciones hiperb´ olicas como   cosh(φ) −senh(φ) µ µ µ x ˜ = Lν xν con {µ, ν} = 0, 1 y Lν = senh(φ) cosh(φ)

Bo rr

ad o

rP

¯ νµ x ¯ µν tal que xν = L ˜µ Encuentre la matriz L 2 0 2 1 2 0 2 Muestre que ds = (x ) − (x ) = (˜ x ) − (˜ x1 )2 .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

66

in ar

Bibliograf´ıa

[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici´ on (Academic Press, Nueva York)

re lim

[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York) [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:

rP

[6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) [7] Santal´ o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)

Bo rr

ad o

[8] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )

67

2

Bo rr

ad o

rP

re lim

Espacios Vectoriales Lineales

in ar

Cap´ıtulo

68

2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

2.1. 2.1.1.

Grupos, cuerpos y espacios vectoriales Grupos

Considere el siguiente conjunto G = {g1 , g2 , g3 , · · · , gn , · · · } y la operaci´on interna  (la ley del grupo). Entonces los elementos del conjunto forman un grupo abeliano1 respecto a la operaci´on  si ∀ gi ∈ G se tiene que: 1. Cerrada respecto a la operaci´ on : {gi ∈ G, gj ∈ G} ⇒ ∃ gk = gi  gj ∈ G

3. Existencia de un elemento neutro: ∃ g ˆ ∈ G ⇒ gi  g ˆ = gi = g ˆ  gi

in ar

2. Asociativa respecto a la operaci´ on : gk  (gi  gj ) = (gk  gi )  gj

4. Existencia de un elemento inverso: gi ∈ G ⇒ ∃ gi−1 ∈ G ⇒ gi  gi−1 = gi−1  gi = g ˆ 5. Conmutativa respecto a la operaci´ on : gi  gj ≡ gj  gi .

re lim

Ejemplos de grupos: Los enteros Z = {· · · − 3 − 2, −1, 0, 1, 2, 3, · · · } respecto a la suma; Los racionales respecto a la suma y a la multiplicaci´on;

Los n´ umeros complejos z = eiθ respecto a la multiplicaci´on;

Las rotaciones en 2 dimensiones (2D), y las rotaciones en 3D (grupo no-abeliano); El conjunto de matrices de dimensiones n × m respecto a la suma, es un grupo abeliano.

ad o

rP

Dado un grupo de tres elementos: G = {1, a, b}, con g ˆ ≡ 1 y la operaci´on . Por construcci´on, si que´ remos que la operaci´ on de dos de los elementos provea un tercero distinto, entonces la UNICA “tabla de multiplicaci´ on” posible ser´ a:  1 a b

1 1 a b

a a b 1

b b 1 a

Bo rr

Notemos que el grupo m´ as simple ser´ a aquel conformado u ´nicamente por el elemento neutro: G = {1}. Es importante se˜ nalar que si s´ olo se cumplen las cuatro primeras condiciones entonces se dice que simplemente forman grupo respecto a la operaci´on . Se pueden definir subgrupos si un subconjuntos de los elementos de un grupo gi ∈ G tambi´en forman un grupo. El n´ umero de los elementos de un grupo puede ser finito o infinito. En el primer caso se denominan grupos finitos y el n´ umero de elementos que contenga se conoce como el orden del grupo. Un grupo finito 1 NIELS HENRIK ABEL, (1802-1829 Noruega) Pionero en el desarrollo de diferentes ramas de la matem´ atica moderna, Abel mostr´ o desde su infancia un notable talento para el estudio de las ciencias exactas. Tal predisposici´ on se ver´ıa muy pronto confirmada por sus precoces investigaciones sobre cuestiones de a ´lgebra y c´ alculo integral, en particular sobre la teor´ıa de las integrales de funciones algebraicas (a las que se denominar´ıa abelianas en honor de su formulador) que no habr´ıa de publicarse hasta 1841, doce a˜ nos despu´ es de su fallecimiento. En 2002 el gobierno noruego lanz´ o el premio Abel que llenar´ a el vac´ıo que existe en la premiaci´ on Nobel del gobierno sueco, en el cual no existe premiaci´ on para la comunidad matem´ atica.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

69

2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

que se construye a partir ´nico miembro se denomina grupo c´ıclico, y el caso  de una operaci´on con un u m´ as elemental es G = I, X, X 2 , X 3 , · · · , X g−1 . Obviamente hemos definido aqu´ı: X 2 = XX y X 3 = X 2 X = XXX y as´ı consecutivamente hasta ejecutarse g − 1 veces, entonces se retoma el elemento identidad, esto es: X g−1  X = X g = I. Consideremos los siguientes conjuntos y operaci´on2 multiplicaci´on m´odulo X, es decir (a · b)modX :

×mod8 1 3 5 7

1 1 3 5 7

3 3 1 7 5

5 5 7 1 3

7 7 5 3 1

in ar

Gmod8 = {1, 3, 5, 7} y la operaci´ on multiplicaci´on m´odulo 8. De esta manera construimos la tabla de multiplicaci´ on del grupo

Recordemos que la regla usada, por ejemplo para 3 y 7, es la siguiente: 3 · 7 = 21 y el residuo de dividir 21 entre 8 es 5, por lo tanto (3 · 7)mod8 = (21)mod8 = 5. (21 ÷ 8 = 2 × 8 + 5)

×mod5 1 2 3 4

1 1 2 3 4

2 2 4 1 3

3 3 1 4 2

4 4 3 2 1

re lim

Gmod5 = {1, 2, 3, 4} y la operaci´ on multiplicaci´on m´odulo 5. Tabla: ×mod5 1 2 4 3



1 1 2 4 3

2 2 4 3 1

4 4 3 1 2

3 3 1 2 4

rP

Gmod24 = {1, 5, 7, 11} y la operaci´ on multiplicaci´on m´odulo 24. Tabla de multiplicaci´on:

ad o

×mod24 1 5 7 11

1 1 5 7 11

5 5 1 11 7

7 7 11 1 5

11 11 7 5 1

Bo rr

G× = {1, i, −1, −i} y la operaci´ on multiplicaci´on: × 1 i -1 -i

1 1 i -1 -i

i i -1 -i 1

-1 -1 -i 1 i

-i -i 1 i -1

Diremos que los grupos Gmod8 y Gmod24 son isomorfos porque tienen tablas equivalentes de multiplicaci´ on. Esto es, dado un grupo gen´erico G = {1, A, B, C} su tabla de multiplicaci´on ser´a:

2 Vamos a considerar lo que se conoce como Arim´ etica Modular. Sabemos que para la divisi´ on de dos enteros a y b (b 6= 0) existe un u ´nico entero c tal que a = cb + r con 0 ≤ r ≤ |b|. Y como es conocido: a, b, c y r son: el dividendo, el divisor, el cociente y el resto, respectivamente. Cuando r = 0 se dice que a es divisible por b. En esta “arim´ etica”tan particular se establece una relaci´ on de congruencia sobre los enteros: para un entero positivo n, dos enteros a y b se llaman congruentes m´ odulo n (mod n) si a y b tienen el mismos resto r cuando se dividen entre n, y se denota a ≡ b mod n.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

70

2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

× 1 A B C

1 1 A B C

A A 1 C B

B B C 1 A

C C B A 1

× 1 A B C

2.1.2.

1 1 A B C

A A B C 1

B B C 1 A

C C 1 A B

Cuerpo

in ar

Note que A−1 =A y que siempre la operaci´on de dos elementos da uno distinto a los operados. De igual forma los grupos G× y Gmod5 son isomorfos con una tabla de multiplicaci´on

re lim

Definiremos como un cuerpo (o campo) el conjunto A = {α1 , α2 , α3 , · · · , αn , · · · } sobre el cual est´ an definidas dos operaciones: suma (+) y multiplicaci´on (·) y que satisfacen las siguientes propiedades: 1. Forman un grupo abeliano respecto a la suma (+) con el elemento neutro representado por el cero 0. 2. Forman un grupo abeliano respecto a la multiplicaci´on (·). Se excluye el cero 0 y se denota el elemento neutro de la multiplicaci´ on como 1.

rP

3. Es distributiva respecto a la suma (+) : Dados αi , αj y αk se tiene que αi · (αj + αk ) = αi · αj + αi · αk .

Ejemplos t´ıpicos de campos lo constituyen los racionales Q, los n´ umeros reales R y los n´ umeros complejos C. Normalmente se refiere estos campos como Campos Escalares.

2.1.3.

Espacios vectoriales lineales

ad o

Sea el conjunto de objetos V = {|v1 i , |v2 i , |v3 i · · · |vi i · · · }. Se denominar´a V un espacio vectorial lineal y sus elementos |vi i vectores, si existe una operaci´on suma, , respecto a la cual los elementos |vi i ∈ V forman un grupo abeliano y una operaci´ on multiplicaci´on por un elemento de un campo, K = {α, β, γ · · · }, tal que: (tambi´en suele decirse: un espacio vectorial V sobre K) 1. V es cerrado bajo la operaci´ on suma : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i  |vj i ∈ V

Bo rr

2. La operaci´ on suma  es conmutativa: ∀ |vi i , |vj i ∈ V ⇒ |vi i  |vj i = |vj i  |vi i

3. La operaci´ on suma  es asociativa: ∀ |vi i , |vj i , |vk i ∈ V ⇒ (|vi i  |vj i)  |vk i = |vi i  (|vj i  |vk i)

4. Existe un u ´nico elemento neutro |0i : |0i  |vi i = |vi i  |0i = |vj i ∀ |vi i ∈ V

5. Existe un elemento sim´etrico para cada elemento de V: ∀ |vi i ∈ V ∃ |−vi i / |vi i  |−vi i = |0i 6. V es cerrado bajo el producto por un escalar: ∀ α ∈ K y cualquier |vi i ∈ V ⇒ α |vi i ∈ V 7. α (β |vi i) = (αβ) |vi i

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

71

2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

8. (α + β) |vi i = α |vi i  β |vi i 9. α (|vi i  |vj i) = α |vi i  α |vj i 10. 1 |vi i = |vi i ∀ |vi i ∈ V

2.1.4.

in ar

Es importante resaltar lo siguiente: existe dos objetos neutros, el vector |0i ∈ V y el escalar 0 ∈ K y tambi´en dos operaciones producto diferentes, el producto de dos escalares dentro de K y el producto de un escalar α ∈ K por un vector |vi ∈ V. Notemos tambi´en que podemos definir subespacios S vectoriales dentro de los espacios vectoriales. Ellos ser´ an aquellos conjuntos de vectores que cumplan con los requisitos anteriores pero adem´as cerrados dentro de los mismos conjuntos de vectores. Se puede ver entonces que la condici´on necesaria y suficiente para que S ⊆ V sea un subespacio vectorial de V es que para cualesquiera |ui i y |uj i de S y para cualesquiera α y β de K se tiene que: α |ui i + β |uj i ∈ S.

Ejemplos espacios vectoriales

re lim

1. Los conjunto de los n´ umeros reales V = R y el conjunto de los n´ umeros complejos V = C con el campo K de reales o complejos y definidas las operaciones ordinarias de suma y multiplicaci´on. Cuando el campo K es el conjunto de los n´ umeros reales se dir´a que es un espacio vectorial real de n´ umeros reales si V ≡ R, pero si V ≡ C se dir´a un espacio vectorial real de n´ umeros complejos. Por su parte, si K ≡ C diremos que es un espacio vectorial complejo. Siempre se asociar´a el campo de escalares al espacio vectorial: se dir´ a que es un espacio vectorial sobre el campo de los escalares. Es decir, si el campo es real (complejo) se dir´a que el espacio vectorial es real (complejo).

rP

2. El espacio V ≡ Rn = R × R × · · · × R, vale decir el producto cartesiano de R, cuyos elementos son n−uplas de n´ umeros, con la operaci´ on suma ordinaria de vectores en n-dimensionales y la multiplicaci´ on por escalares. |xi = (x1 , x2 , x3 , · · · xn )



|yi = (y1 , y2 , y3 , · · · , yn )

|xi  |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · xn + yn )

ad o

α |xi = (αx1 , αx2 , αx3 , · · · αxn ) . Este espacio vectorial es de dimensi´ on finita. Igualmente, ser´a un espacio vectorial Cn = C×C×· · ·×C para el cual los elementos xi ∈ C. Si para este caso el campo sobre el cual se define el espacio vectorial Cn es real, tendremos un espacio vectorial real de n´ umeros complejos.

Bo rr

Es obvio que el caso V ≡ R para el cual |xi1 = (x1 , 0, 0, · · · , 0) y |yi1 = (y1 , 0, 0, · · · , 0) o cualquier espacio de vectores formados por las componentes, i.e. |xii = (0, 0, 0, · · · , xi , · · · 0) y |yii = (0, 0, 0, · · · , yi , · · · 0) formar´ an subespacios vectoriales dentro de Rn . En el caso espec´ıfico de R3 , y en donde hemos desarrollado todo un conjunto de conceptos matem´ aticos, es bueno comentar sobre la equivalencia que hemos tomado como obvia entre dos definiciones diferentes: Los vectores a = (a1 , a2 , a3 ) y b = (b1 , b2 , b3 ) con sus respectivas operaciones para la suma a + b = (a1 + b1 , a2 + b2 , a3 + b3 ) y multiplicaci´on por un escalar λ a = (λa1 , λa2 , λa3 ), con {ai }, {bi } y λ ∈ R. Los vectores geom´etricos, es decir, segmentos orientados en el espacio con un origen com´ un y donde la suma se defini´ o mediante la regla del paralelogramo y el producto por un escalar como el alargamiento o acortamiento de los segmentos o flechas con el posible cambio de direcci´on.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

72

2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

Aunque son vectores de R3 es bueno tener claro que se trata de objetos diferentes que viven en espacios vectoriales diferentes. Se puede decir tambi´en que son dos representaciones diferentes para los vectores. Es buena la ocasi´ on para se˜ nalar que existe una manera de pasar de una representaci´ on a otra, esto se hace por medio de una funci´on que asigne a una tr´ıada (x1 , x2 , x3 ) una y s´olo una flecha (y viceversa), conservando por supuesto las operaciones de suma y multiplicaci´on por escalares. A este tipo de funciones se les denomina un isomorfismo.

in ar

Para finalizar, tambi´en es posible ver R3 simplemente como un conjunto de puntos donde se pueden definir superficies embebidas, como por ejemplo una esfera, S2 , centrada en el origen y de radio R. En un punto q sobre la esfera es posible generar un plano tangente a la esfera y en ese punto construir un espacio vectorial con todos los vectores cuyo origen est´a en q, y por lo tanto, son tangentes a la esfera. En el lenguaje de la Geometr´ıa Diferencial y las Variedades a este conjunto de vectores se le denota con: Tq S2 . Lo anteriormente dicho se puede generalizar para Rn . 3. El espacio E∞ constituido por vectores |xi = (x1 , x2 , x3 , · · · xn , · · · ) contables pero con infinitas componentes. |xi = (x1 , x2 , x3 , · · · , xn , · · · )



|yi = (y1 , y2 , y3 , · · · , yn , · · · )

re lim

|xi  |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · , xn + yn , · · · ) α |xi = (αx1 , αx2 , αx3 , · · · , αxn , · · · ) , con la restricci´ on que l´ım

n→∞

n X i=1

xi = L ,

con L finito .

4. El conjunto de la matrices n × n reales o complejas con el campo K real o complejo. ∧

rP

|xi = Mab

|yi = Nab

|xi  |yi ≡ Mab + Nab = (M + N )ab α |xi = αMab = (αM )ab

ad o

Es tambi´en obvio que se podr´ an formar subespacios vectoriales cuyos elementos sean matrices de dimensi´ on menor a n × n. 5. El conjunto de los vectores geom´etricos, o vectores cartesianos, en 2 y 3 dimensiones con las propiedades habituales de suma vectorial y multiplicaci´on por un escalar.  6. El conjunto de todos los polinomios con coeficientes reales: P = a0 , a1 x, a2 x2 , · · · , an xn , · · · , con  la suma ordinaria entre polinomios y la multiplicaci´on ordinaria de polinomios con escalares.

Bo rr

7. Espacios Funcionales (de los cuales los polinomios son un caso particular). En estos espacios los vectores ser´ an funciones, la suma ser´ a la suma ordinaria entre funciones y la multiplicaci´on por un escalar tambi´en ser´ a la multiplicaci´ on ordinaria de una funci´on por un elemento de un campo |f i = f (x)



|gi = g (x)

|f i  |gi ≡ f (x) + g (x) ≡ (f + g) (x) α |f i = (αf ) (x) ≡ αf (x) .

8. El conjunto de todas las funciones continuas e infinitamente diferenciables, definidas en el intervalo ∞ [a, b] : C[a,b] .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

73

2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

9. El conjunto de todas las funciones complejas de variable real, ψ (x) , definidas en [a, b] , de cuadrado Rb 2 integrable (es decir para las cuales a dx |ψ (x)| sea finita). Este espacio se denomina com´ unmente 2 L y puede ser definido en un rango [a, b], finito o infinito, y para m´as de una variable. 10. El conjunto de todas las soluciones de un sistema de ecuaciones lineales y homog´eneas, por ejemplo a + 3b + c =

0

4a + 2b + 2c =

0

2.1.5.

in ar

tiene como soluci´ on al conjunto: {a, b = a/2, c = −5a/2}. La suma de estos elementos y la multiplicaci´ on por un escalar conforman un espacio vectorial en el sentido de que son soluciones del sistema de ecuaciones.

La importancia de la conceptualizaci´ on y la notaci´ on

Ejercicios

ad o

2.1.6.

rP

re lim

En los ejemplos antes mencionados hemos utilizado para representar un vector abstracto la notaci´ on de |vi y con ´estos construimos un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i , · · · , |vn i}. Un espacio vectorial abstracto ser´ a un conjunto de elementos gen´ericos que satisfacen ciertos axiomas. Dependiendo del conjunto de axiomas tendremos distintos tipos de espacios abstractos, la teor´ıa desarrolla las consecuencias l´ ogicas que resultan de esos axiomas. En matem´atica el concepto de espacios abstractos es reciente (1928) y, aparentemente, se le debe a Maurice Fr´echet3 . Los elementos de esos espacios se dejan sin especificar a prop´osito. Ese vector abstracto puede representar, vectores en Rn , matrices n × n o funciones continuas. La notaci´on |vi, que se denomina un ket y al cual le corresponde un bra hv2 | proviene del vocablo ingl´es braket que significa corchete y ser´a evidente m´as adelante cuando construyamos escalares braket hv2 |v1 i. Esta u ´til notaci´on la ide´o Paul Dirac4 , uno de los f´ısicos m´ as influyentes en el desarrollo de la f´ısica del siglo XX. En mec´anica cu´antica un estado cu´antico particular suele representarse por una funci´ on de onda ψ(x), que depende de la variable posici´on x o de una funci´ on alternativa que puede depender de la variable momentum p. En la notaci´on de Dirac, el s´ımbolo |ψi denota el estado cu´ antico sin referirse a la funci´ on en particular y tambi´en sirve para distinguir a los vectores de los escalares (n´ umeros complejos) que vienen a ser los elementos fundamentales en el espacio de Hilbert de la mec´ anica cu´ antica.

1. Sea S el conjunto de todos los n´ umeros reales excluyendo −1 y defina la operaci´on  a  b = a + b + ab

Bo rr

donde + es la suma est´ andar entre n´ umeros reales. a) Muestre que [S, ] forman grupo b) Encuentre la soluci´ on en S para la ecuaci´on 2  x  3 = 7

3 MAURICE FRECHET ´ (1878 Maligny, Yonne, Bourgogne-1973 Par´ıs, Francia). Vers´ atil matem´ atico franc´ es, con importantes contribuciones en Espacios M´ etricos, Topolog´ıa y creador del concepto de Espacios Abstractos. 4 PAUL ADRIEN MAURICE DIRAC (1902 Bristol, Inglaterra 1984-Tallahassee, EE.UU). Adem´ as de contribuir de manera determinante en la comprensi´ on de la Mec´ anica Cu´ antica, es uno de los creadores de la Mec´ anica Cu´ antica Relativista la cual ayud´ o a comprender el papel que juega el esp´ın en las part´ıculas subat´ omicas. Por sus importantes trabajos comparti´ o con Erwin Schr¨ odinger el Premio Nobel de F´ısica en 1933.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

74

2.1. GRUPOS, CUERPOS Y ESPACIOS VECTORIALES

2. Considere un tri´ angulo equil´ atero. Uno puede identificar operaciones de rotaci´on alrededor de un eje perpendicular a la figura y reflexiones respecto a planos que dejan invariante la figura del tri´angulo.  ¯ X1 , X2 , X3 . con a) Muestre que el conjunto de estas operaciones forma un grupo G4 = I, R, R, ¯ las rotaciones y X1 , X2 y X3 las reflexiones. Muestre adem´ I la operaci´ on identidad; R y R as, que las rotaciones forman un subgrupo c´ıclico de orden 3, mientras que las reflexiones forman un subgrupo c´ıclico de orden 2 b) Construya la tabla de multiplicaci´on para G4 c) Considere las siguientes matrices 1 0

I=

0 1

;

 A=



3 2

0 1

 D=









 

 B=



1 2

 ;

− 12



3 2

3 2

− 21

  



− 21



3 2



3 2





 E=

 

− 12

1 2





3 2

re lim

−1 0

C=

3 2



 



− 12



in ar

 

3 2 1 2

  

Muestre que forman grupo bajo la multiplicaci´on de matrices y que ese grupo es isomorfo a G4 d ) Considere las siguientes funciones f1 (x) = x;

f2 (x) =

1 ; x

f3 (x) =

1 ; 1−x

f4 (x) =

x−1 ; x

f5 (x) = 1 − x;

f6 (x) =

x ; x−1

rP

Muestre que forman grupo bajo la operaci´on fi (x) fj (x) = fi (fj (x)) y que ese grupo es isomorfo a G4 .

3. Definamos una operaci´ on binaria  como

x  y = x + y + αxy

ad o

con x, y, α ∈ R y adem´ as α 6= 0.

a) Demuestre que  es asociativa

 b) Muestre que  genera un grupo en R − x  y forma un grupo

−1 α



. Es decir, ∀x, y ∈ R ∧ x 6=

−1 α ,y

6=

−1 α

entonces

Bo rr

4. Muestre que el siguiente conjunto de transformaciones en el plano xy forman un grupo y construya su tabla de multiplicaci´ on a) I = {x → x ∧ y → y} b) I = {x → −x ∧ y → −y} c) Ix = {x → −x ∧ y → y}

d ) Iy = {x → x ∧ y → −y}

5. Muestre que tambi´en ser´ an espacios vectoriales

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

75

´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

a) El conjunto de todas las funciones f = f (x) definidas en x = 1 con f (1) = 0. Si f (1) = c ¿Tendremos igual un espacio vectorial? ¿Por qu´e? b) Los vectores (x, y, z) ∈ V3 tal que sus componentes satisfacen el siguiente sistema de ecuaciones algebraico a11 x + a12 y + a13 z = 0 a21 x + a22 y + a23 z = 0 a31 x + a32 y + a33 z = 0

2.2.1.

Espacios m´ etricos, normados y con producto interno

in ar

2.2.

M´ etricas y espacios m´ etricos

re lim

El siguiente paso en la dotaci´ on de propiedades de los espacios lineales lo constituye la idea de m´etrica o distancia entre sus elementos. El concepto de m´etrica surge de la generalizaci´on de la idea de distancia entre dos puntos de la recta real. Un espacio vectorial ser´ a m´etrico si podemos definir una funci´on d : V × V → R / ∀ |xi , |yi , |zi ∈ V tal que se cumple que: 1. d (|xi , |yi) ≥ 0 ,

si

d (|xi , |yi) = 0 ⇒ |xi ≡ |yi

2. d (|xi , |yi) ≡ d (|yi , |xi)

rP

3. d (|xi , |yi) ≤ d (|xi , |zi) + d (|yi , |zi) (La desigualdad triangular). As´ı, diremos que (V, K,, d) es un espacio vectorial, lineal, m´etrico. Ejemplos

ad o

1. Espacios reales Rn .

a) Para R, es decir la recta real, la definici´on de m´etrica es d (|xi , |yi) ≡ |x − y| . q 2 2 b) Para R2 , es decir el plano, una definici´on de m´etrica es: d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) .

Bo rr

Tambi´en podemos construir otra definici´on de m´etrica como: d (|xi , |yi) ≡ |x1 − y1 |+|x2 − y2 |. La primera de estas m´etricas se conoce como m´etrica eucl´ıdea y la segunda como m´etrica Manhattan o m´etrica de taxistas. Es claro como el mismo espacio vectorial genera varios espacios m´etricos, dependiendo de la definici´ on de m´etrica. Para estos casos particulares, las m´etricas “miden” el desplazamiento entre dos puntos de forma distinta: en aviones (metr´ıca eucl´ıdea) o veh´ıculos terreste en ciudades.

c) En general para espacios reales Rn una posible definici´on de m´etrica ser´a: q 2 2 2 2 d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) . Esta definici´ on de m´etrica, o distancia, no es m´as que una generalizaci´on del teorema de Pit´ agoras y se denomina Distancia Euclidiana.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

76

´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

2. Espacios unitarios n−dimensionales, o espacios complejos, Cn . La definici´on de distancia puede construirse como: q 2 2 2 2 d (|xi , |yi) ≡ |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | y es claro que se recobra la idea de distancia en el plano complejo: d (|xi , |yi) ≡ |x − y|. ∞ 3. Para los espacios de funciones C[a,b] una posible definici´on de distancia ser´ıa:

d (|f i , |gi) ≡ m´ax |f (t) − g (t)| .

in ar

t∈[a,b]

Es importante destacar que las definiciones de distancia arriba propuesta son invariante bajo traslaciones de vectores. Esto es: |˜ xi = |xi + |ai ∧ |˜ y i = |yi + |ai, entonces, d (|xi , |yi) ≡ d (|˜ xi , |˜ y i) .

2.2.2.

Normas y espacios normados

1. k|vi ik ≥ 0 ,

si

k|vi ik = 0 ⇒ |vi i ≡ |0i

2. kα |vi ik = |α| k|vi ik

re lim

La idea de distancia (o m´etrica) es el equipamiento m´as elemental que uno le puede exigir a un espacio vectorial. Mucho m´ as interesante a´ un son aquellos espacios vectoriales que est´an equipados con la idea de norma y, a partir de all´ı, se define la idea de distancia. La norma tiene que ver con el “tama˜ no” del vector y la m´etrica tiene que ver con la distancia entre vectores. Cuando definimos la m´etrica a partir de la norma, vinculamos las propiedades algebraicas del espacio con sus propiedades geom´etricas. La Norma, N (|vi i) ≡ k|vi ik, de un espacio vectorial V = {|v1 i , |v2 i , |v3 i · · · |vn i} ser´a una funci´ on N : V → R / ∀ |vi i ∈ V que cumple con:

rP

3. k|vi i + |vj ik ≤ k|vi ik + k|vj ik (Desigualdad Triangular).

Ejemplos

ad o

La definici´ on de Norma induce una m´etrica de la forma d (|vi i , |vj i) ≡ k|vi i − |vj ik. Se denota en este caso un espacio vectorial normado como (V, K,; k·k) y tambi´en se le conoce como un Espacio de Banach. El concepto de espacio vectorial normado fue formulado en 1922 de manera independiente por S. Banach5 , H. Hahn y N. Wiener.

Bo rr

1. Los espacios reales, Rn y los espacios complejos Cn . Para estos espacios de Banach, la Norma se define como: ! 12 q n X 2 2 2 2 2 k|xik = |x1 | + |x2 | + |x3 | + · · · + |xn | = |xi | , i=1 3

p

x21

es claro que para un espacio en R se cumple que k|xik = + x22 + x23 , por lo tanto, la idea de Norma generaliza la noci´ on de “tama˜ no” del vector |xi. Tambi´en es claro que la definici´on de distancia se construye a partir de la norma de la forma: q 2 2 2 2 d (|xi , |yi) ≡ k|xi − |yik = |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | .

5 STEFAN BANACH (1892 Kracovia, Polonia-1945 Lvov,Ucrania) Matem´ atico polaco, uno de los fundadores del An´ alisis Funcional Moderno, con sus mayores contribuciones a la teor´ıa de espacios topol´ ogicos. Hizo tambi´ en importantes aportes a la teor´ıa de la Medida, Integraci´ on y Teor´ıa de Conjuntos y Series Ortogonales.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

77

´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

2. Para el espacio lineal de matrices n × n reales o complejas con el campo K real o complejo, una definici´ on de norma es m X n X kM k = |Mab | , a=1 b=1

y la correspondiente definici´ on de distancia d (|xi , |yi) ≡ kM − N k =

m X n X

|Mab − Nab | .

a=1 b=1

k|f ik = m´ax |f (t)| , t∈[a,b]

otra posible definici´ on ser´ıa ! 12

Z k|f ik =

dx |f (x)|

2.2.3.

.

re lim

t∈[a,b]

2

in ar

∞ 3. Para los espacios funcionales C[a,b] una posible definici´on de norma ser´ıa:

Espacios vectoriales con producto interno: Espacios euclidianos

rP

El siguiente paso en la construcci´ on de espacios vectoriales m´as ricos es equiparlo con la definici´ on de producto interno y a partir de esta definici´on construir el concepto de norma y con ´este el de distancia. La idea de producto interno generaliza el concepto de producto escalar de vectores en R3 e incorpora a los espacios vectoriales abstractos el concepto de ortogonalidad y descomposici´on ortogonal. Hist´oricamente, la teor´ıa de espacios vectoriales con producto interno es anterior a la teor´ıa de espacios m´etricos y espacios de Banach y se le debe a D. Hilbert6 . Adicionalmente, la semejanza entre la geometr´ıa euclidiana y la geom´etrica de Rn ha hecho que espacios en los cuales se puedan definir, distancia, ´angulos, a partir de una definici´ on de producto interno, se denominen tambi´en espacios euclidianos. Producto interno

ad o

En un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i · · · |vn i}, la definici´on del producto interno de dos vectores la denotaremos como hvi | vj i y es una funci´on: I (|vi i , |vj i) : V × V → K ∀ |vi i , |vj i ∈ V, es decir, asocia a ese par de vectores con un elemento del campo, o cuerpo, K. Las propiedades que definen el producto interno son: 2

1. hvi | vi i ≡ k|vi ik ∈ K ∧ hvi | vi i ≥ 0 ∗

si

hvi | vi i = 0 ⇒ |vi i ≡ |0i

∀ |vi i , |vj i ∈ V

Bo rr

2. hvi | vj i = hvj | vi i

∀ |vi i ∈ V ,

3. hvi | αvj + βvk i = α hvi | vj i + β hvi | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K

4. hαvi + βvj | vk i = α∗ hvi | vj i + β ∗ hvi | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K 5. hvi | 0i = h0| vi i = 0

6 DAVID HILBERT (1862 Kaliningrad, Rusia-1943 G¨ ottingen, Alemania) Matem´ atico alem´ an defensor de la axiom´ atica como enfoque primordial de los problemas cient´ıficos. Hizo importantes contribuciones en distintas a ´reas de la matem´ atica, como: Invariantes, Campos de N´ umeros Algebraicos, An´ alisis Funcional, Ecuaciones Integrales, F´ısica-Matem´ atica y C´ alculo en Variaciones.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

78

´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

La segunda y cuarta propiedad resultan del hecho de que si el Campo es complejo K = C, entonces hαvi | αvi i = α2 hvi | vi i = i2 hvi | vi i = − hvi | vi i

in ar

lo cual contradice el hecho de que la Norma tiene que ser positiva. Por eso la necesidad de tomar el complejo conjugado. Se dice entonces, que el producto escalar es antilineal respecto al primer factor y lineal respecto al segundo. A partir de la definici´ on de producto interno se construyen los conceptos de norma y distancia q p k|vi ik = hvi | vi i y d (|vi i , |vj i) ≡ k|vi i − |vj ik = hvi − vj | vi − vj i La desigualdad de Cauchy-Schwarz: los ´ angulos entre vectores reales y complejos

Todo producto interno hvi | vj i definido en un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i · · · |vn i} cumple con la desigualdad de Cauchy-Schwarz 2

|hvi | vj i| ≤ hvi | vi i hvj | vj i

⇐⇒

|hvi | vj i| ≤ k|vi ik k|vj ik .

re lim

Es claro que si |vi i = |0i ∧ |vj i = |0i se cumple la igualdad y es trivial la afirmaci´on. Para |vi i ∧ |vj i cualesquiera, procedemos construyendo |vk i = α |vi i + β |vj i, α y β tendr´an valores particulares, por lo tanto hvk | vk i ≡ hαvi + βvj | αvi + βvj i ≥ 0 , esto significa que

hαvi + βvj | αvi + βvj i = hαvi | αvi i + hαvi | βvj i + hβvj | αvi i + hβvj | βvj i ≥ 0 2

2

rP

= |α| hvi | vi i + α∗ β hvi | vj i + β ∗ α hvj | vi i + |β| hvj | vj i ≥ 0 . Si α = hvj | vj i, se tiene que

2

hvj | vj i hvi | vi i + β hvi | vj i + β ∗ hvj | vi i + |β| ≥ 0 hvj | vj i hvi | vi i



2

−β hvi | vj i − β ∗ hvj | vi i − |β|

ad o

seguidamente seleccionamos β = − hvj | vi i y por lo tanto β ∗ = − hvi | vj i y consecuentemente hvj | vj i hvi | vi i



hvj | vi i hvi | vj i + hvi | vj i hvj | vi i − hvj | vi i hvi | vj i

hvj | vj i hvi | vi i



hvi | vj i hvj | vi i = |hvi | vj i| .

2

J

Bo rr

De la desigualdad de Cauchy-Schwarz y la definici´on de norma se desprende que 2

|hvi | vj i| 2

2

k|vi ik k|vj ik

≤1



−1 ≤

|hvi | vj i| ≤ 1, k|vi ik k|vj ik

por lo tanto podemos definir el “´ angulo” entre los vectores abstractos |vi i ∧ |vj i como cos(ΘG ) =

|hvi | vj i| , k|vi ik k|vj ik

donde hemos denotado como ΘG un ´ angulo gen´erico que forman vectores reales o complejos.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

79

´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

Si estamos considerando espacios vectoriales reales -en los cuales el Cuerpo corresponde a los n´ umeros reales- entonces el ´ angulo definido entre vectores abstractos reales corresponde al que intuitivamente siempre hemos considerado para los vectores cartesianos y que discutimos en la secci´on 1.2.3, cos(ΘR ) =

|hvi | vj i| k|vi ik k|vj ik

con

0 ≤ ΘR ≤ π ,

in ar

donde se toma ΘR = 0 para vectores colineales y ΘR = π para vectores opuestos (antilineales). Si bien es cierto que esta definici´ on coincide con la de los vectores cartesianos, hay que resaltar que la estamos extendiendo para cualquier vector abstracto, vale decir: funciones reales, matrices, y todos los objetos matem´ aticos que cumplan con las reglas para los espacios vectoriales expuestas en 2.1.3. Para el caso de espacios vectoriales complejos la situaci´on es m´as sutil y significa definir un ´angulo entre dos vectores abstractos y complejos, sin embargo podemos abordar el problema suponiendo:

re lim

un espacio complejo n−dimensional de n−uplas de n´ umeros complejos |zi ↔ (z1 , z2 , · · · zn ) asociado (isomorfo) a un espacio vectorial real de 2n dimensiones con vectores representados por 2n−uplas de n´ umeros reales |wi ↔ (Re(z1 ), Re(z2 ), · · · Re(zn ), Im(z1 ), Im(z2 ), · · · Im(zn )) donde hemos representado Re(zj ) y Im(zj ) como las partes reales e imaginarias de zj , respectivamente o, directamente aP partir de una definici´on de producto interno entre vectores complejos implementado n por hwi | vj i = j=1 wj∗ vj Ambas aproximaciones no son del todo independientes pero igualmente justificadas7 . Consideremos el segundo caso, vale decir: directamente a partir de una definici´on de producto interno entre vectores complejos. Para este caso consideramos un ´angulo complejo y cos(ΘC ) una funci´on de variable compleja, que puede ser expresada en su forma polar como |hvi | vj i| ⇒ cos(ΘC ) = ρ eφ k|vi ik k|vj ik

rP

cos(ΘC ) =

con

ρ = | cos(ΘC )| < 1 .

ad o

Entonces podemos asociar ρ = cos(ΘH ) y definir ΘH , en el rango 0 ≤ ΘH ≤ π/2, como el ´ angulo herm´ıtico entre los vectores complejos |vi i y |vj i. Mientras que φ, definido en −π ≤ φ ≤ π, corresponde al pseudo angulo de Kasner, que representa la orientaci´on o rotaci´on del ´angulo herm´ıtico y no tiene mayor significado ´ al cuantificar el ´ angulo entre esos dos vectores. Esta diferencia de significados puede intuirse cuando multiplicamos |vi i y |vj i, por una constante compleja: |˜ vi i → αi |vi i y comprobamos que el ´angulo ΘH permanece inalterado y no as´ı el ´ angulo de Kasner8 . Teoremas del Coseno y de Pit´ agoras

Bo rr

A partir de la definici´ on de norma se obtiene ∗

2

k|vi i + |vj ik = hvi + vj | vi + vj i = hvi | vi i + hvi | vj i + hvi | vj i + hvj | vj i = hvi | vi i + hvj | vj i + 2 Re (hvi | vj i)

con lo cual hemos generalizado el teorema del coseno para un espacio vectorial abstracto 2

2

2

k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(ΘG ) .

7 Scharnhorst,

K. (2001). Angles in complex vector spaces. Acta Applicandae Mathematica, 69(1), 95-103. consultarse Reju, V. G., Koh, S. N., y Soon, Y. (2009). An algorithm for mixing matrix estimation in instantaneous blind source separation. Signal Processing, 89(9), 1762-1773. 8 Puede

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

80

´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

De tal forma que para espacios vectoriales reales tendremos 2

2

2

k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(Θ)

con

0≤Θ≤π;

y para espacios vectoriales complejos 2

2

2

k|vi i + |vj ik = k|vi ik + k|vj ik + 2 k|vi ik k|vj ik cos(ΘH ) cos φ

con

0 ≤ ΘH ≤ π/2 .

Ejemplos 1. Espacios euclidianos reales, Rn y espacios euclidianos complejos Cn .

in ar

y para el caso que los vectores |vi i ∧ |vj i sean ortogonales, esto es hvi | vj i = 0, tendremos el teorema de Pit´ agoras generalizado 2 2 2 k|vi i + |vj ik = k|vi ik + k|vj ik .

Los vectores en estos espacios euclidianos reales pueden ser representados por |xi = (x1 , x2 , · · · xn ) ∧ |yi = (y1 , y2 , · · · , yn ) y el producto interno queda definido por n X

x∗i yi ,

re lim

hx| yi = x∗1 y1 + x∗2 y2 + x∗3 y3 , · · · x∗n yn =

i=1

es claro que esta definici´ on de producto interno coincide, para R2 (y R3 ) con la idea de producto escalar convencional que consideramos en las secciones 1.2.3 y 1.4.2, vale decir  a = ax i + ay j  ⇒ a · b = ax bx + ay by .  b = bx i + by j

rP

Ahora bien, el lector puede comprobar que para vectores en R2 tambi´en se puede proveer una definici´ on de producto interno a ~ b = 2ax bx + ax by + ay bx + ay by , igualmente v´ alida, con lo cual es claro que en un mismo espacio vectorial pueden coexistir diferentes productos internos.

ad o

Por su parte, la norma es

v u n q p uX 2 2 2 2 x2i . k|xik = hx| xi = x1 + x2 + x3 , · · · + xn = t i=1

Bo rr

La distancia tambi´en recupera la idea intuitiva de distancia euclidiana p d (|xi , |yi) ≡ k|xi − |yik = hx − y| x − yi

d (|xi , |yi) =

q

2

2

2

2

(x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) .

El teorema del coseno queda como n X i=1

Hern´ andez & N´ un ˜ez

2

(xi + yi ) =

n X i=1

x2i +

n X

v u n uX 2 x2 y + 2t i

i=1

i

i=1

v u n uX t yi2 cos(Θ) , i=1

Universidad de los Andes / Universidad Industrial de Santander

81

´ 2.2. ESPACIOS METRICOS, NORMADOS Y CON PRODUCTO INTERNO

mientras que el teorema de Pit´ agoras es n X

2

(xi + yi ) =

i=1

n X

x2i

+

i=1

n X

yi2 ,

i=1

obvio que para R2 tanto el teorema del coseno como el teorema de Pit´agoras retoman su forma tradicional. Finalmente la desigualdad de Cauchy-Schwarz se expresa 2 n n n X X X 2 |hx| yi| ≤ k|xik k|yik ⇒ xi yi ≤ xi yi2 . i=1

i=1

in ar

i=1

∞ 2. Para los espacios de funciones continuas C[a,b] una posible definici´on de producto interno ser´ıa b

Z

dx f ∗ (x) g (x) ,

hf | gi = a

de la cual se deriva la expresi´ on para la norma b

Z

2

re lim

2

dx |f (x)| ,

k|f ik = hf | f i =

a

la distancia entre funciones quedar´ a definida como d (|f i , |gi) ≡ k|f i − |gik ≡ s Z

p

hf − g| f − gi =

b

dx |f (x) − g (x)| a

v uZ u =t

Z

2

dx |f (x)| − 2 Re

!

b

dx

f∗

a

a

b

dx |g (x)|

Z

! 21

b

dx |f (x)|

2

Z

Hern´ andez & N´ un ˜ez

2

! 21

b

2

dx |g (x)|

cos(Θ) ,

a

a

Rb

cos(Θ) =  Rb a

dx f ∗ (x) g (x) 1  1 , 2 2 2 2 Rb dx |g (x)| dx |f (x)| a a

y como era de esperarse el teorema de Pit´agoras queda Z b Z b Z 2 2 dx |f (x) + g (x)| = dx |f (x)| + a

2

dx |g (x)| .

a

+2

donde

b

+ a

Los teoremas del coseno puede ser escrito como Z b Z b Z 2 2 dx |f (x) + g (x)| = dx |f (x)| +

Bo rr

(x) g (x)

Z

a

ad o

a

b

2

rP

d (|f i , |gi) =

q ∗ hf | f i − hf | gi − hf | gi + hg| gi

a

b

2

dx |g (x)| ,

a

Universidad de los Andes / Universidad Industrial de Santander

82

2.3. VARIEDADES LINEALES

para funciones f (x) y g (x) ortogonales, mientras que para este caso, la desigualdad de Cauchy-Schwarz se expresa 2 Z Z Z b b b 2 2 ∗ dx |g (x)| . dx |f (x)| dx f (x) g (x) ≤ a a a

2.2.4.

Ejercicios

1. Consideremos el espacio vectorial conformado por los vectores geom´etricos en R3 ¿Ser´an espacios euclideanos para las siguientes definiciones de producto interno?

in ar

a) El producto de las longitudes de los vectores. b) El producto de las longitudes por el cubo del coseno del ´angulo entre ellos. c) El producto como dos veces el producto escalar usual entre vectores.

2. Encuentre los ´ angulos en el “tri´ angulo” formado por los vectores: |x1 i = 1, |x2 i = t, |x3 i = 1 − t.

re lim

3. Sea E0 un subespacio euclideano de dimensi´on k, E0 ⊂ E, y sea |vi un vector que no necesariamente es un elemento E0 . Podemos plantearnos el problema de representar |vi de la forma |vi = |gi + |hi

donde |gi ∈ E0 y |hi es ortogonal a E0 . La existencia de la expansi´on anterior nos muestra que el espacio total E, de dimensi´ on n, es la suma directa de los subespacios E0 y su complemento ortogonal ⊥ E de dimensi´ on n − k. Encuentre el vector |vi, como la suma del vector |gi, expandido por los vectores |gi i, y el vector perpendicular |hi cuando:

2.3.

Variedades lineales

Dependencia/Independencia lineal

ad o

2.3.1.

rP

a) |hi = (5, 2, −2, 2) , |g1 i = (2, 1, 1, −1) , |g2 i = (1, 1, 3, 0). b) |hi = (−3, 5, 9, 3) , |g1 i = (1, 1, 1, 1) , |g2 i = (2, −1, 1, 1) , |g3 i = (2, −7, −1, −1).

Siguiendo la misma l´ınea de razonamiento que en las secciones 1.2 y 1.4.2, generalizamos el concepto de dependencia e independencia lineal de R2 y R3 . As´ı: |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i =

n X

Ci |vi i ,

i=1

Bo rr

Las cantidades Ci son llamados los coeficientes de la combinaci´on lineal. Podemos afirmar que: Si esta ecuaci´ on se cumple para alg´ un conjunto de {Ci } no nulos, se dir´a que el conjunto de vectores correspondiente {|vi i} son linealmente dependientes.

Por el contrario, si esta ecuaci´ on s´ olo puede ser satisfecha para todos los Ci = 0, entonces se dir´ a que el conjunto de vectores correspondiente {|vi i} son linealmente independientes.

Notemos que la suma que aparece aqu´ı es necesariamente una suma finita, y cuando un determinado conjunto de vectores es linealmente dependiente, entonces uno de ellos se puede escribir como combinaci´on lineal de los dem´ as.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

83

2.3. VARIEDADES LINEALES

Ejemplos dependencia/independencia lineal 1. Dados tres vectores en R4 

 1  3   |v1 i =   −1  ; 2



 2  0   |v2 i =   1 ; 3



 −1  1   |v3 i =   0 . 0

in ar

El criterio de independencia lineal se cumple si |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i y todos los {Ci } son nulos, esto es C1 +2C2 −C3 = 0 3C1 +C3 = 0 −C1 +C2 = 0 2C1 +3C2 = 0 de donde es claro ver que la u ´nica soluci´on posible implica C1 = C2 = C3 = 0, es decir, el conjunto de vectores: {|v1 i , |v2 i , |v3 i} son linealmente independientes.

re lim

2. Si consideramos el espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} ser´an ejemplos de independencia lineal: |vk i ≡ f (t) = tk para k = 1, 2, 3, · · · Es claro que un polinomio de gradoPn + 1, no podr´ a ser n expresado en t´erminos un polinomio de grado n, en otras palabras, tn+1 6= i=0 Ci ti . |vk i ≡ f (t) = eak t con a1 , a2 , a3 , · · · coeficientes constantes. Tambi´en salta a la vista que no podremos expresar una de esas funciones exponenciales como una combinaci´on lineal. 3. Si consideramos |v1 i = cos2 (t), |v2 i = sen2 (t) y |v3 i = 1, es claro que |v1 i , |v2 i , y |v3 i son linealmente dependientes por cuanto |v1 i + |v2 i = |v3 i . N´otese que si

rP

|v1 i = cos(t), |v2 i = sen(t) y |v3 i = 1,

entonces |v1 i , |v2 i , y |v3 i ser´ an vectores linealmente independientes. 4. Consideremos ahora otro ejemplo en P 3 : |x1 i = 1;

|x2 i = x − 1;

|x3 i = x2 ;

|x4 i = x2 + 2x + 1 .

ad o

Podemos ver que este conjunto es linealmente dependiente ya que siempre podremos expresar |x4 i = 3|x1 i + 2|x2 i + |x3 i .

Ejercicios

Bo rr

1. Considere un conjunto S conformado u ´nicamente por n´ umeros reales positivos. Consideremos las siguientes reglas sobre S: Por “suma”de dos n´ umeros entenderemos su producto en el sentido usual, y el “producto”de un elemento r ∈ S y un n´ umero real λ entenderemos r elevado a la potencia de λ, en el sentido usual. ¿S es un espacio vectorial?

2. Considere el conjunto de vectores en el plano conformado por vectores localizados en el origen y cuyos puntos finales permanecen siempre en el primer cuadrante. ¿Este conjunto es un espacio vectorial? 3. Diga si los siguientes conjuntos de vectores en P 3 son o no linealmente independientes. a) |x1 i = 2x; |x2 i = x2 + 1; |x3 i = x + 1; |x4 i = x2 − 1 b) |x1 i = x(x − 1); |x2 i = x; |x3 i = x3 ; |x4 i = 2x3 − x2

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

84

2.3. VARIEDADES LINEALES

Practicando con Maxima: En 2.3.1 vimos que si en la ecuaci´ on |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i todos los Ci = 0, entonces se dir´ a que el conjunto de vectores son linealmente independientes. Para el primer ejemplo de esa secci´ on se obtuvo el siguiente sistema de ecuaciones: +2C2

−C3 +C3

+C2 +3C2

= 0 = 0 = 0 = 0

in ar

C1 3C1 −C1 2C1

que procedemos a resolver usando el comando linsolve:

solve: dependent equations eliminated: (4) ( %o1) [C1 = 0, C2 = 0, C3 = 0, C4 = %r1 ]

2.3.2.

Bases de un espacio vectorial

re lim

(%i1) linsolve([C1+2*C2-C3=0, 3*C1+C3=0, -C1+C2=0, 2*C1+3*C2=0], [C1,C2,C3,C4]);

rP

Ahora bien, dado un espacio vectorial V = {|v1 i , |v2 i , |v3 i · · · , |vn i}, si encontramos que el conjunto de {|vn i} es linealmente dependiente, entonces siempre es posible despejar uno de los vectores en t´erminos de los dem´ as, vale decir |vn i = C¯1 |v1 i + C¯2 |v2 i + C¯3 |v3 i · · · + C¯n−1 |vn−1 i =

n−1 X

C¯i |vi i .

i=1

ad o

Seguidamente podemos proceder a comprobar si {|v1 i , |v2 i , |v3 i · · · , |vn−1 i} es un conjunto de vectores linealmente independientes, es decir: C¯1 = C¯2 = C¯3 = · · · = C¯n−1 = 0. En caso de no serlo se procede otra vez a despejar uno de los vectores en t´erminos de los anteriores y aplicar el criterio de independencia lineal: |vn−1 i = C˜1 |v1 i + C˜2 |v2 i + C˜3 |v3 i · · · + C˜n−2 |vn−2 i =

n−2 X

C˜i |vi i ,

i=1

Bo rr

se comprueba si se cumple

C˜1 = C˜2 = C˜3 = · · · = C˜n−2 = 0 .

En caso contrario, se repite este procedimiento hasta encontrar un conjunto {|v1 i , |v2 i , |v3 i · · · , |vn−j i} de vectores linealmente independientes. Esto es: C˘1 = C˘2 = C˘3 = · · · = C˘n−j = 0 ,

y por lo tanto

|vn−j+1 i = C˘1 |v1 i + C˘2 |v2 i + C˘3 |v3 i · · · + C˘n−j |vn−j i =

n−j X

C˘i |vi i .

i=1

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

85

2.3. VARIEDADES LINEALES

Diremos entonces que {|v1 i , |v2 i , |v3 i , · · · , |vn−j i} forman una base para V. La dimensi´ on de V ser´ a el n´ umero de vectores linealmente independientes, que para este caso ser´a n − j. As´ı se puede comprobar que, dado |xi ∈ V, entonces |xi =

n−j X

Ci |vi i ∀ |xi ∈ V ,

i=1

|v1 i , |v2 i , |v3 i , · · · , |vn−j i

in ar

y el conjunto {C1 , C2 , C3 , · · · Cn−j } ser´ au ´nico. Diremos que el n´ umero m´ınimo de vectores:

que expanden V conforman una base de ese espacio vectorial, y que el n´ umero finito de cantidades C1 , C2 , C3 , · · · Cn−j ,

re lim

constituyen las componentes de |xi relativas a la base {|v1 i , |v2 i , · · · , |vn−j i}. Queda claro que el vector cero,|0i, es linealmente dependiente, y cualquier conjunto de vectores que lo contenga es un conjunto linealmente dependiente de vectores. De lo anteriormente expuesto se puede concretar la siguiente definici´on para una base de ese espacio V: Un conjunto finito de vectores B = {|v1 i , |v2 i , |v3 i , · · · , |vn i} ∈ V,

ad o

rP

se les denominar´ a base del espacio vectorial V si los |v1 i , |v2 i , |v3 i , · · · , |vn i son linealmente independientes y (obviamente) expanden V. Diremos entonces que B es un sistema generador de V. Es f´ acil darse cuenta que si V lo expanden n vectores linealmente independientes, cualquier otro vector |xi ∈ V ser´ a linealmente dependiente. Igualmente, y f´acilmente demostrable, es que todas las bases de un espacio vectorial V, de dimensi´ on finita, tendr´an el mismo n´ umero de elementos y ese n´ umero de elemento ser´ a la dimensi´ on del espacio, es decir, la dimV = n´ umero n de vectores que forman una base de dicho espacio. Adicionalmente, puede ser que dentro de un espacio vectorial V se puedan encontrar subespacios y dentro de esos subespacios un conjunto de vectores base. Vale decir, si ∀ |xi ∈ V: |xi = C1 |v1 i · · · + Cn−j |vn−j i + Cn−j+1 |vn−j+1 i · · · Cn−k |vn−k i + Cn−k+1 |vn−k+1 i · · · Cn |vn i {z } {z } | {z } | | S1

con

|xi = |x1 i + |x2 i + |x3 i

S3

S2

y

|x1 i ∈ S1 ;

|x2 i ∈ S2 ;

|x3 i ∈ S3 ,

Bo rr

entonces diremos que V es la suma directa de S1 , S2 y S3 y lo denotaremos como: V = S1 ⊕ S2 ⊕ S3 . Tambi´en es bueno se˜ nalar que, una vez fijada una base, las componentes de un vector seg´ un esa base, son u ´nicas y que dada una base de un espacio vectorial, se pueden construir otras bases diferentes de ´esta, como veremos m´ as adelante.

2.3.3.

El determinante de Gram

Existe una forma directa de comprobar la independencia lineal de un conjunto de vectores {|v1 i , |v2 i , |v3 i · · · , |vn i} ∈ V .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

86

2.3. VARIEDADES LINEALES

al multiplicar por hvi |, resulta: C1 hv1 |v1 i + C2 hv1 |v2 i + C3 hv1 |v3 i + · · · + Cn hv1 |vn i C1 hv2 |v1 i + C2 hv2 |v2 i + C3 hv2 |v3 i + · · · + Cn hv2 |vn i .. .

= hv1 |xi = hv2 |xi .. .

C1 hvn |v1 i + C2 hvn |v2 i + C3 hvn |v3 i + · · · + Cn hvn |vn i = hvn |xi

donde las C1 , C2 , C3 , · · · Cn son las inc´ ognitas, por lo cual, que hv1 |v1 i hv1 |v2 i hv1 |v3 i hv2 |v1 i hv2 |v2 i hv2 |v3 i .. .. . . hvn |v1 i hvn |v2 i hvn |v3 i

para que este sistema tenga soluci´on se impone ··· ··· ···

9

hv1 |vn i hv2 |vn i 6= 0 .. . hvn |vn i

in ar

Dado un |xi ∈ V, entonces, y     n  X |xi = Ci |vi i ⇒   i=1  

Esto es, que el determinante de Gram distinto de cero implica que el conjunto de vectores: {|v1 i , |v2 i , |v3 i · · · , |vn i} es linealmente independiente. La inversa tambi´en es cierta.

re lim

Ejemplos de bases en espacios lineales

1. El espacio vectorial Vn tendr´ a dimensi´on n y una de las posibles bases {|v1 i , |v2 i , |v3 i · · · , |vn i} ser´ a |v1 i = (1, 0, 0, · · · , 0) |v2 i = (0, 1, 0, · · · , 0) |v3 i = (0, 0, 1, · · · , 0) .. .. . . |vn−j i =

(0, 0, 0, · · · , 1)

rP

Esta base se conoce con el nombre de base can´onica.

2.3.4.

ad o

2.  El espacio de polinomios, P n , de grado g ≤ n tendr´a como una de las posibles bases al conjunto 2 3 n 1, t, t , t , · · · , t , porque cualquier polinomio de grado ≤ n podr´a ser expresado como combinaci´ on ∞ lineal de estos n+1 vectores. M´ a s a´ u n, el espacio de todos los polinomios, P , tendr´ a como una posible  base al conjunto de funciones 1, t, t2 , t3 , · · · , tn · · · . En este caso P ∞ ser´a infinito dimensional.

Ortogonalidad y bases ortogonales

En un espacio vectorial con producto interno, dos vectores |e1 i ∧ |e2 i ser´an ortogonales si su producto interno se anula |e1 i ⊥ |e2 i ⇔ he2 |e1 i = 0 .

Bo rr

Se denomina un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i · · · , |en i} si  δij = 0 2 hei |ej i = δij k|ej ik , i, j = 1, 2, 3, · · · , n y con δij = 1

si i 6= j si i = j

2

y se denominar´ a conjunto ortonormal si k|ej ik = 1.

9 JORGEN PEDERSEN GRAM (1850-1916 Dinamarca) Matem´ atico dan´ es, que alternaba su actividad de gerente de una importante compa˜ n´ıa de seguros con las matem´ aticas (Probabilidad, An´ alisis Num´ erico y Teor´ıa de N´ umeros). Es conocido mayormente por el m´ etodo de ortogonalizaci´ on, pero se presume que no fue ´ el quien primero lo utiliz´ o. Aparentemente fue ideado por Laplace y utilizado tambi´ en por Cauchy en 1836. Gram muri´ o arrollado por una bicicleta a la edad de 61 a˜ nos.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

87

2.3. VARIEDADES LINEALES

in ar

Un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i , · · · , |en i} ∈ V es linealmente independiente, m´ as a´ un, para el caso particular de un espacio euclidiano, {|e1 i , |e2 i , |e3 i , · · · , |en i} conforman una base ortogonal para V. La demostraci´ on es sencilla, para un determinado espacio vectorial una combinaci´on lineal de los {|e1 i , |e2 i , |e3 i , · · · , |en i} se anula.  Pn Pn he1 | [Pi=1 Ci |ei i] = 0 ⇒ ⇒ C1 = 0  i=1 Ci δ1i = 0  P  n n  he | [ C |e i] = 0 ⇒ C δ = 0 ⇒ C  2 i i i 2i 2 =0 n  Pni=1 Pni=1 X C δ = 0 ⇒ C =0 C |e i] = 0 ⇒ he | [ i 3i 3 i i 3 i=1 i=1 Ci |ei i = |0i ⇒  . . . .  .. .. .. .. i=1    P Pn  n ⇒ Cn = 0 ⇒ hen | [ i=1 Ci |ei i] = 0 i=1 Ci δni = 0

re lim

con lo cual, queda claro que: {|e1 i , |e2 i , |e3 i , · · · , |en i} son un conjunto de vectores linealmente independientes. Si la dimensi´ on de V es n (dim V = n) y tenemos n vectores linealmente independientes, entonces esos n vectores {|e1 i , |e2 i , |e3 i , · · · , |en i} forman una base ortogonal para V, y por lo tanto, las componentes de un vector en esa base se pueden expresar de manera simple. " n # n X X hej |xi hej |xi = ∀ |xi ∈ V ⇒ |xi = Ci |ei i ⇒ hej |xi = hej | Ci |ei i ⇒ Cj = 2 he |e i j j k|ej ik i=1 i=1 2

En el caso de un conjunto ortonormal de vectores {|ˆe1 i , |ˆe2 i , |ˆe3 i · · · , |ˆen i} ∈ Vn , con k|ˆej ik = 1, las componentes de cualquier vector quedan determinadas de una forma todav´ıa m´as simple y con consecuencias mucho m´ as impactantes 2

k|ˆej ik = 1 ⇒ Cj = hˆej |xi ⇒ |xi =

n X

rP

i=1

Ci |ˆei i =

Es bueno recalcar la relaci´ on de cierre10

n X

n X

hˆei |xi |ˆei i ≡

i=1

n X

|ˆei i hˆei | |xi .

i=1

|

{z 1

}

|ˆei i hˆei | = 1 ,

ad o

i=1

con lo cual es trivial demostrar la f´ ormula de Parseval ! n n n X X X ∗ ∀ |xi , |yi ∈ V ⇒ hy |xi ≡ hy| |ˆei i hˆei | |xi = hy| ˆei i hˆei | xi = hy |ˆei i hx |ˆei i i=1

i=1

i=1

Bo rr

para el caso de |xi ≡ |yi se llega la generalizaci´on del Teorema de Pit´agoras 2

hx |xi ≡ k|xik =

n X

2

|hx |ˆei i| .

i=1

10 La

relaci´ on de cierre expresa una propiedad importante de los vectores base: si los |ˆ ei i se multiplican por la derecha por los hˆ ei |, el resultado, luego se sumar para todos los vectores, es el operador lineal unitario. Se dice tambi´ en que el conjunto de vectores {|ˆ ei i} forman un conjunto completo.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

88

2.3. VARIEDADES LINEALES

Ejemplos de bases ortogonales 1. Funciones trigonom´etricas: Uno de los ejemplos m´ as emblem´ aticos es el caso de las funciones continuas, R 2π reales de variable real y ∞ definidas en [0, 2π], C[0,2π] , con el producto interno definido por: hf | gi = 0 dx f (x) g (x), ´esto es, el conjunto de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i · · · } representadas por |e0 i = 1,

|e2n−1 i = cos(nx)

y

|e2n i = sen(nx),

con n = 1, 2, 3, · · ·

re lim

in ar

Es claro que {|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } es un conjunto de funciones ortogonales por cuanto   R 2π     R0 dx sen(nx) sen(mx) = 0   2π  0 si n = 6 m  dx cos(nx) sen(mx) = 0  0 R     2π dx cos(nx) cos(mx) = 0   0      R 2 2π hen |em i = δnm k|en ik ⇒  dx = 2π si n = m = 0  0         R   2 2π  k|en ik si n = m  dx cos2 (nx) = π si n = m = 2k − 1  0             R 2π dx sen2 (nx) = π si n = m = 2k 0 con k = 1, 2, 3, · · · .

Podremos construir una base ortonormal de funciones: {|ˆe1 i , |ˆe2 i , |ˆe3 i , · · · , |ˆen i , · · · } de la forma 1 |ˆe0 i = √ , 2π

1 |ˆe2n−1 i = √ cos(nx) π

y

1 |ˆe2n i = √ sen(nx). π

ad o

rP

Dada una funci´ on definida en el intervalo [0, 2π], podremos expresarla en t´erminos  R 2π  dx f (x) = C0 si  0    ∞  X R 2π |f i = Ci |ei i ⇒ Ci = hei |f i = dx f (x) cos(nx) = C2n−1 si 0   i=1     R 2π dx f (x) sen(nx) = C si 2n 0

de esta base como i=0 i = 2n − 1 i = 2n

donde los Ci son los coeficientes de Fourier. 2. Polinomios de Legendre:

Bo rr

Otro de los ejemplos t´ıpicos son los llamados polinomios de Legendre, Pn (x), definidos en el intervalo [−1, 1]. Estos polinomios pueden ser generados a partir de la F´ormula de Rodrigues11 Pn (x) =

1 dn 2 (x − 1)n , n!2n dxn

n = 0, 1, 2, .....

con P0 (x) = 1. Algunos de estos polinomios son: P1 (x) = x , P2 (x) =

1 x 1 (3x2 − 1) , P3 (x) = (5x2 − 3) , P4 (x) = (35x4 − 30x2 + 3) , . . . 2 2 8

11 BENJAMIN OLINDE RODRIGUES (1794 Burdeos, Francia - 1851, Par´ ıs Francia) Banquero, matem´ atico y activista pol´ıtico socialista franc´ es durante la Revoluci´ on Francesa. De origen jud´ıo, y cuyas contribuciones fundamentales como la f´ ormula para la generaci´ on de Polinomios de Legendre, permanecieron olvidadas por mucho tiempo.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

89

2.3. VARIEDADES LINEALES

Como veremos m´ as adelante, los polinomios de Legendre son soluci´on de la ecuaci´on diferencial (1 − x2 ) y 00 − 2x y 0 + λ(λ + 1)y = 0 . Es f´ acil comprobar que los polinomios de Legendre |Pα i = Pα (x) son mutuamente ortogonales con un producto interno definido como Z 1 2 Pn (x)Pm (x)dx = hPn |Pm i = δnm , 2n +1 −1

Z

2

1

Pn2 (x)dx =

kPn k = hPn |Pn i = −1

in ar

y con una norma definida por 2 . 2n + 1

Por lo tanto, cualquier funci´ on en el intervalo [−1, 1] puede ser expresada en esa base. ∞ X k=0

Si f (x) es un polinomio f (x) =

m X

ak |Pk i =

k=0

bn xn =

n=0

∞ X hPk |F i |Pk i . hPk |Pk i

re lim

f (x) = |F i =

∞ X

ak |Pk i =

k=0

∞ X

an Pn (x)

n=0

rP

los coeficientes an se determinan f´ acilmente a trav´es de un sistema de ecuaciones algebraicas. Por ejemplo, para el caso de f (x) = x2 tendremos

ad o

f (x) = x2 = a0 P0 (x) + a1 P1 (x) + a2 P2 (x) 1 = a0 + a1 x + a2 (3x2 − 1) 2 1 2 = P0 (x) + P2 (x) . 3 3

Practicando con Maxima:

Bo rr

En este ejercicio aprenderemos a calcular una base a partir de un conjunto de vectores perteneciente a un determinado espacio vectorial. Por ejemplo, si en R5 tenemos el siguiente conjunto de vectores: |v1 i = (1, 2, 3, 4, 5) ,

|v2 i = (0, −1, 1, 2, 3) ,

|v3 i = (3, 2, 1, 0, −1) ,

|v4 i = (−4, −3, −2, −1, 0) .

(%i1) v1:[1,2,3,4,5]; v2:[0,-1,1,2,3]; v3:[3,2,1,0,-1]; v4:[-4,-3,-2,-1,0];

( %o1) ( %o2) ( %o3) ( %o4)

[1, 2, 3, 4, 5] [0, −1, 1, 2, 3] [3, 2, 1, 0, −1] [−4, −3, −2, −1, 0]

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

90

2.3. VARIEDADES LINEALES

Con los vectores dados construimos la siguiente matriz (%i5) M:matrix(v1,v2,v3,v4);   1 2 3 4 5  0 −1 1 2 3  ( %o5)  3 2 1 0 −1 −4 −3 −2 −1 0 Como veremos m´ as adelante, el Rango de una matriz indica el n´ umero m´aximo de vectores fila o columna linealmente independientes.

in ar

(%i6) rank(M); ( %o6) 3

(%i7) echelon(M);  1 0 1 23 3 0 1 −1 −2 ( %o7)  5 0 0 1 3 0 0 0 0

re lim

Podemos aplicar el m´etodo de eliminaci´on gaussiana a la matriz M para obtener una nueva matriz escalonada. El c´ alculo adem´ as se hace normalizando el primer elemento no nulo de cada fila. Esto se logra con el comando echelon(M).

 − 31 −3   7  3 0

(%i8) e1:row(%o7,1); ( %o8)

1

2 3

1 3

0

− 13



(%i9) e2:row(%o7,2); 0

1

−1

−2

−3



ad o

( %o9)

rP

Por lo tanto, cada fila de la matriz anterior conformar´a un conjunto de vectores linealmente independiente. Los podemos aislar de la matriz con el comando row(M,i), que devolver´a la i-´esima fila de la matriz M.

(%i10)e3:row(%o7,3);  ( %o10) 0 0 1 53 73

Bo rr

Es trivial ver que e1, e2 y e3 son linealmente independientes.

2.3.5.

Ortogonalizaci´ on

Hemos visto que un conjunto de vectores ortogonales forman una base para un espacio vectorial. Ahora bien, siempre es posible construir un conjunto de vectores ortogonales a partir de un conjunto de vectores linealmente independientes. Es m´etodo de “ortogonalizaci´on” se conoce como el m´etodo de Gram-Schmidt12 , 12 ERHARD SCHMIDT (1876, Estonia - 1959 Alemania). Matem´ atico alem´ an fundador del primer instituto de matem´ aticas aplicadas de Berl´ın. Alumno de Hilbert, Schmidt hizo sus mayores contribuciones en el campo de Ecuaciones Integrales y Teor´ıa de Funciones en el Espacio de Hilbert.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

91

2.3. VARIEDADES LINEALES

en honor de estos dos matem´ aticos alemanes que NO lo inventaron pero hicieron famoso al m´etodo que, al parecer, se le debe al matem´ atico franc´es P.S. Laplace. Consideremos, por ejemplo, un conjunto de vectores linealmente independientes, {|v1 i , |v2 i , |v3 i , · · · , |vn i} que expanden un espacio euclidiano real de dimensi´on finita, E n . Entonces siempre se puede construir un conjunto ortogonal de vectores, {|e1 i , |e2 i , |e3 i , · · · , |en i} que tambi´en expandan E n de la siguiente forma: |e1 i ≡ |v1 i hv2 |e1 i he1 |e1 i

|e1 i

|e3 i ≡ |v3 i −

hv3 |e2 i he2 |e2 i

|e2 i −

|e4 i ≡ |v4 i −

hv4 |e3 i he3 |e3 i

|e3 i −

\ hv3 |e1 i he1 |e1 i

hv4 |e2 i he2 |e2 i

he2 |e1 i = 0 

|e1 i

\

|e2 i −

hv4 |e1 i he1 |e1 i

\

  he4 |e1 i = 0 he4 |e2 i = 0  he4 |e3 i = 0

.. .

|en i ≡ |vn i −

hvn |ei i i=1 hei |ei i

Pn−1

|ei i

      

he4 |e1 i = 0 he4 |e2 i = 0 he4 |e3 i = 0 .. .

re lim

.. .

|e1 i

he3 |e1 i = 0 he3 |e2 i = 0

in ar

|e2 i ≡ |v2 i −

\

     

he4 |en−1 i = 0

Ejemplos de ortogonalizaci´ on

rP

As´ı, siempre es posible construir una base ortonormal a partir de un conjunto de vectores linealmente independientes y una definici´ on de producto interno. Esta base ortogonal ser´a u ´nica en E n -para cada definici´ on de producto interno- y si existe otra sus vectores ser´an proporcionales. M´as a´ un, cada espacio vectorial Vn de dimensi´ on finita tendr´ a una base ortogonal asociada13 .

ad o

1. Un subespacio de V4 , expandido por los siguientes vectores       −1 2 1  1   0   3       |v1 i =   −1  ; |v2 i =  1  ; |v3 i =  0  , 0 3 2

Bo rr

13 Hemos construido la base ortogonal para un espacio de dimensi´ on finita, pero es procedimiento es v´ alido para espacios de dimensi´ on infinita

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

92

2.3. VARIEDADES LINEALES

tendr´ a una base ortogonal asociada dada por    −1  1   hv2 |e1 i   |e1 i ≡ |v3 i =   0  ; |e2 i ≡ |v2 i − he1 |e1 i |e1 i =  0

    1 −1 2  1   1 0     − (−1)   0 = 1 1  3 0 3

   

5 4



     5 −1 1   1   4 1  =  − (1)   0   7 1   −  4 0 3  − 14

        



  1    3   hv1 |e2 i hv1 |e1 i − 9  |e3 i ≡ |v1 i − |e2 i − |e1 i =    −1 he2 |e2 i he1 |e1 i 12  2

in ar



y la base ortonormal asociada ser´ a





   1  1  |e3 i 1 1   ; |ˆ e i = = 3 1  he3 |e3 i 2  −7  5 3  − 15

        

re lim

  −1 √  |e1 i 2 3  1  ; |ˆe2 i = p |e2 i  |ˆe1 i = p = =   0 2 6  he1 |e1 i he2 |e2 i 0 √

1



rP

2. Para el caso de R2 es muy claro. Si tenemos dos vectores |v1 i y |v2 i linealmente independientes,     1 0 |v1 i = ; |v2 i = ; 1 1 elegimos |e1 i ≡ |v2 i entonces, |e2 i vendr´a dado por

ad o

hv1 |e1 i |e2 i ≡ |v1 i − |e1 i ⇒ |e2 i ≡ he1 |e1 i



1 1



 −

0 1



 =

1 0



tal y como se esperaba, el otro vector ortogonal es el can´onico.

Bo rr

3. Consideramos el espacio de polinomios, P n , de grado g ≤ n definidos en el intervalo [−1, 1]. Este espacio vectorial tendr´ a como una de las posibles bases al conjunto {|Pi i} = 1, t, t2 , t3 , · · · , tn con el producto interno definido por14 Z 1

hPi | Pj i =

dt Pi (t)Pj (t) −1

Procederemos a construir una base ortogonal {|πi i}, y tomaremos como vector de inicio: |π0 i ≡ |P0 i = 1 ,

14 En

este punto es importante se˜ nalar la importancia de la definici´ on de producto interno. Si esta definici´ on hubiera sido √ R1 R1 f (x) g(x) hf | gi = −1 dx f (x) g(x) 1 − x2 o hf | gi = −1 dx √ las bases correspondientes a estas definiciones de producto interno 2 1−x

hubieran sido distintas.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

93

2.3. VARIEDADES LINEALES

El siguiente vector ser´ a:

|π1 i ≡ |P1 i −

 R1   hP1 |π0 i = −1 dt t = 0

hP1 |π0 i |π0 i = t ⇐  hπ0 |π0 i  hπ |π i = R 1 dt = 2 0 0 −1

El siguiente:

in ar

 R1  hP2 |π0 i = −1 dt t2 = 23      R1 hP2 |π1 i hP2 |π0 i 1 2 |π2 i ≡ |P2 i − |π1 i − |π0 i = t − ⇐ hP2 |π1 i = −1 dt t3 = 0  hπ1 |π1 i hπ0 |π0 i 3     R1  hπ1 |π1 i = −1 dt t2 = 32 Para el cuarto ≡

rP

=

hP3 |π2 i hP3 |π1 i hP3 |π0 i |π2 i − |π1 i − |π0 i hπ2 |π2 i hπ1 |π1 i hπ0 |π0 i  R1 hP3 |π0 i = −1 dt t3 = 0       R1    hP3 |π1 i = −1 dt t4 = 25  3 t3 − t ⇐ R1  5   hP3 |π2 i = −1 dt t3 [t2 − 13 ] = 0       R1  8 hπ2 |π2 i = −1 dt [t2 − 31 ]2 = 45

|P3 i −

re lim

|π3 i

Queda como ejercicio comprobar la ortogonalidad de los vectores reci´en calculados: hπ0 |π1 i = hπ1 |π2 i = hπ2 |π3 i = · · · = 0

Bo rr

ad o

Podemos resumir los c´ alculos anteriores como se muestra a continuaci´on: |Pn i 1

|πn i 1

t

t

|ˆ πn i √1

q2 3 2

q

1 3

t2

t2 −

t3

t3 − 35 t

t4 .. .

t4 − 76 t2 + .. .

1 5 2q 2

1 3 35

3 8

q2

1 2

7 2

t

 3t2 − 1  5t3 − 3t

35t4 − 30t2 + 3 .. .



Practicando con Maxima:

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

94

2.3. VARIEDADES LINEALES

Anteriormente hicimos los c´ alculos vectores linealmente independientes:  1  3 |v1 i =   −1 2

para hallar una base ortogonal a partir del siguiente conjunto de   ; 



 2  0   |v2 i =   1 ; 3



 −1  1   |v3 i =   0 , 0

(%i1) load ("eigen")$ matrix ([-1, 1, 0, 0], [2, 0, 1,3], [1,3, -1,2]);  1 0 0 0 1 3 3 −1 2

re lim

(%i2) v:  −1 ( %o2)  2 1

in ar

La funci´ on gramschmidt(x) es la que ejecuta el algoritmo de ortogonalizaci´on de Gram-Schmidt sobre el objeto x. Si x es una matriz el algoritmo act´ ua sobre sus filas. Antes de usar la funci´on es necesario cargar la librer´ıa “eigen”.

Notemos que el vector |v3 i es el que hemos puesto en la primera fila de la matriz. Ahora procedemos al c´ alculo: (%i3) e: gramschmidt (v);    7 1 5 5 ( %o3) [−1, 1, 0, 0] , [1, 1, 1, 3] , 2 , 2 , − 2 , − 2 2 2 2 2 El resultado viene en forma de una lista: [e[1], e[2], e[3]]. Simplificando resulta:

rP

(%i4) e:expand(%);    5 5 7 1 ( %o4) [−1, 1, 0, 0] , [1, 1, 1, 3] , , , − , − 4 4 4 4 Podemos verificar que son ortogonales:

ad o

(%i5) map (innerproduct, [e[1], e[2], e[3]], [e[2], e[3], e[1]]); ( %o5) [0, 0, 0] Normalizamos ahora cada uno de los vectores

Bo rr

(%i6) e[1]/sqrt(innerproduct(e[1],e[1]));   1 1 ( %o6) − √ , √ , 0, 0 2 2 (%i7) e[2]/sqrt(innerproduct(e[2],e[2])); " √ # 1 1 1 3 √ , √ , √ , ( %o7) 2 3 2 3 2 3 2 (%i8) e[3]/sqrt(innerproduct(e[3],e[3]));   1 1 7 1 ( %o8) , ,− ,− 2 2 10 10

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

95

2.3. VARIEDADES LINEALES

La funci´ on gramschmidt(x,F) nos permite definir un producto interno diferente a innerproduct. Veamos como se hace para el otro ejemplo donde el conjunto de vectores linealmente independientes estaba dado  por: 1, t, t2 , t3 , · · · , tn (%i9) producto(f,g):=integrate(f*g, t, a, b); Z ( %o9) producto(f,g) :=

b

f g dt a

(%i13)a: -1$ b:1$ (%i14)e[1]/sqrt(producto(e[1], e[1]));

Bo rr

ad o

rP

1 ( %o14) √ 2 (%i15)e[2]/sqrt(producto(e[2], e[2])); √ 3t ( %o15) √ 2 (%i16)e[3]/sqrt(producto(e[3], e[3])); √  3 5 t2 − 13 ( %o16) 3 22 (%i17)e[4]/sqrt(producto(e[4], e[4])); √  5 7 t3 − 35t ( %o17) 3 22

re lim

( %o12) [0, 0, 0] Para normalizar hacemos lo siguiente:

in ar

(%i10)e:gramschmidt ([1, t, t^2,t^3,t^4], producto), a= -1, b=1; " #  3 t2 − 1 t 5 t2 − 3 35 t4 − 30 t2 + 3 ( %o10) 1, t, , , 3 5 35 (%i11)e:expand(e);   3t 6 t2 3 1 + ( %o11) 1, t, t2 − , t3 − , t4 − 3 5 7 35 (%i12)map(producto, [e[1], e[2], e[3]], [e[2], e[3], e[1]]), a= -1, b=1;

2.3.6.

Complementos ortogonales y descomposici´ on ortogonal

Sea un subespacio S ⊂ V, un elemento |¯ vi i ∈ V se dice ortogonal a S si hsk |¯ vi i = 0 ∀ |sk i ∈ S, es decir, es ortogonal a todos los elementos de S . El conjunto {|¯ v1 i , |¯ v2 i , |¯ v3 i , · · · , |¯ vm i} de todos los elementos ortogonales a S, se denomina S−perpendicular y se denota como S⊥ . Es f´acil demostrar que S⊥ es un subespacio, a´ un si S no lo es. Dado un espacio euclidiano de dimensi´on infinita V : {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } y un subespacio de V con dimensi´ on finita, S ⊂ V y dim S = m. Entonces ∀ |vk i ∈ V puede expresarse como la suma de

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

96

2.3. VARIEDADES LINEALES



dos vectores |sk i ∈ S ∧ |sk i ∈ S⊥ . Esto es |vk i = |sk i + |sk i



,

|sk i ∈ S





|sk i ∈ S⊥ .

M´ as a´ un, la norma de |vk i se calcula a trav´es del teorema de Pit´agoras generalizado

2

⊥ 2 2 k|vk ik = k|sk ik + |sk i . ⊥

|sk i =

m X

hvk |ˆei i |ˆei i





in ar

La demostraci´ on es sencilla. Primero se prueba que la descomposici´on ortogonal |vk i = |sk i+|sk i es siempre posible. Para ello recordamos que S ⊂ V es de dimensi´on finita, por lo tanto existe una base ortonormal ⊥ {|ˆe1 i , |ˆe2 i , |ˆe3 i · · · |ˆem i} para S. Es decir, dado un |vk i definimos los elementos |sk i y |sk i como siguen |sk i = |vk i − |sk i

i=1

re lim

N´ otese que hvk |ˆei i |ˆei i es la proyecci´ on de |vk i a lo largo de |ˆei i y |sk i se expresa como la combinaci´on lineal de la base de S, por lo tanto, est´ a en S. Por otro lado   m X ⊥ ⊥ hsk |ˆei i = hvk −sk |ˆei i = hvk |ˆei i − hsk |ˆei i = hvk |ˆei i −  hvk |ˆej i hˆej | |ˆei i = 0 ⇒ |sk i ⊥ |ˆej i j=1



lo cual indica que |sk i ∈ S⊥ . ⊥ Podemos ir un poco m´ as all´ a. La descomposici´on |vk i = |sk i + |sk i es u ´nica en V. Para ello suponemos que existen dos posibles descomposiciones, vale decir ⊥



∧ |vk i = |tk i + |tk i

,



con |sk i ∧ |tk i ∈ S ∧ |sk i

Por lo tanto



∧ |tk i ∈ S⊥ .

rP

|vk i = |sk i + |sk i

    ⊥ ⊥ ⊥ ⊥ |vk i − |vk i = |sk i + |sk i − |tk i + |tk i = 0 ⇒ |sk i − |tk i = |tk i − |sk i . ⊥



ad o

Pero |sk i − |tk i ∈ S, es decir, ortogonal a todos los elementos de S⊥ y |sk i − |tk i = |tk i − |sk i , con lo cual |sk i − |tk i ≡ |0i que es el u ´nico elemento que es ortogonal a el mismo y en consecuencia la descomposici´ on ⊥ |vk i = |sk i + |sk i es u ´nica. Finalmente, con la definici´ on de norma

2 

2  

2 ⊥ ⊥ ⊥ ⊥ 2 ⊥ k|vk ik = |sk i + |sk i = hsk | + hsk | |sk i + |sk i = hsk |sk i +⊥ hsk |sk i = k|sk ik + |sk i .

Bo rr

As´ı, dado Sm un subespacio de V de dimensi´on finita y dado un |vk i ∈ V el elemento |sk i ∈ S ⇒ |sk i =

m X

hvk |ei i |ei i ,

i=1

ser´ a la proyecci´ on de |vk i en S. En general, dado un vector |xi ∈ V y un subespacio de V con dimensi´on finita, Sm ⊂ V y dim S = m, entonces la distancia de |xi a Sm es la norma de la componente de |xi , perpendicular a Sm , y m´as a´ un esa distancia ser´ a m´ınima y |xiSm la proyecci´ on d |xi, en Sm ser´a el elemento de Sm m´as pr´oximo a |xi y, por la mejor aproximaci´ on. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

97

2.3. VARIEDADES LINEALES

2.3.7.

Ejercicios

Sea Pn el conjunto de todos los polinomios de grado n, en x, con coeficientes reales: |pn i p(x) = a0 + a1 x + a2 x2 + ... + an−1 xn−1 =

n−1 X

ai xi

i=0

1. Demostrar que Pn es un espacio vectorial respecto a la suma de polinomios y a la multiplicaci´ on de polinomios por un escalar (n´ umero real).

3. ¿Cu´ al de los siguientes subconjuntos de Pn es un subespacio vectorial? a) El polinomio cero y todos los polinomios de grado n − 1. b) El polinomio cero y todos los polinomios de grado par.

in ar

2. Si los coeficientes ai son enteros ¿Pn ser´a un espacio vectorial? ¿ Por qu´e?

c) Todos los polinomios que tienen a x como un factor (grado n > 1).

re lim

d ) Todos los polinomios que tienen a x − 1 como un factor. 4. Un subespacio P es generado por: |x1i = x3 + 2x + 1; a) x2 − 2x + 1 b) x4 + 1 c) − 21 x3 + 52 x2 − x − 1 d) x − 5

|x2i = x2 − 2;

|x3i = x3 + x;

5. Probar que los polinomios |x1i = 1;

rP

¿Cu´ al(es) de los polinomios dados pertenece al subespacio P?

|x2i = x;

|x3i =

3 2 1 x − ; 2 2

|x4i =

5 3 3 x − x; 2 2

ad o

forman una base en P4 . Expresar |pi = x2 ; |qi = x3 en funci´on de esa base. Pn−1 Pn−1 6. Sean |pn i = p(x)= i=0 ai xi , |qn i = q(x) = i=0 bi xi ∈ Pn . Consid´erese la siguiente definici´on: ai bi

i=0

Bo rr

hqn |pn i a0 b0 + a1 b1 + a2 b2 + ... + an−1 bn−1 =

n−1 X

a) Muestre que ´esta es una buena definici´on de producto interno. b) Con esta definici´ on de producto interior ¿Se puede considerar Pn un subespacio de C[a,b] ? ¿Por qu´e?

7. Considerando estas definiciones de producto interior en Pn R1 a) hqn |pn i = −1 p(x)q(x)dx R1 b) hqn |pn i = 0 p(x)q(x)dx

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

98

´ DE FUNCIONES 2.4. APROXIMACION

Encontrar la distancia y el ´ angulo entre los siguientes pares de vectores en P3 a) |x1i = 1;

|x2i = x

b) |x1i = 2x;

|x2i = x2

8. Encontrar la proyecci´ on perpendicular de los siguientes vectores en C[−1,1] (espacio de funciones continuas en el intervalo [-1,1]) al subespacio generado por los polinomios: 1, x, x2 − 1. Calcular la distancia de cada una de estas funciones al subespacio mencionado. a) f (x) = xn ;

n entero

c) f (x) = 3x2

2.4. 2.4.1.

Aproximaci´ on de funciones Condiciones para la aproximaci´ on de funciones

in ar

b) f (x) = sen(x)

re lim

Sea {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } un espacio euclidiano de dimensi´on infinita, V, y un subespacio Sm ⊂ V, con dimensi´ on finita dim S = m, y sea un elemento |vi i ∈ V. La proyecci´on de |vi i en Sm , |si i , m ser´ a el elemento de S m´ as pr´ oximo a |vk i. En otras palabras k|vi i − |si ik ≤ k|vi i − |ti ik ∀ |ti i ∈ S . La demostraci´ on se sigue as´ı

2

2

2

|vi i − |ti i = (|vi i − |si i) + (|si i − |ti i) ⇒ k|vi i − |ti ik = k|vi i − |si ik + k|si i − |ti ik , ⊥

rP

ya que |vi i − |si i = |sk i ∈ S⊥ ∧ |si i − |t i i ∈ S, y vale el teorema de Pit´agoras generalizado. Ahora bien, como 2

2

k|si i − |ti ik ≥ 0 ⇒ k|vi i − |ti ik ≥ k|vi i − |si ik

2

⇒ k|vi i − |ti ik ≥ k|vi i − |si ik .

ad o

∞ Desarrollemos la aproximaci´ on de funciones continuas, reales de variable real, definidas en [0, 2π], C[0,2π] , R 2π mediante funciones trigonom´etricas y con el producto interno definido por: hf | gi = 0 dx f (x) g (x). Hemos visto que para este espacio vectorial tenemos una base ortogonal definida por

|e0 i = 1,

|e2n−1 i = cos(nx)

y

|e2n i = sen(nx),

con n = 1, 2, 3, · · ·

Bo rr

Por lo tanto, cualquier funci´ on definida en el intervalo [0, 2π] puede expresarse en t´erminos de esta base como mostramos a continuaci´ on ∞ X |f i = Ci |ei i , i=1

Los Ci son los coeficientes de Fourier. Es decir, cualquier funci´on puede ser expresada como una serie de Fourier de la forma ∞ X 1 f (x) = a0 + [ak cos(kx) + bk sen(kx)] , 2 k=1

donde

ak = Hern´ andez & N´ un ˜ez

1 π

Z



dx f (x) cos(kx) ∧ bk = 0

1 π

Z



dx f (x) sen(kx) . 0

Universidad de los Andes / Universidad Industrial de Santander

99

´ DE FUNCIONES 2.4. APROXIMACION

Es claro que para la aproximaci´ on de funciones por funciones trigonom´etricas cuyos coeficientes son los ∞ coeficientes de Fourier constituyen la mejor aproximaci´on. Por lo tanto, de todas las funciones F (x) ∈ C[0,2π] las funciones trigonom´etricas, T (x) minimizan la desviaci´on cuadr´atica media Z



Z

2



2

dx (f (x) − T (x)) .

dx (f (x) − P (x)) ≥ 0

0

Los coeficientes ser´ an: Z 1 π 2 2π 2 a0 = x dx = , π −π 3

an =

1 π

Z

π

x2 cos(nx)dx =

−π

in ar

Ejemplo Un ejemplo sencillo para aprender el mecan´ısmo del c´alculo de los coeficientes lo podemos hacer para la siguiente funci´ on. f (x) = x2 , −π ≤ x ≤ π

4 cos(nπ) 4(−1)n = , n2 n2

bn = 0 ∀ n.

f (x) = x2 =

re lim

Se puede verificar que si f (x) es par (f (−x) = f (x)) s´olo la parte que contiene cos(nx) contribuir´ a a la serie. Si f (x) es impar (f (−x) = −f (x)), lo har´a s´olo la parte que contiene sen(nx). Por lo tanto: ∞ X π2 4 1 π2 (−1)n +4 cos(nx) = − 4 cos (x) + cos (2 x) − cos (3 x) + cos (4 x) − · · · 2 3 n 3 9 4 n=1

Practicando con Maxima:

Existe una librer´ıa llamada fourie en Maxima y una funci´on que permite calcular series de Fourier de una funci´ on f (x) en el intervalo [−l, l]: fourier (f, x, l)

rP

(%i1) load(fourie)$

En nuestro caso f (x) = x2 . Al ejecutar el comando para calcular la serie se mostrar´an unas salidas temporales y finalmente una lista con el resultado de los coeficientes.

( %t2) a0 = ( %t3) an =

ad o

(%i2) fourier(x^2,x,%pi); π2 3 2 2 π

sin(π n) n

2 sin(π n) n3

+

2 π cos(π n) n2



π

Bo rr

( %t4) bn = 0 ( %o4) [ %t2 , %t3 , %t4 ]



Se puede simplificar

(%i5) foursimp(%);

π2 3 n 4 (−1) ( %t6) an = n2 ( %t7) bn = 0 ( %t5) a0 =

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

100

´ DE FUNCIONES 2.4. APROXIMACION

( %o7) [ %t5 , %t6 , %t7 ] Podemos evaluar la lista de los coeficiente hasta el t´ermino k. Aqu´ı lo haremos hasta k = 4 y el resultado lo llamaremos F . (%i8) F:fourexpand(%o7,x,%pi,4); ( %t8)

π2 cos (4 x) 4 cos (3 x) − + cos (2 x) − 4 cos x + 4 9 3

(%i9) wxplot2d([F,x^2], [x,-%pi,%pi],[legend, "F",

Bo rr

ad o

rP

re lim

( %o9)

"x^2"])$

in ar

En un mismo gr´ afico comparamos la funci´on original y los primeros 5 t´erminos de la serie.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

101

´ DE FUNCIONES 2.4. APROXIMACION

2.4.2.

El m´ etodo de m´ınimos cuadrados

Una de las aplicaciones m´ as importantes en la aproximaci´on de funciones es el m´etodo de m´ınimos cuadrados. La idea es determinar el valor m´ as aproximado de una cantidad f´ısica, c, a partir de un conjunto de medidas experimentales: {x1 , x2 , x3 , · · · , xn }. Para ello asociamos ese conjunto de medidas con las componentes de un vector |xi ≡ (x1 , x2 , x3 , · · · , xn ) en Rn y supondremos que su mejor aproximaci´on, que llamaremos c |1i ≡ (c, c, c, · · · , c), ser´ a la proyecci´on perpendicular de |xi (las medidas) sobre el subespacio generado por |1i. Esto es ⇒c=

x1 + x2 + x3 , · · · + xn hx |1i = , h1 |1i n

in ar

|xi = c |1i

que no es otra cosa que construir -de una manera sofisticada- el promedio aritm´etico de las medidas. Es claro que la proyecci´ on perpendicular de |xi sobre |1i hace m´ınima la distancia entre el subespacio perpendicular generado por |1i y el vector |xi y con ello tambi´en har´a m´ınimo su cuadrado: 2

2

n X

2

(xi − c) .

re lim

[d (|xi , c |1i)] = k|x − cik = hx − c |x − ci =

i=1

Esta manera sofisticada, que se deriva del formalismo utilizado, muestra el significado del promedio aritm´etico como medida m´ as cercana al valor “real” de una cantidad obtenida a partir de una serie de medidas experimentales. Obviamente, este problema se puede generalizar para el caso de dos (o n) cantidades si extendemos la dimensi´ on del espacio y los resultados experimentales se expresar´an como un vector de 2n dimensiones

rP

|xi = (x11 , x12 , x13 , · · · x1n , x21 , x22 , x23 , · · · x2n ) ,

mientras que los vectores que representan las cantidades m´as aproximadas ser´an   c1 |11 i = c1 ,c1 ,c1 , · · · , c1 , 0, 0, 0, · · · 0 {z }| {z } |

c2 |12 i = (0, 0, 0, · · · , 0, c2 , c2 c2 , · · · c2 ) .

n

ad o

n



Ahora {|11 i , |12 i} expanden un subespacio vectorial sobre el cual |xi tiene como proyecci´on ortogonal c1 |11 i +c2 |12 i y consecuentemente |x−c1 11 − c2 12 i ser´a perpendicular a {|11 i , |12 i}, por lo tanto c1 =

hx |11 i x11 + x12 + x13 , · · · + x1n = h11 |11 i n



c2 =

hx |12 i x21 + x22 + x23 , · · · + x2n = . h12 |12 i n

Bo rr

Quiz´ a la consecuencia m´ as conocida de esta forma de aproximar funciones es el “ajuste” de un conjunto de datos experimentales {(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , · · · , (xn , yn )} a la ecuaci´on de una recta y = cx15 . En este caso, el planteamiento del problema se reduce a encontrar el vector c|xi, en el subespacio S (|xi), que est´e lo m´ as cercano posible al vector |yi. Como en el caso anterior, queremos que la distancia entre |yi y su valor m´as aproximado c |xi sea la 2 menor posible. Por lo tanto, k|cx − yik ser´a la menor posible y |cx − yi ser´a perpendicular a S (|xi), por lo que hx |yi x1 y1 + x2 y2 + x3 y3 + · · · + xn yn hx |cx − yi = 0 ⇒ c = = . hx |xi x21 + x22 + x23 + · · · + x2n 15 Es

inmediato generalizar el m´ etodo a un “ajuste” y = cx + b y queda como ejercicio para el lector

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

102

´ DE FUNCIONES 2.4. APROXIMACION

Si la recta a “ajustar” es y = cx + b el procedimiento ser´a uno equivalente: proyectar sobre los vectores y obtener ecuaciones. Si representamos |bi = b |1i, tendremos,  Pn Pn Pn  hx |yi = c hx |xi + hx |bi ⇒ i=1 xi yi = c i=1 x2i + b i=1 xi |yi = c |xi + |bi ⇒ (2.1) Pn Pn  hb |yi = c hb |xi + hb |bi ⇒ i=1 yi = c i=1 xi + bn

re lim

in ar

Que no es otra cosa que un sistema de dos ecuaciones con dos inc´ognitas: c y b. Por simplicidad y conveniencia continuaremos con el an´ alisis del caso b = 0, vale decir aproximando las medidas experimentales a una recta que pase por el origen de coordenadas y = cx. El lector podr´a extender el procedimiento para caso b 6= 0. Para tratar de entender (y extender) lo antes expuesto, consideremos tres ejemplos que muestran la versatilidad del m´etodo y la ventaja de disponer de una clara notaci´on. Primeramente, mostraremos el caso m´ as utilizado para construir el mejor ajuste lineal a un conjunto de datos experimentales. Buscaremos la mejor recta que describe ese conjunto de puntos. Luego mostraremos la aplicaci´on del m´etodo para buscar la mejor funci´ on multilineal, vale decir que ajustaremos la mejor funci´on de n variables con una contribuci´ on lineal de sus argumentos: y = y(x1 , x2 , · · · , xn ) = c1 x1 +c2 x2 +· · ·+cn xn . Este caso tendr´a una complicaci´ on adicional, por cuando realizaremos varias mediciones de las variables. Finalmente, mostraremos como se puede utilizar el m´etodo de m´ınimos cuadrados para ajustar un conjunto de datos experimentales a un polinomio de cualquier grado. Veamos los tres casos: 1. El caso m´ as simple ser´ a el conjunto de datos experimentales (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ), y nos preguntamos ¿Cu´ al ser´ a la recta, y = cx, que ajusta m´as acertadamente a estos puntos. Es inmediato darnos cuenta que la pendiente de esa recta ser´a: |yi = c |xi

⇒c=

hx |yi . hx |xi

rP

Consideremos los puntos experimentales: {(1, 2) , (3, 2) , (4, 5) , (6, 6)}, entondes     1 2  3   2  hx |yi 2 + 6 + 20 + 36 32    |yi = c |xi ⇒   5  = c  4  ⇒ c = hx |xi = 1 + 9 + 16 + 36 = 31 = 1,03226 . 6 6

ad o

¿Cu´ al ser´ıa el ajuste para el caso de una recta y = cx + b? Queda como ejercicio para el lector utilizar el esquema descrito en las ecuaciones (2.1) y encontrar los par´ametros c y b para este nuevo ajuste.

Bo rr

2. El segundo caso que consideraremos ser´a la generalizaci´on a una contribuci´on lineal de varios par´ ametros, i.e. un “ajuste” multilineal a la mejor funci´on, y = y(x1 , x2 , · · · , xm ) = c1 x1 + c2 x2 + · · · + cm xm . El procedimiento anterior puede generalizarse de forma casi inmediada    hx1 |yi = c1 hx1 |x1 i + c2 hx1 |x2 i + · · · + cm hx1 |xj i  m  hx2 |yi = c1 hx2 |x1 i + c2 hx2 |x2 i + · · · + cm hx2 |xj i X (2.2) |yi = cj |xj i ⇒ .. ..  . .  j=1   hxm |yi = c1 hxm |x1 i + c2 hxm |x2 i + · · · + cm hxm |xj i . Es decir, un sistema de m ecuaciones con m inc´ognitas que corresponden a los “pesos”, c1 , c2 , · · · , cm ., de las contribuciones a la funci´ on multilineal.

Supongamos ahora un paso m´ as en este af´an generalizador y consideremos que ejecutamos n experimentos con n > m. De esta forma nuestro problema adquiere un grado mayor de riqueza y las medidas experimentales estar´ an representadas (y1 , x11 , x12 , · · · x1m ; y2 , x21 , x22 , · · · x2m ; y3 , x31 , x32 , · · · x3m ; · · · yn , xn1 , xn2 , xn3 , · · · xnm )

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

103

´ DE FUNCIONES 2.4. APROXIMACION

por lo tanto, podremos construir m vectores |˜ x1 i = (x11 , · · · , x1n ) ; |˜ x2 i = (x21 , · · · , x2n ) ; · · · |˜ xm i = (xm1 , · · · , xmn ) ; |yi = (ym1 , · · · , yn ) , y el conjunto {|˜ x1 i , |˜ x2 i , · · · |˜ xm i} expande el subespacio S (|˜ x1 i , |˜ x2 i , · · · |˜ xm i) que alberga la aproximaci´ on de |yi . Otra vez, la distancia de este subespacio al vector |yi, ser´a m´ınima y por lo tanto ser´ a la mejor aproximaci´ on: 2

[d (S (˜ci |˜ xi i) , |yi)] = hS (˜ci |˜ xi i) − y |S (˜ci |˜ xi i) − yi

m + X h˜ xj |S (˜ci |˜ xi) − yi ≡ h˜ xi ci |˜ xi − y = 0 ∀ i=1

in ar

y |S (˜ci |˜ xi) − yi ser´ a ortogonal a los |˜ xi i: i, j = 1, 2, 3, · · · m

re lim

Finalmente, el problema queda refraseado de la misma manera que en el caso multilineal (2.2):  h˜ x1 |yi = ˜c1 h˜ x1 |˜ x1 i + ˜c2 h˜ x1 |˜ x2 i + · · · + ˜cm h˜ x1 |˜ xj i    m  h˜ X x2 |yi = ˜c1 h˜ x2 |˜ x1 i + ˜c2 h˜ x2 |˜ x2 i + · · · + ˜cm h˜ x2 |˜ xj i ˜cj |˜ |yi = xj i ⇒ (2.3) .. ..  . .  j=1   h˜ xm |yi = ˜c1 h˜ xm |˜ x1 i + ˜c2 h˜ xm |˜ x2 i + · · · + ˜cm h˜ xm |˜ xj i .

rP

Ejemplo Se sospecha que una determinada propiedad de un material cumple con la ecuaci´on y = ax1 + bx2 y realizamos 4 mediciones independientes. Si al realizar un conjunto de medidas experimentales obtenemos                 y4 0 10 y3 y2 12 y1 15  x11  =  1  ;  x21  =  2  ;  x31  =  1  ;  x41  =  1  x32 1 2 x22 x12 x42 −1 1 Es claro que tenemos un subespacio de m = 2 dimensiones, que hemos hecho n = 4 veces el experimento y que los vectores considerados arriba ser´an |x2 i = (2, 1, 1, −1) ;

|yi = (15, 12, 10, 0)

ad o

|x1 i = (1, 2, 1, 1) ;

por lo tanto, vectorialmente |yi = a |x1 i + b |x2 i, es decir las ecuaciones normales (2.3) se escriben   45    a = 11 7a +4b = 49 ⇒ 11y = 45x1 + 56x2 ⇒ 4a +7b = 52   b = 56 11

Bo rr

3. Se puede extender el razonamiento anterior y generar un ajuste “lineal no lineal”. Esto es: el ajuste lineal es en los coeficientes, pero la funcionalidad de la ley a la cual queremos ajustar los datos puede ser un polinomio de cualquier orden. Ese es el caso de una par´abola que ajusta al siguiente conjunto de puntos {(0, 1) , (1, 3) , (2, 7) , (3, 15)} ⇔ y = ax2 + bx + c Las ecuaciones toman la forma de

Hern´ andez & N´ un ˜ez

1= 0 3= a 7 = 4a 15 = 9a

+0 +b +2b +3b

+c +c +c +c

Universidad de los Andes / Universidad Industrial de Santander

104

´ DE FUNCIONES 2.4. APROXIMACION

y los vectores construidos a partir de los datos experimentales ser´an |x1 i = (0, 1, 4, 9) ;

|x2 i = (0, 1, 2, 3) ;

|x3 i = (1, 1, 1, 1) ;

|yi = (1, 3, 7, 15) .

in ar

Una vez m´ as, la ecuaci´ on vectorial ser´ıa |yi = a |x1 i + b |x2 i + c |x3 i y las ecuaciones normales (2.3) para este sistema se construyen como   a = −6          136 = 98a +36b +14c    32 113 113 62 = 36a +14b +6c b= 5 ⇒ x− . ⇒ y = −6x2 +    5 5   26 = 14a +6b +4c       c = − 32 5 Practicando con Maxima:

re lim

Es posible en Maxima ajustar por m´ınimos cuadrados los par´ametros de curvas arbitrarias para un conjunto de datos emp´ıricos. La funci´ on a utilizar ser´a lsquares. Consideremos el ejemplo estudiado anteriormente donde los datos eran: (x, y) = (1, 2) , (3, 2) , (4, 5) , (6, 6)

Haremos uso de la librer´ıa lsquares y escribiremos los datos en forma de matriz (%i1) load(lsquares)$

rP

(%i2) datos: matrix([1,2],[3,2],[4,5],[6,6])$

Por conveniencia, para luego graficar, convertimos la matrix “datos” en una lista con el comando args: (%i3) datosL: args(datos);

ad o

( %o3) [[1, 2] , [3, 2] , [4, 5] , [6, 6]]

Supondremos entonces que los puntos se ajustan a un polinomio lineal y = ax. El par´ametro a se calcula con la funci´ on lsquares estimates. Se deja como ejercicio repetir ´este mismo c´alculo pero usando un ajuste de los datos de la forma: y = ax + b.

Bo rr

(%i4) param: lsquares_estimates(datos,[x,y],y=a*x,[a]), numer; ( %o4) [[a = 1,032258064516129]] (%i5) y:ev(a*x,first(param));

( %o5) 1,032258064516129 x Procedemos a graficar los datos experimentales vs el ajuste por m´ınimos cuadrados.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

105

re lim

in ar

´ DE FUNCIONES 2.4. APROXIMACION

(%i6) wxplot2d([[discrete,datosL], y], [x,0,10],[style, [points,5,2], [lines,2,1]], [point_type, plus], [legend,"Datos","y=ax"],[xlabel, "x"],[ylabel, "y"])$ ( %o6)

El siguiente caso estudiado fue con el conjunto de datos |x1 i = (1, 2, 1, 1) ;

|x2 i = (2, 1, 1, −1) ;

|yi = (15, 12, 10, 0)

rP

y suponiendo que ajustan de la manera siguiente |yi = a |x1 i + b |x2 i.

(%i7) datos2: matrix([1,2,15],[2,1,12],[1,1,10],[1,-1,0])$

ad o

Cambiaremos ligeramente la notaci´ on por: z = ax + by y calculemos los par´ametros a y b. (%i8) param: lsquares_estimates(datos2,[x,y,z], z=a*x+b*y,[a,b]), numer; ( %o8) [[a = 4,090909090909091, b = 5,090909090909091]]

Bo rr

Para el tercer ejemplo se consideraron los siguientes datos: {(0, 1) , (1, 3) , (2, 7) , (3, 15)}



y = ax2 + bx + c

Haremos con Maxima el c´ alculo directo usando un ajuste cuadr´atico para los datos suministrados. (%i9) datos3: matrix([0,1],[1,3],[2,7],[3,15])$ (%i10)datosL3: args(datos3)$ (%i11)param: lsquares_estimates(datos3,[x,y], y=a*x^2+b*x+c,[a,b,c]), numer;

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

106

´ DE FUNCIONES 2.4. APROXIMACION

( %o11) [[a = 1,5, b = 0,1, c = 1,1]] (%i12)y2:ev(a*x^2+b*x+c,first(param))$ Como hicimos anteriormente, graficamos los datos y el ajuste cuadr´atico. (%i13)wxplot2d([[discrete,datosL3], y2], [x,0,4],[style, [points,5,2], [lines,2,1]], [point_type, plus], [legend,"Datos","y=ax^2+bx+c"],[xlabel, "x"],[ylabel, "y"])$

Interpolaci´ on polinomial de puntos experimentales

ad o

2.4.3.

rP

re lim

in ar

( %o13)

Bo rr

Muchas veces nos encontramos con la situaci´on en la cual tenemos un conjunto de (digamos n) medidas o puntos experimentales {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xn , yn = f (xn ))} y para modelar ese experimento quisi´eramos una funci´ on que ajuste estos puntos. El tener una funci´ on nos provee la gran ventaja de poder intuir o aproximar los puntos que no hemos medido. La funci´ on candidata m´ as inmediata es un polinomio y debemos definir el grado del polinomio y la estrategia que aproxime esos puntos. Puede ser que no sea lineal el polinomio y queramos ajustar esos puntos a un polinomio tal que ´este pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, si construimos la funci´on como “trozos” de polinomios que ajusten a subconjuntos: {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xm , ym = f (xm ))} con m < n de los puntos experimentales. En este caso tendremos una funci´ on de interpolaci´on para cada conjunto de puntos. Tambi´en podemos ajustar la funci´ on a todo el conjunto de puntos experimentales y, en ese caso el m´aximo grado del polinomio que los interpole ser´ a de grado n − 1. Para encontrar este polinomio lo expresamos como una combinaci´on lineal de

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

107

in ar

´ DE FUNCIONES 2.4. APROXIMACION

Polinomios de Legendre. Esto es n−1 X

Ck |Pk i =

k=0

n−1 X k=0

Ck Pk (x)

 y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 )     y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 ) ⇒ ..  .    yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn )

rP

P(x) = f (x) =

re lim

Figura 2.1: En el lado izquierdo se muestran los puntos experimentales: {(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la funci´on polin´omica que los interpola.

Bo rr

ad o

que no es otra cosa que un sistema de n ecuaciones con n inc´ognitas: los coeficientes {C0 , C1 , · · · Cn−1 }. Al resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la funci´on polin´ omica que interpola esos puntos. Una expansi´ on equivalente se pudo haber logrado con cualquier otro conjunto de polinomios ortogonales, que ellos son base del espacio de funciones. Es importante hacer notar que debido a que los polinomios de Legendre est´an definido en el intervalo [−1, 1] los puntos experimentales deber´ an re-escalarse a ese intervalo para poder encontrar el polinomio de interpolaci´ on como combinaci´ on lineal de los Polinomios de Legendre. Esto se puede hacer con la ayuda del siguiente cambio de variable: (b − a)t + b + a b−a x= , dx = dt 2 2 donde a y b son los valores m´ınimos y m´ aximos de los datos, respectivamente. Ejemplo Consideremos los puntos experimentales representados en la figura 2.1. Aqu´ı a = 2 y b = 12, por lo tanto: x = 5t + 7 y dx = 5dt ⇒ t = (x − 7)/5 y dt = dx/5.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

108

´ DE FUNCIONES 2.4. APROXIMACION

Al construir el sistema de ecuaciones obtendremos lo siguiente: (−1, 8) ⇒ 8 = C0 − C1 + C2 − C3 + C4 − C5  − 53 , 10 ⇒ 10 = C0 −

3 5

C1 +

1 25

C2 +

9 25

C3 −

51 125

C4 +

477 3125

C5

 − 15 , 11 ⇒ 11 = C0 −

1 5

C1 −

11 25

C2 +

7 25

C3 +

29 125

C4 −

961 3125

C5



⇒ 18 = C0 +

1 5

C1 −

11 25

C2 −

7 25

C3 +

29 125

C4 +

961 3125

C5

3 5 , 20



⇒ 20 = C0 +

3 5

C1 +

1 25

C2 −

9 25

C3 −

51 125

C4 −

477 3125

C5

(1, 34) ⇒ 34 = C0 + C1 + C2 + C3 + C4 + C5 al resolver el sistema obtendremos que 2249 , 144

C1 =

3043 , 336

C2 =

con lo cual P(x) = f (x) =

1775 , 504

C3 = −

175 , 216

C4 =

625 , 336

C5 =

14375 3024

re lim

C0 =

in ar

1 5 , 18

2249 3043 1775 175 625 14375 + x+ P (2, x) − P (3, x) + P (4, x) + P (5, x) 144 336 504 216 336 3024

Practicando con Maxima

rP

la interpolaci´ on queda representada en al figura 2.1. Es importante se˜ nalar que mientras m´as puntos experimentales se incluyan para la interpolaci´ on, el polinomio resultante ser´ a de mayor grado y, por lo tanto incluir´a oscilaciones que distorsionar´an una aproximaci´ on m´ as razonable. Por ello, la estrategia de hacer la interpolaci´on a trozos, digamos de tres puntos en tres puntos, generar´ a un mejor ajuste, pero ser´a una funci´on (un polinomio) continua a trozos.

ad o

Maxima contiene la librer´ıa orthopoly que nos permite acceder a la evaluaci´on simb´olica y num´erica de los diferentes tipos de polinomios ortogonales: Chebyshev, Laguerre, Hermite, Jacobi, Legendre... (%i1) load (orthopoly)$

Por ejemplo, para obtener los primeros 6 polinomios de Legendre escribimos los siguientes comandos:

Bo rr

(%i2) [legendre_p(0,x),legendre_p(1,x),legendre_p(2,x), legendre_p(3,x),legendre_p(4,x),legendre_p(5,x)]$ Simplificamos con ratsimp: (%i3) ratsimp (%);   3 x2 − 1 5 x3 − 3 x 35 x4 − 30 x2 + 3 63 x5 − 70 x3 + 15 x , , , ( %o3) 1, x, 2 2 8 8

Los diferentes polinomios de Legendre se pueden visualizar de la manera siguiente (%i4) wxplot2d(%,[x,-1,1],[legend, "P0", "P1","P2", "P3","P4", "P5" ])$

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

109

re lim

in ar

´ DE FUNCIONES 2.4. APROXIMACION

( %o4) Ahora bien, con los datos de la Figura 2.1 se plante´o un sistema de ecuaciones lineales que procedemos a resolver: (%i5) ecu1:C0-C1+C2-C3+C4-C5=8$

(%i6) ecu2:C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10$

(%i7) ecu3:C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11$

rP

(%i8) ecu4:C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18$ (%i9) ecu5:C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20$ (%i10)ecu6:C0+C1+C2+C3+C4+C5=34$

Bo rr

ad o

(%i11)linsolve([ecu1,ecu2,ecu3,ecu4,ecu5,ecu6], [C0,C1,C2,C3,C4,C5]);   2249 3043 1775 175 625 14375 ( %o11) C0 = , C1 = , C2 = , C3 = − , C4 = , C5 = 144 336 504 216 336 3024 (%i12)[C0,C1,C2,C3,C4,C5]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4]),rhs(%[5]),rhs(%[6])];   2249 3043 1775 175 625 14375 ( %o12) , , ,− , , 144 336 504 216 336 3024 Por lo tanto, la funci´ on aproximada ser´a: (%i13)f:C0+C1*legendre_p(1,x)+C2*legendre_p(2,x)+C3*legendre_p(3,x) +C4*legendre_p(4,x)+legendre_p(5,x)*C5$ (%i14)f:expand(%);

( %o14)

14375 x5 3125 x4 8375 x3 325 x2 7367 x 1863 + − − + + 384 384 192 192 384 128

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

110

´ DE FUNCIONES 2.4. APROXIMACION

(%i15)datos:[[-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]];           3 1 1 3 ( %o15) [−1, 8] , − , 10 , − , 11 , , 18 , , 20 , [1, 34] 5 5 5 5 (%i16)wxplot2d([[discrete,datos],f], [x,-1,1],[style, [points,5,2], [lines,2,1]], [point_type, plus],[legend, false],[xlabel, "x"],[ylabel, "y"])$

2.4.4.

rP

re lim

in ar

( %o16)

Ejercicios

1. Demuestre que con las identidades siguientes

eikx + e−ikx , 2

ad o cos(kx) =

sen(kx) =

eikx − e−ikx , 2i

Bo rr

la serie de Fourier definida para funciones en el intervalo (t, t + 2π) se escribe en su forma compleja como: ∞ ∞ X X 1 f (x) = a0 + [ak cos(kx) + bk sen(kx)] ⇒ f (x) = ck eikx , 2 k=1

k=−∞

con

1 ck = 2π

Z

t+2π

f (x)e−ikx dx .

t

Y que para funciones definidas en el intervalo (l, l + 2L) f (x) =

∞ X k=−∞

Hern´ andez & N´ un ˜ez

ck e

ikπx L

,

con ck =

1 2L

Z

l+2L

f (x)e−

ikπx L

dx .

l

Universidad de los Andes / Universidad Industrial de Santander

111

´ DE FUNCIONES 2.4. APROXIMACION

Nota: Para los siguientes ejercicios supondremos la utilizaci´on de cualquier ambiente de manipulaci´ on simb´ olica tipo: MAPLE, Mathematica, Maxima, Python o similares. 2. Para las siguientes funciones determine la serie de Fourier calculando los coeficientes como en la Secci´ on 2.4 y compare los resultados con los c´alculos hechos en el ambiente de manipulaci´on simb´olica. a) b) c) d)

f (x) = x sen(x), si −π < x < π. f (x) = ex , si −π < x < π. f (x) = x, si 0 < x < 2. f (x) = 2x − 1, si 0 < x < 1.

xi (cm) Ti (◦ C)

1, 0 14, 6

2, 0 18, 5

3, 0 36, 6

4, 0 30, 8

5, 0 59, 2

6, 0 60, 1

in ar

3. Al medir la temperatura a lo largo de una barra material obtenemos los siguientes valores 7, 0 62, 2

8, 0 79, 4

9, 0 99, 9

Encuentre, mediante el m´etodo de los m´ınimos cuadrados los coeficientes que mejor ajustan a la recta T = ax + b.

re lim

∞ 4. Considere el espacio vectorial, C[−1,1] , de funciones reales, continuas y continuamente diferenciables definidas en el intervalo[−1, 1]. Es claro que una posible base de este espacio de funciones la constituye el conjunto de monomios 1, x, x2 , x3 , x4 , · · · por cuanto estas funciones son linealmente independientes.

Bo rr

ad o

rP

a) Si suponemos que este espacio vectorial est´a equipado con un producto interno definido por R1 hf |gi = −1 dx f (x)g(x), muestre que esa base de funciones no es ortogonal. R1 b) Utilizando la definici´ on de producto interno hf |gi = −1 dx f (x)g(x) ortogonalice la base  ∞ 1, x, x2 , x3 , x4 , · · · y encuentre los 10 primeros vectores ortogonales, base para C[−1,1] . Esta nueva base de polinomios ortogonales se conoce como los polinomios de Legendre. p R1 c) Modifique un poco la definici´ on de producto interno hf |gi = −1 dx f (x)g(x) (1 − x2 ) y ortogo nalice la base 1, x, x2 , x3 , x4 , · · · y encuentre otros 10 primeros vectores ortogonales base para ∞ el mismo C[−1,1] . Esta nueva base de polinomios ortogonales se conoce como los polinomios de Tchebychev. d ) Suponga la funci´ on h(x) = sen(3x)(1 − x2 ): 1) Expanda la funci´ on h(x) en t´erminos de la base de monomios y de polinomios de Legendre, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 2) Expanda la funci´ on h(x) en t´erminos de la base de monomios y de polinomios de Tchebychev, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 3) Expanda la funci´ on h(x) en t´erminos de la base de polinomios de Legendre y de Tchebychev, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 4) Estime en cada caso el error que se comete como funci´on del grado del polinomio (o monomio) de la expansi´ on. ¿Qu´e puede concluir respecto a la expansi´on en una u otra base?

5. Los precios de un determinado producto var´ıan como se muestra a continuaci´on: A˜ no Precio

2007 133,5

2008 132,2

2009 138,7

2010 141,5

2011 144,2

2012 144,5

2013 148,6

2014 153,8

Realice una interpolaci´ on polinomial que permita modelar estos datos.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

112

2.5. ALGUNOS EJEMPLOS RESUELTOS

2.5.

Algunos ejemplos resueltos

1. Consideramos el espacio vectorial de polinomios de grado g ≤ n definidos en el intervalo [0, 1] o en el intervalo [−1, 1] seg´ un el caso a) ¿Cu´ al o cu´ ales de los siguientes conjuntos de vectores en P 3 son linealmente independientes? Explique por qu´e. 1) |x2 i = x2 + 1;

|x1 i = 2x;

|x4 i = x2 − 1 .

|x3 i = x + 1;

in ar

Soluci´ on: Resultan ser linealmente dependiente ya que podremos expresar |x4 i = |x1 i + |x2 i − 2|x3 i . 2) |x1 i = x(x − 1);

|x3 i = x3 ;

|x2 i = x;

|x4 i = 2x3 − x2 .

Soluci´ on: Linealmente dependiente ya que siempre podremos expresar

re lim

|x4 i = −|x1 i + |x2 i + 2|x3 i .

b) Considerando las siguientes definiciones de producto interior en P n Z

1

hqn |pn i =

1

Z

p(x)q(x)dx −1

hqn |pn i =

y

p(x)q(x)dx .

0

En P 3 encuentre la distancia y el ´angulo entre los vectores

|x2 i = x .

rP

|x1 i = x(x − 1); Soluci´ on: En general la definici´on de distancia es d (|x1 i, |x2 i) =

R1

−1

p(x)q(x)dx la distancia ser´a

ad o

por lo tanto para hqn |pn i = p

0

Bo rr

y para hqn |pn i =

R1

p hx2 − x1 |x2 − x1 i

sZ

1

hx2 − x1 |x2 − x1 i =

2

1√ 690 15

2

2√ 30 . 15

[x(x − 1) − x] dx = −1

p(x)q(x)dx ser´a

p hx2 − x1 |x2 − x1 i =

s

Z

1

(x(x − 1) − x) dx = 0

Con respecto a los ´ angulos:

Para hqn |pn i = Hern´ andez & N´ un ˜ez

R1 −1

θ = arc cos

hx1 |x2 i p p hx1 |x1 i hx2 |x2 i

! .

p(x)q(x)dx tenemos

Universidad de los Andes / Universidad Industrial de Santander

113

2.5. ALGUNOS EJEMPLOS RESUELTOS

hx1 |x2 i p p hx1 |x1 i hx2 |x2 i

θ = arc cos

!



 (x(x − 1)) x dx −1  qR = arc cos  qR 1 1 2 2 (x(x − 1)) dx −1 x dx −1 R1

  1√ √ = arc cos − 15 6 = 2,4825 rad . 12 R1 0

p(x)q(x)dx

θ = arc cos

p

hx1 |x2 i p hx1 |x1 i hx2 |x2 i



!

R1

= arc cos  qR



(x(x − 1)) (x) dx  qR 1 2 (x(x − 1)) dx 0 x2 dx 0

re lim

  1√ √ = arc cos − 15 2 = 2,4825 rad . 12

1 0

in ar

Para hqn |pn i =

¡El mismo ´ angulo!

 c) Una de las posibles bases de P n ser´a el conjunto 1, x, x2 , x3 , · · · , xn con el producto interno R1 definido por hf | gi = 0 dx f (x) g (x).

esto es

ad o

|e1 i = |v1 i = 1

rP

1) Encuentre la base ortonormal que expande el subespacio S 3 de los polinomios, P n , de grado g ≤ 3.  Soluci´ on: El subespacio S 3 tendr´a como vectores linealmente independientes 1, x, x2 , x3 , para encontrar la base ortonormal utilizamos el m´etodo de Gram Smith, con lo cual tendremos que n−1 X hvn |ei i |ei i , |en i ≡ |vn i − hei |ei i i=1

R1 xdx 1 hv2 |e1 i |e1 i = x − R0 1 |e2 i = |v2 i − =x− he1 |e1 i 2 dx 0

Bo rr

 R1 2 R1 2   x dx x x − 21 dx hv3 |e1 i hv3 |e2 i 1 2 0 0 |e3 i = |v3 i − |e1 i − |e2 i = x − R 1 − R1 x − 2 he1 |e1 i he2 |e2 i 2 dx x − 12 dx 0 0 1 = x2 − x + 6 hv4 |e1 i hv4 |e2 i hv4 |e3 i |e4 i = |v4 i − |e1 i − |e2 i − |e3 i he1 |e1 i he2 |e2 i he3 |e3 i R    R 1 3 2 1    1 3 R1 3 x x − 12 dx x − 12 x x + 6 − x dx x2 + 16 − x x dx 0 0 − = x3 − 0R 1 − 2 2 R1 R1 dx x − 12 dx x2 + 16 − x dx 0 0 0 1 3 3 = x3 − + x − x2 20 5 2

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

114

2.5. ALGUNOS EJEMPLOS RESUELTOS

Normalizando |e1 i 1 |ξ1 i = p = qR =1 1 he1 |e1 i dx 0   √ x − 21 |e2 i 1 |ξ2 i = p = 2 = qR 3 x − 2 1 2 he2 |e2 i x − 12 dx 0

x3 −

|e4 i

= qR |ξ4 i = p 1 he4 |e4 i x3 − 0

1 20

+ 35 x − 23 x2

1 20

+ 35 x − 32 x2

2

dx

in ar

  √ x2 + 16 − x |e3 i 1 2 = qR = 6 − x |ξ3 i = p 5 x + 2 1 6 he3 |e3 i x2 + 16 − x dx 0

  √ 1 3 3 2 3 = 20 7 x − + x− x 20 5 2

Z

1

0

c2 = hg |ξ2 i =

Z

1

0

c3 = hg |ξ3 i =

Z

1

0

c4 = hg |ξ4 i =

Z

1

0

con lo cual

 71 (1) 5 + 3x2 − x3 + x5 dx = 12    √  197 √ 1 2 3 x− 5 + 3x2 − x3 + x5 dx = 3 2 420    √  23 √ 1 5 + 3x2 − x3 + x5 dx = 6 5 x2 + − x 5 6 210    √  3 3 2 4 √ 1 3 + x− x 5 + 3x2 − x3 + x5 dx = 7, 20 7 x − 20 5 2 315

rP

c1 = hg |ξ1 i =

re lim

2) Encuentre las componentes del polinomio g (x) = 5 + 3x2 − x3 + x5 proyectado sobre esa base ortonormal que expande a S 3 Soluci´ on: Las componentes de la proyecci´on de g (x) en S 3 ser´ıan

197 √ 71 23 √ 4 √ |ξ1 i + 3 |ξ2 i + 5 |ξ3 i + 7 |ξ4 i . 12 420 210 315

ad o

|giS 3 =

Bo rr

Finalmente la proyecci´ on del polinomio en S 3 ser´a √  √     71 197 3 √ 1 23 5 √ gS 3 (x) = + 2 3 x− + 6 5 x2 + 12 420 2 210     71 197 1 23 1 gS 3 (x) = + x− + x2 + − x + 12 70 2 7 6 es decir

gS 3 (x) =

 √    √ 1 4 7 1 3 3 2 3 −x + 20 7 x − + x− x 6 315 20 5 2   16 3 3 1 + x − x2 x3 − 9 20 5 2

313 25 13 2 16 3 + x+ x + x 63 42 21 9

La norma ser´ a 2

k|giS 3 k =

Hern´ andez & N´ un ˜ez



71 12

2

 +

197 √ 3 420

2

 +

2  2 23 √ 4 √ 1,418,047 ∼ 5 + 7 = = 35,728 . 210 315 39,690

Universidad de los Andes / Universidad Industrial de Santander

115

2.5. ALGUNOS EJEMPLOS RESUELTOS

2. Encuentre la m´ınima distancia desde el subespacio S 3 al polinomio g (x) Soluci´ on: La distancia m´ınima ser´ a la norma del vector ortogonal a S 3 tal que donde |giS 3 ∈ S 3

|gi = |giS 3 + |gi⊥S 3

y |gi⊥S 3 es un vector de su complemento ortogonal. Por lo tanto el Teorema de Pit´agoras nos dice que 2

2

k|gik = k|giS 3 k + k|gi⊥S 3 k

2

Z

2

1

5 + 3x2 − x3 + x5

k|gik =

2

dx =

2

k|giS 3 k = con lo cual

1418047 39690 r

k|gi⊥S 3 k =

495193 13860

re lim

0

in ar

con lo cual tendremos que la m´ınima distancia ser´a q 2 2 k|gi⊥S 3 k = k|gik − k|giS 3 k

495193 1418047 − ≈ 1,196 5 × 10−2 13860 39690

rP

3. Sea f (x) = e2x una funci´ on perteneciente al espacio lineal de funciones continuas y continuamente difeR1 ∞ renciables, C[−1,1] , en el cual el producto interno viene definido por hq|pi = −1 p(x)q(x) dx. Encuentre el polinomio lineal m´ as cercano a la funci´on f (x). Soluci´ on: En el subespacio S 1 de polinomios lineales, los vectores base son {1, x}. Es una base ortogonal pero no es normal, con lo cual la normalizamos 1 1√ = qR 2 = 1 2 he1 |e1 i dx −1 R1 √ xdx hv2 |e1 i x 6 −1 |e2 i = |v2 i − |e1 i = x − R 1 = x ⇒ |ξ2 i = qR = x 1 he1 |e1 i 2 dx x2 dx −1 1

ad o

|e1 i = |v1 i = 1 ⇒ |ξ1 i = p

−1

y la proyecci´ on ortogonal de esta funci´on ser´a √   2 1√ −e2 + e−2 2 dx = − 2 4

Bo rr 0

Z

1

c =

2x

e

−1



y

1

Z

1

c = −1



! √  6 6 2 2x e + 3e−2 x e dx = 2 8

con lo cual la funci´ on lineal ser´ a

Hern´ andez & N´ un ˜ez

√ n

P =

! √   6 2 2 −2 e + 3e x− −e2 + e−2 . 8 4

Universidad de los Andes / Universidad Industrial de Santander

116

2.6. EJERCICIOS PROPUESTOS

2.6.

Ejercicios propuestos

i 1. Los vectores en R3 en coordenadas cartesianas los definimos como

i a = ai |ei i = ax i + ay j + az k y definimos una “tabla de multiplicaci´ on” entre ellos de la forma e |ej i = δj con i, j = 1, 2, 3, esto es:

i e |ej i i j k

i 1 0 0

j 0 1 0

k 0 0 1

in ar

Un cuaterni´ on cartesiano puede escribirse de manera an´aloga a los vectores cartesianos, vale decir: |ai = aα |qα i = a0 + ai |qi i = a0 + ax i + ay j + az k ,

re lim

con α = 0, 1, 2, 3 y donde las ai (con i = 1, 2, 3) son n´ umeros reales que representan las componentes vectoriales en coordenadas cartesianas de los cuaterniones, mientras que la a0 , tambi´en un n´ umero real se le llama componente escalar16 . Los cuaterniones fueron inventados por el matem´atico irland´es William Rowan Hamilton a mediados del siglo XIX, y por decirlo de alguna manera, son h´ıbridos o generalizaciones a un plano hipercomplejo. Un vector cartesiano es un cuaterni´on con la componente escalar nula.

rP

Bas´ andonos en este esquema podemos definir la “tabla de multiplicaci´on” para los cuaterniones cartesianos como 1 |q1 i |q2 i |q3 i |qi i |qj i 1 1 |q1 i |q2 i |q3 i |q1 i |q1 i −1 |q3 i − |q2 i |q2 i |q2 i − |q3 i −1 |q1 i |q3 i |q3 i |q2 i − |q1 i −1

ad o

N´ otese que por el hecho que |qj i |qj i = −1 ⇒ |q1 i |q1 i = |q2 i |q2 i = |q3 i |q3 i = −1, se puede pensar que un cuaterni´ on es la generalizaci´on de los n´ umeros complejos a m´as de una dimensi´on (un n´ umero hipercomplejo) donde la parte imaginaria tendr´ıa tres dimensiones y no una como es costumbre. Esto es |ai = aα |qα i = a0 |q0 i + aj |qj i = a0 + a1 |q1 i + a2 |q2 i + a3 |q3 i |{z} | {z } 1

“parte compleja”

Bo rr

Siendo consistente con esa visi´ on de generalizaci´on de un n´ umero complejo, definiremos el conjugado z de un cuaterni´ on como |bi = b0 |q0 i − bj |qj i con j = 1, 2, 3. Es decir, en analog´ıa con los n´ umeros complejos el conjugado de un cuaterni´on cambia el signo de su “parte compleja vectorial”. Igualmente, definiremos la suma entre cuaterniones como  |ai = aα |qα i  ⇒ |ci = cα |qα i = |ai + |bi = (aα + bα ) |qα i ⇒ cα = (aα + bα )  α |bi = b |qα i Esto quiere decir que los vectores se suman componente a componente. Mientras que la multiplicaci´ on por un escalar queda definida por α |ci = αcα |qα i, es decir se multiplica el escalar por cada componente.

P que estamos utilizando la convenci´ on de Einstein en la cual cα |qα i ≡ c0 + 3j=1 cj |qj i. Es decir hemos supuesto que |q0 i ≡ 1, la unidad en los n´ umeros reales. Adicionalmente, n´ otese que los ´ındices griegos α, β, · · · toman los valores 0, 1, 2, 3, mientras que los latinos que acompa˜ nan a los vectores cartesianos toman los siguiente valores j, k, l = 1, 2, 3. 16 Recuerde

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

117

2.6. EJERCICIOS PROPUESTOS

a) Compruebe si los Cuaterniones, |ai, forman un espacio vectorial respecto a esa operaci´on suma y esa multiplicaci´ on por escalares, an´aloga a la de los vectores en R3 en coordenada cartesianas   b) Dados dos cuaterniones |bi ≡ b0 , b y |ri ≡ r0 , r , entonces, el producto entre cuaterniones |di = |bi |ri podr´ a representarse como   |di = |bi |ri ←→ d0 , d = b0 r0 − b · r, r0 b + b0 r + b × r donde · y × corresponden con los productos escalares y vectoriales tridimensionales de siempre. Ahora con ´ındices: dados |bi = bα |qα i y |ri = rα |qα i, compruebe si el producto |di = |bi |ri puede ser siempre escrito de la forma

in ar

|di = |bi |ri = a |q0 i + S (ij) δi0 |qj i + A[jk]i bj rk |qi i

donde a representa un escalar; S (ij) δi0 tres cantidades (recuerde que los ´ındices latinos toman los (ij) valores j, k, l = 1, 2, 3, mientras i = 0, 1, 2, indica S ji = S ij , que la cantidad S ij es  3); donde S ij 0 ji 0 sim´etrica, y por lo tanto S δi + S δi |qj i. Mientras A[jk]i representa un conjunto de objetos  antisim´etricos en j y k: A[jk]i → Ajki = −Akji → Ajki bj rk − Akji bj rk |qi i17 .

re lim

Identifique las cantidades: a, S (ij) y A[jk]i en t´erminos de las componentes de los cuaterniones ¿El producto de cuaterniones |di = |ai |ri ser´a un vector, pseudovector o ninguna de las anteriores? Explique por qu´e. c) Muestre que los cuaterniones pueden ser representados por matrices complejas 2 × 2 del tipo   z w |bi ←→ −w∗ z ∗ donde z, w son n´ umeros complejos.

ad o

rP

d ) Muestre que una representaci´ on posible para la base de    0 0 0 0 1 0 0  0 0 −1  −1 0 0 0   |q2 i =  |q1 i =   0 1 0  0 0 0 1 ; 1 0 0 0 0 −1 0

cuaterniones es, la matriz unitaria   0 0 −1 −1  0 0 0 0  ; |q3 i =   1 0 0 0  0 −1 0 0

4x4 y  0 1   0  0

e) Compruebe si la siguiente es una buena definici´on de producto interno: z

ha |bi = |ai |bi

Bo rr

f ) Modifique un poco la definici´ on anterior de tal forma que se tenga la ha |bi =

1 [ha |bi − |q1 i ha |bi |q1 i] 2

y compruebe si esta definici´ on compleja del producto interno cumple con todas las propiedades. N´ otese que un cuaterni´ on de la forma |f i = f 0 + f 1 |q1 i es un n´ umero complejo convencional.

g) Compruebe si la siguiente es una buena definici´on de norma para los cuaterniones q p z n(|bi) = k|aik = ha |ai = |ai |ai

17 Para

familiarizarse con las expresiones vectoriales con la notaci´ on de ´ındices puede consultar la secci´ on 1.6

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

118

2.6. EJERCICIOS PROPUESTOS

h) Comprebe si un cuaterni´ on definido por z

|ai =

|ai

k|aik

2

puede ser considerado como el inverso o elemento sim´etrico de |ai respecto a la multiplicaci´ on i ) Compruebe si los Cuaterniones |ai forman un grupo respecto a una operaci´on multiplicaci´ on .

in ar

j ) Los vectores en R3 en coordenadas cartesianas, |vi, pueden ser representados como cuaterniones donde la parte escalar es nula v 0 = 0 → |vi = v j |qj i. Compruebe si el siguiente producto conserva la norma |v 0 i = |ai |vi |ai  0 2  0 2  0 2 2 2 2 2 2 Estos es: k|v 0 ik = v 1 + v2 + v3 ≡ v 1 + v 2 + v 3 = k|vik .

re lim

2. En el mismo esp´ıritu de los cuaterniones considerados previamente, considere otra vez el espacio R3 expadido por la base ortonormal est´ andar {i, j, k} y suponga en este espacio el producto de dos vectores a y b (o |ai y |bi en la notaci´ on de vectores abstractos de Dirac) definido a la manera del ´ algebra geom´etrica 18 . Esto es: K |ai |bi ≡ ab = a · b + a ∧ b con a · b el producto escalar est´ andar de R3 , representando la parte conmutativa de ab y a ∧ b su parte anticonmutativa. Esta u ´ltima parte se relaciona con el producto vectorial est´andar de la representaci´ on de Gibbs como a ∧ b = ia × b, con i = i ∧ j ∧ k un pseudoescalar19 . Este formalismo ha tenido cierto impacto en computaci´on gr´afica20 y lo vamos a utilizar para modelar transformaciones de objetos en el espacio.

rP

Considere el caso 2D representado en la Figura 2.2 y en el formalismo de algebra geom´etrica el objeto tri´ angulo lo asociamos con vector abstracto |4i, mientras que el objeto cuadrado lo representaremos como |i, y el tercer objeto por |⇑i.

ad o

a) Exprese los vectores: |4i , |i , |⇑i en t´erminos de la base ortonormal est´andar {i, j, k} (o |ii , |ji , |ki) y el formalismo de ´ algebra geom´etrica. J b) Exprese |4i |⇑i en t´ermino de la base geom´etrica. Vale decir si |Og i es un objeto geom´etrico puede representarse en t´erminos de una base |i , |σi , |Bi , |ii donde |i un escalar; |σi un vector; |Bi un bivector y, finalmente |ii un pseudoescalar. c) Encuentre la norma de cada uno de ellos y la distancia entre |4i y |⇑i. E ˜ d ) Considere ahora la operaci´ on A |4i = 4

Bo rr

E ˜ 1) Si A|ji es el operador reflexi´on respecto |ji, exprese en t´erminos geom´etricos 4 = A|ji |4i J y A|ii (|4i |⇑i). 2) Si Aθ,|Bi es el Joperador de rotaci´on alrededor de un bivector |Bi un ´angulo θ. Encuentre Aπ/4,|Bi (|4i |⇑i) con |Bi = |ji + |ki

18 Hestenes David. Vectors, spinors, and complex numbers in classical and quantum physics. Am. J. Phys 39, no. 9 (1971): 1013-1027. √ 19 Y equivalentemente, por isomorfismo i = −1. 20 Pueden consultar Hildenbrand D., D. Fontijne, Ch. Perwass and L. Dorst: Geometric algebra and its application to computer graphics. In Tutorial notes of the EUROGRAPHICS conference, 2004. O tambi´ en Hildenbrand, Dietmar: From Grassmann’s vision to geometric algebra computing. Springer Basel, 2011.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

119

re lim

in ar

2.6. EJERCICIOS PROPUESTOS

Figura 2.2: Se ilustran los vectores ortonormales est´andares {i, j} y como siempre k = i × j

ad o

rP

3) ¿C´ omo interpreta Ud la ecuaci´on de autovalores A |4i = 2 |4i? E ˆ e) Considere el caso 3D en el cual 4 representa un tetraedro regular con la base representada por E ˆ la Figura 2.2 y  , un cubo, tambi´en con su base representada en el plano de la misma figura. E E ˆ ˆ 1) Exprese los vectores: 4 ,  en t´erminos de la base ortonormal est´andar {i, j, k} y el formalismo de ´ algebra geom´etrica.  E J  J ˆ |4i en t´ermino de la base geom´etrica. |⇑i 2) Exprese 4 E E E ˆ ˆ ˆ 3) Encuentre la norma de 4 y la distancia entre 4 y Aπ/2,|−ji  .   E   ˆ con Aπ/2,|−ji , Bπ/4,|ii = Aπ/2,|−ji Bπ/4,|ii − Bπ/4,|ii Aπ/2,|−ji 4) Exprese Aπ/2,|−ji , Bπ/4,|ii 

Bo rr

3. En Geometr´ıa Diferencial podemos considerar a R3 como un conjunto de puntos (una variedad o espacio topol´ ogico), es decir, R3 no es un espacio vectorial como se defini´o con anterioridad. En un punto q cualquiera podemos generar un plano R2 , entendido tambi´en como un conjunto de puntos, y definir el siguiente conjunto Tq R2 = {el conjunto de todos los vectores geom´etricos (flechas) con origen en q que son tangentes al plano R2 }. Notemos que la idea la podemos extender para cualquier superficie, por ejemplo, una esfera S2 (embebida en R3 ) y sobre la esfera seleccionar un punto arbitrario q. A partir de este punto q generar un plano y construir el conjunto Tq S2 = {el conjunto de todos los vectores geom´etricos con origen en q que son tangentes a la esfera S2 }. a) ¿Es Tq R2 un espacio vectorial? b) Claramente podemos seleccionar otro punto arbitrario, pero diferente de q, digamos p y construir el conjunto Tp R2 . ¿Son estos dos espacios isomorfos?

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

120

2.6. EJERCICIOS PROPUESTOS

Considremos ahora el conjunto de todas las funciones diferenciables f : R3 → R. Eso es, que existen todas las derivadas parciales en q ∈ R3 : ∂x f (xi ) , ∂y f (xi ) , ∂z f (xi ) ∈ R ∀ (xi ) ∈ R3 Note que hemos supuesto un sistema de coordenadas cartesiano xi = (x, y, z) en R3 y que las derivadas son evaluadas en q.

Por lo tanto: |Uq i f ≡ u1 ∂x + u2 ∂y + u3 ∂z

 q

in ar

Consideremos el espacio tangente Tq R3 en un punto q arbitrario y un vector |uq i ∈ Tq R3 con compo 1 2 3 nentes u , u , u , podemos definir el siguiente operador (operador derivada direccional) en q siguiendo a |uq i  |Uq i = u1 ∂x + u2 ∂y + u3 ∂z q

f = u1 (∂x f )q + u2 (∂y f )q + u3 (∂z f )q

c) ¿Es Dq un espacio vectorial?

Bo rr

ad o

rP

d) ¿Los espacios Dq y Tq R3 son isomorfos?

re lim

Es posible entonces construir el conjunto de los operadores derivadas direccionales que act´ uan sobre las funciones f :  Dq (R3 ) = {|Uq i = u1 ∂x + u2 ∂y + u3 ∂z q ∀ |uq i ∈ Tq R3 }

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

121

in ar

Bibliograf´ıa

[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici´ on (Academic Press, Nueva York)

re lim

[2] Scharnhorst, K. (2009) Angles in complex vector spaces Acta Applicandae Mathematica), 69(1), 95-103 [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:

rP

[6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) [7] Santal´ o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)

Bo rr

ad o

[8] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )

122

3

Bo rr

ad o

rP

re lim

Vectores Duales y Tensores

in ar

Cap´ıtulo

123

3.1. FUNCIONALES LINEALES

3.1.

Funcionales lineales

En los cursos m´ as elementales de c´ alculo se estudiaron funciones de una y m´as variables reales. Estas funciones pueden considerarse entonces como funciones que act´ uan sobre vectores en R3 . Podemos extender esta idea para funciones que tengan como argumento vectores de un espacio vectorial arbitrario. Comenzaremos con las funciones mas sencillas, las lineales, que tambi´en son conocidas como operadores lineales. Definiremos funcionales lineales como aquella operaci´on que asocia un n´ umero complejo (o real) ∈ K a un vector |vi ∈ V y cumple con la linealidad, vale decir: |vi ∈ V



F [|vi] ∈ C ,

in ar



F [α |v1 i + β |v2 i] ≡ α F [|v1 i] + β F [|v2 i] , ∀ |v1 i , |v2 i ∈ V y ∀ α, β ∈ K.

re lim

El conjunto de funcionales lineales {F1 , F2 , F3 , · · · , Fn , · · · } constituyen a su vez un espacio vectorial, el cual se denomina espacio vectorial dual de V y se denotar´a como V∗ (no es complejo conjugado). Si V es de dimensi´ on finita n, entonces dimV = dimV∗ = n. Es f´ acil convencerse que los funcionales lineales forman un espacio vectorial ya que dados F1 , F2 ∈ V∗ se tiene  (F1 + F2 ) [|vi] = F1 [|vi] + F2 [|vi]  ∀ |vi ∈ V .  (α F) [|vi] = α F [|vi] A este espacio lineal tambi´en se le llama espacio de formas lineales y a los funcionales 1−formas o covectores, al espacio vectorial V tambi´en se le denomina espacio directo. En aquellos espacios lineales con producto interno definido (Espacios de Hilbert), el mismo producto interno constituye la expresi´ on natural del funcional. As´ı tendremos que ∀

|vi ∈ V

rP

Fa [|vi] ≡ ha |vi





ha| ∈ V∗ .

ad o

Es claro comprobar que el producto interno garantiza que los {Fa , Fb , · · · } forman un espacio vectorial:  (Fa + Fb ) [|vi] = Fa [|vi] + Fb [|vi] = ha |vi + hb |vi  ∀ |vi ∈ V .  (α Fa ) [|vi] = hαa |vi = α∗ ha |vi = α∗ Fa [|vi] Esta u ´ltima propiedad se conoce como antilinealidad. Se establece entonces una correspondencia 1 a 1 entre kets y bras, entre vectores y funcionales lineales (o formas diferenciales): λ1 |v1 i + λ2 |v2 i  λ∗1 hv1 | + λ∗2 hv2 | ,

Bo rr

que ahora podemos precisar:



ha |vi = hv |ai , ha |λ1 v1 + λ2 v2 i = λ1 ha |v1 i + λ2 ha |v2 i , hλ1 a1 +λ2 a2 |vi = λ∗1 ha1 |vi + λ∗2 ha2 |vi .

M´ as a´ un, dada una base {|e1 i , |e2 i , |e3 , i · · · |en i} para V siempre es posible asociar una base para V∗ de tal manera que



|vi = λi |ei i  hv| = λ∗i ei , con λi = ei |vi ∧ λ∗i = hv |ei i para i = 1, 2, · · · , n

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

124

3.1. FUNCIONALES LINEALES

En un lenguaje  arcaico (y muchos textos de Mec´anica todav´ıa lo reproducen) se denota a la base del espacio dual ei y la base del espacio directo base rec´ıproca {|ei i}. Se puede ver tambi´en que si |vi = ξ i |ei i, entonces   F [|vi] = F ξ i |ei i = ξ i F [|ei i] = ξ i ωi

re lim

Esta 1−forma al actuar sobre un vector arbitrario resulta en   F i [|vi] = F i ξ j |ej i = ξ j F i [|ej i] = ξ j δji = ξ i

in ar

donde hemos definido F [|ei i] ≡ ωi . N´ otese que estamos utilizando la notaci´on de Einstein la que ´ındices repetidos indican suma, y en

en donde las bases del espacio dual de formas diferenciales ek llevan los ´ındices arriba. Los ´ındices arriba se llamar´ an contravariantes y los ´ındices abajo

covariantes. Las componentes de las formas diferenciales en una base dada, llevan ´ındices abajo ha| = ai ei mientras que las componentes de los vectores los llevan arriba |vi = ξ j |ej i. N´ otese tambi´en que dada una base en el espacio directo |ei i existe una u ´nica base can´onica en el dual definida como:

i e |ej i = F i [|ej i] = δji

es decir, en su componente contravariante. El conjunto de 1−formas {F i } ser´ a linealmente independientes. Si |vi = ξ i |ei i es un vector arbitrario en el espacio directo y ha| = ai ei un vector en el espacio dual, entonces:



ha |vi = ai ei ξ j |ej i = a∗i ξ j ei |ej i = a∗i ξ j δji = a∗i ξ i

Para bases arbitrarias {|ei i} de V y { ei } de V∗ se tiene

rP

ha |vi = Λij a∗i ξ j

donde Λij ≡ ei |ej i. Ejemplos

ad o

Un ejemplo sencillo de un funcional lineal es la integral de Riemann que podemos interpretar de la manera siguiente Z b I [|f i] = f (x)dx a

donde f (x) ∈ C[a,b] , es decir, pertenece al espacio vectorial de funciones reales y continuas en el intervalo [a, b].

Bo rr

Consideremos V = R3 como el espacio vectorial conformado por todos los vectores columna  1  ξ |vi =  ξ 2  ξ3 que al representarse en su base can´ onica {|ii i} resulta en:       1 0 0 |vi = ξ 1  0  + ξ 2  1  + ξ 3  0  = ξ 1 |i1 i + ξ 2 |i2 i + ξ 3 |i3 i = ξ i |ii i 0 0 1

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

125

´ 3.2. PARENTESIS TENSORIAL

Sea F ∈ V∗ , de manera que F [|vi] = ξ i wi pueda representarse por vectores fila F = (w1 , w2 , w3 )

Notemos que para la base en el espacio dual, que denotaremos ζ i = { ii } la definimos como:



1

1

2

2 ζ i [|ij i] = ii |ij i = δji ⇒ i1 |i1 i = 1 , i |i2 i = 0 , i |i3 i = 0 , i |i1 i = 0 , i |i2 i = 1 , · · ·

3.1.1.

 ξ1 ζ 2 [|vi] = (0, 1, 0)  ξ 2  = ξ 2 , ξ3 

Ejercicios

1. Encuentre las bases duales para los siguientes espacios vectoriales a) R2 , donde: |e1 i = (2, 1) y |e2 i = (4, 1)

re lim

b) R3 , donde: |e1 i = (1, 1, 3), |e2 i = (0, 1, −1) y |e3 i = (2, 1, 0)

 ξ1 ζ 3 [|vi] = (0, 0, 1)  ξ 2  = ξ 3 ξ3 

in ar

En este caso: ζ i = |ii i y adem´ as  1  ξ ζ 1 [|vi] = (1, 0, 0)  ξ 2  = ξ 1 , ξ3

2. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 1. Y si adem´as definimos Z 1 Z 2 ζ 1 [|pi] = p(x)dx ∧ ζ 2 [|pi] = p(x)dx 0

0

donde {ζ 1 , ζ 2 } ∈ V∗ . Encuentre una base {|e1 i , |e2 i} ∈ V que resulte dual a {ζ 1 , ζ 2 }.

Par´ entesis tensorial

rP

3.2.

Las funciones m´ as simples que se pueden definir sobre un espacio vectorial, el funcional lineal, nos permite extendernos al concepto de tensor.

Tensores, una definici´ on funcional

ad o

3.2.1.

Definiremos como un tensor a un funcional lineal (bilineal en este caso) que asocia un elemento del Campo K, complejo o real, a un vector |vi ∈ V, a una forma hu| ∈ V∗ , o ambas, y cumple con la linealidad. Esto es: ∀

|vi ∈ V



hu| ∈ V∗ →

T [hu| ; |vi] ∈ C

Bo rr

T [hu| ; α |v1 i + β |v2 i] ≡ αT [hu| ; |v1 i] + β T [hu| ; |v2 i] T [ζ hu1 | + ξ hu2 | ; |vi] ≡ ζT [hu1 | ; |vi] + ξ T [hu2 | ; |vi]

hu| ∈ V∗

∀ |v1 i , |v2 i ∈ V



∀ |vi , ∈ V

hu1 | , hu2 | ∈ V∗



En pocas palabras: un tensor es un funcional generalizado cuyos argumentos son vectores y/o formas, lo que significa que T [◦; •] es una cantidad con dos “puestos” y una vez “cubiertos” se convierte en un escalar (complejo o real). Un tensor, con un argumento correspondiente a un vector y un argumento correspondiente a una forma, lo podremos representar de la siguiente manera: |vi hu|   ↓ ↓ 1   T ◦ ; • ∈ C ⇒ tensor de tipo 1

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

126

´ 3.2. PARENTESIS TENSORIAL

Un tensor con dos argumentos correspondientes a vectores y uno a una forma ser´ıa |v i |v i hu| 1 2   ↓ ↓ ↓ 1 T [◦, ◦; •] ⇒ T  ◦ , ◦ ; •  ∈ C ⇒ tensor de tipo ; 2 y el caso contrario ↓

hu1 | hu2 | ↓ ↓





T [◦; •, •] ⇒ T  ◦ ; • , •  ∈ C



tensor de tipo

En general |v

1i



|v2 i ↓

|vn i hu1 | hu2 | ↓ ↓ ↓

hum | ↓

2 1



in ar

|vi





T  ◦ , ◦ ,··· , ◦ ; • , • ··· , •  ∈ C

tensor de tipo



m n



.

rP

re lim

En esta notaci´ on el punto y coma (;) separa las “entradas” formas de las “entradas” vectores. Es importante recalcar que el orden si importa, no s´olo para las cantidades separadas por ;, sino el orden de los “puestos” vectores y “puestos” formas separados por coma y repercutir´a en las propiedades de los tensores. Por ejemplo: si el orden de las “entradas” vectores no importa, podremos permutarlas sin alterar al tensor, tendremos entonces tensores sim´ etricos respecto a esos “puestos” o “entradas”; del mismo modo, ser´ an tensores antisim´etricos aquellos en los cuales el orden si importa y al permutar esos “puestos” o “entradas” hay un cambio de signo en el tensor. Todos estos casos ser´an tratados con detalle m´ as adelante, pero vale la pena recalcar que en general, para un tensor gen´erico el orden de la “entradas” o “puestos” si importa pero no necesariamente se comporta como los casos rese˜ nados anteriormente. Notemos que en el caso general un tensor es b´asicamente un aplicaci´on multilineal T sobre V∗ × V: T : V∗m × Vn = V∗ × V∗ · · · V∗ × V∗ × V × V · · · V × V → C | {z } | {z } m

n

ad o

con n el orden covariante y m el orden contravariante. Obviamente las formas pueden ser representadas por tensores ya que son funcionales lineales de vectores, es decir: hu|   ↓ 1 Un vector es un tensor del tipo ⇒ T  •  ∈ C. 0

Bo rr

los vectores constituyen un caso especial de tensores.

Una forma es un tensor del tipo



0 1



|vi ↓ ⇒ T  ◦  ∈ C.

porque son funcionales lineales para las formas diferenciales. Finalmente:   0 Un escalar es un tensor del tipo ∈ C. 0   m Por lo tanto, un tensor es un funcional multilineal que asocia m 1-formas y n vectores en C. n

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

127

´ 3.2. PARENTESIS TENSORIAL

3.2.2.

Producto tensorial

Como ser´ a evidente m´ as adelante, los tensores (simples) pueden provenir del producto tensorial (exterior o directo) de espacios vectoriales. Esto es, dados E1 y E2 dos espacios vectoriales con dimensiones n1 y n2 , respectivamente y vectores gen´ericos, |ϕ(1)i y |χ(2)i pertenecientes a estos espacios vectoriales: |ϕ(1)i ∈ E1 y |χ(2)i ∈ E2 . Definiremos el producto tensorial (exterior o directo)de espacios vectoriales, E = E1 ⊗ E2 , si  2 a cada par de vectores |ϕ(1)i y |χ(2)i le asociamos un tensor tipo y si se cumple que 0 hζ(1)|

hξ(2)| ↓



y si adem´ as se cumplen las siguientes propiedades: 1. La suma entre tensores de E viene definida como

in ar

↓ |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i ⇔ T  • , •  = hζ(1) |ϕ(1)i hξ(2) |χ(2)i ∈ C

|ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1)i ⊗ |χ(2)i + |ζ(1)i ⊗ |ξ(2)i

re lim

= |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i

2. El producto tensorial es lineal respecto a la multiplicaci´on con n´ umeros reales λ y µ [|λϕ(1)i] ⊗ |χ(2)i = [λ |ϕ(1)i] ⊗ |χ(2)i = λ [|ϕ(1)i ⊗ |χ(2)i] = λ |ϕ(1)χ(2)i |ϕ(1)i ⊗ [|µχ(2)i] = |ϕ(1)i ⊗ [µ |χ(2)i] = µ [|ϕ(1)i ⊗ |χ(2)i] = µ |ϕ(1)χ(2)i 3. El producto tensorial es distributivo respecto a la suma:

rP

|ϕ(1)i ⊗ [|χ1 (2)i + |χ2 (2)i] = |ϕ(1)i ⊗ |χ1 (2)i + |ϕ(1)i ⊗ |χ2 (2)i [|ϕ1 (1)i + |ϕ2 (1)i] ⊗ |χ(2)i = |ϕ1 (1)i ⊗ |χ(2)i + |ϕ2 (1)i ⊗ |χ(2)i N´ otese que los ´ındices (1) y (2) denotan la pertenencia al espacio respectivo.

ad o

Es f´ acil convencerse que los tensores |ϕ(1)χ(2)i ∈ E = E1 ⊗ E2 forman un espacio vectorial y la demostraci´ on se basa en comprobar los axiomas o propiedades de los espacios vectoriales tal y como lo describimos en la Secci´ on 2.1.3: 1. La operaci´ on suma  es cerrada en V : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i  |vj i ∈ V.

Bo rr

Esto se traduce en demostrar que sumados dos tensores |ϕ(1)χ(2)i y |ζ(1)ξ(2)i ∈ E el tensor suma tambi´en pertenece a E, con a y b pertenecientes al campo del espacio vectorial a |ϕ(1)χ(2)i + b |ζ(1)ξ(2)i = |aϕ(1) + ζ(1)i ⊗ |χ(2) + bξ(2)i

y esto se cumple siempre ya que, el producto tensorial es lineal respecto a la multiplicaci´on con n´ umeros reales y por ser E1 y E2 espacios vectoriales se cumple  |aϕ(1) + ζ(1)i = a |ϕ(1)i + |ζ(1)i ∈ E1  =⇒ |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i ∈ E  |ϕ(2) + bζ(2)i = |ϕ(2)i + b |ζ(2)i ∈ E2

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

128

´ 3.2. PARENTESIS TENSORIAL

2. La operaci´ on suma  es conmutativa y asociativa Conmutativa ∀ |vi i , |vj i ∈ V ⇒ |vi i  |vj i = |vj i  |vi i Esta primera es clara de la definici´ on de suma |ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i |ζ(1)ξ(2)i + |ϕ(1)χ(2)i = |ζ(1) + ϕ(1)i ⊗ |ξ(2) + χ(2)i

in ar

por ser E1 y E2 dos espacios vectoriales ∀ |vi i , |vj i , |vk i ∈ V ⇒ (|vi i  |vj i)  |vk i = |vj i  (|vi i  |vk i) una vez m´ as, esto se traduce en: (|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1)ξ(2)i + |κ(1)κ(2)i) con lo cual, por la definici´ on de suma la expresi´on anterior queda como

(|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1) + κ(1)i ⊗ |ξ(2) + κ(2)i)

3. Existe un u ´nico elemento neutro: ∃ |0i Es decir,

/

re lim

|(ϕ(1) + ζ(1)) + κ(1)i ⊗ |(ξ(2) + χ(2)) + κ(2)i = |ϕ(1) + (ζ(1) + κ(1))i ⊗ |ξ(2) + (χ(2) + κ(2))i |0i  |vj i = |vj i  |0i = |vj i

∀ |vj i ∈ V

|ϕ(1)χ(2)i + |0(1)0(2)i = |ϕ(1) + 0(1)i ⊗ |χ(2) + 0(2)i = |ϕ(1)i ⊗ |χ(2)i = |ϕ(1)χ(2)i

rP

4. Existe un elemento sim´etrico para cada elemento de V : ∀ |vj i ∈ V ∃ |−vj i / |vj i  |−vj i = |0i ⇒

|ϕ(1)χ(2)i − |ϕ(1)χ(2)i = |ϕ(1) − ϕ(1)i ⊗ |χ(2) − χ(2)i = |0(1)i ⊗ |0(2)i = |0(1)0(2)i 5. α (β |vi i) = (αβ) |vi i :

α (β |ϕ(1)χ(2)i) = α (|βχ(2)i ⊗ |ϕ(1)i) = |αβχ(2)i ⊗ |ϕ(1)i

ad o

= (αβ) |χ(2)i ⊗ |ϕ(1)i = (αβ) |ϕ(1)χ(2)i

6. (α + β) |vi i = α |vi i + β |vi i :

Bo rr

(α + β) |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |(α + β) χ(2)i = |ϕ(1)i ⊗ |αχ(2) + βχ(2)i = |ϕ(1)i ⊗ [(α |χ(2)i + β |χ(2)i)] = α |ϕ(1)i ⊗ |χ(2)i + β |ϕ(1)i ⊗ |χ(2)i

7. α (|vi i  |vj i) = α |vi i  α |vj i : α (|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) = α (|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) = |α (ϕ(1) + ζ(1))i ⊗ |ξ(2) + χ(2)i = |αϕ(1) + αζ(1)i ⊗ |ξ(2) + χ(2)i = (|αϕ(1)χ(2)i + |αζ(1)ξ(2)i) = α |ϕ(1)χ(2)i + α |ζ(1)ξ(2)i

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

129

´ 3.2. PARENTESIS TENSORIAL

Equivalentemente, podemos construir un producto tensorial entre espacios de formas diferenciales. Si E∗1 y E∗2 son dos espacios vectoriales duales a E1 y E2 , con dimensiones n1 y n2 , respectivamente. A estos espacios pertenecen las formas diferenciales gen´ericas hζ(1)| ∈ E∗1 y hξ(2)| ∈ E∗2 . Definiremos el producto tensorial de espacios vectoriales duales, E∗ =E∗1 ⊗ E∗2 , si a cada par de formas diferenciales hζ(1)| ∈ E∗1 y 0 hξ(2)| ∈ E∗2 le asociamos un tensor tipo . Esto es 2 hζ(1)ξ(2)| = hζ(1)| ⊗ hξ(2)|

3.2.3.

La tentaci´ on del producto interno

in ar

A partir de las definiciones de productos internos en E1 y E2 , uno puede verse tentado a definir un producto interno de la siguiente forma hϕ(1) ˜ χ(2) ˜ |ϕ(1)χ(2)i = hϕ(1) ˜ |ϕ(1)i · hχ(2) ˜ |χ(2)i .

1. hx| xi ∈ R Esto es:



hx| xi ≥ 0

∀ |xi ∈ V

re lim

Mostraremos, sin embargo, que NO es una buena definici´on de producto interno, y para ello debemos demostrar que no se satisfacen los axiomas o propiedades del producto interno que expusimos en la Secci´ on 2.2.3. Para facilitar la lectura repetiremos aqu´ı las propiedades que definen el producto interno (expuestas en la Secci´ on 2.2.3) y haremos las “adaptaciones” del caso son: hx| xi = 0 ⇒ |xi ≡ |0i

si

hϕ(1)χ(2) |ϕ(1)χ(2)i = hϕ(1) |ϕ(1)i · hχ(2) |χ(2)i

rP

como hϕ(1) |ϕ(1)i y hχ(2) |χ(2)i son buenas definiciones de producto interno tendremos que  hϕ(1) |ϕ(1)i ≥ 0  ⇒ hϕ(1)χ(2) |ϕ(1)χ(2)i ≥ 0  hχ(2) |χ(2)i ≥ 0 Aqu´ı vale la pena mencionar algunos puntos sutiles sobre la segunda parte de la propiedad a demostrar: Si hx| xi = 0 ⇒ |xi ≡ |0i, lo cual para este caso se traducen en

Bo rr

ad o

hϕ(1)χ(2) |ϕ(1) ˜ χ(2)i ˜ = hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i ˜ =0   hϕ(1) |ϕ(1)i ˜ =0      ⇒ |ϕ(1)i ˜ = |0(1)i      hχ(2) | χ(2)i ˜ = 6 0          hϕ(1) |ϕ(1)i ˜ = 6 0   ⇒ |χ(2)i ˜ = |0(2)i hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i ˜ =0 ⇒    hχ(2) | χ(2)i ˜ = 0           hϕ(1) |ϕ(1)i ˜ =0  ˜ = |0(1)i   |ϕ(1)i    ⇒      hχ(2) |χ(2)i ˜ =0 |χ(2)i ˜ = |0(2)i

definitivamente, habr´ıa que restringir los posibles vectores que intervienen en el producto tensorial, de modo que no fuera posible vectores del tipo |ϕ(1)0(2)i ≡ |ϕ(1)i ⊗ |0(2)i

o

|0(1)χ(2)i ≡ |0(1)i ⊗ |χ(2)i

s´ olo as´ı se cumple la propiedad mencionada. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

130

´ 3.2. PARENTESIS TENSORIAL



2. hx| yi = hy| xi ∀ |xi , |yi ∈ V Esto puede ser demostrado f´ acilmente como sigue hϕ(1) ˜ χ(2) ˜ |ϕ(1)χ(2)i = hϕ(1) ˜ |ϕ(1)i · hχ(2) ˜ |χ(2)i ∗



= hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i ˜



= (hϕ(1) |ϕ(1)i ˜ · hχ(2) |χ(2)i) ˜ ∗

= hϕ(1)χ(2) |ϕ(1) ˜ χ(2)i ˜

3. hx| y + zi = hx| yi + hx| zi ∧ hx + z| yi = hx| yi + hz| yi ∀ |xi , |yi , |zi ∈ V Partimos del lado derecho de la primera de las igualdades anteriores:

in ar

hϕ(1) ˜ χ(2)| ˜ [|ϕ(1)χ(2)i + |ζ(1)ξ(2)i] = hϕ(1) ˜ χ(2)| ˜ [|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i] = hϕ(1) ˜ |ϕ(1) + ζ(1)i · hχ(2) ˜ |ξ(2) + χ(2)i

y otra vez, como hϕ(1) |ϕ(1)i y hχ(2) |χ(2)i son buenas definiciones de producto interno tendremos que: hϕ(1) ˜ |ϕ(1) + ζ(1)i = hϕ(1) ˜ |ϕ(1)i + hϕ(1) ˜ |ζ(1)i

re lim

hχ(2) ˜ |ξ(2) + χ(2)i = hχ(2) ˜ |ξ(2)i + hχ(2) ˜ |χ(2)i

y al multiplicar hχ(2) ˜ |ξ(2) + χ(2)i por hϕ(1) ˜ |ϕ(1) + ζ(1)i surgir´an cuatro sumandos hϕ(1) ˜ |ϕ(1)i hχ(2) ˜ |ξ(2)i + hϕ(1) ˜ |ϕ(1)i hχ(2) ˜ |χ(2)i + hϕ(1) ˜ |ζ(1)i hχ(2) ˜ |ξ(2)i + hϕ(1) ˜ |ζ(1)i hχ(2) ˜ |χ(2)i lo cual contrasta con el lado izquierdo al utilizar la definici´on dos veces que tienen dos sumandos hϕ(1) ˜ χ(2) ˜ |ϕ(1)χ(2)i + hϕ(1) ˜ χ(2) ˜ |ζ(1)ξ(2)i = hϕ(1) ˜ |ϕ(1)i · hχ(2) ˜ |χ(2)i + hϕ(1) ˜ |ζ(1)i · hχ(2) ˜ |ξ(2)i por lo cual NO se cumple esta propiedad y no hay forma de enmendarla.

Bases para un producto tensorial

rP

3.2.4.

Si {|ui (1)i} y {|vi (2)i} son, respectivamente, bases discretas para E1 y E2 entonces podremos construir el tensor |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E el cual funcionar´ a como una base para E y, por lo tanto, podremos construir un tensor gen´erico de E

ad o

|ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = ϕi χj |ui (1)vj (2)i

Bo rr

donde ϕi y χj son las componentes de |ϕ(1)i y |χ(2)i en sus respectivas bases. En otras palabras, las componentes de un tensor en E corresponden a la multiplicaci´on de las componentes de los vectores en E1 y E2 . Recuerde que estamos utilizando Pn la convenci´on de Einstein de suma t´acita en ´ındices covariantes y contravariantes, en la cual ck |vk i ≡ k=1 ck |vk i . Es importante se˜ nalar que si bien un tensor gen´erico |Ψi ∈ E siempre se puede expandir en la base |ui (1)vj (2)i no es cierto que todo tensor de E provenga del producto tensorial de E1 y E2 . Es decir, E tiene m´ as tensores de los que provienen el producto tensorial. Esta afirmaci´on puede intuirse del hecho que si |Ψi ∈ E entonces |Ψi = cij |ui (1)vj (2)i por ser {|ui (1)vj (2)i} base para E. Es claro que dados dos n´ umeros α1 y α2 habr´a cij que no provienen de la multiplicaci´ on de α1 α2 . El conjunto de todas funciones bilineales T [hu| ; |vi] forman un espacio vectorial sobre el espacio directo E. Este espacio vectorial de funciones tendr´a una base dada por f ij = |ϕ(1)i ⊗ |χ(2)i

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

131

´ 3.2. PARENTESIS TENSORIAL

Ejemplo Consideremos los siguientes elementos   x1 |vi =  x2  ∈ M31 x3

y

|ui = (y1 y2 y3 ) ∈ M13

in ar

donde Mmn indica matrices m × n sobre los n´ umeros reales R. El conjunto de matrices Mmn constituyen un espacio vectorial para la suma y multiplicaci´on por los n´ umeros reales, adem´ as, la dimensi´ on de este espacio vectorial es: dim(Mmn ) = mn. Podemos definir la siguiente operaci´ on:     x1 x1 y1 x1 y2 x1 y3 |v ui =  x2  ⊗ (y1 y2 y3 ) =  x2 y1 x2 y2 x2 y3  ⇔ M31 ⊗ M13 = M33 x3 x3 y1 x3 y2 x3 y3 Notemos que este funcional (funcional bilineal) cumple con: =

λ1 T [|v1 i , |ui] + λ2 T [|v2 i , |ui]

T [|vi , λ1 |u1 i + λ2 |u2 i]

=

λ1 T [|vi , |u1 i] + λ2 T [|vi , |u2 i]

re lim

T [λ1 |v1 i + λ2 |v2 i , |ui]

donde {λ1 , λ2 } ∈ R, {|vi , |v1 i , |v2 i} ∈ V1 = M31 y {|ui , |u1 i , |u2 i} ∈ V2 = M13 . Veamos que si {|e1 (1)i , |e2 (1)i , |e3 (1)i} es una base para V1 y {|e1 (2)i , |e2 (2)i , |e3 (2)i} es una base para 2 V definidas como       1 0 0 |e1 (1)i =  0  , |e2 (1)i =  1  , |e3 (1)i =  0  , |e1 (2)i = (1 0 0) , |e2 (2)i = (0 1 0) , |e3 (2)i = (0 0 1) 0 0 1 definido, resulta:   0 0 0  , |e1 (1)i ⊗ |e2 (2)i =  0 0 0

1 0 0



0 0 0

  0 0 0  , |e2 (1)i ⊗ |e2 (2)i =  0 0 0

0 1 0

  0 0 0  , |e2 (1)i ⊗ |e3 (2)i =  0 0 0

0 0 0

 0 1  0



0 0 0

  0 0 0  , |e3 (1)i ⊗ |e2 (2)i =  0 0 0

0 0 1

  0 0 0  , |e3 (1)i ⊗ |e3 (2)i =  0 0 0

0 0 0

 0 0  1

ad o

rP

con el producto previamente  1 0 |e1 (1)i ⊗ |e1 (2)i =  0 0 0 0 0 |e2 (1)i ⊗ |e1 (2)i =  1 0

Bo rr

0 |e3 (1)i ⊗ |e1 (2)i =  0 1

  0 0 0  , |e1 (1)i ⊗ |e3 (2)i =  0 0 0

0 0 0

 1 0  0

Es claro que ´este conjunto de matrices (matrices 3 × 3) forman una base para el espacio V3 = M33 , y que dim(V3 ) = 9.

3.2.5.

Tensores, sus componentes y sus contracciones

Hemos mencionado anteriormente que un escalar es una cantidad que se puede especificar, independientemente del sistema de coordenadas, por un s´olo n´ umero. Los vectores geom´etricos que dibuj´abamos con

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

132

´ 3.2. PARENTESIS TENSORIAL

in ar

flechas los sustituimos ahora por tres n´ umeros respecto a una base seleccionada, es decir, a trav´es de sus tres componentes. Los escalares y los vectores son casos particulares de objetos m´as generales que denominaremos tensores, tensores de orden o rango k y cuya especificaci´on en cualquier sistema de coordenadas requerir´ a de 3k n´ umeros, llamadas las componentes del tensor. Esto significa que un escalar es un tensor de orden 0 (30 = 1 componente) y un vector un tensor de orden 1 (31 = 3 componentes). Si el espacio vectorial es de dimensi´ on n, entonces un tensor de orden k tendr´a nk componentes. Como veremos m´ as adelante, los tensores son mucho m´as que simples n´ umeros respecto a un sistema de coordenadas y la clave radica en la “ley de transformaci´on” de sus componentes, es decir, en la relaci´ on que existe entre las componentes de un tensor en un sistema de coordenadas y las componentes del mismo tensor en otro sistema de coordenadas diferente. Lo que hay detr´as de todo esto es el hecho de que las leyes matem´ aticas que describen los fen´ omenos f´ısicos deben ser “invariantes” bajo transformaciones de coordenadas, como por ejemplo: traslaciones, el espacio es homog´eneo, y rotaciones, el espacio es is´otropo. Componentes de un tensor

|u

i (1)i



mn Sijk =S ◦ ,

re lim

Denominaremos componentes de un tensor, aquellos n´ umeros que surgen de incorporar bases de formas diferenciales y vectores. As´ı, si {|ui (1)i , |vj (2)i , |tk (3)i} y  {hxm  (1)| , hy n (2)|} son bases para los vectores y 2 las formas, respectivamente, las componentes de un tensor ser´an 3 |vj (2)i |wk (3)i hxm (1)| hy n (2)| ↓ ↓ ↓ ↓



◦ ,



;



,



.

rP

Es de hacer notar que la selecci´ on de las bases no es arbitraria sino que deben corresponderse, entre el espacio directo, S, y su dual S ∗ i.e 

{|ui (1)i , |vj (2)i , |wk (3)i} ⊗ {hxm (1)| , hy n (2)|} ⇔ {|xp (1)i , |yq (2)i} ⊗ hua (1)| , v b (2) , hwc (2)| .

ad o

Claramente, esta definici´ on de componentes contiene a las componentes de aquellos espacios tensoriales generados por el producto tensorial. Si consideramos un tensor como resultado de un producto tensorial y consideramos las bases {|ui (1)i , hxm (1)|}, sus componentes se pueden expresar {ϕm (1)χi (1)}, vale decir,   1 ⇐⇒ |ϕ(1)i ⊗ h∆(1)| ⇒ hxm (1) |ϕ(1)i ⊗ h∆(1)| ui (1)i ⇒ {ϕm (1)χi (1)} . 1 Combinaciones lineales de tensores

Bo rr

Es claro que podremos sumar (componentes) de tensores como lo hemos hecho con la suma de (componentes) de vectores     a + b = (ax + bx ) i + (ay + by ) j + (az + bz ) k = a1 + b1 i + a2 + b2 j + a3 + b3 k = ai + bi |ii i , esto es:

Hern´ andez & N´ un ˜ez

ij ij Rkl = αQij kl + βPkl .

Universidad de los Andes / Universidad Industrial de Santander

133

´ 3.2. PARENTESIS TENSORIAL

Producto tensorial de tensores Podemos un m´ as la idea del producto directo y extenderla para tensores. As´ı, para dos tensores   extender   a´ 2 2 tipo y se tiene que 0 1 hζ(1)| ↓

hξ(2)| ↓



|ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = T  • , •  |u

i (1)i

hε(1)| hφ(2)| ↓ ↓



el producto directo es

in ar

↓ |µ(1)κ(2)Θ(1)i = |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)| = P  ◦ ; • , •  ,

|ϕ(1)χ(2)i ⊗ |µ(1)κ(2)Θ(1)i = |ϕ(1)i ⊗ |χ(2)i ⊗ |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)| |u (1)i hε(1)| hφ(2)| hζ(1)| hξ(2)| i

re lim

↓ ↓ ↓ ↓ ↓ = T  • , • ⊗P ◦ ; • , • 

|u

i (1)i



hε(1)| hφ(2)| hζ(3)| hξ(4)| ↓ ↓ ↓ ↓



= R ◦ ; • , • , • , •  Por ejemplo, en componentes ser´ıa como se muestra a continuaci´on:

Contracci´ on de un tensor

rP

Rkijlm = T ij Pklm .

Bo rr

ad o

Denominaremos una contracci´ on cuando sumamos las componentes covariantes y contravariantes, esto es, si tenemos ϕi (1)χi (1) entonces se genera un escalar independiente de la base. Esta situaci´on ser´ a m´ as evidente cuando definamos m´etricas y contracci´on de tensores. Por  analog´ıa y considerando un caso m´ as 2 mn general, dada las componentes Sijk correspondiente a un tensor podremos construir un nuevo tensor 3   1 mn in n a partir de una contracci´ on. Las componentes de este nuevo tensor ser´an: Sijk ⇒ Sijk ≡ Sjk . 2 Del mismo modo, dadas las componentes de dos tensores, P lm y Qij an componentes de nuevos zk generar´ tensores Rklij = P lm Qij . As´ ı mk    2     ⇒ P lm  0 3   ⇒ ⇒ Rklij = P lm Qij mk . 2 1 ij  ⇒ Qzk   2 Es claro que si dos tensores derivan de productos tensoriales y si {|ui (1)i} , {hum (1)|} y {|vi (2)i} son bases ortonormales para E1 , E∗1 y E2 , entonces sus productos podr´an ser expresados como   |γ(1)δ(2)i = γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i , |α(1)β(1)i = αl (1)βm (2) |ul (1)i ⊗ hum (1)| , | {z } | {z } P ij

Hern´ andez & N´ un ˜ez

Qlm

Universidad de los Andes / Universidad Industrial de Santander

134

´ 3.2. PARENTESIS TENSORIAL

entonces:     αl (1)βm (2) |ul (1)i ⊗ hum (1)| γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i  αl (1)βm (2) γ i (1)δ j (2) {hum (1) |ui (1)i} |vj (2)i ⊗ |ul (1)i | {z } 

=

δim

l

k

j

=

 α (1)βk (2) γ (1)δ (2) |vj (2)i ⊗ |ul (1)i

=

P ij Qli |vj (2)ul (1)i

=

Rjl |vj (2)ul (1)i .

in ar

Pero m´ as a´ un, si |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E es base de E entonces se puede demostrar lo anterior sin circunscribirnos a tensores cuyas componentes provengan de multiplicaci´on de las componentes en cada espacio vectorial. Simetrizaci´ on de tensores

re lim

Un tensor (las componentes) ser´ a sim´etrico respecto a dos de sus ´ındices si su permutaci´on no cambia su valor: Sij = Sji ; S ij = S ji ; Sij···kl···mn = Sij···lk···mn S ij···kl···mn = S ij···lk···mn y ser´ a antisim´etrico si Aij = −Aji ;

Aij = −Aji

Aij···kl···mn = −Aij···lk···mn

rP

Un tensor de rango 2, viene representado por una matriz que tendr´a sim´etrica tendr´ a como m´ aximo 6 componentes distintas.  1   1 S1 S21 S31 S1 S21 Sji = Sij =  S12 S22 S32  =  S21 S22 S13 S23 S33 S31 S32

Aij···kl···mn = −Aij···lk···mn .

32 = 9 componentes. Si la matriz es  S31 S32  S33

ad o

mientras que un tensor antisim´etrico de segundo orden tendr´a, cuando m´aximo, tres componentes con valor absoluto distintos de cero   0 A12 A13 0 A23  Aij = −Aji =  −A21 3 3 −A1 −A2 0 Siempre es posible construir tensores sim´etricos y antisim´etricos a partir de un tensor gen´erico. Esto es: 1 (Tij + Tji ) ≡ T(ij) 2

Bo rr

Sij =

Aij =

1 (Tij − Tji ) ≡ T[ij] 2

⇐⇒

Sij···kl···mn =

1 (Tij···kl···mn + Tij···lk···mn ) = Tij···(kl)···mn 2

⇐⇒

Aij···kl···mn =

1 (Tij···kl···mn − Tij···lk···mn ) = Tij···[kl]···mn 2

M´ as a´ un, es evidente que las componentes de un tensor gen´erico Tij , pueden expresarse como una combinaci´ on de su parte sim´etrica y antisim´etrica Tij = Sij + Aij . Obviamente que algo equivalente se puede realizar para componentes contravariantes de tensores.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

135

´ 3.2. PARENTESIS TENSORIAL

3.2.6.

Tensor m´ etrico, ´ındices y componentes

Para una base gen´erica, {|uj i}, no necesariamente ortogonal,   de un espacio vectorial con producto interno, 0 podemos definir la expresi´ on de un tensor sim´etrico, que denominaremos “tensor m´etrico”, de la 2 siguiente manera  i  |u i |u i hu | huj | j i   ↓ ↓ ↓   ↓ g  ◦ , ◦,  = g [|ui i , |uj i] = gij ≡ gji , g  • , •  = g ui , uj = g ij ≡ g ji −1

con g ij = (gij )

∀ |uj i , y si

2. g [|ui i , |uj i] = g [|uj i , |ui i]



gij ≡ gji

g [|ui i , |uj i] = 0 ⇒ i = j

re lim

1. g [|ui i , |uj i] = gij ≡ gji ≥ 0

in ar

. h i N´ otese que las gij ≡ gji son las componentes del tensor g ◦, ◦ una vez que la base {|uj i} ha actuado. La denominaci´ on de tensor m´ etrico, no es gratuita, g cumple con todas las propiedades de la m´etrica definida para un Espacio Vectorial Euclidiano expuestas en la Secci´on 2.2.1. Una vez m´ as, para facilitar la lectura, transcribiremos a continuaci´on esas propiedades:

3. g [|ui i , |uj i] ≤ g [|ui i , |uk i] + g [|uk i , |uj i]: La desigualdad Triangular

Si la base gen´erica, {|ui i} = {|ei i}, es ortonormal, entonces estas propiedades emergen de manera natural



g [◦, ◦] ≡ gij ei ⊗ ej ≡ gji ej ⊗ ei y g [•, •] ≡ g ij |ei i ⊗ |ξj i ≡ g ji |ej i ⊗ |ei i ,

rP

con lo cual sus componentes ser´ an matrices sim´etricas gij = gji e igualmente g ij = g ji . En general impondremos que 



 j = gij g ji = δii = n , gij ui ⊗ uj g km |uk i ⊗ |um i = gij g km ui |uk i uj |um i = gij g km δki δm

ad o

ya que i, j = 1, 2, 3, · · · , n. Con lo cual gij es la matriz inversa de g ij . Es decir, hemos definido las componentes contravariantes del tensor de modo que cumplan con gik g kj = δij . Adicionalmente, tambi´en es claro que











gij ui ⊗ uj |ai = ak gij ui ⊗ uj |uk i = ak gij uj |uk i ui = ak gij δkj ui = ak gik ui ≡ ai ui , con lo cual ai = ak gik . De la misma forma  

ha| g ij |ui i ⊗ |uj i = ha| g ij |ui i ⊗ |uj i = g ij ha |ui i ⊗ |uj i = ak g ij uk |ui i |uj i = ak g kj |uj i ≡ aj |uj i ,

Bo rr

otra vez aj = ak g kj , ahora subimos el ´ındice correspondiente. De esta manera, el tensor m´etrico nos permite asociar formas con vectores, componentes covariantes (formas) a componentes contravariantes (vectores) y dicho r´apido y mal, pero de uso muy frecuente: el tensor m´etrico nos permite subir y bajar ´ındices. Otra forma de verlo es combinando las propiedades del producto directo de tensores y contracci´ on de ´ındices



g ij |ui i ⊗ |uj i ⊗ Pklmn |ul i ⊗ |um i ⊗ |un i ⊗ uk ⇒ g ij Pklmn |uj i ⊗ Pklmn |ul i ⊗ |um i ⊗ |un i ⊗ uk ui i

g ij Pklmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i · uk ui i = P jlmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i ⇒ g ij Pilmn ≡ P jlmn . | {z } δik

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

136

´ 3.2. PARENTESIS TENSORIAL

Adicionalmente, el tensor m´etrico permite la contracci´on de ´ındices. As´ı, dado un producto tensorial de dos vectores que se pueden expresar en una base ortonormal {|ei i} |a, bi = |ai ⊗ |bi = ak bm |ek i ⊗ |ξm i ⇓ 

i j  k m k m j gij e ⊗ e a |ek i ⊗ b |em i = a b gij δki δm = ak bm gkm = ak bk = hb |ai = ha |bi . Es decir, el producto interno de dos vectores involucra, de manera natural, la m´etrica del espacio, hb |ai = ha |bi = ak bk = ak bk = ak bm gkm = ak bm g km .

in ar

Obviamente la norma de un vector, tambi´en incluir´a al tensor m´etrico:

2 k|aik = ha |ai = ai aj ei |ej i = ai ai = ai aj g ij = ai aj gij .

re lim

El caso m´ as emblem´ atico lo constituye la norma de un desplazamiento infinitesimal. Para una base gen´erica, {|uj i} no necesariamente ortogonal de un espacio vectorial con producto interno, el desplazamiento infinitesimal puede expresarse como



2 (ds) ≡ hdr |dri = dxk uk (dxm |um i) = uk |um i dxk dxm = dxm dxm = gkm dxk dxm . Si la base {|ej i} es ortogonal (cosa m´ as o menos com´ un pero no necesariamente cierta siempre) las matrices gij y g ij son diagonales y cumplen que gii =

1 g ii



2

(ds) = h1 dx1

2

+ h2 dx2

2

+ h3 dx3

2

2

rP

√ donde hi = gii , con i, j = 1, 2, 3 (aqu´ı no hay suma), se denominan los factores de escala. Y si la base {|ii i} es ortonormal, es f´ acil ver que k (ds) ≡ hdr |dri = δm dxk dxm = dxm dxm = dxm dxm

es decir:

g11 = g22 = g33 = 1 ,

gij = 0 si i 6= j

ad o

esto significa que en coordenadas cartesianas el desplazamiento infinitesimal es la ya conocida expresi´ on: ds2 = dx2 + dy 2 + dz 2 .

3.2.7.

Teorema del cociente

Bo rr

Al igual que existe el producto directo entre tensores, cabe preguntarse si es posible multiplicar un tensor arbitrario (de cualquier rango) por un “objeto” desconocido ¿Ese producto ser´a un tensor? Existe importantes situaciones f´ısicas en las cuales es aplicable esta pregunta. Si Tij son las componentes de un tensor de rango 2 y el producto Tij V i = Bj es un vector. ¿El objeto V i ser´a un vector? La respuesta es siempre afirmativa, y puede ser utilizada como un criterio para identificar componente de tensores. Este criterio se denomina el Teorema del Cociente. La respuesta a esta pregunta surge de la respuesta a una pregunta distinta pero equivalente. Supongamos j que nos dan n2 n´ umeros aij y un (una componente de un) vector gen´erico V i , si la cantidad aij V i V es un  0 1 . escalar entonces la parte sim´etrica a(ij) = 2 (aij + aji ) ser´a un (una componente de) tensor del tipo: 2 La demostraci´ on involucra algunas de las ideas antes expuestas y la haremos para fijar conceptos. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

137

´ 3.2. PARENTESIS TENSORIAL

Dados dos sistemas de coordenadas xi = xi (˜ xm ) y x ˜j = x ˜j (xm ) (con i, j = 1, 2, 3, · · · , n) se cumple que aij xi xj = ψ = ψ˜ = a ˜ij x ˜i x ˜j

donde ψ = ψ˜ constituye un escalar

y por lo tanto, derivando y utilizando la regla de la cadena  xi = xi x ˜j (xm )



∂xi ∂ x ˜j ∂xi i = = δm , m j ∂x ∂x ˜ ∂xm

por lo que aij x x − a ˜ij

  ∂x ˜k ∂ x ˜l x ˜x ˜ ≡ aij − a ˜kl xi xj = 0 , ∂xi ∂xj i j

in ar

i j

como hay una suma en ij no se puede afirmar que la cantidad del par´entesis se anula. Como esta afirmaci´ on vale para cualquier sistema de coordenadas, seleccionaremos las componentes coordenadas en la base can´ onica. x1 = (1, 0, 0, · · · , 0) ; x2 = (0, 1, 0, · · · , 0) ; · · · · · · xn = (0, 0, 0, · · · , 1)

a11 − a ˜kl

˜l ∂x ˜k ∂ x = 0; 1 ∂x ∂x1

a22 − a ˜kl

Como siempre podemos hacer a ˜(kl) = a ˜kl = a ˜(kl) + a ˜[kl]



1 2

re lim

con lo cual ∂x ˜k ∂ x ˜l = 0; · · · 2 ∂x ∂x2

(˜ akl + a ˜lk ) y a ˜[kl] =

a(mm) − a ˜(kl) + a ˜[kl]

1 2

· · · ann − a ˜kl

∂x ˜k ∂ x ˜l = 0, n ∂x ∂xn

(˜ akl − a ˜lk ) y separar el tensor

 ∂x ˜k ∂ x ˜l =0 ∂xm ∂xm



a(mm) = a ˜(kl)

∂x ˜k ∂ x ˜l , ∂xm ∂xm

Practicando con Maxima:

rP

˜kl y es lo que de ahora en La parte sim´etrica del tensor transforma siguiendo la regla: amn = Λkm Λln a adelante denominaremos un tensor de segundo orden. En este caso, la parte sim´etrica de un tensor transforma como un verdadero tensor una vez que se contrae con un par de vectores.

Bo rr

ad o

Maxima presenta dos paquetes para la manipulaci´on de tensores, paquetes en constante desarrollo todav´ıa. Estos paquetes son ctensor, manipulaci´on de componentes y el paquete itensor, manipulaci´ on indexada. En la manipulaci´ on por componentes los tensores se representan por arreglos o matrices. En la manipulaci´ on indexada los tensores se representan por funciones de sus ´ındices covariantes, contravariantes y de derivadas. Los ´ındices covariantes se especifican mediante una lista que ser´a el primer argumento del objeto indexado, siendo los ´ındices contravariantes otra lista que ser´a el segundo argumento del mismo objeto indexado. Si al objeto indexado le falta cualquiera de estos grupos de ´ındices, entonces se le asignar´a al argumento correspondiente la lista vac´ıa []. As´ı, g([a, b], [c]) representa un objeto indexado llamado g, el cual tiene dos ´ındices covariantes (a, b), un ´ındice contravariante (c) y no tiene ´ındices de derivadas. (%i1) load(itensor)$ (%i2) imetric(g);

(%i3) ishow(g([j,k],[])*g([i,l],[])*a([],[i,j]))$

( %t3) ai j gj k gi l Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

138

´ 3.2. PARENTESIS TENSORIAL

(%i4) ishow(contract(%))$ ( %t4) ak l (%i5) ishow(kdelta([i],[k])*a([k,l],[]))$ ( %t5) δik ak l (%i6) ishow(contract(%))$

La identidad δij δji = 3 (%i7) ishow(contract(kdelta([i], [j])*kdelta([j], [i])))$ ( %t7) kdelta (%i8) ishow(ev(%,kdelta))$

re lim

( %t8) 3

in ar

( %t6) ai l

El s´ımbolo de Levi-civita:

(%i9) levi_civita([1, 2, 3]);levi_civita([1, 3, 2]);levi_civita([3, 3, 2]); ( %o9) 1 ( %o10) − 1 ( %o11) 0

rP

(%i12)expr:ishow(’levi_civita([],[i,j,k])*’levi_civita([i,j,k],[]))$ ( %t12) εi j k εi j k

ad o

Aqu´ı es necesario utilizar la funci´ on lc2kdt( ) que simplifica expresiones que contengan el s´ımbolo de Levi-Civita, para convertirlas en expresiones con la delta de Kronecker siempre que esto sea posible.1 (%i13)ishow(lc2kdt(expr))$    ( %t13) δik δji − 3 δjk δkj + δij δjk − 3 δik δki − 3 δij δji + 27 (%i14)ishow(contract(expand(%)))$

Bo rr

( %t14) 27 − 7 δ

(%i15)ishow(ev(%,kdelta))$

( %t15) 6

1 En ocaciones, la funci´ on lc2kdt( ) hace uso del tensor m´ etrico. Si el tensor m´ etrico no fue previamente definido con imetric, se obtiene un mensaje de error.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

139

´ 3.2. PARENTESIS TENSORIAL

3.2.8.

Un par de tensores

En esta secci´ on vamos a ejemplificar la utilizaci´on de los tensores en varios ´ambitos de la F´ısica, en particular de la Mec´ anica. En la pr´ oxima secci´on 3.2.8 consideraremos el tensor de esfuerzos para describir las tensiones internas de cuerpos sometidos a fuerzas externas. Haremos el an´alisis tanto para el caso de dos como de tres dimensiones. Luego en la Secci´on 3.2.8 consideraremos el tensor de inercia y su impacto en la din´ amica de cuerpos en movimiento.

Bo rr

ad o

rP

re lim

in ar

1. El tensor de esfuerzos (stress)

Figura 3.1: Tensor de Esfuerzos (stress) en 2 dimensiones

El caso 2D

Supongamos un cuerpo que se encuentra en equilibrio y est´a sometido a un conjunto de fuerzas externas. Para facilitar las cosas consideremos el efecto de esas fuerzas sobre un plano que contiene a un determinado punto P (ver Figura 3.1 cuadrante Ia). Es decir, vamos a considerar los efectos de las componentes de todas las fuerzas sobre ese plano y obviaremos el efecto del resto de las componentes. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

140

´ 3.2. PARENTESIS TENSORIAL

in ar

Como observamos en la figura 3.1 Ib y Ic, si cortamos la superficie en dos l´ıneas (AB y A0 B 0 ), podemos ver que el efecto del conjunto de fuerzas externas es distinto sobre P en la direcci´on perpendicular a cada una de esas l´ıneas. De hecho, al “cortar” la superficie las fuerzas que aparecen sobre las l´ıneas AB (y A0 B 0 ) eran fuerzas internas y ahora son externas al nuevo cuerpo “cortado”. As´ı, estas fuerzas por unidad de longitud2 sobre el punto P existen como un conjunto de fuerzas que generan esfuerzos (stress). Por lo tanto, es claro que los esfuerzos sobre un punto dependen del punto, de las fuerzas externas y de la direcci´on del efecto. Para irnos aclarando consideremos un elemento de ´area infinitesimal ds sobre la cual act´ ua un conjunto de fuerzas externas, las cuales las podemos descomponer como normales y tangenciales a la l´ınea sobre la cual est´ an aplicadas (ver figura 3.1 cuadrante II). Es costumbre denotar los esfuerzos normales y tangenciales por σ y τ respectivamente.  ↑ Y2 = σ2 dx −→ X2 = τ2 dx     dx  Y3 = τ3 dy ↑ ↑ Y1 = τ1 dy dy ds dy dA = dxdy ⇒ X = σ dy → → X1 = σ1 dy  3 3  dx    ↑ Y4 = σ4 dx → X4 = τ4 dx

con lo cual

σ2 = −σ4 ; τ2 = −τ4

re lim

Consideramos la segunda ley de Newton aplicada a cada diferencial de masa dm y obtendremos   τ1 dy + σ2 dx + τ3 dy + σ4 dx = 0 = (σ2 + σ4 ) dx + (τ1 + τ3 ) dy ; X Fext = dm a = 0 ⇒ i  σ1 dy + τ2 dx + σ3 dy + τ4 dx = 0 = (τ2 + τ4 ) dx + (σ1 + σ3 ) dy τ1 = −τ3

σ1 = −σ3

rP

como se est´ a en equilibrio, tambi´en la sumatoria de torques se tendr´a que anular. Esto es  dy (τ1 dy) dx 2 − (τ2 dx) 2 = 0  ⇒ τ1 = τ2 = τ3 = τ4  dy (τ3 dy) dx − (τ dx) = 0 4 2 2

ad o

entonces, nos damos cuenta que existen s´ olo tres cantidades independientes: dos esfuerzos normales σ1 y σ2 ; y un esfuerzo tangencial τ1 . Adicionalmente notamos que los esfuerzos tienen que ver con la direcci´ on de la fuerza y la superficie sobre la cual va aplicada. Con ello podemos dise˜ nar la siguiente notaci´on para los esfuerzos: σij . El primer ´ındice indica la direcci´on de la fuerza y el segundo direcci´on de la normal de la superficie donde est´ a aplicada. As´ı, tal y como muestra la figura (ver figura 3.1 cuadrante II) σ1 ≡ σxx ;

−σ4 ≡ σyy ;

τ2 ≡ σxy ≡ σyx

Bo rr

El cambio de signo se debe a lo inc´ omodo de la notaci´on: σ4 ≡ σy−y ya que la normal de lado 4 apunta en la direcci´ on −y. Es importante tambi´en se˜ nalar que los esfuerzos en cualquier punto contenido en el diferencial de ´ area dA = dxdy deben ser considerado constantes, o lo que es lo mismo, que podemos hacer tender a cero el ´ area del diferencial y con ello asociar los esfuerzos σij a un punto P contenido en dA sobre la cual hemos calculado los esfuerzos. En esta misma l´ınea de razonamiento, nos podemos preguntar cual es la expresi´on de los esfuerzos cuando se miden respecto a una superficie gen´erica, definida por un vector normal n (ver figura 3.1 cuadrante III). Es decir, queremos conocer los esfuerzos medidos en el punto P y en la direcci´on n, es decir, σnn .

2 En el caso tridimensional, las fuerzas que generan los esfuerzos ser´ an definidas como fuerzas por unidad de ´ area. Ese caso lo veremos en la pr´ oxima secci´ on.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

141

in ar

´ 3.2. PARENTESIS TENSORIAL

re lim

Figura 3.2: Tensor de Esfuerzos en 3 dimensiones

Tendremos que

x → σxx dy + σxy dx = σnn ds cos(φ) + σsn ds sen(φ) ;

y → σyy dx + σyx dy = σnn ds sen(φ) − σsn ds cos(φ)

Ahora bien, dado que dy = ds cos(φ) y dx = ds sen(φ), entonces podemos expresar

σnn = σxx cos2 (φ) + σxy sen(φ) cos(φ) + σyx sen(φ) cos(φ) + σyy sen2 (φ)

rP

σsn = σxx sen(φ) cos(φ) + σxy sen2 (φ) − σyx cos2 (φ) − σyy sen(φ) cos(φ) y si ahora nos damos cuenta que si construimos una matriz     x cos(φ) sen(φ) An Axs = Aij = sen(φ) − cos(φ) Ayn Ays

ad o

entonces podemos expresar

σnn = Axn Axn σxx + Axn Ayn σxy + Ayn Axn σyx + Ayn Ayn σyy



σnn = Ain Ajn σij

σsn = Axs Axn σxx + Axs Ayn σxy + Ays Axn σyx + Ays Ayn σyy



σsn = Ais Ajn σij

Bo rr

es decir,

σkl = Aik Ajl σij ,

con

con i, j = n, s con i, j = n, s

i, j, k, l = n, s .

Como ya hemos mencionado, y veremos m´as adelante con m´as detalle, cualquier objeto que transforme como σkl = Aik Ajl σij lo llamaremos tensor de segundo orden. El caso 3D

Podemos proceder como en el caso anterior estableciendo las condiciones de equilibrio X X Fext =0 y τ ext = 0, i i

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

142

´ 3.2. PARENTESIS TENSORIAL

con ello construimos un volumen (c´ ubico) diferencial y construimos los esfuerzos normales y tangenciales, los cuales ser´ an σxx dydz;

σyy dxdz;

σzz dxdy;

σxz dxdy;

σyz dxdy;

σxy dxdz;

Siguiendo el mismo proceso que involucra imponer el equilibrio, es f´acil demostrar que al igual que el caso anterior, el tensor de esfuerzos σij cumple con: σxz = σzx ;

σyz = σzy ;

σxy = σyx .

re lim

in ar

Tendremos 6 componentes (tres normales y tres tangenciales) independientes. Es decir, si bien el tensor de esfuerzos σij viene representado por una matriz 3 × 3 y por lo tanto tiene 9 elementos, s´olo 6 son independientes. Vayamos ahora el caso general para un tensor de esfuerzos en un medio el´astico. Para ello construimos un tetraedro regular tal y como muestra la figura 3.2, y sobre su cara gen´erica asociada a un vector normal n una fuerza F   Fx = σxn dSn           i Fy = σyn dSn F = F ii = Fx i + Fy j + Fz k ⇒ ⇒ F i = σji nj dS ⇒ F = σ · dS           Fz = σzn dSn de esta manera se especifica como la fuerza act´ ua sobre un determinado elemento de superficie. Es claro que la condici´ on de equilibrio se traduce en X 1 1 1 Fxi = 0 ⇒ σxn dSn − σxx dy dz − σxy dx dz − σxz dx dy = 0 2 2 2 Fyi = 0



1 1 1 σyn dSn − σyx dy dz − σyy dx dz − σyz dx dy = 0 2 2 2

rP

X

1 1 1 σzn dSn − σzx dy dz − σzy dx dz − σzz dx dy = 0 2 2 2 Si consideramos la proyecci´ on de dSn sobre cada uno de los planos del sistema cartesiano tendremos que  dS n cos (i; n) = 12 dy dz = dS n Axn      1 n n y dS cos (j; n) = 2 dx dz = dS An ⇒ σxn = σxx Axn + σxy Ayn + σxz Azn      dS n cos (k; n) = 12 dx dy = dS n Azn y equivalentemente

Fzi = 0



ad o

X

Bo rr

σyn = σyx Axn + σyy Ayn + σyz Azn ;

y σzn = σzx Axn + σzy Ayn + σzz Azn ,

las cuales se conocen como las relaciones de Cauchy, y representan los esfuerzos sobre la superficie con normal n. ˆm Ahora bien, dado que F = σ · dS es una relaci´on vectorial podemos proyectar en la direcci´on u   ˆm · F = u ˆ m · (σ · dS) ⇒ F m = σnm dS n = σim Ain dS n = σim Ain dS n u  σmn dS n = σmi Ain dS n



 σmn dS n = σki Akm Ain dS n

con i, j = x, y, z

Una vez m´ as vemos que transforma como un tensor. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

143

´ 3.2. PARENTESIS TENSORIAL

2. El Tensor de inercia Consideremos el caso de un sistema de n part´ıculas. La cantidad de movimiento angular para este sistema vendr´ a dada por X  L= m(i) r(i) × v(i) i

donde hemos indicado que la i−´esima part´ıcula que est´a en la posici´on r(i) tiene una velocidad v(i) . Si las distancias entre las part´ıculas, y entre las part´ıculas con el origen de coordenadas, es constante, podremos expresar la velocidad de cada una de ellas como v(i) = ω × r(i) ,

in ar

(¿Por qu´e?)

Donde ω es la velocidad angular instant´anea del sistema. Entonces tendremos que X   X    L= m(i) r(i) × ω × r(i) = m(i) ω r(i) · r(i) − r(i) ω · r(i) , i

i

i k l Si vemos que ω(i) = δlk ω(i) entonces

k

L =

X

h

m(i) δlk ω l



m r(i) r(i)m





k r(i)

m

re lim

y para cada part´ıcula se cumple que las componentes de la cantidad de movimiento angular ser´an h   X i m k m(i) ω k r(i) r(i)m − r(i) Lk = ω m r(i)m .

ω r(i)m

i

"

=

X

l ω(i)

m(i)



δlk



m r(i) r(i)m





k r(i)

r(i)l



#

i

i

es decir l Lk = ω(i) Ilk ,

rP

|

donde

Ilk =

X

{z Ilk

}

    m k m(i) δlk r(i) r(i)m − r(i) r(i)l .

i

Ilk

Bo rr

ad o

El objeto se conoce como el tensor de inercia y corresponde a 9 cantidades (a pesar que s´olo 6 son independientes porque es un tensor sim´etrico). En coordenadas cartesianas se ver´a de la siguiente forma:    P    P P 2 2   m(i) y(i) + z(i) − i m(i) x(i) y(i) − i m(i) x(i) z(i) i Ixx Ixy Ixz             P    P P  k 2 2   Iyy Iyz  =  − i m(i) x(i) y(i) Il =  Iyx − i m(i) y(i) z(i)  i m(i) x(i) + z(i)             P P P Izx Izy Izz 2 2 − i m(i) x(i) z(i) − i m(i) y(i) z(i) i m(i) z(i) + y(i) Por ahora, nos contentaremos en suponer que esta construcci´on es un tensor y lo demostraremos m´ as adelante. Ejemplo: La ilustraci´ on m´ as sencilla de que la masa en rotaci´on se comporta como un tensor y no como un escalar lo vemos en la rotaci´ on de dos masas iguales: m1 y m2 (con lo cual m1 = m2 = m) unidas por una varilla sin masa de longitud l. Si el sistema (masas + varillas) se encuentra girando alrededor su centro

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

144

´ 3.2. PARENTESIS TENSORIAL

de masa y ambas masas se encuentran sobre el plano xy, vale decir que la barra sin masa forma un ´angulo de α = π2 con el eje z, entoces tendremos que r=

l l cos(θ) i + sen(θ)j 2 2



v=

dr l dθ l dθ =− sen(θ) i + cos(θ) j dt 2 dt 2 dt

con lo cual  2 l dθ L = m1 (r1 × v1 ) + m2 (r2 × v2 ) = m (r1 × v1 ) + m ((−r1 ) × (−v1 )) = 2m (r1 × v1 ) = k 2 dt ya que

3.2.9.

r2 = −r1

y

v2 = −v1 .

Ejercicios

in ar

m1 = m2 = m;

1. Un problema de gran inter´es consiste en lo siguiente. Consideremos un tensor B con componentes Bij , un tensor A con componentes Ai y el producto

re lim

Bij Aj = Ci

Esta u ´ltima expresi´ on se puede interpretar como la acci´on de B sobre A que consiste en producir un nuevo tensor C que tendr´ a una magnitud y una direcci´on diferente a A. Podremos estar interesados en encontrar todos los vectores que NO son rotados por B, es decir, que estar´ıamos interesados en resolver la ecuaci´ on: Bij Aj = λAi , donde λ es un escalar

rP

Si estos vectores existen se denominan vectores caracter´ısticos o “autovectores” de B y sus direcciones: direcciones principales o caracter´ısticos. M´as a´ un, los ejes determinados por las direcciones principales se denominan ejes principales de B. Los valores de las componentes Bij en el sistema de coordenadas determinado por los ejes principales se denominan valores caracter´ısticos o “autovalores” de B.

ad o

Ahora, consideremos un sistema conformado por n part´ıculas de masas iguales: m1 , m2 , . . . mn = m, distribuidas en el plano x − y, y sea Iij el tensor de inercia con respecto a un sistema rectangular de coordenadas. Por ser un caso en 2D, el tensor de inercia tendr´a solamente cuatro componentes. a) Encuentre: I11 = Ixx , I22 = Iyy y I12 = Ixy = I21 = Iyx

Bo rr

b) Si un vector A coincide con el eje principal de Iij entonces debe satisfacer la ecuaci´on  (I11 − λ)A1 + I12 A2 = 0 j j j Ii Aj = λAi ⇒ (Ii − λδi )Aj = 0 ⇒ I12 A1 + (I22 − λ)A2 = 0 Encuentre la soluci´ on (no trivial) para λ, es decir, resuelva: λ2 − λ(I11 + I22 ) + I11 I22 − (I12 )2 = 0.

c) ¿C´ omo se interpreta el hecho de que I12 = 0?

d ) Si I12 6= 0 y λ1 6= λ2 , entonces, para cada valor de λ se puede encontrar un vector (autovector) A(λ1 ) y A(λ2 ) resolviendo el sistema de dos ecuaciones. Demuestre que las direcciones de estos vectores tienen pendientes, respecto al sistema de coordenada, dadas por

Hern´ andez & N´ un ˜ez

tan(θ1 ) =

λ1 − I11 , I12

tan(θ2 ) =

λ2 − I11 I12

Universidad de los Andes / Universidad Industrial de Santander

145

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

e) Demuestre que tan(2θ1 ) = tan(2θ2 ) =

2I12 π , donde θ2 = θ1 + I11 − I22 2

es decir: A(λ1 ) ⊥ A(λ2 ) . f ) ¿C´ uales son las componentes del tensor de inercia en el sistema de coordenadas determinado por los ejes principales? 2. Demuestre que si Sji representa un tensor sim´etrico y Aij uno antisim´etrico, entonces, Sji Aji = 0

 1 3/2 5/2 3 , 4 9/2



 1/3 T i =  2/3  , 1



gji = g ij

Encuentre: a) La parte sim´etrica Sji y antisim´etrica Aij de Rji

1 = gij =  0 0

0 1 0

 0 0  1

in ar

3. Dados los tensores  1/2 Rji =  2 7/2

re lim

b) Rkj = gik Rji , Rki = g jk Rji , Tj = gij T i ¿Qu´e se concluye de estos c´alculos? c) Rji Ti , Rji T j , Rji Ti T j d ) Rji Sij , Rji Aji , Aji T i , Aji T i Tj

e) Rji − 2δji Rll , (Rji − 2δji Rll )Ti , (Rji − 2δji Rll )Ti T j .

3.3.1.

Repensando los vectores nuevamente

Vectores, covectores y leyes de transformaci´ on

rP

3.3.

ad o

Hemos visto que un determinado vector |ai ∈ V puede expresarse en una base ortonormal {|ej i} como: aj |ej i donde las aj son las componentes del vector contravariantes en la base que se ha indicado. En general, como es muy largo decir “componentes del vector contravariante” uno se refiere (y nos referiremos de ahora  en adelante) al conjunto aj como un vector contravariante obviando la precisi´on de componente, pero realmente las aj son las componentes del vector. Adicionalmente, en esta etapa pensaremos a las bases como distintos observadores o sistemas de referencias. Con ello tendremos (algo que ya sab´ıamos) que un vector se puede expresar en distintas bases y tendr´ a distintas componentes referidas a esa base

Bo rr

|ai = aj |ej i = a ˜j |˜ej i .

As´ı una misma cantidad f´ısica vectorial se ver´a distinta (tendr´a distintas componentes) desde diferentes sistemas de coordenadas. Las distintas “visiones” est´an conectadas mediante un transformaci´on de sistema de referencia como veremos m´ as adelante. Igualmente hemos dicho que una diferencial hb| ∈ V∗ es susceptible de expresarse en una base  i

iforma ∗ e del espacio dual V como bi e y, como el espacio est´a equipado con un producto interno, entoces:

  ha |bi = hb |ai = bi ei · aj |ej i = bi aj δji = ai bi Con lo cual avanzamos otra vez en la interpretaci´on de cantidades f´ısicas: una cantidad f´ısica escalar se ver´ a igual (ser´ a invariante) desde distintos sistemas de referencia.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

146

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Adem´ as sabemos que unas y otras componentes se relacionan como

i



  i ˜j e |ai = aj ei |ej i = aj δji = a ˜j ei |˜ej i   a = Aij a ⇒

i



  i ˜e |ai = a ˜j ˜ei |˜ej i = a ˜j δji = aj ˜ei |ej i a ˜ = A˜ij aj donde claramente

i e |˜ej i = Aij ;

i ˜e |ej i = A˜ij

y

Aik A˜kj = δji

⇐⇒

A˜ij = Aij

−1

in ar

Diremos entonces que aquellos objetos cuyas componentes transforman como ai = Aij a ˜j o equivalentemente an vectores, o en un lenguaje un poco m´as antiguo, vectores contravariantes3 . a ˜i = A˜ij aj ser´ Tradicionalmente, e inspirados en la ley de transformaci´on, la representaci´on matricial de las componentes

contravariantes de un vector, ei |ai = aj , para una base determinada {|ej i} se estructuran en una columna  con i = 1, 2, 3, · · · , n

⇐⇒

   

re lim

|ai ⇒ ai = ei |ai

a1 a2 .. .

an

    

rP

De la misma manera, en el espacio dual, V∗ , las formas

diferenciales se podr´an expresar en t´ermino de una base de ese espacio vectorial como hb| = bi ei = ˜bi ˜ei . Las {bi } ser´an las componentes de las formas diferenciales o las componentes covariantes de un vector |bi, o dicho r´apidamente un vector covariante o covector. Al igual que en el caso de las componentes contravariantes las componentes covariantes transforman de un sistema de referencia a otro mediante la siguiente ley de transformaci´on:



  hb |ej i = bi ei |ej i = bi δji = ˜bi ˜ei |ej i   bj = ˜bi Aij ⇒



  ˜ hb |˜ej i = ˜bi ˜ei |˜ej i = ˜bi δji = bi ei |˜ej i bj = bi A˜ij

3.3.2.

ad o

Otra vez, objetos cuyas componentes transformen como bj = ˜bi Aij los denominaremos formas diferenciales o vectores covariantes o covectores y ser´ an representados matricialmente como un arreglo tipo fila  b1 b2 · · · bn hb| ⇒ bi = hb |ei i con i = 1, 2, 3, · · · , n ⇐⇒

Transformaci´ on de los vectores base

Bo rr

Consideremos dos bases {|ei i} y {|˜ei i} con un origen com´ un en el mismo punto. Cualquier vector |ai de la primera base se puede expandir respecto a la segunda base (o inversamente). Las bases se relacionan de la manera siguiente ˜ j |ej i |˜ei i = λ i

˜ j con (i, j = 1, 2, 3, ...) se les denominar´an los coeficientes de la transformaci´on directa. De a las cantidades λ i igual forma, es posible representar la base {|ei i} en t´erminos de la base {|˜ei i}

3 Algunos

δji = Aik0 Akj

|ei i = λji |˜ej i 0

0

0

autores prefieren utilizar la siguiente notaci´ on para las transformaciones: ai = Aij 0 aj y ai = Aij aj , por lo que

0

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

147

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

donde a las cantidades λji se les denomina: los coeficientes de la transformaci´on inversa. Existe una relaci´ on simple entre el conjunto de coeficientes: ˜ 1 |e1 i + λ ˜ 2 |e2 i + λ ˜ 3 |e3 i + · · · |˜ei i = λ i i i       ˜ 1 λ1 |˜e1 i + λ2 |˜e2 i + λ3 |˜e3 i + · · · + λ ˜ 2 λ1 |˜e1 i + λ2 |˜e2 i + · · · + λ ˜ 3 λ1 |˜e1 i + λ2 |˜e2 i + · · · = λ i 1 1 1 i 2 2 i 3 3 i h i h i h ˜ 1 λ1 + λ ˜ 2 λ1 + λ ˜ 3 λ1 + · · · |˜e1 i + λ ˜ 1 λ2 + λ ˜ 2 λ2 + λ ˜ 3 λ2 + · · · |˜e2 i + λ ˜ 1 λ3 + λ ˜ 2 λ3 + · · · |˜e3 i + · · · = λ i 1 i 2 i 3 i 1 i 2 i 3 i 1 i 2 =

˜ j λ1 |˜e1 i + λ ˜ j λ2 |˜e2 i + λ ˜ j λ3 |˜e3 i + · · · = λ ˜ j λk |˜ek i = δ k |˜ek i λ i i j i j i j i j

Donde:

in ar

˜ j λk = δ k λ i i j

Si repetimos los c´ alculos partiendo de la transformaci´on inversa, entonces resultar´ıa que ˜j = δk λkj λ i i



|ei i = δik |ek i .

Consideremos ahora el problema de expandir un vector |ai con respecto a una base no ortogonal {|wi i}:

re lim

|ai = ai |wi i

Por simplicidad tomemos el caso R3 , de manera que tenemos un vector A = ai ei (i = 1, 2, 3). Al proyectar el vector A sobre los ejes de alg´ un sistema de coordenadas, es posible resolver el sistema de tres ecuaciones que resulta para las inc´ ognitas ai . Este m´etodo se conoce como el m´etodo de las bases rec´ıprocas. Las bases ei y ei se llaman rec´ıprocas si satisfacen la condici´on ei · ej = δij .

rP

Esto lo significa es que cada vector de una de las bases es perpendicular a los otros dos de la otra base. Por ejemplo, el vector e1 ser´ a perpendicular a e2 y e3 : e1 = α(e2 × e3 ) ,

como e1 · e1 = 1, entonces:



α=

1 e1 · (e2 × e3 )

ei =

ej × ek , ei · (ej × ek )

ad o

αe1 · (e2 × e3 ) = 1 Por lo tanto, es f´ acil ver que



e1 =

e2 × e3 . e1 · (e2 × e3 )

Bo rr

donde i, j, k son permutaciones c´ıclicas de 1, 2, 3. Notemos tambi´en que V = ei · (ej × ek ) es el volumen del paralelep´ıpedo que soportan los vectores {ei } y que adem´as se puede obtener una expresi´on an´aloga para los {ei } en t´ermino de los {ei }. La base rec´ıproca de la base ortonormal {ii } es la misma base ortonormal: ei = ii y si la base original o directa es dextr´ ogira la rec´ıproca tambi´en lo ser´a. Al ser {ei } y {ei } rec´ıprocas, entonces A = ai ei ⇒ A · ei = ai ei · ei = ai

esto significa que

A = (A · ei )ei , Hern´ andez & N´ un ˜ez

i = 1, 2, 3 .

Universidad de los Andes / Universidad Industrial de Santander

148

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Tal vez, es bueno recordar que un mismo vector se puede representar en ambas bases: A = ai ei = ai ei a trav´es de sus componentes contravariantes ai o covariantes ai . Por otro lado, si A se expresa en un sistema de coordenadas definido por una base ei y queremos saber ˜i , entonces: como se escribe en otra base e ˜ j ai ˜j = ai ei · e ˜j ⇒ a A = ai ei ⇒ A · e ˜j = λ i ˜ i ai ˜j = ai ei · e ˜j ⇒ a A = ai ei ⇒ A · e ˜j = λ j

in ar

de la manera equivalente: ˜i . ˜i y aj = λij a El lector puede demostrar que: aj = λji a Para finalizar, es f´ acil obtener las relaciones entre componentes covariantes y contravariantes, veamos: A · ei = aj (ei · ej ) ∧ A · ei = aj (ei · ej )

re lim

Si definimos: ei · ej = gij , ei · ej = g ij y ei · ej = gji = δji , entonces: ai = gij aj ∧ ai = g ij aj .

Y si las bases son ortogonales, tanto las ei como las ei , entonces: gij = g ji = 0 (i 6= j), lo que resulta en: a1 = g11 a1 , a1 = g 11 a1 , a2 = g22 a2 , a2 = g 22 a2 , a3 = g33 a3 , a3 = g 33 a3 .

3.3.3.

Cartesianas y polares, otra vez

rP

El ejemplo m´ as simple, y por ello, cl´ asico y emblem´atico de lo anterior lo constituye las expresiones de un mismo vector en dos sistemas de coordenadas en el plano: Cartesianas {|ii , |ji} y polares {|ur i , |uθ i}. Esto es, para un vector |ai: |ai = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i

|ai = ar |ur i + aθ |uθ i = a ˜1 |˜e1 i + a ˜2 |˜e2 i .

y

ad o

Al expresar una base en t´erminos de la otra obtenemos |ur i = cos(θ) |ii + sen(θ) |ji con lo cual

Bo rr

i ˜ i ⇐⇒ λ ˜i = ˜e |ej i = λ j j



y

|uθ i = − sen(θ) |ii + cos(θ) |ji ,

hur |ii huθ |ii

hur |ji huθ |ji



hi |ur i hj |ur i

hi |uθ i hj |uθ i





cos(θ) sen(θ) − sen(θ) cos(θ)





cos(θ) − sen(θ) sen(θ) cos(θ)





Para la transformaci´ on inversa se tiene

ei |˜ej i = λij ⇐⇒ λij =





y por lo tanto:

|ii = cos(θ) |ur i − sen(θ) |uθ i

Hern´ andez & N´ un ˜ez

y

|ji = sen(θ) |ur i + cos(θ) |uθ i .

Universidad de los Andes / Universidad Industrial de Santander

149

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Cumpliendo adem´ as con   cos(θ) − sen(θ) cos(θ) sen(θ) cos(θ) − sen(θ)



sen(θ) cos(θ)

 =

1 0



0 1

˜k = δi . ⇐⇒ λik λ j j

Por otro lado, si |ai = ar |ur i + aθ |uθ i = a ˜1 |˜ e1 i + a ˜2 |˜e2 i = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i tendremos que ar aθ



 =

cos(θ) − sen(θ)

sen(θ) cos(θ)



ax ay



 =

con lo cual ar = ax cos(θ) + ay sen(θ)

y

ax ay



 =

cos(θ) − sen(θ) sen(θ) cos(θ)

y ax = ar cos(θ) − aθ sen(θ) Practicando con Maxima:



ar aθ



 =

ar cos(θ) − aθ sen(θ) ar sen(θ) + aθ cos(θ)



re lim





aθ = −ax sen(θ) + ay cos(θ) .

Del mismo modo ai = λij a ˜j ⇐⇒

ax cos(θ) + ay sen(θ) −ax sen(θ) + ay cos(θ)

in ar



˜ i aj ⇐⇒ a ˜i = λ j

y

ay = ar sen(θ) + aθ cos(θ) .

rP

En este ejercicio veremos la manera de construir la matriz de transformaci´on entre bases y el c´alculo de las bases rec´ıprocas. 1. Si tenemos una transformaci´ on entre bases |e1 i = |ji + |ki ,

|e2 i = |ii + |ki ,

|e3 i = |ii + |ji .

ad o

Para calcular la matriz de transformaci´on

˜ j |ij i , |ei i = λ i

podemos obrar de la manera siguiente. Primero introducimos los vectores como una matriz y luego calculamos la transpuesta:

Bo rr

(%i1) v1:[0,1,1]$v2:[1,0,1]$v3:[1,1,0]$ (%i2) lambdaij:transpose(matrix(v1,v2,v3));

 0 ( %o2) 1 1

1 0 1

 1 1 0

La matriz de transformaci´ on inversa |ii i = λji |ej i ,

es simplemente la matriz inversa Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

150

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

(%i3) lambda_ji:invert(%);  1 −2 ( %o3)  21

1 2 − 12 1 2

1 2

1 2 1  2 − 12



˜k = δj Es claro que λjk λ i i (%i4) lambda_ij.lambda_ji; 0 1 0

 0 0 1

in ar

 1 ( %o4) 0 0

(%i5) kill(all)$

(%i1) load(vect)$ Dado el siguiente conjunto de vectores

re lim

2. Con el uso del paquete vect podemos hacer algunos c´alculos sencillos con vectores, como por ejemplo, el c´ alculo de las bases rec´ıprocas.

b1 = e1 = i + j + 2k , b2 = e2 = −i − j − k , b3 = e3 = 2i − 2j + k

ei =

(%i2) b1:[1,1,2];

ad o

( %o2) [1, 1, 2]

ej × ek , ei · (ej × ek )

rP

Calcularemos la base rec´ıproca a trav´es de

(%i3) b2:[-1,-1,-1] ( %o3) [−1, −1, −1]

Bo rr

(%i4) b3:[2,-2,1]; ( %o4) [2, −2, 1]

Podemos comprobar si la base original bi = es ortogonal calculando sus productos escalares: (%i5) b1.b2; b1.b3; b2.b3;

( %o5) − 4

( %o6) 2 Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

151

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

( %o7) − 1 Por lo tanto, no son ortogonales. Ahora, los vectores rec´ıprocos ei = se calculan de la manera siguiente: (Para el producto vectorial A × B se usa el comando: express(A∼B) ) (%i8) e1:express(b2~b3)/(b3.(express(b1~b2)));   3 1 − ,− ,1 4 4

(%i9) e2:express(b3~b1)/(b3.(express(b1~b2)));   5 3 ( %o9) − , − , 1 4 4 (%i10)e3:express(b1~b2)/(b3.(express(b1~b2)));  1 1 ,− ,0 4 4

re lim

 ( %o10)

in ar

( %o8)

La base rec´ıproca es entonces

3 1 5 3 1 1 e1 = − i − j + k , e2 = − i − j + k , e3 = i − j 4 4 4 4 4 4

rP

Que tampoco es ortogonal: (%i11)e1.e2; e1.e3; e2.e3; ( %o11)

17 8

1 8 1 ( %o13) − 8

ad o

( %o12) −

El tensor m´etrico para la base original gij = ei · ej lo podemos construir de la manera siguiente:

Bo rr

(%i14)gb:matrix([b1.b1,b1.b2,b1.b3],[b2.b1,b2.b2,b2.b3],[b3.b1,b3.b2,b3.b3]); 

6 ( %o14) −4 2

−4 3 −1

 2 −1 9

Para la base rec´ıproca g ij = ei · ej (%i15)ge:matrix([e1.e1,e1.e2,e1.e3],[e2.e1,e2.e2,e2.e3],[e3.e1,e3.e2,e3.e3]);

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

152

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

17 8 25 8 − 18

13 8  17 8 − 18

 ( %o15)

 − 18 − 18  1 8

De manera que: ei · ej = gji = δji : (%i16)gb.ge;

3.3.4.

0 1 0

 0 0 1

in ar

 1 ( %o16) 0 0

Repensando las componentes

En general, podemos pensar que las componentes de los vectores pueden ser funciones de las otras. Consideremos el ejemplo anterior con esta visi´on para estudiarlo con m´as detalle en dos y tres dimensiones.

re lim

Caso bidimensional

Tendremos que un punto en el plano viene representado en coordenadas cartesianas por dos n´ umeros (x, y) y en coordenadas polares por otros dos n´ umeros (r, θ). Siguiendo el ejemplo anterior un punto P , en el plano lo describimos como |P i = rP |ur i = xP |ii + yP |ji .

rP

Veamos como est´ an relacionadas estas dos descripciones, para este caso en el cual las ecuaciones de transformaci´ on son     xP = xP (r, θ) = x1 = x1 x ˜1 , x ˜2 rP = rP (x, y) = x ˜1 = x ˜1 x1 , x2 ⇐⇒ yP = yP (r, θ) = x2 = x2 x ˜1 , x ˜2 θ = θP (x, y) = x ˜2 = x ˜2 x1 , x2 y expl´ıcitamente

ad o

xP = rP cos(θ) ⇒ x1 = x ˜1 cos(˜ x2 ) 2 1 yP = rP sen(θ) ⇒ x = x ˜ sen(˜ x2 )



  r = px2 + y 2 P P P  y  θ = arctan yP xP

q 2 2 (x1 ) + (x2 )  2 ⇒ x ˜2 = arctan xx1 ⇒ x ˜1 =

Bo rr

Es claro que ambas coordenadas est´ an relacionadas y que se puede invertir la relaci´on     1 x ˜1 = x ˜1 x1 , x2  x = x1 x ˜1 , x ˜2  ⇐⇒ , x ˜2 = x ˜2 x1 , x2 x2 = x2 x ˜1 , x ˜2 Si se piden cosas razonables: • que las funciones xi = xi (˜ xm ) y x ˜j = x ˜j (xm ) sean al menos C 2 (funci´on y derivada continua) • que el determinante de la matriz Jacobiana sea finito, ! ∂xi x ˜k det 6= 0. ∂x ˜j

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

153

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

M´ as a´ un, si xi = xi x ˜ j xk



∂xi ∂xi ∂ x ˜j = = δki k j ∂x ∂x ˜ ∂xk



dxi =



∂xi j d˜ x , ∂x ˜j

con lo cual intuimos dos cosas: 1. que las componentes de un vector, |P i, deben transformar bajo un cambio de coordenadas como  ∂xi x ˜k j i p˜ . p = ∂x ˜j ∂xi ∂x ˜k

y

∂x ˜i ∂xk

son una la inversa de la otra.

in ar

2. Las matrices jacobianas

Veamos si es cierto para el caso de vectores en el plano. Para ello calculamos la matriz jacobiana: i

1

∂x x ˜ ,x ˜ ∂x ˜j

2





⇒ 

∂x1 (x ˜1 ,˜ x2 ) ∂x ˜1 ∂x2 (x ˜1 ,˜ x2 ) ∂x ˜1

∂x1 (x ˜1 ,˜ x2 ) ∂x ˜2 ∂x2 (x ˜1 ,˜ x2 ) ∂x ˜2





=

cos(˜ x2 ) −˜ x1 sen(˜ x2 ) 2 1 sen(˜ x ) x ˜ cos(˜ x2 )



re lim

y seguidamente, identificando |P i = xP |ii + yP |ji = rP |ur i   1    1  ˜1 , x ∂xi x ˜2 j p cos(˜ x2 ) −˜ x1 sen(˜ x2 ) p˜ i p ˜ ⇒ = p = sen(˜ x2 ) x ˜1 cos(˜ x2 ) 0 p2 ∂x ˜j

tendremos

Es decir

p˜1 0







=

x1

(x1 )2 +(x2 )2

−x2 (x1 )2 +(x2 )2



q 2 2 x ˜ = (x1 ) + (x2 ) 1



x2

(x1 )2 +(x2 )2

x1 (x1 )2 +(x2 )2

ad o



rP

Igualmente, si calculamos la inversa de la matriz jacobiana !  1  !−1 2 2 i 1 2 √ x2 cos(˜ x ) sen(˜ x ) ∂x x ˜ ,x ˜ 1 ) +(x2 )2 (x = = − sen(˜ x2 ) cos(˜ x2 ) −x2 ∂x ˜j x ˜1 x ˜1 1 2 2 2



(x ) +(x )





r=

p

p1 p2

 

 ∂x ˜i x1 , x2 j p . p˜ = ∂xj



x2 + y 2

x2 (x1 )2 +(x2 )2 x1 (x1 )2 +(x2 )2



i



y

0 = 0.

Caso tridimensional

Bo rr

 Consideremos nuevamente dos sistemas de coordenadas: uno cartesiano x1 = x, x2 = y, x3 = z y otro  esf´erico x ˜1 = r, x ˜2 = θ, x ˜3 = φ .

Tal y como hemos supuesto anteriormente el punto P vendr´a descrito por |P i = rP |ur i = xP |ii + yP |ji + zP |ki

de nuevo

  x = x (r, θ, φ) = x1 = x1 x ˜1 , x ˜2 , x ˜ 3  ˜1 , x ˜2 , x ˜3  y = y (r, θ, φ) = x2 = x2 x  3 3 1 2 z = z (r, θ, φ) = x = x x ˜ ,x ˜ ,x ˜3

Hern´ andez & N´ un ˜ez

⇐⇒

  ˜1 = x ˜1 x1 , x2 , x3   r = r (x, y, z) = x θ = θ (x, y, z) = x ˜2 = x ˜2 x1 , x2 , x3   3 φ = φ (x, y, z) = x ˜ =x ˜3 x1 , x2 , x3

Universidad de los Andes / Universidad Industrial de Santander

154

3.3. REPENSANDO LOS VECTORES NUEVAMENTE

Las ecuaciones de transformaci´ on ser´an   xP = rP sen(θ) cos(φ) ⇒ yP = rP sen(θ)sen(φ) ⇒  zP = rP cos(θ) ⇒

x1 = x ˜1 sen(˜ x2 ) cos(˜ x3 ) 2 1 2 x =x ˜ sen(˜ x )sen(˜ x3 ) 3 1 2 x =x ˜ cos(˜ x )

y

in ar

 q p 2 2 2  1 2 + y2 + z2  x ⇒ x ˜ = (x1 ) + (x2 ) + (x3 ) r = P  P  P P   2  φ = arctan xyPP ⇒ x ˜2 = arctan xx1  √   √ 2 2   xP +yP  (x1 )2 +(x2 )2 3  ⇒ x ˜ = arctan  θ = arctan zP x3 Con lo cual la matriz de las derivadas para esta transformaci´on en particular ser´a:   sen (θ) cos (φ) −r sen (θ) sen (φ) r cos (θ) cos (φ)  ∂xi x ˜1 , x ˜2 , x ˜3 =  sen (θ) sen (φ) r sen (θ) cos (φ) r cos (θ) sen (φ)  ∂x ˜j cos (θ) 0 −r sen (θ)

i

1

2

˜ ,x ∂x x ˜ ,x ˜ ∂x ˜j

3



  sen x ˜2 cos x ˜3  ˜2 sen x ˜3 =  sen x cos x ˜2 

y su inversa 

re lim

es decir:   −˜ x1 sen x ˜2 sen x ˜3 x ˜1 sen x ˜2 cos x ˜3 0

sen (θ) cos (φ)

sen (θ) sen (φ)

cos (θ)



− rsen(φ) sen(θ)

cos(φ) r sen(θ)

0

    

cos(θ) sen(φ) r

− sen(θ) r

rP

   ∂x ˜i x1 , x2 , x3 =  ∂xj 

cos(θ) cos(φ) r

o lo que es lo mismo





x x2 +y 2 +z 2

ad o

    ∂x ˜i x1 , x2 , x3  =  j ∂x  

Bo rr



y x2 +y 2 +z 2



z x2 +y 2 +z 2

−y x2 +y 2

x x2 +y 2

0

xz √ (x2 +y 2 +z 2 ) x2 +y 2

yz √ (x2 +y 2 +z 2 ) x2 +y 2

− x2 +y 2 (x2 +y 2 +z 2 )

Dejaremos al lector comprobar que, efectivamente,  ∂xi x ˜1 , x ˜2 , x ˜3 j i p = p˜ ⇐⇒ ∂x ˜j

3.3.5.

   x ˜1 cos x ˜2 cos x ˜3  x ˜1 cos x ˜2 sen x ˜3  −˜ x1 sen x ˜2



       

 ∂x ˜i x1 , x2 , x3 j p˜ = p . ∂xj i

Ejercicios

1. En el caso 3D tenemos que si {ei } define un sistema de coordenadas (dextr´ogiro) no necesariamente ortogonal, entonces, demuestre que ei =

Hern´ andez & N´ un ˜ez

ej × ek , ei · (ej × ek )

i, j, k = 1, 2, 3 y sus permutaciones c´ıclicas

Universidad de los Andes / Universidad Industrial de Santander

155

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

2. Demuestre que si los volumenes V = e1 · (e2 × e3 ) y V˜ = e1 · (e2 × e3 ), entonces V V˜ = 1 3. ¿Qu´e vector satisface A · ei ? Demuestre que A es u ´nico. 4. Demuestre que gij = ei · ej 5. Si la base {ei } es ortogonal, demuestre que b) g ii = 1/gii (no hay suma). c) |ei | = 1/|ei |.

in ar

a) gij es diagonal.

6. Encuentre el producto vectorial de dos vectores A y B que est´an representados en un sistema de coordenadas oblicuo. 7. Dada la base: a) Encuentre las bases rec´ıprocas {ei }.

re lim

e1 = 4i + 2j + k , e2 = 3i + 3j , e3 = 2k b) Encuentre las componentes de la m´etrica gij , g ij y gji .

c) Encuentre las componentes covariantes y contravariantes del vector A = i + 2j + 3k.

3.4.

Transformaciones, vectores y tensores

Bo rr

ad o

rP

En general las afirmaciones anteriores se pueden generalizar considerando que las coordenadas que definen  n un determinado punto, P, expresado en un sistema de coordenadas particular, son x1 , x2 , · · · , x y las  1 2 n coordenadas de ese mismo punto P, expresado en otro sistema de coordenadas es x ˜ ,x ˜ ,··· ,x ˜ . Ambas coordenadas estar´ an relacionadas por     1 x = x1 x ˜1 , x ˜2 , · · · , x ˜n  x ˜1 = x ˜1 x1 , x2 , · · · , xn         x2 = x2 x ˜1 , x ˜2 , · · · , x ˜n x ˜2 = x ˜2 x1 , x2 , · · · , xn  ⇐⇒ .. ..   . .        n  x = xn x ˜1 , x ˜2 , · · · , x ˜n x ˜n = x ˜n x1 , x2 , · · · , xn   es decir, x ˜i = x ˜i xj ⇐⇒ xi = xi x ˜j con i, j = 1, 2, 3, · · · , n. Otra vez, s´olo exigiremos (y es bastante) que: 1. Las funciones xi = xi (˜ xm ) y x ˜j = x ˜j (xm ) sean al menos C 2 (funci´on y derivada continua)

2. Que el determinante de la matriz jacobiana ∂ x˜1 ∂ x˜1 ∂x1 ∂x2  i m  ∂x (˜ x ) ∂ x˜21 ∂ x˜22 det = 6 0 ⇒ ∂x ∂x j . ∂x ˜ .. .. . ∂ x˜n ∂ x˜n ∂x1

Hern´ andez & N´ un ˜ez

∂x2

sean finito y distinto de cero, esto es ∂x ˜1 · · · ∂x n ∂x ˜2 · · · ∂xn 6= 0 ⇒ xi = xi (˜ xm ) ⇐⇒ x ˜j = x ˜j (xm ) .. . ∂x ˜n ··· ∂xn

Universidad de los Andes / Universidad Industrial de Santander

156

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Ahora bien, una vez m´ as, derivando y utilizando la regla de la cadena xi = xi x ˜j (xm )





∂xi ∂ x ˜k ∂xi k ∂xi = = δli ⇒ dxi = d˜ x , l k l ∂x ∂x ˜ ∂x ∂x ˜k

como hemos comprobado para los dos casos particulares estudiados con anterioridad. De ahora en adelante tendremos las siguientes ReDefiniciones:  Un conjunto de cantidades a1 , a2 , · · · , an se denominar´  an componentes contravariantes de un vector |ai ∈ V en un punto P de coordenadas x1 , x2 , · · · , xn si

y donde las cantidades

∂x ˜i ∂xk

y

∂xi ∂x ˜k

∂xi ∂ x ˜k = δli k ∂x ˜ ∂xl

re lim

∂xi k ∂x ˜i k a ⇐⇒ ai = a ˜ k ∂x ∂x ˜k

a ˜i =

in ar

1. dada dos bases ortonormales de vectores coordenados. {|e1 i , |e2 i , · · · |en i} y {|˜e1 i , |˜e2 i , · · · |˜en i} se cumple que  i  i

ei ai = ai |ai = ai |ei i = a ˜i |˜ei i ⇒ ⇒ a ˜i = aj ˜ei |ej i ˜e ai = a ˜  2. o equivalentemente, bajo una transformaci´on de coordenadas xi = xi x ˜j con i, j = 1, 2, 3, · · · , n., estas cantidades transforman como con

deber´an ser evaluadas en el punto P .

rP

Un conjunto de cantidades {b1 , b2 , · · · , bn } se denominar´  an componentes covariantes de un vector hb| ∈ V∗ en un punto P de coordenadas x1 , x2 , · · · , xn si   1. dada dos bases de formas e1 , e2 , · · · hen | y ˜e1 , ˜e2 , · · · h˜en | se cumple que  

i

i hb| ei = bi ˜ hb| = bi e = bi ˜e ⇒ ⇒ ˜bi = bj hej ˜ei . i i ˜ hb| ˜e = b  2. o equivalentemente, bajo una transformaci´on de coordenadas xi = xi x ˜j (con i, j = 1, 2, 3, · · · , n) estas cantidades transforman como

ad o

i ˜i ˜ ˜bk = ∂x bi ⇐⇒ bk = ∂ x bi ∂x ˜k ∂xk

y donde las cantidades:

∂x ˜i ∂xk

y

∂xi ∂x ˜k

con

˜k ∂xi ∂ x = δli ∂x ˜k ∂xl

deber´an ser evaluadas en el punto P .

Bo rr

Generalizamos los conceptos anteriores de la siguiente manera. Dado un conjunto bases para de formas diferenciales {hxm (1)| , hy n (2)|} hemos definido las componentes contravariantes de un tensor  i  hx (1)| hyj (2)|   ↓   ↓ T ij = T  • , •  ⇐⇒ T ij ≡ T 11 , T 12 , · · · , T 1n , T 21 , T 22 , · · · , T 2n , · · · , T nn

 1 2 n ahora, en esta visi´ on, las componentes contravariantes en un punto P de coordenadas x , x , · · · , x ,  ser´ an aquella que bajo una transformaci´on de coordenadas xi = xi x ˜j (con i, j = 1, 2, 3, · · · , n) transforman como ∂x ˜i ∂ x ˜j km ∂xi ∂xj ˜km ij T˜ij = T ⇐⇒ T = T ∂xk ∂xm ∂x ˜k ∂ x ˜m

Hern´ andez & N´ un ˜ez

con

∂xi ∂ x ˜k = δli , ∂x ˜k ∂xl

Universidad de los Andes / Universidad Industrial de Santander

157

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

donde

∂x ˜i ∂xk

y

∂xi ∂x ˜k

deber´ an ser evaluadas en el punto P .

Esto nos permite construir el caso m´as general. 

Si {|ti (1)i , |uj (2)i , · · · , |vk (m)i} y hxe (1)| , y f (2) , · · · , hz g (n)| son bases para los vectores y las formas, respectivamente. Las componentes de un tensor   f hz g (n)| |vk (m)i hxe (1)| hy (2)| |ti (1)i |uj (2)i ↓  ↓ ↓ ↓ ↓  ↓ mn Tijk = T  ◦ , ◦, , · · · , ◦ ; • , • , · · · , • 

nuevamente con:

3.4.1.

∂xi ∂ x ˜k ∂x ˜k ∂xl

= δli y donde las cantidades

Un ejemplo detallado

i···k Te···g =

⇐⇒

∂xi ∂xj ∂ x ˜a ∂x ˜d p···q · · · · · · T ∂x ˜p ∂x ˜q ∂xe ∂xg a···d

re lim

∂x ˜i ∂x ˜j ∂xa ∂xd p···q i···k T˜e···g = · · · · · · T ∂xp ∂xq ∂ x ˜e ∂x ˜g a···d

in ar

 1···1 2···1 ···1 n ˜ ···1 n ˜ ···1 1···1 n ˜ ···˜ n que se ser´ an un conjunto de cantidades T1···1 , T1···1 , · · · , T1···1 , T1···1 , T2···1 , · · · , Tm···1 , · · · , Tm··· ˜ ˜ m ˜ denominar´ an las componentes contravariantes y covariantes respectivamente, de un tensor mixto en  un punto P de coordenadas x1 , x2 , · · · , xn .  Bajo una transformaci´ on de coordenadas xi = xi x ˜j (con i, j = 1, 2, 3, · · · , n) estas cantidades transforman como

∂x ˜i ∂xk

y

∂xi ∂x ˜k

deber´an ser evaluadas en el punto P .

ad o

rP

Ilustremos ahora las transformaciones de tensores bajo cambios de la base del espacio vectorial. Una vez m´ as consideremos dos bases de vectores coordenados {|e1 i , |e2 i , |e3 i} y {|˜e1 i , |˜e2 i , |˜e3 i} para el espacio vectorial R3 La expresi´ on de un determinado tensor en la base ser´a   2 1 3 {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} ⇒ Tji =  2 3 4  1 2 2 Si consideramos una nueva base: |w1 i = |ii, |w2 i = |ii + |ji y |w3 i = |ii + |ji + |ki.

Bo rr

Entonces:



1

  |˜ei i = |wi i = A˜ji |ej i ⇐⇒ A˜ji =   0  0

1 1 0

1



  1    1

para ese mismo espacio R3 encontraremos una nueva expresi´on para Tji en esa base {wi }. Es decir, necesitamos calcular ∂x ˜k ∂xj i k T˜m = T ∂xi ∂ x ˜m j

k N´ otese que esta nueva base no es ortogonal , w |wi i = 6 δik , con lo cual no se cumplen muchas cosas, k entre ellas: |wk i w 6= 1. Veamos entonces como calcular las expresiones de los siguientes tensores: T˜ij , T˜ij y T˜ij .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

158

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Para encontrar T˜ji expresamos los vectores base: {|e1 i = |ii , |e2 i = |ji , |e3 i = |ki} en t´erminos de la base {|w1 i , |w2 i , |w3 i}: |ei i = Aji |wj i, esto es:    1 −1 0 |e1 i = |ii = |w1 i           0 1 −1 |e2 i = |ji = − |w1 i + |w2 i ⇐⇒ Aji =           0 0 1 |e3 i = |ki = − |w2 i + |w3 i Recordamos que un vector gen´erico transforma de la siguiente manera

in ar

|ai = aj |ej i = a ˜j |wj i por lo tanto

|ai = aj |ej i = a ˜1 |w1 i + a ˜2 |w2 i + a ˜3 |w3 i = a ˜1 |e1 i + a ˜2 (|e1 i + |e2 i) + a ˜3 (|e1 i + |e2 i + |e3 i) con lo cual

re lim

  ˜2 + a ˜3 |e3 i |ai = a1 |e1 i + a2 |e2 i + a3 |e3 i = a ˜1 + a ˜2 + a ˜3 |e1 i + a ˜3 |e2 i + a y podemos ver que

∂x1 ∂x ˜1

= 1;

∂x1 ∂x ˜2

= 1;

∂x1 ∂x ˜3

=1

∂x2 ∂x ˜1

= 0;

∂x2 ∂x ˜2

= 1;

∂x2 ∂x ˜3

=1

∂x3 ∂x ˜1

= 0;

∂x3 ∂x ˜2

= 0;

∂x3 ∂x ˜3

=1

rP

       a1 = a ˜1 + a ˜2 + a ˜3   i ∂x i k a2 = a ˜2 + a ˜3 ⇒ a = a ˜ ⇒ k   ∂x ˜  a3 = a ˜3    

Es de hacer notar que dado que la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es ortonormal, se tiene que |ai = aj |ej i = a ˜i |wi i ⇒

i



∂xi e ai = aj ei |ej i = aj δji = ai = a ˜k ei |wk i ⇒ = ei |wk i k ∂x ˜

ad o

Este mismo procedimiento se puede aplicar para expresar el vector |ai como una combinaci´on lineal de los vectores |wj i: |ai = a ˜j |˜ej i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |w1 i + a2 (|w2 i − |w1 i) + a3 (|w3 i − |w2 i)

Bo rr

esto es

      

 a ˜ 1 = a1 − a2  ∂x ˜k i a ˜2 = a2 − a3 ⇒ a ˜k = a ⇒   ∂xi  a ˜3 = a3    

N´ otese que, como era de esperarse;  1 ∂xi ∂ x ˜k i  0 = δ ⇒ j ∂x ˜k ∂xj 0

Hern´ andez & N´ un ˜ez

1 1 0

 1 1 1  0 1 0

∂x ˜1 ∂x1

= 1;

∂x ˜2 ∂x1

= 0;

∂x ˜2 ∂x2

= 1;

∂x ˜3 ∂x1

= 0;

∂x ˜3 ∂x2

= 0;

∂x ˜1 ∂x2

∂x ˜1 ∂x3

= −1;

  −1 0 1 1 −1  =  0 0 1 0

∂x ˜2 ∂x3 ∂x ˜3 ∂x3

0 1 0

=0 = −1 =1

 0 0 . 1

Universidad de los Andes / Universidad Industrial de Santander

159

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Con las expresiones matriciales para las transformaciones, estamos en capacidad de calcular, componente a componente, las representaci´on del tensor dado en la nueva base ∂x ˜k ∂xj i k T T˜m = ∂xi ∂ x ˜m j con lo cual ∂x ˜1 ∂xj i T ∂xi ∂x ˜1 j ∂x ˜1 ∂x1 1 T + ∂x1 ∂ x ˜1 1  ∂x ˜1 ∂x1 3 T + ∂x3 ∂ x ˜1 1

= = +

   ∂x2 1 ∂x3 1 ∂x ˜1 ∂x1 2 ∂x2 2 ∂x3 2 T + T T + T + T + ∂x ˜1 2 ∂x ˜1 3 ∂x2 ∂ x ˜1 1 ∂x ˜1 2 ∂x ˜1 3  ∂x2 3 ∂x3 3 T + T ∂x ˜1 2 ∂x ˜1 3

in ar

T˜11

Es decir =

   1 · 1 T11 + 0 T21 + 0 T31 − 1 · 1 T12 + 0 T22 + 0 T32 + 0 1 T13 + 0 T23 + 0 T33

= T11 − T12 = 2 − 2 = 0 Del mismo modo = = +

∂x ˜1 ∂xj i T ∂xi ∂x ˜2 j ∂x ˜1 ∂x1 1 T + ∂x1 ∂ x ˜2 1  ∂x ˜1 ∂x1 3 T + ∂x3 ∂ x ˜2 1

resultando T˜21

=

   1 · 1 T11 + 1 T21 + 0 T31 − 1 · 1 T12 + 1 T22 + 0 T32 + 0 1 T13 + 1 T23 + 0 T31   T11 + T21 − T12 + T22 = (2 + 1) − (2 + 3) = −2

ad o

=

   ∂x2 1 ∂x3 1 ∂x ˜1 ∂x1 2 ∂x2 2 ∂x3 2 T + T T + T + T + ∂x ˜2 2 ∂x ˜2 3 ∂x2 ∂ x ˜2 1 ∂x ˜2 2 ∂x ˜2 3  ∂x2 3 ∂x3 3 T + T ∂x ˜2 2 ∂x ˜2 3

rP

T˜21

re lim

T˜11

Bo rr

Se puede continuar t´ermino a t´ermino (el lector debe de terminar de hacer los c´alculos) o realizar la multiplicaci´ on de las matrices provenientes de la transformaci´on de componentes de tensores. Vale decir        k  j 2 1 3 1 1 1 0 −2 −3 1 −1 0  ∂ x ˜ ∂x k 1 −1   2 3 4   0 1 1  =  1 2 4  ⇔  0 T˜m = Tji ∂xi ∂x ˜m 0 0 1 1 2 2 0 0 1 1 3 5

Hay que resaltar el especial cuidado que se tuvo en la ubicaci´on de las matrices para su multiplicaci´ on. x ˜k ∂xj ∂x ˜k k i Si bien en la expresi´ on T˜m = ∂∂x T las cantidades son n´ u meros y no importa el orden con el i ∂x j ˜m ∂xi cual se multipliquen, cuando se escriben como matrices debe respetarse la “concatenaci´on interna de k ´ındices”. Esto es, cuando querramos expresar T˜m como una matriz, donde el ´ındice contravariante k indica filas y el ´ındice covariante m las columnas, fijamos primero estos ´ındices y luego respetamos la

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

160

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

“concatenaci´ on de ´ındices” covariantes con los contravariantes. Esta es la convenci´on para expresar la multiplicaci´ on de matrices en la notaci´on de ´ındices4 . Esto es  k    ∂xj ∂x ˜ ∂x ˜k ∂xj i k i k ˜ ˜ T ⇒ Tm = Tj Tm = ∂xi ∂ x ˜m j ∂xi ∂x ˜m k

x ˜ i Ahora los objetos ∂∂x i , Tj y representaci´ on matricial.

∂xj ∂x ˜m

pueden ser sustituidos (en sus puestos correspondientes) por su

in ar

Con lo cual hemos encontrado la respresentaci´on matricial T˜ij de las componentes del tensor T en la base {|w1 i , |w2 i , |w3 i};  1    T˜1 T˜21 T˜21 0 −2 −3 2 4 . T˜ij =  T˜12 T˜22 T˜32  =  1 3 3 3 1 3 5 T˜1 T˜2 T˜3

re lim

Para encontrar la expresi´ on de T˜ij (T˜ij = g˜ik T˜jk ), requerimos las componentes covariantes y contravariantes del tensor m´etrico g˜ik que genera esta base. Para ello recordamos que para una base gen´erica, {|wj i}, no necesariamente ortogonal, de un espacio vectorial con producto interno, podemos definir la expresi´ on de un tensor que denominaremos tensor m´etrico como   ∂xm ∂xn 0 gmn ≡ hem |wi i hen |wj i gmn un tensor del tipo ⇒ g˜ij = 2 ∂x ˜i ∂ x ˜j Recordemos que la m´etrica covariante gij de una base ortonormal {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es:

Es decir: 

1 ⇐⇒  0 0

 0 0 ; 1



g ij

1 ⇐⇒  0 0

0 1 0

 0 0 ; 1



gji

1 ⇐⇒  0 0

0 1 0

 0 0 ; 1

ad o

gij

0 1 0

rP

g11 = 1 , g22 = 1 , g33 = 1 , g12 = g21 = g13 = g31 = g23 = g32 = 0 .

Bo rr

Con lo cual, para el caso de la base gen´erica no ortonormal {|wj i} tenemos dos formas de calcular las componentes covariantes y contravariantes del tensor m´etrico. La primera es la forma directa









2 g˜11 = hen |w1 i hem |w1 i gnm = e1 |w1 i e1 |w1 i + e2 |w1 i e2 |w1 i + e3 |w1 i e3 |w1 i = e1 |w1 i = 1 n m 1 1 2 2 3 3 1 g˜12 = he |w1 i he |w2 i gnm = e |w1 i e |w2 i + e |w1 i e |w2 i + e |w1 i e |w2 i = e |w1 i e1 |w2 i = 1 g˜13 = hen |w1 i hem |w3 i gnm = e1 |w1 i e1 |w3 i + e2 |w1 i e2 |w3 i + e3 |w1 i e3 |w3 i = e1 |w1 i e1 |w3 i = 1











g˜21 = hen |w2 i hem |w1 i gnm = e1 |w2 i e1 |w1 i + e2 |w2 i e2 |w1 i + e3 |w2 i e3 |w1 i = e1 |w2 i e1 |w1 i = 1 1 2 2 3 3 g˜22 = hen |w2 i hem |w2 i gnm e1 |w

=

22i e |w2 i + e |w2 i e |w2 i + e |w2 i e |w2 i ⇒ 1 1 2 = e |w2 i e |w2 i e |w

21i e |w

21i = 2 2



g˜23 = hen |w2 i hem |w3 i gnm = e |w i e |w3 i + e |w2 i e2 |w3 i + e3 |w2 i e3 |w3 i ⇒ 2



= e1 |w2 i e1 |w3 i + e2 |w2 i e2 |w3 i = 2

4 Quiz´ a una forma de comprobar si los ´ındices est´ an bien concatenados se observa si se “bajan” los ´ındices contravariantes pero se colocan antes que los covariantes. Esto es, Tji → Tij . As´ı, la multiplicaci´ on de matrices queda representada de la siguiente forma: Cji = Aik Bjk → Cij = Aik Bkj y aqu´ı es claro que ´ındices consecutivos est´ an “concatenados” e indican multiplicaci´ on.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

161

3.4. TRANSFORMACIONES, VECTORES Y TENSORES











g˜31 = hen |w3 i hem |w1 i gnm = e1 |w3 i e1 |w1 i + e2 |w3 i e2 |w1 i + e3 |w3 i e3 |w1 i = e1 |w3 i e1 |w1 i = 1 1 1 2 2 3 3 g˜32 = hen |w3 i hem |w2 i gnm =

2e |w3 i 2e |w2 i + e |w3 i e |w2 i + e |w3 i e |w2 i ⇒ 1 1 = e |w3 i e |w2 i + e |w3 i e |w2 i = 2





g˜33 = hen |w3 i hem |w3 i gnm = e1 |w3 i e1 |w3 i + e2 |w3 i e2 |w3 i + e3 |w3 i e3 |w3 i ⇒



= e1 |w3 i e1 |w3 i + e2 |w3 i e2 |w3 i + e3 |w3 i e3 |w3 i = 3 g˜ij ⇒ g˜11 = 1 , g˜12 = 1 , g˜13 = 1 , g˜21 = 1 , g˜22 = 2 , g˜23 = 2 , g˜31 = 1 , g˜32 = 2 , g˜33 = 3 .

N´ otese que tambi´en podr´ıamos haber  1 ∂xj ∂xi  1 g ⇒ g˜km = ij ∂x ˜k ∂x ˜m 1

procedido, y en  0 0 1 1 0  0 1 1 0

in ar

Consecuentemente podemos “arreglarlo como una matriz”5 de la siguiente forma     1 1 1 2 −1 0 −1 2 −1  g˜ij ≡ g˜ji ⇐⇒  1 2 2  ⇒ g˜ij ≡ g˜ji = (˜ gij ) ⇐⇒  −1 1 2 3 0 −1 1

t´erminos “matriciales”, de la siguiente forma:     0 0 1 1 1 1 1 1 1 0  0 1 1  =  1 2 2  0 1 0 0 1 1 2 3

g˜km =

∂xj ∂xi gij k ∂x ˜ ∂x ˜m

−→

re lim

Nuevamente es bueno aclarar que para conservar la convenci´on de ´ındices y poder representar la multiplicaci´ on de matrices, los ´ındices deben estar consecutivos, por lo tanto, hay que trasponer la representaci´ on matricial para multiplicarlas. Es por eso que en el c´alculo anterior aparece como primera matriz la transpuesta de la u ´ltima. El c´alculo se debe hacer como se muestra a continuaci´on: g˜km = Πik gij Πjm

−→

¯ ki gij Πjm . g˜km = Π

ad o

rP

Finalmente, estamos en capacidad de obtener las representaciones matriciales para los tensores: T˜ij , T˜ij , T˜ij .  T   0 1 1 0 −2 −3 j j i T 2 4  =  −2 2 3  T˜i = (T˜j ) ⇐⇒ T˜i =  1 −3 4 5 1 3 5      1 1 1 0 −2 −3 2 3 6 n 2 4  =  4 8 15  T˜km = g˜kn T˜m ⇐⇒ T˜km =  1 2 2   1 1 2 3 1 3 5 5 11 20      0 −2 −3 2 −1 0 2 −1 −1 n mk 2 4   −1 2 −1  =  0 −1 2 . T˜kn = T˜m g˜ ⇐⇒ T˜kn =  1 1 3 5 0 −1 1 −1 0 2

Bo rr

Quisi´eramos ejemplificar una forma “r´apida y furiosa” (pero sucia) de calcular la m´etrica generada por una determinada base gen´erica. La idea es que, violentando toda nuestra notaci´on e idea de tensores, construimos la m´etrica a partir de los vectores base defini´endola como g˜ij = hwi |wi i, de esta manera:   hw1 |w1 i hw1 |w2 i hw1 |w3 i g˜ij =  hw2 |w1 i hw2 |w2 i hw2 |w3 i  hw3 |w1 i hw3 |w2 i hw3 |w3 i     hi |ii hi| [|ii + |ji] hi| [|ii + |ji + |ki] 1 1 1 = 1 2 2  [hi| + hj|] |ii [hi| + hj|] [|ii + |ji] [hi| + hj|] [|ii + |ji + |ki] =  [hi| + hj| + hk|] |ii [hi| + hj| + hk|] [|ii + |ji] [hi| + hj| + hk|] [|ii + |ji + |ki] 1 2 3

5 Recordemos

que hemos insistido que las matrices representan tensores mixtos

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

162

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

Dejamos al lector, la reflexi´ on si esta forma “r´apida de calcular la m´etrica” a partir de unos vectores base es general o, si en su defecto, es una coincidencia u ´nicamente v´alida para este caso.

Practicando con Maxima:

in ar

Maxima contiene un paquete para manipular componentes de tensores: ctensor. La manipulaci´ on en componentes se realiza en t´erminos de matrices. La m´etrica se almacena en la matriz lg y la m´etrica inversa se obtiene y almacena en la matriz ug. En el ejemplo anterior se especificaba las componentes de un tensor en coordenadas cartesianas, esto es:   2 1 3 To = Tji =  2 3 4  en la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} 1 2 2 = |ii + |ji + |ki. Entonces

re lim

Para luego representarlo en la nueva base: |w1 i = |ii, |w2 i = |ii + |ji y |w3 i necesitamos calcular ∂x ˜k ∂xj i k T ⇒ Tn = αβTo = T˜m = ∂xi ∂ x ˜m j Como vimos en el ejemplo anterior:    1 −1 0 1 1 k i ∂x ˜ ∂x ,  0  0 1 1 −1 α= β = = = ∂xi ∂x ˜k 0 0 1 0 0

 1 1  1

Respetando la “la concatenaci´ on interna de ´ındices” podemos realizar la multiplicaci´on de matrices.

Bo rr

ad o

rP

(%i1) To:matrix([2,1,3],[2,3,4],[1,2,2]);   2 1 3 ( %o1) 2 3 4 1 2 2 (%i2) alpha:matrix([1,-1,0],[0,1,-1],[0,0,1]);   1 −1 0 ( %o2) 0 1 −1 0 0 1 (%i3) beta:matrix([1,1,1],[0,1,1],[0,0,1]);   1 1 1 ( %o3) 0 1 1 0 0 1 (%i4) Tn:alpha.To.beta;   0 −2 −3 4 ( %o4) 1 2 1 3 5 Una vez que hemos calculado el nuevo tensor Tn = T˜ij en la nueva base, podemos calcular: T˜ij , T˜ij . Pero podemos utilizar la m´etrica para las coordenadas nuevas y con el paquete ctensor hacer las respectivas contracciones.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

163

3.4. TRANSFORMACIONES, VECTORES Y TENSORES

(%i5) load(ctensor)$ (%i6) ct_coordsys(cartesian3d)$ Introducimos la m´etrica g˜ik

in ar

(%i7) lg:matrix([1,1,1],[1,2,2],[1,2,3]);   1 1 1 ( %o7) 1 2 2 1 2 3 Para tener la m´etrica inversa g˜ik escribimos:

(%i9) ug;  2 ( %o9) −1 0

 −1 0 2 −1 −1 1 ˜ Para calcular Tij = g˜ik T˜jk escribimos:

 −1 2 2

ad o

(%i11)Tn.ug;  2 −1 ( %o11)  0 −1 −1 0

rP

(%i10)lg.Tn;   2 3 6 ( %o10) 4 8 15 5 11 20 Y para calcular T˜ij = T˜ki g˜kj escribimos:

re lim

(%i8) cmetric()$

Es posible, y a manera de completar esta primer acercamiento con la librer´ıa de tensores, calcular la m´etrica a partir de una transformaci´ on de coordenadas, como vimos en la Secci´on 3.3.4. (%i1) kill(all)$

(%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]]);

Bo rr

(%i3) cmetric()$

El tensor m´etrico gij

(%i4) lg:trigsimp(lg);   1 0 0  0 ( %o4) 0 r2 2 2 0 0 r sin θ

Y la m´etrica inversa: Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

164

3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

(%i5) trigsimp(ug);   1 0 0 0  ( %o5) 0 r12 1 0 0 r2 sin 2θ

3.5.

Vectores, tensores y espacios pseudo-euclideanos

En resumen



   0

ad o

   0

rP

re lim

in ar

k Hasta este punto ha sido casi est´etica la descripci´on de formas representadas por bra: ha| ≡ a e , en las k

k cuales sus componentes tienen sub´ındices, mientras que los vectores bases, e , deben tener super´ındices. Quiz´ a el ejemplo m´ as emblem´ atico y simple, donde se observa la diferencia entre formas (bras) y vectores (kets) es el caso de los espacios minkowskianos. Estos espacios, tambi´en llamados pseudoeuclideanos, presentan una variante en la definici´ on de producto interno, de tal forma que: hx| xi no necesariamente es positivo, y si hx| xi = 0 no necesariamente implica que |xi ≡ |0i. La consecuencia inmediata es que la definici´on de norma N (|vi i) ≡ k|vi ik, que vimos anteriormente, no necesariamente es positiva. Vale decir que tendremos vectores con norma positiva, k|vi ik > 0, pero tambi´en vectores con norma negativa o cero: k|vi ik ≤ 0. Con lo cual la definici´on de distancia, entendida como la norma de la resta de vectores, d (|xi , |yi) ≡ k|xi − |yik, tampoco ser´a necesariamente positiva. Esto es, que las distancias ser´ an negativas, positivas o nulas: d (|xi , |yi) < 0, d (|xi , |yi) = 0 y d (|xi , |yi) > 0. Si extendemos la noci´ on de distancia para que albergue las posibilidades de distancias nula y negativas, entonces la definici´ on del tensor m´etrico para espacios pseudo-euclideanos debe cambiar tambi´en.   0



  0

Bo rr

Este tipo de espacios luce como un excentricidad m´as de los matem´aticos y una curiosidad de estudio es ver como organizar los conceptos que aprendimos de los espacios euclidianos y extenderlos a otros espacios. Quiz´ a se hubiera quedado as´ı, como una curiosidad matem´atica si la F´ısica no hubiera sacado partido de estas particularidades para describir el comportamiento de la naturaleza. En la pr´oxima secci´on analizaremos el caso de espacios minkowskianos de dimensi´on 4: M4 .

3.5.1.

Espacios minkowskianos

Consideremos un espacio tetradimensional expandido por una base ortonormal {|e0 i , |e1 i , |e2 i , |e3 i}. Los 3 vectores {|e1 i , |e2 i , |e3 i} corresponden con la base can´onica de  R0 . 1 2 3 4 Este espacio vectorial M tendr´ a asociado un espacio dual e , e , e , e a trav´es de una m´etrica



ηαβ heα | ⊗ eβ ≡ ηβα eβ ⊗ heα | y η αβ |eα i ⊗ |eβ i ≡ η βα |eβ i ⊗ |eα i

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

165

3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

con α, β = 0, 1, 2, 3 y donde: η00 = η 00 = 1, η11 = η 11 = −1, η22 = η 22 = −1, η33 = η 33 = −1 (con ηαβ = 0 para α 6= β), con lo cual se dice que η tiene signo −2.6 Tal y como presentamos en (3.2.6), podemos asociar componentes covariantes y contravariantes a trav´es de la m´etrica de la forma





ηαβ heα | ⊗ eβ |ai = aσ ηαβ heα | ⊗ eβ |eσ i = aσ ηαβ eβ |eσ i heα | = aσ ηαβ δσβ heα | = aσ ηασ heα | ≡ aα heα | Lo intereante del caso es que aσ ησα = aα



a0 = a0 ,

a1 = −a1 ,

a2 = −a2 ,

a3 = −a3 .

in ar

Es decir, en este caso, porque la m´etrica tiene signo −2, bajar los ´ındices espaciales (µ = i = 1, 2, 3) es cambiar el signo a las componentes7 . Dicho con m´as propiedad, las componentes espaciales contravariantes (µ = i = 1, 2, 3) tienen signos contrarios a las componentes covariantes. De la misma manera que se expuso anteriormente en (3.2.6)   ha| η αj |eα i ⊗ |eβ i = ha| η αβ |eα i ⊗ |eβ i = η αβ ha |eα i ⊗ |ej i = aσ η αj heσ |eα i |eβ i = aσ η σβ |eβ i ≡ aβ |eβ i

re lim

y otra vez, aσ = η σα aα , y habr´ıa cambio de signo cuando se bajan los ´ındices 1, 2, 3 para la m´etrica con signo −2 que hemos considerado anteriormente. Del mismo modo se “suben” y se “bajan” ´ındices para componentes de tensores η αβ Pαγσ ≡ P βγσ

Por su parte, el producto interno de dos vectores en un espacio de Minkowski involucra, de manera natural, la m´etrica del espacio. Esto es hx |yi = hy |xi = xα yα = y α xα = xα y β ηαβ = xα yβ η αβ = x0 y 0 −x1 y 1 −x2 y 2 −x3 y 3 = x0 y0 −x1 y1 −x2 y2 −x3 y3

rP

Una vez m´ as, la norma de un vector, tambi´en incluir´a al tensor m´etrico: 2

k|xik = hx |xi = xα xβ heα |eβ i = xα xα = xα xβ η αβ = xα xβ ηαβ = x0 x0 − x1 x1 − x2 x2 − x3 x3

con: dx2 = dx1

+ dx2

2

2 + dx3 .

Un toque de Relatividad Especial

Bo rr

3.5.2.

2

ad o

El caso m´ as conocido lo constituye la norma de un desplazamiento infinitesimal, en un espacio tetradimensional. Para una base gen´erica, {|uβ i} (no necesariamente ortogonal) de un espacio vectorial con producto interno. El desplazamiento infinitesimal puede expresarse como  2 (ds) ≡ hdr |dri = (d˜ xα h˜ uα |) d˜ xβ |˜ uβ i = d˜ xβ d˜ xβ = η˜αβ d˜ xα d˜ xβ = dt2 − dx2 ,

La genialidad de Einstein fue haber entendido que ten´ıa que incorporar el tiempo como otra coordenada m´ as, vale decir, que los eventos que ocurren en la naturaleza est´an etiquetados por cuatro n´ umeros: (t, x, y, z) ≡ (x0 , x1 , x2 , x3 ). El r´ apido desarrollo de la comprensi´on de las ideas relativistas muestra que estaban en el ambiente de la ´epoca de comienzos de 1900, y una vez m´as la simplicidad como prejuicio se impuso. Solo dos suposiciones est´ an en el coraz´on de la Relatividad Especial:

6 Realmente el signo −2 es una convenci´ on, se puede tambi´ en considerar ηµν de signo +2, con η00 = −1, η11 = +1, η22 = +1, η33 = +1. 7 Otra vez, para la m´ etrica con signo −2, el cambio de signo entre componentes covariantes y contravariantes se da para la componente, µ = 0

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

166

in ar

3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

re lim

Figura 3.3: Cono de luz, espacio-tiempo y eventos

1. El principio de la Relatividad: Las leyes de la F´ısica son id´enticas en todos los sistemas de referencia inerciales. 2. La universalidad de la velocidad de la luz en el vac´ıo: La velocidad de la luz en el vac´ıo es siempre la misma, y es independiente de la velocidad de la fuente de luz respecto a un observador en particular.

Bo rr

ad o

rP

En t´erminos matem´ aticos estas dos audaces suposiciones se concretan en una simple suposici´on matem´ atica: el producto interno entre dos elementos de este espacio tetradimensional, debe conservarse para una familia de vectores base. Luego vendr´ a la asociaci´on de observadores f´ısicos -o sistemas de coordenadascon los miembros de la familia de vectores base, pero la idea es la misma que planteamos para los espacios euclideanos en 2.2.3: el producto interno -y consecuentemente, la norma de los elementos del espacio vectorial y la distancia entre ´estos - es el mismo independientemente de la base en la cual expanda el espacio vectorial. La primera de las interpretaciones es el c´omo representamos los eventos en el espacio-tiempo. Supongamos el caso unidimensional en el espacio, vale decir los eventos ocurren en un punto de la recta real x = x1 y en un tiempo determinado, por lo tanto podremos asociar al evento un vector Evento → (x0 , x1 ). A continuaci´ on nos preguntamos que representan las distancias (espacio-temporales) entre estos dos eventos. Tal y como vimos, las distancias entre dos elementos de un espacio vectorial puede ser construida a partir de la norma (de la resta de coordenadas) y la norma a partir del producto interno:  < 0 conexi´on tipo espacio: eventos desconectados causalmente      = 0 conexi´on tipo luz: posible conexi´on causal a trav´es de rayos de luz || |y − xi ||2 ≡ hy − x |y − xi      > 0 conexi´on tipo tiempo: posible conexi´on causal Con esta primera interpretaci´ on de los valores de la norma y la visi´on tetradimensional, el espacio-tiempo, dividido en pasado, presente y futuro, se puebla de eventos que pueden estar o n´o relacionados causalmente tal y como muestra la Figura 3.3.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

167

3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

La preservaci´ on del producto interno para todos los observadores8 era intuitiva en los espacios euclideanos y, al mantenerla para los pseudo-euclideanos nos traer´a consecuencias nada intuitivas en nuestra idea intuitiva de “realidad”. Para el caso de la formulaci´on de la Relatividad Especial, a˜ nadimos un supuesto m´ as: las componentes del tensor m´etrico son invariantes bajo transformaciones de coordenadas, esto es g [|eµ i , |eν i] ≡ g [|˜eµ i , |˜eν i]



ηαβ = η˜αβ ,

con {|eµ i} y {|˜eµ i}

dos bases que se conectan a trav´es de una transformaci´on de coordenadas xµ = xµ (˜ xα ) ⇔ x ˜µ = x ˜µ (xα ). Construyamos el tipo de transformaci´ on de coordenadas que mantiene estos dos supuestos:

in ar

1. El producto interno de dos vectores es independiente de la base que expande el espacio vectorial. 2. Las componentes del tensor m´etricos son invariantes bajo transformaciones de coordenadas.

Si el producto interno de dos vectores es independiente de la base que expanda el espacio vectorial, tendremos hx |yi = h˜ x |˜ y i ⇔ xα yα = x ˜α y˜α ⇔ xα y β ηαβ = x ˜α y˜β η˜αβ ,

a ˜i =

∂x ˜i k a ∂xk



xα yα = x ˜α y˜α

con lo cual concluimos que ηαβ =



re lim

y como lo vimos en 3.4 las componentes de vectores, bajo cambio de coordenadas, transforman como xα y β ηαβ =

∂x ˜ν α ∂ x ˜µ β ˜ν ∂ x ˜µ α β ∂x x y η ˜ = x y η˜νµ , νµ ∂xα ∂xβ ∂xα ∂xβ

∂x ˜ν ∂ x ˜µ ∂x ˜ν ∂ x ˜µ η˜νµ ≡ ηνµ . α β α ∂x ∂x ∂x ∂xβ

rP

Si derivamos respecto a xγ tendremos que   2 ν ˜µ ∂x ˜ν ∂ 2 x ˜µ ∂ x ˜ ∂x . 0 = ηνµ + ∂xα ∂xγ ∂xβ ∂xα ∂xβ ∂xγ

ad o

Como la cantidad dentro del par´entesis se anula podemos jugar con ´esta para descubrir algunas consecuencias ocultas. Es de hacer notar que esa cantidad tiene tres ´ındices libres y por lo tanto son 64 ecuaciones que se anulan. Eso significa que le podemos a˜ nadir y sustraer cualesquieras otras con los ´ındices intercambiados. Supongamos que al par´entesis anulado le a˜ nadimos una con los ´ındices α y γ intercambiados y, adicionalmente, le sustraemos una con los ´ındices γ y β intercambiados. Claramente, estamos a˜ nadiendo y sustrayendo ceros.  2 ν  ∂ x ˜ ∂x ˜µ ∂x ˜ν ∂ 2 x ˜µ ∂2x ˜ν ∂ x ˜µ ∂x ˜ν ∂ 2 x ˜µ ∂2x ˜ν ∂ x ˜µ ∂x ˜ν ∂ 2 x ˜µ 0 = ηνµ + + + − − . ∂xα ∂xγ ∂xβ ∂xα ∂xβ ∂xγ ∂xγ ∂xα ∂xβ ∂xγ ∂xβ ∂xα ∂xα ∂xβ ∂xγ ∂xα ∂xγ ∂xβ

Bo rr

Con este truco, vemos que el u ´ltimo t´ermino anula el segundo y el pen´ ultimo el cuarto, de forma y manera que nos queda ∂2x ˜ν ∂ x ˜µ 0 = 2ηνµ α γ β , ∂x ∂x ∂x Con lo cual la u ´nica posibilidad que nos queda es 0=

8 Estamos

∂2x ˜ν ⇒ x ˜ν = Λνµ xµ + aν α ∂x ∂xγ

con Λνµ y aν constantes .

suponiendo que observadores, sistemas de coordenadas y sistemas de referencia son conceptos equivalentes.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

168

3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

Estas transformaciones lineales se conocen como las transformaciones, inhomog´eneas, de Lorentz o tambi´en las transformaciones de Poincar´e. Estas transformaciones forman un grupo y, uno de los posibles subgrupos lo constituye el conjunto de transformaciones propias de Lorentz de la forma: Λ00 = 1,

Λi0 = Λ0j = 0,

y

Λij = Rji

con i, j = 1, 2, 3;

y

donde Rji es una matriz de rotaci´ on. Supongamos el caso m´ as sencillo de este grupo de transformaciones: aν = 0. Expl´ıcitamente hemos identificado una transformaci´ on de la forma

la cual, por construcci´ on, deja invariante el intervalo tetradimensional ds2 = dt2 − dx1 − dx2 − dx3 = ηµν dxµ dxν ,

in ar

0 α 1 α 2 α 3 x ˜α = Λα 0 x + Λ 1 x + Λ2 x + Λ3 x ,

re lim

y con ηµν el tensor m´etrico. Es inmediato demostrar que este tipo de transformaciones deja invariante el intervalo. Primero, notemos que µ η˜µν = Λµα Λνβ η αβ ⇒ η µν ηνγ = δγµ = Λµα Λνβ η αβ ηνγ ⇒ Λµα Λα γ = δγ entonces, como d˜ xµ = Λµα dxα



d˜ s2 = η˜µν d˜ xµ d˜ xν ≡ ηµν Λµα dxα Λνβ dxβ = ηαβ dxα dxβ = ds2 .

rP

Para construir una de las expresiones m´as utilizadas del grupo de Lorentz consideramos la siguiente situaci´ on: un observador, x ˜µ , ve moverse una part´ıcula con una velocidad v, mientras que un segundo observador, xµ , la percibe en reposo. Entonces, para el observador que registra la part´ıcula en reposo dxi = 0   dt˜ = Λ00 dt µ µ α d˜ x = Λα dx ⇒  con i = 1, 2, 3. d˜ xi = Λiα dxα = Λi0 dt Ahora bien, como

y

d˜ xi d˜ x ⇒ vi = ⇒ Λi0 = v i Λ00 , dt˜ dt˜

ad o

v=

η˜αβ = Λµα Λνβ ηµν ⇒ 1 = Λµ0 Λν0 ηµν = Λ00

2

− Λ10

2

− Λ20

2

− Λ30

2

,

con una soluci´ on de la forma Λi0 = γ v i

donde γ = p

Bo rr

Λ00 = γ ,

1

1−

(v)2

≡√

1 ≡r 1 − v i vi

1 h i, 2 2 2 1 − (v 1 ) + (v 2 ) + (v 3 )

los otros t´erminos Λij no quedan un´ıvocamente determinados porque est´a de por medio la arbitrariedad de una rotaci´ on Rji . Por ello, una selecci´ on arbitraria pero razonable de todos los t´erminos Λij es Λij = δji + v i vj

γ−1 γ−1 ≡ δji + v i vj k . (v)2 v vk

De esta forma quedan determinados todos los elementos de las transformaciones de Lorentz. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

169

3.5. VECTORES, TENSORES Y ESPACIOS PSEUDO-EUCLIDEANOS

Los observadores lorentzianos son los equivalentes a los observadores galileanos en las teor´ıas newtonianas: son observadores que se mueven uno respecto al otro con una velocidad constante y, desempe˜ nan el mismo papel que los observadores inerciales. Quiz´a la consecuencia m´as impactante de la necesidad de vincular mediciones de distintos observadores lorentzianos a trav´es de transformaciones de Lorentz, lo ilustra la evoluci´ on distinta del tiempo medido por los diferentes observadores. Un observador en reposo respecto a un reloj, ve avanzar el tiempo con tic separados dt = ∆t ya que su reposo respecto al reloj implica dxi = 0, por lo tanto la separaci´ on espacio temporal ser´a: ds2 = dt2 − (dxi )2 = (∆t)

2

⇒ dt = ∆t ,

mientras que un segundo observador tendr´a el mismo elemento de l´ınea pero expresado como

in ar

 ∆t , d˜ s2 = dt˜2 − (d˜ xi )2 = 1 − v2 dt˜ ⇒ dt˜ = √ 1 − v2

y claramente indica que tiempo evoluciona m´as lento para relojes en movimento.

3.5.3.

Ejercicios

re lim

1. Si Aijk es un tensor covariante de orden 3 y B lmno un tensor contravariante de orden 4, pruebe que Aijk B jkno es un tensor mixto de orden 3. 2. En el espacio euclideano 3D y en coordenadas cartesianas no distinguimos entre vectores y uno-formas debido a que sus componentes transforman de la misma manera. Demuestre que

Bo rr

ad o

rP

a) a ˜i = Λij aj ∧ ˜bj = Λij bi son la misma transformaci´on si la matriz Λij es igual a la transpuesta de su inversa, es decir, si es ortogonal. ˜ :x b) Considere dos observadores O : x, y ↔ x1 , x2 y O ˜, y˜ ↔ x ˜1 , x ˜2 y sus sistemas de coordenadas asociados. 1) Considere la siguiente transformaci´on de coordenadas de Galileo √ √ √ √ 2 1 2 2 2 1 2 2 2 1 1 x − x y x ˜ = x + x x ˜ =V t+ 2 2 2 2 ˜ y t al tiempo (par´ametro con V 1 una constante que representa la velocidad relativa entre O− O de esta transformaci´ on). A continuaci´on suponga una part´ıcula que describe un movimiento respecto a O siguiendo una trayectoria recta, esto es x2 = αx1 , donde α es una constante. ˜ respecto a sus coordenadas (˜ Encuentre c´ omo lo describir´ıa el observador O x1 , x ˜2 ). 2) Considere ahora la generalizaci´on de la transformaci´on de coordenadas anterior √ √ √ √ 2 1 2 2 2 1 2 2 1 1 2 2 x ˜ =V t+ x − x y x ˜ =V t+ x + x 2 2 2 2 ˜ y t al tiempo. Muestre que con V 1 y V 2 las componentes de una velocidad relativa entre O − O la norma de cualquier vector queda invariante respecto a una transformaci´on de coordenadas como la anterior y encuentre la matriz de transformaci´on.

3. Dado un espacio minkowskiano y un observador O que describe los eventos en el espacio-tiempo respecto a un sistema de coordenadas {xα } donde α = 0, 1, 2, y η = diag[−1, 1, 1] el tensor m´etrico. Considere entonces la siguiente transformaci´ on de coordenadas x ˜0 = γ(x0 − βx1 ) ,

Hern´ andez & N´ un ˜ez

x ˜1 = γ(x1 − βx0 )

y

x ˜2 = x2

con γ = p

1 1 − β2

Universidad de los Andes / Universidad Industrial de Santander

170

3.6. ESPACIOS DE FUNCIONES

˜ Donde β = v/c es la velocidad relativa entre O y O.

in ar

a) Otra vez suponga que una part´ıcula describe una linea recta respecto a O: x2 = αx1 , con α ˜ respecto a sus igual a una constante. Esta vez encuentre c´omo lo describir´ıa el otro observador O coordenadas (˜ x0 , x ˜1 , x ˜2 ). α ˜ b) Encuentre la expresi´ on para la transformaci´on de coordenadas, ∂∂xx˜β = Λα on de β (transformaci´ α Lorentz) entre estos sistemas relativistas y muestre como la norma: x xα = xα xβ ηαβ , de cualquier vector se conserva. c) Considere el Tensor de Maxwell definido como     0 Ex Ey −1 0 0 0 B z  otra vez con ηµν =  0 1 0  F µα =  −E x y z −E −B 0 0 0 1 donde E = (E x , E y ) y B = (B x , B y ) son los campos el´ectricos y magn´eticos (respectivamente) medidos por un observador O. Si un observador mide un campo el´ectrico E = E x i y ning´ un campo magn´etico. ¿Cu´ ales campos, Fµα medir´a otro observador que viaja con una velocidad β = vi?

∂ E = 4πJ , ∂t se pueden escribir como ∇×B−

∇×E−

∂ µν F ≡ F µν ,ν = 4πJ µ , ∂xν

Espacios de funciones

∂ B = 0, ∂t

∇ · B = 0,

donde J µ = (ρ, J 1 , J 2 )

y ∇ · E = 4πρ

y J = (J 1 , J 2 ) .

rP

3.6.

re lim

4. Muestre que las ecuaciones de Maxwell

3.6.1.

ad o

Los conceptos de espacios vectoriales discretos que hemos estudiado hasta ahora, finitos o infinitos, se pueden extender a espacios de funciones, en donde los vectores del espacio vectorial y las bases son funciones {|Fn (x)i}. La generalizaci´ on de bases discretas a continua se hace transformando el ´ındice de las sumatorias en la variable de una integral, de manera que los ´ındices se convierten en variables continuas definidas en intervalos finitos o infinitos. Como primer paso para el estudio de estos espacios introduciremos un nuevo objeto matem´ atico, que como veremos m´ as adelante, es de gran importancia y utilidad.

La funci´ on delta de Dirac

Bo rr

Recordemos que la delta de Kronecker δij que definimos con anterioridad es una cantidad que toma valores discretos: δij = 1 si i = j y δij = 0 si i 6= j. Es posible construir una extensi´on de este objeto matem´ atico para que los ´ındices puedan tomar cualquier valor real. Esto nos permite definir la “funci´ on” :  r  δ(x) → ∞ si x → 0 n −nx2 δ(x) = l´ım e ⇒ n→∞  π δ(x) = 0 si x 6= 0 Por tener este comportamiento tan particular no se le suele llamar funci´on, sino una distribuci´ on, y si el punto del m´ aximo es un punto diferente de x = 0 podemos escribir: r n −n(x−x0 )2 δ(x − x0 ) = l´ım e n→∞ π

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

171

3.6. ESPACIOS DE FUNCIONES

Veamos la siguiente sucesi´ on de funciones gaussianas: r n −nx2 δn (x) = e , π tal que Z



δn (x)dx = 1 , n > 0 −∞

in ar

A medida que el par´ ametro n aumenta su valor, la curva gaussiana δn (x) ser´ a cada vez m´ as alta y m´ as angosta, y si n → ∞ la curva ser´ a entonces infinitamente m´ as alta e infinitamente m´as angosta, pero siempre conservando que el ´area bajo la curva ser´ a igual a la unidad.

re lim

Figura 3.4: δn (x) para tres valores diferentes de n. donde x0 es el punto donde la gaussiana alcanza su valor m´aximo. En general, este proceso de limite puede aplicarse a funciones cuya area bajo la curva sea la unidad Z ∞ G(x)dx = 1 −∞

de manera que ∞

n→∞

nG(n(x − x0 ))f (x0 )dx0

Z

=

−∞

=



l´ım

rP

Z l´ım

n→∞

l´ım

n→∞

G(n(x − x0 ))f

−∞ Z ∞



nx0 n



d(nx0 )

 τ G(τ )f x − d(τ ) = f (x) n −∞

ad o

Si se intercambian los procesos de l´ımite e integraci´on: Z ∞h i f (x) = l´ım nG(n(x − x0 )) f (x0 )dx0 ⇒ δ(x − x0 ) = l´ım nG(n(x − x0 )) ≡ δ(x, x0 ) . −∞ n→∞

Por lo tanto:

Z



f (x) =

δ(x − x0 )f (x0 )dx0 ⇒

−∞

Bo rr

n→∞

  δ(x, x0 ) → ∞ si x → x0 

δ(x, x0 ) = 0

si x 6= x0

La principal propiedad de la delta de Dirac es que Z ∞ f (x)δ(x − x0 )dx = f (x0 ) −∞

es decir, act´ ua parecido a como lo hace la delta de Kronecker cuando se contrae uno de sus ´ındices con las componentes de un vector: aj = δji ai , en el sentido que de todos lo valores selecciona s´olo uno. Adem´ as, si f (x) = 1 entonces Z ∞

δ(x − x0 )dx = 1 . −∞

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

172

3.6. ESPACIOS DE FUNCIONES

Existen algunas representaciones integrales basadas en el hecho de que δ(x − x0 ) u ´nicamente existe en x = x0 . Z x=x0 +ε Z ∞ f (x)δ(x − x0 )dx f (x)δ(x − x0 )dx = −∞ x=x0 −ε Z b  f (x0 ) si a ≤ x0 ≤ b f (x)δ(x − x0 )dx =  a 0 si x0 < a ´o x0 > b Y la funci´ on escal´ on de Heaviside x

H(x − x0 ) =

δ(x − x0 )dx = −∞

  1

si

0

si



x ≥ x0

in ar

Z

⇒ δ(x − x0 ) = x ≤ x0

dH(x − x0 ) . dx

re lim

Ejemplo Una distribuci´ on de carga el´ectrica puede escribirse de manera sencilla utilizando la delta de Dirac. La distribuci´ on de carga el´ectrica puede representarse a trav´es de la siguiente integral Z q= ρ(r)dV V

de manera que para una carga puntual localizada en r = r0 se tiene que Z Z ρ(r)dV ⇒ ρ(r) = qδ(r − r0 ) q = q δ(r − r0 )dV = V {z } | =1

rP

Para finalizar, veamos algunas de las tantas propiedades:

• δ(ax) =

• xδ(x) = 0

• f (x)δ(x − x0 ) = f (x0 )δ(x − x0 )

1 2|a|

[δ(x − a) + δ(x + a)]

ad o

• δ(x2 − a2 ) =

• δ(r − r0 ) = δ(x − x0 )δ(y − y0 )δ(z − z0 )

3.6.2.

δ(x) |a|

• δ(x − x0 ) = δ(x0 − x)

n

• xn+1 d dxδ(x) =0 n



R

f (r)δ(r − r0 )dV = f (r0 )

Bases continuas

Bo rr

Tal y como vimos anteriormente, la representaci´on de un vector |F i en un espacio vectorial abstracto V puede darse en t´ermino de una base ortonormal de vectores (discreta y finita BDF = {|e1 i , |e2 i , |e3 i , · · · |en i} o discreta e infinita BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · }) de la forma:  i

 c |ei i = ei F i |ei i ⇐ BDF = {|e1 i , |e2 i , |e3 i · · · |en i} |F i =

 i c |ei i = ei F i |ei i ⇐ BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · } donde en ambos casos:

Hern´ andez & N´ un ˜ez



ci = ei F i = cj ei |ej i = cj δji .

Universidad de los Andes / Universidad Industrial de Santander

173

3.6. ESPACIOS DE FUNCIONES

Recapitulemos ahora algunos puntos que hemos tratado con anterioridad, y con el fin de aclarar algunos conceptos, el caso de bases discretas de funciones {|ei (x)i}. La relaci´ on de ortogonalidad viene dada, como hemos mencionado, por: Z b n n e∗n (x)em (x)dx = Θn δm , he (x)|em (x)i = a

y con una norma definida por b

Z

2

2

k|ei (x)ik = hen (x)|en (x)i =

|en (x)| dx = Θn .

in ar

a

La base ser´ a ortonormal si Θn = 1. Con una base {|ei (x)i} definida es posible representar cualquier funci´on f (x) cuadrado integrable, es decir que cumpla con Z b 2 |f (x)| dx 6= ∞ , a

re lim

en una combinaci´ on lineal de la base dada: |f (x)i = C i |ei (x)i

Las cantidades C i , las componentes de |F (x)i, se obtienen de la siguiente manera



ei (x) f (x)i = C j ei (x) ej (x)i = C j δji = C i =

Z

b

f (x)e∗i (x)dx ,

a

rP

Resulta conveniente para los c´ alculos que vienen cambiar i → n y x → x0 , de manera que Z b n C = f (x0 )e∗n (x0 )dx0 . a

Por lo tanto n

Bo rr

ad o

|f (x)i = C |en (x)i ⇒ |f (x)i =

Utilizando la delta de Dirac Z b Z 0 0 0 |f (x)i = f (x )δ(x − x )dx = a

a

" X Z

XZ

=

0

f (x )

|en (x)i

b

f (x0 )e∗n (x0 )en (x)dx0

b

f (x0 )

X

a

"

b

)e∗n (x0 )dx0

a

n

Z

f (x

0

a

n

=

#

b

e∗n (x0 )en (x)dx0

n

# X n

e∗n (x0 )en (x)

dx0 ⇒ δ(x − x0 ) =

X

e∗n (x0 )en (x) .

n

Esta u ´ltima relaci´ on viene a ser una generalizaci´on de la relaci´on de cierre mencionada en la Secci´ on 2.3.4 y se conoce como condici´ on de completitud para la base {|ei (x)i}, adem´as, tambi´en resulta ser una representaci´ on en serie para la delta de Dirac. De todo esto surgen algunas propiedades fundamentales:

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

174

3.6. ESPACIOS DE FUNCIONES

Se dice que el conjunto {|ei (x)i} es completo si para Z i |f (x)i = C |ei (x)i ⇒

b

2

|f (x)| =

X

a

2

|C n |

n

Si |f (x)i = C i |ei (x)i y |g(x)i = E i |ei (x)i, entonces hf (x)|g(x)i = Cn∗ E n .

|e0 i = 1,

|e2n−1 i = cos(nx)

in ar

Es posible pasar de estos espacios vectoriales discretos, donde las bases son un conjunto numerable de elementos {en (x)}, a espacios vectoriales de funciones con las bases dadas por funciones y donde el ´ındice n pasa a ser una variable continua. En el primer ejemplo de la Secci´ on 2.3.4 habl´abamos de un conjunto de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i · · · } definidas por: |e2n i = sen(nx),

y

con n = 1, 2, 3, · · ·

nπ 1 |en (x)i = √ ei L x , 2L

re lim

Esta base discreta de Fourier tambi´en la podemos escribir de la forma compleja como: con n = −∞ . . . ∞ y − L ≤ x ≤ L .

rP

Cuando L → ∞, y n aumentando tambi´en indefinidamente, la cantidad k = nπ L se va convirtiendo en una variable continua, es decir, ∆k = ∆nπ → 0. Notemos que los ´ ındices de la delta de Kronecker δnm pueden L Lk Lk0 tomar los valores: n = π , m = π , y en el proceso de L → ∞ se convertir´a en:     L π Lk Lk 0 − =δ (k − k 0 ) = δ (k − k 0 ) . δnn0 → δ π π π L De esta manera la base ortonormal quedar´a escrita en funci´on de las variables continuas k y x 1 |e(k, x)i = √ eikx . 2π

ad o

El hecho de que sean ortonormales se refleja en la siguiente condici´on (que es una extensi´on de la expresi´ on para el producto interno de bases discretas) Z b he(k, x)|e(k, x)i = e(k, x)∗ e(k 0 , x) dx = δ(k − k 0 ) , con α ≤ k ≤ β , a ≤ x ≤ b a

Bo rr

Al ser el conjunto de funciones {|e(k, x)i} una base, toda funci´on del mismo espacio vectorial se puede expandir en esa base como: Z β |f (x)i = C(k)e(k, x)dk α

En correspondencia con el caso de las bases discretas, el coeficiente C(k) viene a ser algo parecido a las componentes de |f (x)i. Y para calcularlas se procede como se muestra a continuaci´on: "Z # Z Z b

he(k 0 , x) |f (x)i =

β

e(k 0 , x)∗ f (x) dx =

a

b

e(k 0 , x)∗ e(k, x) dx dk

C(k) α

Z

a

β

=

C(k)δ(k − k 0 )dk = C(k 0 ) .

α

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

175

3.6. ESPACIOS DE FUNCIONES

Volvemos a cambiar la notaci´ on para los ´ındices: Z b C(k) = e(k, x0 )∗ f (x0 )dx0 , a

por lo tanto Z

β

0

C(k) |e(k, x)i dk =

|f (x)i =

"Z

b

Z

0 ∗

e(k, x ) e(k, x)dk dx0 =

f (x ) α

a

α

#

β

Z

b

f (x0 )δ(x − x0 )dx0 ,

a

y la relaci´ on β

e(k, x0 )∗ e(k, x)dk = δ(x − x0 )

in ar

Z

α

ser´ a la relaci´ on de cierre para el conjunto no numerable de funciones ortonormales. Una integral como la que nos permiti´ o definir C(k), digamos, del tipo Z b Z β 0 0 ∗ 0 F (k) = f (x )e(k, x ) dx ⇒ |f (x)i = F (k)e(k, x)dk a

α

re lim

es lo √que se denomina una transformada de f (x). M´as adelante veremos que si la base, es por ejemplo eikx / 2π, la transformada ser´ a la de Fourier. En el espacio vectorial de funciones de cuadrado integrable L2 , definidas en R3 tendremos que:  ∞ Z ∞ X

i i 3 0 ∗ 0 0 |F i = c |ei i ≡ e F i |ei i = d r ξi (r ) f (r ) |ei i −∞

i=0



 d3 r0 ξi∗ (r0 ) f (r0 ) ξi (r)

rP

que se reescribe en t´erminos de funciones como ∞ Z X f (r) =

−∞

i=0

Es claro que se pueden intercambiar los s´ımbolos de Z



R

y

"

∞ X

d3 r0 f (r0 )

f (r) =

ad o

−∞

P

, por lo cual #

ξi∗ (r0 ) ξi (r)

i=0

|

{z

G(r0 ,r)

}

Bo rr

la funci´ on G(r0 , r) que depende de los argumentos, r0 y r, vive dentro de las integrales y convierte Z ∞ f (r) = d3 r0 f (r0 ) G(r0 , r) Podemos ver entonces que:

Z

−∞ ∞

f (r) =

d3 r0 f (r0 ) δ(r0 − r)

−∞

En resumen, la generalizaci´ on de bases discretas a continuas se hace transformando el ´ındice de la sumatoria en la variable de una integral Z Z Z |Ψi = dα c (α) |wα i ⇒ c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β) As´ı, para los conceptos expresados hasta ahora se tiene el siguiente tabla resumen:

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

176

3.6. ESPACIOS DE FUNCIONES

Propiedad\Base Ortogonalidad Cierre Expansi´ on Componentes Producto Interno Norma

3.6.3.

Discreta ui |u i = δj i P∞ j 1 = j=0 |uj i uj P∞ |F i = i=0 ci |ui i ci = P ui F i ∞ hG| F i = i=0 g i∗ fi P∞ 2 hF | F i = i=0 |fi |

Continua hwβ |w R α i = δ (α − β) 1 = dα |wα i hwα | R |Ψi = dα c (α) |wα i c (β)R = hwβ |Ψi hG| F i = dα g ∗ (α) f (α) R 2 hF | F i = dα |f (α)|

Transformada de Fourier. Bases de ondas planas

in ar

En las teor´ıas de oscilaciones es de gran importancia considerar el problema de la transformada de Fourier. Recientemente vimos que una funci´ on f (x) puede representarse de la forma Z β C(k)e(k, x)dk , |f (x)i = α

−∞

Por lo tanto:

Z



f (x)e−ikx dx .

rP

1 |F(k)i = √ 2π

re lim

si la funci´ on f (x) est´ a definida en (−∞, ∞) y si tomamos al √ conjunto de vectores base como el conjunto de funciones continuas y ortonormales {e(k, x)} como {eikx / 2π}, entonces la integral anterior la podemos escribir de la forma: Z ∞ 1 F(k)eikx dk , |f (x)i = √ 2π −∞ R Si utilizamos la relaci´ on de ortogonalidad: he(k, x)|e(k, x)i = e(k, x)e(k 0 , x)∗ dx = δ(k − k 0 ), resulta: Z ∞ 0 ei(k−k )x dx = 2πδ(k − k 0 ) .

−∞

ad o

A las variables x y k se les denominan variables conjugadas de Fourier (no conjugadas como en variable compleja) y a F(k) la transformada de Fourier de f (x) (y viceversa). Notemos que si sustituimos F(k) en la otra integral: Z ∞Z ∞ Z ∞ 1 ik(x−x0 ) 0 0 f (x)e dk dx ⇒ |f (x )i = f (x)δ(x − x0 ) dx0 2π −∞ −∞ −∞

Bo rr

Podemos ver que la integral para F(k) la podemos hacer en dos partes: Z ∞ Z 0 Z ∞ 1 1 1 −ikx −ikx |F(k)i = √ f (x)e dx ⇒ √ f (x)e dx + √ f (x)e−ikx dx 2π −∞ 2π −∞ 2π 0 Si: x → −x, entonces

1 |F(k)i = √ 2π

Z 0



1 f (−x)eikx dx + √ 2π

Z



f (x)e−ikx dx

0

Dos casos podemos estudiar

Si la funci´ on es par, f (x) = f (−x): Z ∞  Z ∞ Z ∞ 2 1 f (x)eikx dx + f (x)e−ikx dx = √ f (x) cos(kx) dx |F(k)i = √ 2π 0 2π 0 0

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

177

3.6. ESPACIOS DE FUNCIONES

entonces, de la transformada al hacer F(k) = F(−k) se tiene Z ∞ 2 |f (x)i = √ F(k) cos(kx) dk , 2π 0 Estas dos funciones se conocen como las transformadas coseno de Fourier.

Ahora al hacer F(k) = −F(−k)



Z

2 |f (x)i = √ 2π

˜ F(k)sen(kx) dk ,

0

donde F˜ (k) = iF (k). Tenemos ahora las transformadas seno de Fourier. La generalizaci´ on a Rn es obvia. Si f = f (r), entonces 1 |f (r)i = √ 2π

 n1 Z

donde dk = dk1 dk2 dk3 . . . dkn . Para la transformada



Z



···

F(k)ei(k·r) dk ,

re lim



in ar

Si la funci´ on es impar, f (x) = −f (−x) Z ∞  Z ∞ Z ∞ 2i 1 ikx −ikx f (−x)e dx − f (−x)e dx = √ f (x)sen(kx) dx |F(k)i = √ 2π 0 2π 0 0

−∞

−∞

1 Z  Z ∞ 1 n ∞ ··· f (r)e−i(k·r) dr , |F(k)i = √ 2π −∞ −∞ donde dr = dx1 dx2 dx3 . . . dxn representa el elemento de volumen en Rn .

rP

Ondas planas: Como un ejemplo de lo anterior consideraremos la base de las ondas planas. Si a k la llamaremos s y a la variable x el tiempo t, vale decir Z ∞ Z ∞ 1 1 ist dt e f (t)  f (t) = √ ds e−ist F (s) F (s) = √ 2π −∞ 2π −∞

ad o

De esta manera, a la funci´ on F (s) se le denomina la distribuci´on espectral de f (t) y a |F (s)|2 la densidad espectral, es decir, la intensidad de la onda en el intervalo [s, s + ∆s]. Esto significa que la energ´ıa total es Z ∞ E= |F (s)|2 ds . −∞

Bo rr

Tambi´en podemos re-escribir las transformadas en t´erminos de la posici´on y el momento: Z ∞ Z ∞ 1 1 i(px/~) ¯ ¯ ψ (x) = √ dp e ψ (p)  ψ (p) = √ dx e−i(px/~) ψ (x) 2π~ −∞ 2π~ −∞

Hemos tenido cuidado de incluir los factores de normalizaci´on adecuados para el caso de las descripciones en mec´ anica cu´ antica. Estas f´ ormulas pueden ser re-interpretadas en funci´on de los conceptos anteriormente expuestos y podemos definir una base continua de la forma     Z ∞ Z ∞ 1 1 1 1 i(px/~) −i(px/~) ¯ ¯ √ √ √ √ dp e ψ (p)  ψ (p) = dx e ψ (x) ψ (x) = 2π~ −∞ 2π~ 2π~ −∞ 2π~ | {z } | {z } vp (x)

Hern´ andez & N´ un ˜ez

vp∗ (x)

Universidad de los Andes / Universidad Industrial de Santander

178

3.6. ESPACIOS DE FUNCIONES

por lo cual Z



dp vp (x) ψ¯ (p)

ψ (x) =

ψ¯ (p) =



Z

−∞



dx vp∗ (x) ψ (x) .

−∞

Diremos que la funci´ on ψ (x) est´ a expresada en la base de ondas planas vp (x) = N´ otese:

√ 1 ei(px/~) . 2π~

El ´ındice p de vp (x) var´ıa de forma continua entre −∞ a ∞.

in ar

1 ei(px/~) ∈ / L2 , es decir, no pertenece al espacio vectorial de funciones de cuadrado Que vp (x) = √2π~ integrable ya que su norma diverge Z ∞ Z ∞ 1 2 hvp | vp i = dx |vp (x)| = dx →∞ 2π~ −∞ −∞

Que las proyecciones de ψ (x) sobre la base de ondas planas es: ψ¯ (p) = hvp | ψi.



1 i[p(x0 −x)/~] e = δ (x0 − x) , 2π~

re lim

La relaci´ on de cierre para esta base se expresa como Z Z ∞ Z 1= dα |vα i hvα |  dp vp∗ (x0 ) vp (x) = −∞

−∞

dp

mientras que de la definici´ on de producto interno uno obtiene Z ∞ Z ∞ 1 i[x(p0 −p)/~] hvp0 | vp i = dx vp∗0 (x) vp (x) = dx e = δ (p0 − p) . 2π~ −∞ −∞

rP

En este mismo orden de ideas podemos construir otra base continua ξr0 (r) a partir de la utilizaci´ on de las propiedades de la delta de Dirac. Esto es Z ∞ Z ∞ 3  ψ (r0 ) = d3 r ψ (r) δ (r − r0 ) ψ (r) = d r0 ψ (r0 ) δ(r0 − r) | {z } −∞ −∞ ξr0 (r)

ad o

por lo cual la re-interpretaci´ on es inmediata Z ∞ ψ (r) = d3 r0 ψ (r0 ) ξr0 (r)

Z



ψ (r0 ) = hξr0 | ψi =

con

−∞

−∞

d3 r ξr∗0 (r) ψ (r)

Bo rr

m´ as a´ un la ortogonalidad queda garantizada por la relaci´on de cierre Z ∞ Z ∞ 3 ∗ 0 hξr0 | ξr0 i = d r0 ξr0 (r) ξr0 (r ) = d3 r0 δ (r − r0 ) δ (r0 − r0 ) = δ (r0 − r) −∞

−∞

al igual que

hξr0 | ξr00 =

Hern´ andez & N´ un ˜ez

Z



−∞

d3 r ξr∗0 (r) ξr00 (r) =

Z



d3 r δ (r − r0 ) δ (r − r00 ) = δ (r00 − r0 )

−∞

Universidad de los Andes / Universidad Industrial de Santander

179

3.6. ESPACIOS DE FUNCIONES

3.6.4.

Las representaciones |ri y |pi

A partir de las bases de ondas planas vp0 (x), y de distribuciones, ξr0 (r), construimos las llamadas representaciones |ri y |pi de la forma siguiente. Asociamos ξr0 (r)



|r0 i

vp0 (x)



|p0 i

re lim

in ar

De esta forma dada las bases {ξr0 (r)} y {vp0 (x)} para el espacio vectorial V definiremos dos “representaciones”, la representaci´ on de coordenadas, |r0 i , y la representaci´on de momentos |p0 i de V, respectivamente. De tal modo que Z ∞ hr0 | r00 i = d3 r ξr∗0 (r) ξr00 (r) = δ (r00 − r0 ) Z−∞ 1 = d3 r0 |r0 i hr0 | Z ∞ Z ∞ 1 −i(r0 ·p0 /~) e = δ (p00 − p0 ) hp0 | p00 i = d3 r vp∗00 (r) vp0 (r) = d3 r 2π~ −∞ −∞ Z 1 = d3 p0 |p0 i hp0 | Podemos, entonces expresar el producto interno para la representaci´on de coordenadas como Z  Z hΦ |Ψi = hΦ| d3 r0 |r0 i hr0 | |Ψi = d3 r0 φ∗ (r0 )ψ(r0 ) {z } |

rP

1

y equivalentemente para la representaci´ on de momentos Z  Z hΦ |Ψi = hΦ| d3 p0 |p0 i hp0 | |Ψi = d3 p0 φ∗ (p0 )ψ(p0 ) {z } |

ad o

1

por lo cual hemos encontrado que

Z

|Ψi =

d r0 |r0 i hr0 | Ψi =

ψ(r0 ) = hr0 |Ψi

Bo rr

Z

3

y

d3 p0 |p0 i hp0 | Ψi

ψ(p0 ) = hp0 |Ψi

que es la representaci´ on de |Ψi en coordenadas, ψ(r0 ), y en momentos, ψ(p0 ). Adicionalmente cuando |Ψi = |pi tendremos que Z  Z i 1 d3 r00 δ (r00 − r0 ) e ~ (p0 ·r0 ) hr0 |p0 i = hr0 | d3 r00 |r00 i hr00 | |p0 i = 3/2 (2π~) {z } | hr0 |p0 i =

Hern´ andez & N´ un ˜ez

1

1

(2π~)

3/2

e

i ~ (p0 ·r0 )

Universidad de los Andes / Universidad Industrial de Santander

180

3.6. ESPACIOS DE FUNCIONES

con lo cual ψ(p0 ) puede considerarse la transformada de Fourier de ψ(r0 ), y denotaremos de ahora en adelante las bases |r0 i ≡ |ri y |p0 i ≡ |pi. Estos ´ındices continuos, r0 y p0 , representan tres ´ındices continuos r (x, y, z) y p (px , py , pz ). La proyecci´ on de un vector abstracto |Ψi en la representaci´on |ri ser´a considerada como su expresi´on en el espacio de coordenadas, igualmente su proyecci´on hp |Ψi ser´a su expresi´on en el espacio de los momentos. Eso nos permitir´ a hacer corresponder los elementos de espacios vectoriales abstractos con elementos de un espacio vectorial de funciones. Por lo tanto todas las f´ormulas de proyecci´on quedan como hr |Ψi = ψ(r)

hp |Ψi = ψ(p)

y

Z

hr| r0 i = δ (r0 − r)

y

d3 r |ri hr|

1= Z

0

hp| pi = δ (p − p)

y

1=

in ar

mientras que las relaciones de cierre y ortonormalizaci´on

d3 p |pi hp| ,

Z hΦ|

re lim

Por su parte, la relaci´ on de cierre har´ a corresponder a la expresi´on de el producto interno de dos vectores, tanto en la representaci´ on de las coordenadas como en la representaci´on de momentos, en la forma  Z d r |ri hr| |Ψi = d3 r φ∗ (r) ψ(r) 3

m

hΦ |Ψi

hΦ|

m  Z ¯ d3 p |pi hp| |Ψi = d3 p φ¯∗ (p) ψ(p)

rP

Z

¯ donde φ¯∗ (p) y ψ(p) son las transformadas de Fourier de φ∗ (r) y ψ(r), respectivamente. La afirmaci´on anterior queda evidentemente demostrada del cambio entre las bases |ri y |pi. Esto es ∗

hr |pi = hp |ri =

Z

ψ(r) = hr |Ψi = hr|

Bo rr

e inversamente

Z

ψ(p) = hp |Ψi = hp|

3.6.5.

(2π~)

ad o

por lo cual

1

i

3/2

e ~ (p·r)

 Z d p |pi hp| |Ψi = d3 p hr |pi hp| Ψi = 3

3



d r |ri hr| |Ψi =

Z

1 (2π~)

Z

d3 r hp |ri hr| Ψi =

3/2

Z

1 3/2

i ¯ d3 p e ~ (p·r) ψ(p)

i

d3 r e− ~ (p·r) ψ(r) .

(2π~)

Ejercicios

1. Si

Hern´ andez & N´ un ˜ez

 1  0 x < − 2n 1 n − 2n < x < δn (x) =  1 0 x < 2n

1 2n

Universidad de los Andes / Universidad Industrial de Santander

181

3.6. ESPACIOS DE FUNCIONES

demuestre que Z



f (x)δn (x)dx ,

f (0) = l´ım

n→∞

−∞

para f (x) continua en x = 0. 2. Para δn (x) = demuestre lo siguiente Z

n 1 , π 1 + n2 x2



3. Si

2 2 n δn (x) = √ e−n x , π

demuestre que

4. Demuestre la siguiente relaci´ on Z

dδ(x) = −δ(x) dx



re lim

x

in ar

δn (x)dx = 1 −∞

δ 0 (x)f (x)dx = −f (0)

−∞

rP

5. Dadas las siguientes funciones ortonormales   1 1 √ sen(kx) , √ cos(kx) a) |e(k, x)i = con: 0 ≤ k < ∞ , −∞ ≤ x < ∞ π π   1 √ eikx con: − ∞ ≤ k < ∞ , −∞ ≤ x < ∞ b) |e(k, x)i = 2π a) Escriba las condiciones de ortogonalidad y cierre

Bo rr

ad o

b) Demuestre R∞ 1) −∞ sen(kx)sen(k 0 x)dx = πδ(k − k 0 ). R∞ 2) −∞ cos(kx) cos(k 0 x)dx = πδ(k − k 0 ). R∞ 3) −∞ sen(kx) cos(k 0 x)dx = 0.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

182

3.7. ALGUNOS EJEMPLOS RESUELTOS

3.7.

Algunos ejemplos resueltos

1. Encuentre las base dual para el siguiente espacio vectorial en V = R3 con base ortogonal: |e1 i = (1, 1, −1), |e2 i = (2, −1, 1), |e3 i = (0, −1, −1) Todo vector de ese espacio queda representado en esa base por         1 2 0 ξ 1 + 2ξ 2 |vi = ξ i |ei i = ξ 1  1  + ξ 2  −1  + ξ 3  −1  =  ξ 1 − ξ 2 − ξ 3  −1 1 −1 −ξ 1 + ξ 2 − ξ 3

in ar

Soluci´ on:

i Sea F ∈ V∗ , de manera

i que F [|vi] = ξ wi pueda representarse

por vectores fila F = (w1 , w2 , w3 ) y la base en dual como: e = (ai , bi , ci ). Adem´as sabemos que ei |ej i = δji

Por lo tanto: 

 1 e1 |e1 i = (a1 , b1 , c1 )  1  = a1 + b1 − c1 = 1 −1   2

1 e |e2 i = (a1 , b1 , c1 )  −1  = 2a1 − b1 + c1 = 0 1   0

1 e |e3 i = (a1 , b1 , c1 )  −1  = −b1 − c1 = 0 −1

rP

re lim



 1 (a2 , b2 , c2 )  1  = a2 + b2 − c2 = 0 −1   2

2 e |e2 i = (a2 , b2 , c2 )  −1  = 2a2 − b2 + c2 = 1 1   0

2 e |e3 i = (a2 , b2 , c2 )  −1  = −b2 − c2 = 0 −1

  a1 = 31 b1 = 31 ⇒  c1 = − 13



Bo rr

ad o

2 e |e1 i =

 1 e3 |e1 i = (a3 , b3 , c3 )  1  = a3 + b3 − c3 = 0 −1   2

3 e |e2 i = (a3 , b3 , c3 )  −1  = 2a3 − b3 + c3 = 0 1   0

3 e |e3 i = (a3 , b3 , c3 )  −1  = −b3 − c3 = 1 −1

  a2 = 31 b2 = − 61 ⇒  c2 = 61





Hern´ andez & N´ un ˜ez

  a3 = 0 b3 = − 21 ⇒  c3 = − 12

Universidad de los Andes / Universidad Industrial de Santander

183

3.7. ALGUNOS EJEMPLOS RESUELTOS





La base del dual es: e1 = ( 31 , 13 , − 13 ), e2 = ( 31 , − 16 , 16 ), e3 = (0, − 12 , − 12 ), de manera que





|F i = w1 e1 + w2 e2 + w3 e3

2. Dado los tensores:



1 Tij =  3 1

0 4 3

 2 1 , 4



 1 Ei =  4  3

in ar

Notemos que como era de esperarse         ξ 1 + 2ξ 2 ξ 1 + 2ξ 2

1 1 1 1 1 1 1   ξ1 − ξ2 − ξ3  = ξ2 ξ1 − ξ2 − ξ3  = ξ1 , , ,− ,− , e2 |vi = e |vi = 3 3 3 3 6 6 1 2 3 −ξ + ξ − ξ −ξ 1 + ξ 2 − ξ 3     ξ 1 + 2ξ 2

3 1 1  ξ1 − ξ2 − ξ3  = ξ3 e |vi = 0, − , − 2 2 −ξ 1 + ξ 2 − ξ 3

Soluci´ on:

La parte sim´etrica de Tij es:  1 1  1 3 Sij = [Tij + Tji ] = 2 2 1

  2 1 1 + 0 4 2

rP

Para la parte antisim´etrica de Tij :  1 1 1  3 Aij = [Tij − Tji ] = 2 2 1

0 4 3

re lim

Encuentre la parte sim´etrica y la parte amtisim´etrica de Tij y el producto Tij E j .

  1 2 1 + 0 2 4

3 8 4

  3 0 4 + 3 8 −1

ad o

Por lo tanto:

0 4 3



2 1 Tij = Sij + Aij =  3 2 3

3 4 1

3 4 1

  1 2 1 3  =  3 2 4 3

3 8 4

  1 0 −3 1 3  =  3 0 2 4 −1 2

−3 0 2

  1 1 −2  =  3 0 1

0 4 3

 3 4  8

 1 −2  0

 2 1  4

Bo rr

Para calcular Tij E j podemos hacer lo siguiente:   C1 = T11 E 1 + T12 E 2 + T13 E 3 = (1)(1) + (0)(4) + (2)(3) = 7 1 2 3 C2 = T21 E 1 + T22 E 2 + T23 E 3 = (3)(1) + (4)(4) + (1)(3) = 22 Ci = Ti1 E + Ti2 E + Ti3 E =  C3 = T31 E 1 + T32 E 2 + T33 E 3 = (1)(1) + (3)(4) + (4)(3) = 25

3. Dados los vectores:

e1 = i + j + 2k ,

e2 = i + 2j + 3k ,

e3 = i − 3j + 4k .

Diga si estos vectores son mutuamente ortogonales. Encuentre la base rec´ıproca ei , el tensor m´etrico en ambas bases y para el vector A = 3e1 + 2e2 + e3 encuentre sus componentes covariantes.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

184

3.7. ALGUNOS EJEMPLOS RESUELTOS

Soluci´ on:

Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: e1 · e2 = 9

e1 · e3 = 6

e2 · e3 = 7 .

Por lo tanto no son ortogonales. Por otro lado, sabemos que: ei =

ej × ek ei · (ej × ek )

Podemos calcular primero el denominador

Por lo tanto ei =

ej × ek V

 1 e =      e2 = ⇒      3 e =

V˜ = e1 · (e2 × e3 ) ⇒



e2 ×e3 V

=

e3 ×e1 V

= − 35 i + 13 j + 23 k

e1 ×e2 V

= − 61 i − 16 j + 16 k

17 6 i

− 16 j − 56 k

re lim

Notemos que

in ar

V = e1 · (e2 × e3 ) ⇒ (i + j + 2k) · ([i + 2j + 3k] × [i − 3j + 4k]) = 6

     17 1 5 5 1 2 1 1 1 1 i− j− k · − i+ j+ k × − i− j+ k = 6 6 6 3 3 3 6 6 6 6

e1 · e2 e2 · e2 e3 · e2

  35 e1 · e3 4 e2 · e3  =  − 16 3 7 e3 · e3 − 12

rP

El tensor m´etrico para la base rec´ıproca  1 1 e ·e ij ji i j 2  e · e1 g˜ = g˜ = e · e = e3 · e1

− 16 3

7 − 12

10 3 1 3

1 3 1 12

 

mientras que para la base original



ad o

e1 · e1 gij = gji = ei · ej =  e2 · e1 e3 · e1

e1 · e2 e2 · e2 e3 · e2

  e1 · e3 6 e2 · e3  =  9 6 e3 · e3

9 14 7

 6 7  26

Y como debe ser



6 ei · ej = gij =  9 6

9 14 7

  35 6 4 7   − 16 3 7 26 − 12

− 16 3 10 3 1 3

7 − 12 1 3 1 12





1 = 0 0

0 1 0

 0 0  1

Bo rr

Para un vector dado por: A = 3e1 + 2e2 + e3 = 6i + 4j + 16k = a1 i + a2 j + a3 k, podemos calcular sus componentes covariantes de la manera siguiente:   a1 = g11 a1 + g12 a2 + g13 a3 = (6)(6) + (9)(4) + (6)(16) = 168 j a2 = g21 a1 + g22 a2 + g23 a3 = (9)(6) + (14)(4) + (7)(16) = 222 ai = gij a =  a3 = g31 a1 + g32 a2 + g33 a3 = (6)(6) + (7)(4) + (26)(16) = 480

Esto es: A = a1 i + a2 j + a3 k = 168e1 + 222e2 + 480e3 =26i-34j+88k.

4. Repita los c´ alculos del ejercicio anterior pero con los vectores e1 = i + j + 2k ,

Hern´ andez & N´ un ˜ez

e2 = −i − j + k ,

e3 = 3i − 3j .

Universidad de los Andes / Universidad Industrial de Santander

185

3.7. ALGUNOS EJEMPLOS RESUELTOS

Soluci´ on:

Ortogonalidad: e1 · e2 = 0

e1 · e3 = 0

e2 · e3 = 0 .

Son ortogonales. Por otro lado, sabemos que: ei =

ej × ek ei · (ej × ek )

Podemos calcular primero el denominador

Por lo tanto ej × ek V

El volumen V˜ = e1 · (e2 × e3 ) ⇒



= 61 i + 16 j + 13 k

e3 ×e1 V

= − 31 i − 13 j + 13 k

e1 ×e2 V

= 61 i − 16 j

     1 1 1 1 1 1 1 1 1 i+ j+ k · − i− j+ k × i− j = 6 6 3 3 3 3 6 6 18

e1 · e2 e2 · e2 e3 · e2

  1 e1 · e3 6 e2 · e3  =  0 e3 · e3 0

0

rP

El tensor m´etrico para la base rec´ıproca  1 1 e ·e g˜ij = g˜ji = ei · ej =  e2 · e1 e3 · e1 para la base original

e2 ×e3 V

re lim

ei =

 1 e =      e2 = ⇒      3 e =

in ar

V = e1 · (e2 × e3 ) ⇒ (i + j + 2k) · ([−i − j + k] × [3i − 3j]) = 18

  e1 · e3 6 e2 · e3  =  0 0 e3 · e3

0 3 0



e1 · e1 gij = gji = ei · ej =  e2 · e1 e3 · e1

e1 · e2 e2 · e2 e3 · e2

1 3

0

 0 0 

1 18

 0 0  18

ad o

Para A = 3e1 + 2e2 + e3 = 4i − 2j + 8k = a1 i + a2 j + a3 k, sus componentes covariantes ser´an   a1 = g11 a1 = (6)(4) = 24 a2 = g22 a2 = (3)(−2) = −6 ai = gij aj =  a3 = g33 a3 = (18)(8) = 144 Esto es: A = a1 i + a2 j + a3 k = 24e1 − 6e2 + 144e3 =30i-18j+6k.

Bo rr

Notemos que si la base original hubiese sido ortonormal: √ √ e1 = (i + j + 2k)/ 6 , e2 = (−i − j + k)/ 3 ,

Entonces:



1 gij = g˜ij =  0 0

0 1 0

√ e3 = (3i − 3j)/ 18 .

  0  a1 = a1  0 a2 = a2 ⇒  a3 = a3 1

5. Demuestre que

δ(αx) = Hern´ andez & N´ un ˜ez

δ(x) , α

α > 0.

Universidad de los Andes / Universidad Industrial de Santander

186

3.7. ALGUNOS EJEMPLOS RESUELTOS

Soluci´ on: Z

Hagamos el siguiente cambio de variable y = αx.



Z



f (x)δ(αx)dx =

f

−∞

y

1 1 δ(y) dy = α α α

−∞

por lo tanto: δ(αx) =

Z



f −∞

y α

δ(y)dy =

f (0) = α

Z



f (x)δ(x)dx −∞

δ(x) α .

La condici´ on α > 0 es porque se debe tener en cuenta que la funci´on delta de Dirac es par, es decir, δ(αx) = δ(−αx). De manera que resulta m´as apropiado escribir: δ(x) . |α|

in ar

δ(αx) = 6. Demuestre que: δ(g(x)) =

X δ(x − α) |g 0 (α)|

α

g(α) = 0 ∧ g 0 (α) 6= 0 .

Podemos ver que para la funci´on g(x), en los intervalos donde se hace cero, se tiene

re lim

Soluci´ on:

,

g(x) ≈ g(α) + (x − α)g 0 (α) ,

−ε < α < ε

de manera que si sumamos para todos esos intervalos Z ∞ Z X Z α+ε 0 f (x)δ(g(x))dx = f (x)δ ((x − α)g (α)) dx = −∞

α



−∞

α−ε

f (x)

X δ (x − α) α

|g 0 (α)|

dx

rP

donde hemos utilizado el resultado del ejemplo anterior. Por lo tanto: δ(g(x)) =

X δ (x − α) α

|g 0 (α)|

.

ad o

7. Encuentre la transformada de Fourier de la funci´on

− nπ ω0 < t <

Bo rr

  sen(ω0 t)

f (t) =



0

Hern´ andez & N´ un ˜ez

nπ ω0

t < − nπ ω0 ∧ t >

⇒ nπ ω0

Figura 3.5: f (t) con: n = 6 y ω0 = π.

Universidad de los Andes / Universidad Industrial de Santander

187

3.7. ALGUNOS EJEMPLOS RESUELTOS

Soluci´ on: La funci´ on f (t) representa un tren de ondas finito con n ciclos en el intervalo dado. Por el hecho de ser f (t) una funci´ on impar, podemos utilizar la transformada seno de Fourier: 2 |F(ω)i = √ 2π

Z

nπ ω0

0

2 f (t)sen(ωt) dt = √ 2π

Z

nπ ω0

sen(ω0 t)sen(ωt) dt

0

in ar

Resolviendo la integral obtenemos la distribuci´on espectral       2 nπ ω nπ ω |F(ω)i = √ ω0 sen cos (nπ) − ω cos sen (nπ) ω0 ω0 2π (ω 2 − ω0 2 ) i i h h   nπ  sin nπ ω0 (ω0 + ω) 1  sin ω0 (ω0 − ω) = √ −  2(ω0 − ω) 2(ω0 + ω) 2π 

l´ım |F(ω)i = l´ım |F(ω)i = 0

ω0 →∞

ω→∞

re lim

Es f´ acil ver que

rP

Adem´ as, se puede apreciar que el primer t´ermino es el de relevancia debido a que en el denominador aparece la diferencia: ω0 − ω. En la Figura 3.6 se muestra la funci´ on de distribuci´on y en ella podemos notar que a medida que n crece la funci´on |F(ω)i es una delta de Dirac en ω = ω0 . Por otro lado, es f´ acil ver que los ceros ocurren cuando ω0 − ω 2 3 1 = ± ,± ,± ... ω0 n n n

Figura 3.6: F(ω) con: n = 6 y ω0 = π.

Soluci´ on:

ad o

8. Encontrar la transformada de Fourier de la derivada de una funci´on. Si

Z



−∞

F(k)eikx dk ⇒

d (ik)n |f (x)i = √ n dx 2π

Z



F(k)eikx dk .

−∞

Bo rr

1 |f (x)i = √ 2π

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

188

3.8. EJERCICIOS PROPUESTOS

3.8.

Ejercicios propuestos

1. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 2. Y si adem´as definimos Z 1 = p(x)dx , ζ 2 [|pi] = p0 (2) ∧ ζ 3 [|pi] = p(1) ζ 1 [|pi] = 0

donde {ζ 1 , ζ 2 , ζ 3 } ∈ V∗ . Encuentre una base {|e1 i , |e2 i , |e3 i} ∈ V que resulte dual a {ζ 1 , ζ 2 , ζ 3 }. 2. Sean |v1 i y |v2 i ∈ V y supongamos que F [|v1 i] = 0 implica que F [|v2 i] = 0 ∀ F ∈ V∗ . Muestre que |v2 i = α |v1 i con α ∈ K.

in ar

3. Sean F1 y F2 ∈ V∗ y supongamos que F1 [|vi] = 0 implica que F2 [|vi] = 0 ∀ |vi ∈ V. Muestre que F2 = αF1 con α ∈ K. 4. Dado Fijk un tensor totalmente antisimetrico respecto a sus ´ındices ijk, demuestre que el rotor de Fijk definido como sigue, tambi´en ser´ a un tensor ∂Fijk ∂Fjkm ∂j Fkmi ∂k Fmij − + − m i j ∂x ∂x ∂x ∂xk

re lim

rot [Fijk ] = ∂m Fijk − ∂i Fjkm + ∂j Fkmi − ∂k Fmij ≡ 5. El momento de inercia se define como Z   Iji = dvρ (r) δji xk xk − xi xj V

a) Muestre que Iji es un tensor

con xi = {x, y, z} y dv = dx dy dz

b) Encuentre la representaci´ on matricial para Iji

rP

c) Considere un cubo de lado l y masa total M tal que tres de sus aristas coinciden con un sistema de coordenadas cartesiano. Encuentre el tensor momento de inercia, Iji . 6. Para un sistema de n part´ıculas r´ıgidamente unidas, la cantidad de movimiento p y cantidad de movimiento angular L vienen definidas por

ad o

pα = mα vα = mα (ω × rα ) ≡ ijk ωj xk |ei i L=

X

(r × p)α ≡ ijk xk pk |ei i ;

α

Bo rr

con α = 1, 2, · · · , n, |ei i = {i, j, k} y xi = {x, y, z} Muestre que: P a) L = α mα [(r · r)α ω − rα (rα · ω)].   P b) Li = Iji ω j , donde Iji = α mα δji xk xk − xi xj es el tensor momento de inercia para un sistema de n part´ıculas r´ı gidamente unidas.

7. Dado un tensor gen´erico de segundo orden Tij . Demostrar     a) Que el determinante det [T] ≡ det Tji = T y la traza tr Tji = Tii son invariantes, en otras  i  i palabras, det Tj y tr Tj son escalares respecto a transformaciones de coordenadas.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

189

3.8. EJERCICIOS PROPUESTOS

b) Si definimos la matriz adjunta adj [A], como la traspuesta de la matriz de cofactores T    T i j adj [A] = (Ac ) ⇒ adj Aij = (Ac )j = (Ac )i i

donde la matriz de cofactores (Ac )j viene dada por a11 i  a21 Aj = a31 

a12 a22 a32

  1 (Ac )1 a13 2 c i 2  c  a3 ⇒ (A )j = (A )1 3 3 a3 (Ac )1

1

(Ac )2 2 (Ac )2 3 (Ac )2

1  (Ac )3 2 (Ac )3  3 (Ac )3

= (−1)

1+1

= (−1)

2+1

(Ac )1 = (−1)

3+1

2 (Ac )1

3

2 a2 3 a2

a23 a33

1 (Ac )2

1 a2 3 a2

a13 a33

2 (Ac )2

1 a2 2 a2

a13 a23

(Ac )2 = (−1)

3

= (−1)

1+2

= (−1)

2+2

2 a1 3 a1

a23 a33

1 (Ac )3

1 a1 3 a1

a13 a33

2 (Ac )3

= (−1)

1+3

= (−1)

2+3

re lim

1 (Ac )1

in ar

y los cofactores son

3+2

1 a1 2 a1

a13 a23

3

(Ac )3 = (−1)

3+3

2 a2 3 a2

a23 a33

1 a1 3 a1

a12 a32

1 a1 2 a1

a12 a22

rP

Para la transformaci´ on x ˜i = a xi con a un escalar constante, muestre que i adj[T ] 1) τji = T j es un tensor     2) Su determinante det τji = τ y su traza tr τji = τii , tambi´en ser´an invariantes. adj[τ i ] 3) Tji = τ j 4) τ T = 1

ad o

˜ (˜ 8. Dados dos sistemas de coordenadas ortogonales O (x, y, z) y O x, y˜, z˜), donde el sistema de ˜ coordenas O se obtiene rotando a O, π/6 alrededor del eje z, para rotarlo π/2 alrededor del eje x ˜ con lo cual los ejes y˜ y z coinciden. a) Si tenemos los vectores

A = i + 2j + 3k , B = 2i + j + 3k ˜ Expr´eselos en el sistema de coordenadas O (˜ x, y˜, z˜).

Bo rr

b) El tensor de esfuerzos (tensiones normales y tangenciales a una determinada superficie) se expresa en el sistema O (x, y, z) como   P1 0 P4 Pji =  0 P2 0  0 0 P3

˜ (˜ ¿Cu´ al ser´ a su expresi´ on en el sistema de coordenadas O x, y˜, z˜)?  9. Suponga un sistema de coordenadas ortogonales generalizadas q 1 , q 2 , q 3 las cuales tienen las siguiente relaci´ on funcional con las coordenadas cartesianas q 1 = x + y;

Hern´ andez & N´ un ˜ez

q 2 = x − y;

q 3 = 2z;

Universidad de los Andes / Universidad Industrial de Santander

190

3.8. EJERCICIOS PROPUESTOS

 a) Compruebe que el sistema q 1 , q 2 , q 3 conforma un sistema de coordenadas ortogonales b) Encuentre los vectores base para este sistema de coordenadas c) Encuentre el tensor m´etrico y el elemento de volumen en estas coordenadas.  d ) Encuentre las expresiones en el sistema q 1 , q 2 , q 3 para los vectores A = 2j ;

B = i + 2j ;

C = i + 7j + 3k

 e) Encuentre en el sistema q 1 , q 2 , q 3 la expresi´on para las siguientes relaciones vectoriales A × B;

A · C;

(A × B) · C

in ar

¿Qu´e puede decir si compara esas expresiones en ambos sistemas de coordenadas?

10. La relaci´ on entre las coordenadas cartesianas (x, y) y las coordenadas bipolares (ξ, ζ) viene dada por x=

a sinh(ξ) ; cosh(ξ) + cos(ζ)

y=

a sin(ζ) ; cosh(ξ) + cos(ζ)

con a = const

re lim

a) Compruebe si los vectores base para las coordenadas bipolares son ortogonales b) Encuentre el tensor m´etrico para las coordenadas bipolares

c) Escriba las componentes covariantes y contravariantes para los vectores: i, j y i + 2j. 11. Demuestre que si

δn (x) = entonces

Z

n π(1 + n2 x2 )



δn dx = 1 .

rP

−∞

12. Dada la siguiente sucesi´ on de funciones

1 δn (x) = 2nπ



sen(nx/2) sen(x/2)

2

ad o

Demuestre que δn (x) es una distribuci´on delta de Dirac al calcular "  2 # Z ∞ sen(nx/2) 1 f (x) l´ım dx = f (0) . n→∞ 2nπ −∞ sen(x/2)

Bo rr

13. Encuentre las transformadas de Fourier de las siguientes funciones: a)

f (x) =

 −x  e , 

0,

x>0 x

1 a



0,

Universidad de los Andes / Universidad Industrial de Santander

191

in ar

Bibliograf´ıa

[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edici´ on (Academic Press, Nueva York)

re lim

[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York) [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London: (Addison-Wesley Pub Co

rP

[6] Hauser, W (1971) Introduction to Principles of Electromagnetism Reading)

[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press)

ad o

[8] Santal´ o, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires) [9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres)

Bo rr

[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )

192

4

in ar

Cap´ıtulo

Bo rr

ad o

rP

re lim

Matrices, Determinantes y Autovectores

193

4.1. OPERADORES LINEALES

4.1.

Operadores Lineales

Definiremos como operador lineal (o transformaci´on lineal) a una operaci´on que asocia un vector |vi ∈ V1 un vector |v 0 i ∈ V2 y que respeta la linealidad, es decir esta funci´on de V1 →V2 cumple con |v 0 i = T |vi

T [α |v1 i + β |v2 i] = α T |v1 i + β T |v2 i

/



|v1 i y |v2 i ∈ V1

Sencillamente, algo que act´ ue sobre una suma de vectores en V1 y que es equivalente a la suma de sus actuaciones sobre los vectores suma, es decir, a la suma en V2 .

in ar

Ejemplos 1. Las siguientes transformaciones |x0 i = T |xi



(x0 , y 0 , z 0 ) = T {(x, y, z)}

claramente son lineales

re lim

T {(x, y, z)} = (x, 2y, 3z) →

T {a (x, y, z) + b (m, n, l)} = aT {(x, y, z)} + bT {(m, n, l)} T {(ax + bm, ay + bn, az + bl)} = a (x, 2y, 3z) + b (m, 2n, 3l) (ax + bm, 2 [ay + bn] , 3 [az + bl]) = (ax + bm, 2 [ay + bn] , 3 [az + bl]) T {(x, y, z)} = (z, y, x) →

T {a (x, y, z) + b (m, n, l)} = aT {(x, y, z)} + bT {(m, n, l)}

rP

T {(ax + bm, ay + bn, az + bl)} = a (z, y, x) + b (l, n, m)

(az + bl, ay + bn, ax + bm) = (az + bl, ay + bn, ax + bm)

Claramente,

ad o

2. Cosas tan sencillas como la multiplicaci´on por un n´ umero es una transformaci´on (u operador) lineal T : V → V tal que T |vi = |v 0 i = α |vi T [a |vi + b |wi] = aT |vi + bT |wi = aα |vi + bα |wi

Obviamente, si α = 1 tenemos la transformaci´on identidad que transforma todo vector en s´ı mismo; si α = 0 tendremos la transformaci´ on cero, vale decir que lleva a todo |vi ∈ V a al elemento cero |0i

Bo rr

3. La definici´ on de producto interno tambi´en puede ser vista como una transformaci´on (operador) lineal T:V→R T |vi = α hc |vi ≡ α Otra vez:

T [a |vi + b |wi] = hc| [a |vi + b |wi] = a hc |vi + b hc |wi

por lo tanto es lineal. Esto implica que tambi´en la proyecci´on de un determinado |vi ∈ V sobre un subespacio S es un operador lineal, y lo denotaremos como [|si hs|] |vi = hs |vi |si = |vs i

Hern´ andez & N´ un ˜ez

con |si y |vs i ∈ S

Universidad de los Andes / Universidad Industrial de Santander

194

4.1. OPERADORES LINEALES

esta idea se extiende f´ acil si para un proyector T : Vm → Sn con m > n de tal modo que para un vector |vi ∈ Vm



Pm |vi ≡ |ui i ui m |vi = ui |vim |ui i = |vm i con {hui |} base de Sn . Es claro que estamos utilizando la convenci´on de Einstein para la suma de ´ındices.

a trav´es de n × m n´ umeros, aij , organizados de la siguiente forma  i = 1, 2, · · · , m i i j y = aj x con j = 1, 2, · · · , n una vez m´ as,

in ar

4. Las ecuaciones lineales tambi´en pueden verse como transformaciones lineales. Esto es, considere una transformaci´ on lineal T : Vn → Vm . Por lo tanto asociaremos    |yi = T |xi ⇒ y 1 , y 2 , y 3 , · · · , y m = T x1 , x2 , x3 , · · · , xn

re lim

   T [α |vi + β |wi] = T α v 1 , v 2 , v 3 , · · · , v n + β w1 , w2 , w3 , · · · , wn = αaij v j + βaij wj   = T αv 1 + βw1 , αv 2 + βw2 , αv 3 + βw3 , · · · , αv n + βwn  j = aij (αv + βw) = αaij v j + βaij wj = aij αv j + βwj

5. La derivada es un operador lineal. As´ı podemos representar el operador lineal diferenciaci´on como |v 0 i = T |vi

|y 0 i = D |yi



es claro que



D [y(x)] ≡

dy(x) d [y(x)] ≡ ≡ y 0 (x) dx dx

rP

D [αf (x) + βg(x)] = αD[f (x)] + βD[g(x)] ≡ αf 0 (x) + βg 0 (x) igualmente podemos asociar un operador diferencial de cualquier orden a una derivada del mismo orden, esto es

|y 000 i = D3 |yi

Bo rr

.. . E (n) = Dn |yi y

d2 d2 y(x) [y(x)] ≡ ≡ y 00 (x) dx2 dx2 d3 y(x) d3 [y(x)] ≡ ≡ y 000 (x) D3 [y(x)] ≡ 3 dx dx3

D2 [y(x)] ≡



ad o

|y 00 i = D2 |yi



Dn [y(x)] ≡



dn dn y(x) [y(x)] ≡ ≡ y (n) (x) n dx dxn

6. Igualmente, cualquier ecuaci´ on diferencial lineal es un ejemplo de operador lineal, esto es  y 00 − 3 y 0 + 2 y = D2 − 3D + 2 y(x) es claro que si y(x) = αf (x) + g(x) la linealidad es evidente 00

0

(αf (x) + g(x)) − 3 (αf (x) + g(x)) + 2 (αf (x) + g(x)) = α (f 00 − 3 f 0 + 2 f ) + g 00 − 3 g 0 + 2 g 2

↑↓

  D − 3D + 2 (αf (x) + g(x)) = D − 3D + 2 αf (x) + D2 − 3D + 2 g(x) . Hern´ andez & N´ un ˜ez



2

Universidad de los Andes / Universidad Industrial de Santander

195

4.1. OPERADORES LINEALES

7. La integral tambi´en es un operador lineal Z g(x) =

x

f (t)dt

T {f (t)}



a

8. Otro ejemplo t´ıpico son los operadores de transformaciones integrales b

Z

K (s, t) f (t)dt

F (s) =



T {f (t)}

a

in ar

donde K (s, t) es una funci´ on conocida de s y t, denominada el n´ ucleo de la transformaci´on. Si a y b son finitos la transformaci´ on se dir´ a finita, de lo contrario infinita. ∞ As´ı, si f (t) = αf1 (t) + f2 (t) con f1 (t) y f2 (t) ∈ C[a,b] es obvio que:

Z F (s)

b

Z K (s, t) [αf1 (t) + βf2 (t)] = α

= a

a

= αF (s1 ) + βF (s2 )

b

Z

K (s, t) f1 (t)dt + β

K (s, t) f2 (t)dt

a

T {[αf1 (t) + βf2 (t)]} = αT {f1 (t)} + βT {f2 (t)}



re lim

F (s)

b

Dependiendo de la selecci´ on del n´ ucleo y los limites tendremos distintas transformaciones integrales. En F´ısica las m´ as comunes son: F (s) = T {f (t)}

Nombre Laplace

R∞

F (s) =



Z

sen(st) f (t)dt cos(st)

F (s) =

0

Z

Fourier compleja

e−st f (t)dt

rP

Fourier de senos y cosenos

0

f (t) = T−1 {F (s)}

f (t) =

1 2πi

Z



F (s) =

e

f (t)dt

Z

tJn (st)f (t)dt

e−ist F (s)ds

−∞



F (s) =



f (t) = ∞

Z f (t) =

0

sJn (ts)F (s)ds 0

Z

F (s) =



ts−1 f (t)dt

0

f (t) =

1 2πi

R γ+i∞ γ−i∞

s−t F (s)ds

Bo rr

Mellin

ad o

Hankel

est F (s)ds

sen(st) F (s)ds cos(st)

0

−∞

Z

γ−i∞

f (t) =



ist

R γ+i∞

4.1.1.

Espacio vectorial de operadores lineales

Un conjunto de operadores lineales {A, B, C · · · } : V1 →V2 puede constituir un espacio vectorial lineal si se dispone entre ellos de la operaci´ on suma y la multiplicaci´on por un n´ umero. As´ı, claramente, dado {A, B, C · · · }, y definida   A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i (χA + B) |vi ≡ χA |vi + B |vi /  B [α |v1 i + β |v2 i] = α B |v1 i + β B |v2 i

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

196

4.1. OPERADORES LINEALES

es directo comprobar que (χA + B) [α |v1 i + β |v2 i] = χA [α |v1 i + β |v2 i] + B [α |v1 i + β |v2 i] = χ (α A |v1 i + β A |v2 i) +α B |v1 i + β B |v2 i = χ (α A |v1 i +α B |v1 i) + β A |v2 i + β B |v2 i ⇓ (χA + B) [α |v1 i + β |v2 i] = χA [α |v1 i + β |v2 i] + B [α |v1 i + β |v2 i] Igualmente, se cumple que con A + B + C lineales en V [(A + B) + C] |vi = (A + B) |vi + C |vi



= A |vi + B |vi + C |vi = A |vi + (B + C) |vi

|vi ∈ V1

re lim

= [A+ (B + C)] |vi ,

in ar

(A + B) + C = A+ (B + C)

del mismo modo se puede comprobar f´ acilmente

A+B=B+A

Ahora bien, si definimos la transformaci´ on cero de V1 →V2 tal que |0i = O |vi



|vi ∈ V1

rP

le asigna a el vector |0i ∈ V2 ∀ |vi ∈ V1 , entonces el operador lineal O ser´a el elemento neutro respecto a la suma de operadores. Finalmente, el elemento sim´etrico queda definido por (−A) |vi = −A |vi



(A − A) |vi = O |vi = |0i

4.1.2.

ad o

Con ello queda demostrado que los operadores lineales forman un espacio vectorial el cual de ahora en adelante denominaremos L (V1 , V2 ) .

Composici´ on de operadores lineales

El producto o composici´ on de dos operadores lineales, A y B se denotar´a AB y significar´a que primero se aplica B y al resultado se aplica A. Esto es

Bo rr

AB |vi = A (B |vi) = A |˜ v i = |˜ v0 i

La composici´ on de funciones cumple con las siguientes propiedades (AB) C = A (BC) ;

α (AB) = (αA) B = A (αB) ;

(A1 + A2 ) B = A1 B + A2 B ;

A (B1 + B2 ) = AB1 + AB2

Es decir, que la composici´ on de operadores es asociativa y distributiva a la suma y que conmuta respecto a la multiplicaci´ on por n´ umeros. Por otro lado si I es el operador Identidad I |vi = |vi

Hern´ andez & N´ un ˜ez



AI = IA = A .

Universidad de los Andes / Universidad Industrial de Santander

197

4.1. OPERADORES LINEALES

En general AB 6= BA, por lo tanto podemos construir el conmutador de estos operadores como [A, B] = AB − BA

/

[AB − BA] |vi = AB |vi − BA |vi

Es inmediato comprobar algunas de las propiedades m´as u ´tiles de los conmutadores: [A, B] = − [B, A] [A, (B + C)] = [A, B] + [A, C] [A, BC] = [A, B] C + B [A, C]

in ar

0 = [A, [B, C]] + [B, [C, A]] + [C, [A, B]] Dados dos vectores |v1 i y |v2 i definiremos como el elemento de matriz del operador A al producto interno de dos vectores hv2 | (A |v1 i) ≡ A(|v1 i,|v2 i) ,

A : V1 → V2 denominada isomorf´ısmo, tal que: 1. A es biyectiva

re lim

es claro que A(|v1 i,|v2 i) ser´ a en general un n´ umero complejo, pero esto lo veremos detalladamente en la Secci´ on 4.2. Diremos que dos espacios vectoriales V1 , V2 son isomorfos si existe una transformaci´on ⇒

|v 0 i = A |vi ,

2. A es lineal: A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i



|v1 i y |v2 i ∈ V1 .

rP

El que A sea biyectiva nos garantiza que existe la transformaci´on inversa A−1 , que tambi´en ser´a biyectiva. Es decir, podr´ıamos hablar de manera equivalente de una transformaci´on F : V2 → V1 . Volveremos a este tema m´ as adelante. Ejemplos

ad o

1. Potencias de Operadores: Uno de los ejemplos m´as u ´tiles en la composici´on de operadores lo constituyen las potencias de los operadores, las cuales provienen de la aplicaci´on consecutiva de un mismo operador, A0 = I ;

A1 = A ;

A2 = AA ;

A3 = A2 A = AAA ; · · ·

Bo rr

es claro que las potencias de operadores cumplen las propiedades est´andares de las potencias de n´ umeros An+m = An Am ;

m

(An )

= Anm .

Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0 del tipo An |vi = |0i ∀ |vi ∈ V1 y |0i ∈ V2 . Es decir, un operador que lleva cualquier vector |vi al elemento neutro de V2 . El ejemplo m´ as notorio es el operador diferencial Dn P n−1 = |0i



dn  i  dn P (x) = ai x = 0 , n−1 dxn dxn

con P n−1 perteneciente al espacio de polinomios de grado n − 1.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

198

4.1. OPERADORES LINEALES

∞ 2. Operador Ecuaciones Diferenciales. Si consideramos el espacio de funciones f (x) ∈ C[a,b] podemos construir un operador diferencial     dn d2 d + a2 2 + · · · + an n f (x) , a0 + a1 D + a2 D2 + · · · + an Dn |f i ⇒ a0 + a1 dx dx dx

con {a0 , a1 , a2 , · · · an } coeficientes constantes. De este modo, por ejemplo  2   d d − 3 D2 − 3D + 2 y = (D − 1) (D − 2) y ⇒ + 2 y(x) = y 00 − 3 y 0 + 2 y . dx2 dx

Proyectores

in ar

4.1.3.

re lim

La notaci´ on de Dirac se hace particularmente conveniente para representar proyectores. Hasta ahora, hemos relacionado un funcional lineal, un bra hw| del espacio dual V∗ , con un vector ket |vi del espacio vectorial V a trav´es de su producto interno hw| vi, el cual es, en general, un n´ umero complejo. Ahora escribiremos esta relaci´ on entre vectores y formas diferenciales de una manera diferente: la relaci´on entre hw| y |vi un ket |Ψi o un bra hΦ| arbitrarios puede ser   |vi hw| Ψi |vi hw| ⇒  hΦ |vi hw| La primera ser´ a la multiplicaci´ on del vector |vi por el n´ umero complejo hw| Ψi, mientras que la segunda relaci´ on ser´ a la multiplicaci´ on de la forma hw| por el complejo hΦ |vi. Es imperioso se˜ nalar que el orden en la escritura de los vectores y formas es cr´ıtico, s´olo los n´ umeros complejos λ se pueden mover con impunidad a trav´es de estas relaciones λ hw| = hλw| = hw| λ

rP

λ |vi = |λvi = |vi λ,

hw| λ |vi = λ hw| vi = hw| vi λ

y

A |λvi = Aλ |vi = λA |vi .

Por lo tanto, dado un vector |vi, podemos construir un proyector P|vi a lo largo del vector |vi con hv| vi = 1 ,

ad o

P|vi ≡ |vi hv| ,

siempre y cuando este operador lineal cumpla P|vi [α |z1 i + β |z2 i] |vi hv| [α |z1 i + β |z2 i]

Bo rr

adem´ as:

P2|vi

= α P|vi |z1 i + β P|vi |z2 i

= |vi hv| α |z1 i + |vi hv| β |z2 i = α |vi hv |z1 i + β |vi hv |z2 i ,

= P|vi

P|vi P|vi |zi =

⇐⇒

(|vi hv|) (|vi hv|) = |vi hv|

(|vi hv|) (|vi hv|) |zi = |vi hv |vi hv |zi = |vi hv |zi = P|vi |zi . | {z } 1

As´ı, el operador P|vi actuando sobre el vector |Ψi representar´a la proyecci´on de |Ψi a lo largo de |vi P|vi |Ψi = |vi hv| Ψi ≡ hv| Ψi |vi .

Es inmediato construir un proyector de un vector sobre un subespacio Sq . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

199

4.1. OPERADORES LINEALES

Sea {|e1 i , |e2 i , |e3 i , · · · , |eq i} un conjunto ortonormal de vectores que expande Sq , por lo tanto, definiremos el proyector Pq al proyector sobre el subespacio Sq de la forma

Pq = |ei i ei q , es claro que P2q = Pq : δji





z }| {

P2q |vi = Pq Pq |vi ⇒ P2q |vi = |ei i ei q |ej i ej q |vi = |ei i ei |ej i ej |vi = |ej i ej |vi ≡ Pq |vi 

4.1.4.

in ar

∀ |vi ∈ V.

Funciones de operadores

Bas´ andonos en el primero de los ejemplos anteriores se puede construir un “polinomio” en potencias de los operadores:

re lim

Pn (x) = a0 + a1 x + a2 x2 + · · · + an xn = ai xi     Pn (A) |vi = a0 + a1 A + a2 A2 + · · · + an An |vi = ai Ai |vi ∀ |vi ∈ V1 .

Lo anterior nos permite extender la idea de operadores a funciones de operadores, es decir, si nos saltamos todos los detalles de convergencia de la serie anterior, los cuales depender´an de los autovalores de A y de su radio de convergencia; entonces, as´ı como podemos expresar cualquier funci´on F (z) como una serie de potencias de z en un cierto dominio, podremos expresar la funci´on de un operador, F (A), como una serie de potencias del operador A, esto es   F (z) = ai z i  F (A) |vi = ai Ai |vi .

rP

Por ejemplo, podemos expresar

#   ∞ X A An An |vi = I + A + + · · · + · · · |vi . e |vi = n! 2! n! n=0 "

A

ad o

En este caso hay que hacer una acotaci´ on, dado que, en general, [A, B] 6= 0 ⇒ eA eB 6= eB eA 6= eA+B . Esta afirmaci´ on se corrobora de manera inmediata al desarrollar las exponenciales "∞ #" ∞ # "∞ ∞ # X An X Bm X X An Bm eA eB |vi = |vi = |vi , n! m! n! m! n=0 m=0 n=0 m=0 ∞ X Bn e e |vi = n! n=0

"

Bo rr

B A

# "∞ ∞ # ∞ X X X Bn Am Am |vi = |vi , m! n! m! m=0 n=0 m=0

#"

# ∞ n X (A + B) eA+B |vi = |vi , n! n=0 "

s´ olo en el caso que [A, B] = 0 ⇒ eA eB = eB eA = eA+B . La demostraci´ on es inmediata pero requiere expandir y rearreglar las sumatorias arriba expuestas. M´ as adelante, en la Secci´ on 4.3.2, demostraremos con detalle la relaci´on de Glauber: 1

eA eB = eA+B e 2 [A,B] . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

200

4.1. OPERADORES LINEALES

4.1.5.

Espacio Nulo e Imagen

El conjunto de todos los |vi ∈ V1 / A |vi = |0i, se denomina espacio nulo, n´ ucleo o kernel (n´ ucleo en alem´ an) de la transformaci´ on A y lo denotaremos como ℵ (A). En s´ımbolos diremos que ℵ (A) = {|vi ∈ V1



A |vi = |0i} .

in ar

Adicionalmente, ℵ (A) ⊂ V1 ser´ a un subespacio de V1 . La prueba de esta afirmaci´on es inmediata. Dados |v1 i , |v2 i ∈ ℵ (A), con A un operador lineal, es claro que  A |v1 i = |0i  ⇒ α1 A |v1 i + α2 A |v2 i = |0i = A (α1 |v1 i + α2 |v2 i) ,  A |v2 i = |0i por la misma raz´ on se tiene que el elemento neutro est´a contenido en ℵ (A), esto es A |α vi = |0i



|vi ∈ V1





α



A |0i = |0i

si α = 0 ,

re lim

por lo tanto, queda demostrado que ℵ (A) es un subespacio de V1 . Por otra parte, definiremos imagen (rango o recorrido) de A, y la denotaremos como = (A) = {|v 0 i ∈ V2



A |vi = |v 0 i} ,

igualmente = (A) ⊂ V2 tambi´en ser´ a un subespacio de V2 ya que si |vi = α1 |v1 i + α2 |v2 i y dado que A es un operador lineal, se cumple que  

rP

  A α1 |v1 i + α2 |v2 i = α1 A |v1 i + α2 A |v2 i = α1 |v10 i + α2 |v20 i . | {z } | {z } | {z } | {z } |vi |v 0 i |v10 i |v20 i Es claro que si V es de dimensi´ on finita, A {V} = n tambi´en ser´a de dimensi´on finita n y tendremos que dim [ℵ (A)] + dim [= (A)] = dim [V] ,

Bo rr

ad o

vale decir, que la dimensi´ on del n´ ucleo m´ as la dimensi´on del recorrido o imagen de una transformaci´on lineal es igual a la dimensi´ on del dominio. Para demostrar esta afirmaci´ on supongamos que dim [V] = n y que {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V es una base de ℵ (A), donde k = dim [ℵ (A)] ≤ n. Como {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V estos elementos forman base, y por lo tanto, son linealmente independientes, necesariamente ellos formar´ an parte de una base mayor de V. Esto es: {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} ∈ V ser´a una base de V donde k+r = n. El esquema de la demostraci´ on ser´ a: primero probaremos que {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} forman una base para A {V} luego demostraremos que dim [A {V}] = r y como hemos supuesto que k + r = n habremos demostrado la afirmaci´ on anterior.

Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} entonces cualquier elemento |wi ∈ A {V} / |wi = A |vi = C i |Aei i , con |Aei i = A |ei i

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

201

4.1. OPERADORES LINEALES

Ahora bien, analicemos con cuidado los l´ımites de la suma impl´ıcita del ´ındice i = 1, 2, · · · , k + r |wi = C i |Aei i = C 1 |Ae1 i + C 2 |Ae2 i + · · · + C k |Aek i + C k+1 |Aek+1 i + · · · + C k+r |Aek+r i | {z } =|0i

ya que A|e1 i=A|e2 i=A|e3 i···=A|ek i=|0i

Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V}. Ahora bien, para demostrar que son base, demostraremos que son linealmente independientes, para ello supondremos que  k+1 k+2 ∃ C ,C , · · · , C k+r / C i |Aei i = 0 con i = k + 1, k + 2, · · · , k + r

in ar

y tenemos que demostrar que C k+1 = C k+2 = · · · = C k+r = 0. Entonces  C i |Aei i = C i A |ei i = A C i |ei i = 0 con i = k + 1, k + 2, · · · , k + r

por lo tanto el elemento |vi = C i |ei i ∈ ℵ (A) con i = k + 1, k + 2, · · · , k + r. Con lo cual, dado que ∀ |vi ∈ ℵ (A) , |vi = C i |ei i con i = 1, 2, · · · , r, entonces se puede hacer la siguiente resta k X i=1

k+r X

C i |ei i −

C i |ei i

i=k+1

re lim

|vi − |vi =

y como los {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} son una base de V entonces las C k+1 = C k+2 = · · · = C k+r = 0. Ejemplos

1. Transformaciones Identidad: Sea I : V1 →V2 , la transformaci´on identidad, |vi ∈ V1

/

I |vi = |vi



ℵ (I) = {|0i} ⊂ V1

rP



ad o

2. Sistemas de ecuaciones lineales: En Vn las soluciones a sentan el espacio nulo, ℵ (A), para vectores de Vn   A11 A12 · · · A1n  A21 A22  ···    A |xi = |0i   .   . ..  ..  An1

An2

Ann



= (I) ≡ V1

los sistemas de ecuaciones lineales reprex1 x2 .. . xn





    =  

0 0 .. .

     Aij xi = 0 , 

0

con j ecuaciones (j = 1, 2, · · · , n). Recordemos que estamos utilizando la convenci´on de Einstein para suma de ´ındices.

Bo rr

2 3. Ecuaciones diferenciales ordinarias: Sea C[−∞,∞] el espacio vectorial de todas las funciones con2 tinuas doblemente diferenciables. Definimos A : C[−∞,∞] → C[−∞,∞] como la transformaci´on lineal  2 2 D − 1 tal que para todas las y(x) ∈ C[−∞,∞] se cumple

A |xi = |0i



 D2 − 1 y(x) = 0

 

 d2 − 1 y(x) = y 00 − y = 0 . dx2

El n´ ucleo o espacio nulo de A, ℵ (A), lo constituyen el conjunto de soluciones para la mencionada ecuaci´ on diferencial. Por lo tanto, el problema de encontrar las soluciones de la ecuaci´on diferencial es equivalente a encontrar los elementos del n´ ucleo de A.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

202

4.1. OPERADORES LINEALES

4.1.6.

Operadores biyectivos e inversos

Se dice que A : V1 →V2 es biyectivo (uno a uno o biun´ıvoco) si dados |v1 i , |v2 i ∈ V1 , ∧ |v 0 i ∈ V2 , se tiene que A |v1 i = |v 0 i ∧ A |v2 i = |v 0 i ⇒ |v1 i = |v2 i ,

1

2

in ar

es decir, ser´ a biyectiva si A transforma vectores distintos de V1 en vectores distintos de V2 . M´as a´ un, se puede afirmar que una transformaci´ on lineal A, ser´a biyectiva si y s´olo si ℵ (A) = {|0i}. Vale decir, si el subespacio nulo est´ a constituido, u ´nicamente por el elemento neutro del espacio vectorial. La demostraci´ on es sencilla. Supongamos que A es biyectiva y que A |vi = |0i, entonces |vi = |0i, es decir, A |0i = |0i, por consiguiente ℵ (A) = {|0i}. Rec´ıprocamente, si    ℵ (A) = {|0i}    ∧ ⇒ A |v1 i − A |v2 i = |0i = A |v1 i − |v2 i ⇒ |v1 i = |v2 i .  | {z } A |v1 i = A |v2 i |v i−|v i=0

rP

re lim

La importancia de las transformaciones lineales uno a uno o biyectivas reside en la posibilidad de definir inversa, debido a que siempre existe en V2 un vector |v 0 i asociado a trav´es de A con un vector |vi ∈ V1 . Diremos que A−1 : V2 →V1 es el inverso de A, si A−1 A = I = AA−1 . Habr´ıa que hacer un par de comentarios al respecto. El primero es que, tal y como hemos enfatizado arriba, en general, los operadores no conmutan entre si, y los inversos no son una excepci´on. Es decir, deber´ıan existir (y de hecho existen) inversas por la izquierda A−1 A e inversas por la derecha AA−1 . Por simplicidad e importancia en F´ısica obviaremos esta dicotom´ıa y supondremos que A−1 A = I = AA−1 . El segundo comentario tiene que ver con la existencia y unicidad del inverso de un operador lineal. Algunos operadores tienen inverso, otros no, pero aquellos quienes tienen inverso, ese inverso es u ´nico. Veamos, supongamos que  A−1 1 A |vi = |vi   −1 −1 −1 −1 ∧ A |vi ⇒ A−1 ⇒ A−1 1 = A2 . 1 A |vi − A2 A |vi = |0i = A1 − A2  | {z } A−1 2 A |vi = |vi −1 −1 A1 =A2

ad o

Ahora bien, un operador lineal A tendr´a inverso s´ı y s´olo s´ı para cada vector |v 0 i ∈ V2 ∃ |vi ∈ V1 / A |vi = |v 0 i. Es decir, cada vector |v 0 i est´a asociado con uno y s´olo un vector |vi a trav´es de la transformaci´ on lineal A. Dejaremos sin demostraci´on esta afirmaci´on pero lo importante es recalcar que para que exista inverso la transformaci´ on lineal A, tiene que ser biyectiva y esto implica que se asocia uno y s´ olo un vector de V1 con otro de V2 . Todav´ıa podemos a˜ nadir algunas demostraciones consecuencias de las afirmaciones anteriores. Sea la transformaci´ on lineal T : V1 → V2 y supongamos adem´as que T ∈ L (V1 , V2 ). Entonces las siguientes afirmaciones son v´ alidas y equivalentes

Bo rr

1. T es biyectiva en V1

2. T es invertible y su inversa T−1 : T {V1 } → V1 es lineal

3. ∀ |vi ∈ V1 , T {|vi} = |0i ⇒ |vi = |0i esto es, el espacio nulo ℵ (T) u ´nicamente contiene al elemento neutro de V1 .

Si ahora suponemos que V1 tiene dimensi´on finita, digamos dim [V1 ] = n, las siguientes afirmaciones ser´ an v´ alidas y equivalentes 1. T es biyectiva en V1 Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

203

4.1. OPERADORES LINEALES

2. Si {|u1 i , |u2 i , |u3 i , · · · |un i} ∈ V1 son linealmente independientes, entonces, el conjunto de transformaciones lineales: {T {|u1 i} , T {|u2 i} , T {|u3 i} , · · · T {|un i}} ∈ T {V1 } tambi´en ser´a linealmente independientes. 3. dim [T {V1 }] = n. 4. Si {|e1 i , |e2 i , |e3 i · · · |en i} ∈ V1 es una base de V1 , entonces {T {|e1 i} , T {|e2 i} , T {|e3 i} · · · T {|en i}} ∈ T {V1 } es una base de T {V1 }.

4.1.7.

Operadores herm´ıticos conjugados (hw| A) |vi = hw| (A |vi) , | {z } | {z } hw0 |

|v 0 i

in ar

Definiremos la acci´ on de un operador A sobre un bra de la forma siguiente

hw| = λ1 hz1 | + λ2 hz2 |

re lim

por lo cual, lo que estamos diciendo es que no importa donde opere A. Recordemos que cada vector en V tiene asociado un vector en V∗ . Podemos demostrar que A operando sobre los bra es lineal. Esto es, dado

(hw| A) |vi ≡ (λ1 hz1 | + λ2 hz2 | A) |vi = (λ1 hz1 | + λ2 hz2 |) (A |vi) = λ1 hz1 | (A |vi) + λ2 hz2 | (A |vi) = λ1 (hz1 | A) |vi + λ2 (hz2 | A) |vi .

rP

Siguiendo con esta l´ ogica podemos construir la acci´on del operador herm´ıtico conjugado, A† . Para ello recordamos que igual que a cada vector (ket) |vi le est´a asociado una forma lineal (bra) hv|, a cada ket transformado A |vi = |v 0 i le corresponder´ a un bra transformado hv 0 | = hv| A† . Por lo tanto |vi

0

|v i = A |vi

⇐⇒

⇐⇒

hv|

hv 0 | = hv| A† .

ad o

Ahora bien, si A es lineal, A† tambi´en lo ser´a, dado que a un vector |wi = λ1 |z1 i + λ2 |z2 i le corresponde un bra hw| = λ∗1 hz1 | + λ∗2 hz2 | (la correspondencia es antilineal). Por lo tanto, |w0 i = A |wi = λ1 A |z1 i + λ2 A |z2 i , por ser A lineal, entonces |w0 i ⇐⇒ hw0 | ≡ hw| A† = (λ∗1 hz1 | + λ∗2 hz2 |) A† ≡ λ∗1 hz10 | + λ∗2 hz20 | = λ∗1 hz1 | A† + λ∗2 hz2 | A† . Es claro que de la definici´ on de producto interno en la notaci´on de Dirac, se desprende ∗



Bo rr

hx0 | yi = hy| x0 i



|x0 i = A |xi , |yi ∈ V ⇒ hx| A† |yi = hy| A |xi ∀ |xi , |yi ∈ V .

Igualmente se pueden deducir las propiedades de los operadores herm´ıticos conjugados A†

†

= A;



(λA) = λ∗ A† ;



(A + B) = A† + B† ;



(AB) = B† A† .

Esta u ´ltima propiedad es f´ acilmente demostrable y es educativa su demostraci´on. Dado que |v 0 i = AB |vi, y adem´ as se tiene que  |¯ v i = B |vi  † ⇒ hv 0 | = h¯ v | A† = hv| B† A† = hv| (AB) .  vi |v 0 i = A |¯

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

204

4.1. OPERADORES LINEALES

A partir de las propiedades anteriores se deriva una m´as u ´til relacionada con el conmutador  † †  † † † [A, B] = − A , B = B , A . La conclusiones a las que llegamos resultan ser que para obtener el herm´ıtico conjugado de una expresi´ on se debe proceder de la siguiente manera: Cambiar constantes por sus complejas conjugadas λ  λ∗ . Cambiar los kets por sus bras asociados y viceversa (bras por kets): |vi  hv|. Cambiar operadores lineales por sus herm´ıticos conjugados A†  A.

De este modo

in ar

Inviertir el orden de los factores. †

(|vi hw|) = |wi hv| ,

4.1.8.

re lim

que se deduce f´ acilmente de la consecuencia de la definici´on de producto interno  † ∗ ∗ ∗ hx| |vi hw| |yi = hy| (|vi hw|) |xi = hy| |vi hw| |xi = hx| |wi hv| |yi .

Operadores herm´ıticos

Existe un conjunto de operadores que se denominan herm´ıticos a secas o autoadjunto. Un operador herm´ıtico (o autoadjunto) ser´ a aquel para el cual A† = A. Con esto ∗

hx| A† |yi = hx| A |yi = hy| A |xi .

rP

Estos operadores juegan el rol de los n´ umeros reales en el sentido de que son “iguales a su propio complejo conjugado” y se utilizan como los observables en la Mec´anica Cu´antica. Claramente los proyectores son autoadjuntos por construcci´on †

P†|vi ≡ (|vi hv|) = |vi hv| .

4.1.9.

ad o

Si A† = −A el operador lineal se denomina antiherm´ıtico.

Operadores unitarios

Por definici´ on, un operador ser´ a unitario si su inversa es igual a su adjunto. Esto es U−1 = U†



U† U = UU† = I

Bo rr

De estos operadores podemos decir varias cosas: Las transformaciones unitarias dejan invariantes al producto interno y consecuentemente la norma de vectores, esto se demuestra f´ acilmente. Dados dos vectores |xi , |yi sobre los cuales act´ ua un operador unitario  |˜ xi = U |xi  ⇒ h˜ y |˜ xi = hy| U† U |xi = hy |xi .  |˜ y i = U |yi Es claro que si A es herm´ıtico, A† = A, el operador T = eiA es unitario. †

T = eiA ⇒ T† = e−iA = e−iA ⇒ TT† = eiA e−iA = I = T† T = e−iA eiA . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

205

4.1. OPERADORES LINEALES

El producto de dos operadores unitarios tambi´en es unitario. Esto es, si U y V son unitarios entonces † (UV) † (UV) = V† U UV = V† V = I |{z} I †



† † (UV) (UV) = UVV |{z}U = UU = I . I

4.1.10.

Ejercicios

1. Cu´ al de las siguientes transformaciones definidas sobre V3 son lineales T |xi = |xi + |ai donde |ai es un vector constante diferente de cero. T |xi = |ai T |xi = ha |xi |ai T |xi = ha |xi |xi

in ar

a) b) c) d)

2. Considere las siguientes operaciones en el espacio de los polinomios en x y diga si corresponden a transformaciones lineales: b) La multiplicaci´on por x2 .

b) La diferenciaci´on.

re lim

a) La multiplicaci´ on por x.

3. Dado un operador herm´ıtico A y uno unitario U, pruebe las siguientes afirmaciones −1 † a) En general C† = C−1 , con C un operador gen´erico. ˜ = U−1 AU es tambi´en un operador herm´ıtico b) A ˜ = iA c) Si A es antiherm´ıtico entonces A d ) La composici´ on de dos operadores, A y B herm´ıticos ser´a herm´ıtica si y s´ olo si A y B conmuntan. −1

ad o

rP

e) Si S es un operador real y antisim´etrico, pruebe que el operador A = (I − S) (I + S) es un operador ortogonal.1 f ) Si   cos(θ) sen(θ) A⇒ . Encuentre la expresi´on para S. −sen(θ) cos(θ)   √ 4. Si un operador lineal C NO es herm´ıtico, entonces pruebe que C + C† y i C − C† , con i = −1, ser´ an herm´ıticos. Esto, obviamente implica que siempre podremos separar un operador lineal como  1  1 C = C + C† + C − C† . 2 2   † donde C + C representa su parte herm´ıtica y C − C† su parte antiherm´ıtica.

Bo rr

5. Suponga que un operador L puede ser escrito como la composici´on de otros dos operadores L = L− L+ con [L− , L+ ] = I. Demostrar que Si L |xi = λ |xi

y

|yi = L+ |xi

entonces

L |yi = (λ + 1) |yi

y

|zi = L− |xi

entonces

L |zi = (λ − 1) |zi

y, del mismo modo, demuestre que Si L |xi = λ |xi

Por ello es costumbre denominar a L+ y L− los operadores de “subidas” y de “bajada” respectivamente, ya que ellos construyen otros vectores con autovalores mayores (menores) en una unidad al vector operado.

1 Esto

es AT = A−1 con AT el traspuesto de A.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

206

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

4.2.

Representaci´ on matricial de operadores

Supongamos un operador lineal A en el espacio vectorial de transformaciones lineales L (V, W) donde dim (V) = n y dim (W) = m, y sean {|e1 i , |e2 i , |e3 i , · · · |en i} y {|˜e1 i , |˜e2 i , |˜e3 i , · · · |˜em i} las bases para V y W respectivamente. Entonces A |ei i ∈ W A |ei i = Aα eα i i |˜

con i = 1, 2, .., n y α = 1, 2, .., m .

Las Aα on de A |ei i en la base {|˜e1 i , |˜e2 i , |˜e3 i , · · · |˜em i}. i son las componentes de la expansi´ Para un vector gen´erico |xi tendremos que pero, a su vez |xi = xi |ei i ,

in ar

|˜ xi = A |xi = x ˜α |˜eα i con lo cual

 |˜ xi = A |xi = x ˜α |˜eα i = A xi |ei i = xi A |ei i = xi Aα eα i ⇒ i |˜

 i eα i = 0 ⇒ x ˜ α = Aα x ˜ α − x i Aα i |˜ i x .

Varias cosas se pueden concluir hasta este punto:

de tal modo que se cumpla 

x ˜1 x ˜2 .. .





        =       

A11 A21 .. . Aα 1 .. . Am 1

ad o

    |˜ xi →  α  x  ˜  x ˜m

rP

re lim

1. Si acordamos que los ´ındices de arriba indican filas podemos representar los vectores como un arreglo vertical de sus componentes y las cantidades Aα i por una matriz.  1  A1 A12 · · · A1j · · · A1n  1   A21 A22 A2j A2n  x     . . . 2  x  .. .. ..     α   |xi →  .  , Ai →  α α α α  , A A A A  ..  n  2 j  1  .  .. .. xn  ..  . . m m m m A1 A2 Aj An

A12 A22

··· ..

A1j A2j

.. .

.

Aα 2 .. . Am 2

···

Aα j .. Am j

.

 A1n A2n      α  An     Am n

x1 x2 .. .



    . j  x   xn

Bo rr

Las cantidades Aα on del operador A en las bases {|en i} y {|˜em i} de V y W respecj es la representaci´ tivamente. Es decir, definiremos una matriz Aij como un arreglo de n´ umeros donde el super´ındice, i, indica fila y el sub´ındice, j, columna:   1   1 A1 A1 A12 · · · A1n 2  2   A21 A22  A  n   A1   A11 A12 · · · A1n . Aij =  . , ,    . . ..  ..   ..  An1

An2

Ann

An1

2. Diremos que las componentes de los vectores transforman como i x ˜ α = Aα i x .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

207

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

3. Si suponemos {|e1 i , |e2 i , |e3 i , · · · |en i} y {|˜e1 i , |˜e2 i , |˜e3 i , · · · |˜em i} bases ortonormales  x ˜α = h˜eα |˜ xi = h˜eα | A |xi = h˜eα | A xi |ei i = xi h˜eα | A |ei i , eα | A |ei i ser´ a la representaci´on matricial de la transformaci´on lineal A. queda claro que Aα i ≡ h˜ 4. Los vectores |ek i transforman de la siguiente manera |ei i = Aji |˜ej i ,

in ar

donde {|ei i} y {|˜ej i} son las bases para V y W respectivamente. Definitivamente, las matrices son uno de los objetos m´as u ´tiles de las Matem´aticas. Ellas permiten aterrizar conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por James Joseph Sylvester2 y su teor´ıa desarrollada por Hamilton3 y Cayley4 . Si bien los f´ısicos las consideramos indispensables, no fueron utilizadas de manera intensiva hasta el aparici´on de la Mec´anica Cu´antica alrededor de 1925.

4.2.1.

Bases y la representaci´ on matricial de operadores

rP

re lim

Es importante recalcar que la representaci´on matricial de un operador depende de las bases {|en i} y {|˜em i} de V y W respectivamente. Si tenemos otras bases ortonormales para V y W vale decir, {|¯en i} y {|ˇem i} su representaci´ on ser´ a distinta. Esto es:   A˜11 A˜12 · · · A˜1j · · · A˜1n  A˜2 A˜2 A˜2n  A˜2j   1 2   . .. ..   . . . .   hˇeα | A |¯ej i = A˜α . j ⇒  ˜α ˜α ˜α  A1 A˜α A A n  2 j   ..   .. .. .   . . A˜m A˜m A˜m A˜m n 1

2

j

Ejemplos

ad o

Cambiando el orden en el cual se presenta una base, cambia la representaci´on matricial del operador. Los siguientes ejemplos tratar´ an de ilustrar estas situaciones:

1. Si tenemos un matriz B, 2 × 3, de la forma 

3 1

1 0

−2 4



Bo rr

B=

2 James Joseph Sylvester (1814-1897 Londres, Inglaterra) Adem´ as de sus aportes con Cayley a la teor´ıa de las matrices, descubri´ o la soluci´ on a la ecuaci´ on c´ ubica y fue el primero en utilizar el t´ ermino discriminante para categorizar cada una de las ra´ıces de la ecuaci´ on. Para vivir tuvo que ejercer de abogado durante una d´ ecada. Por fortuna, otro matem´ atico de la ´ epoca (Arthur Cayley) frecuentaba los mismos juzgados y tribunales y pudieron interactuar. Por ser jud´ıo tuvo cantidad de dificultades para conseguir trabajo en la Academia. 3 Sir William Rowan Hamilton (1805 - 1865, Dublin, Irlanda) Sus contribuciones en el campo de la ´ optica, din´ amica del cuerpo r´ıgido, teor´ıa de ecuaciones algebraicas y teor´ıa de operadores lineales. 4 Arthur Cayley (1821, Richmond, 1895, Cambridge, Inglaterra) En sus cerca de 900 trabajos cubri´ o casi la totalidad de las a ´reas de las matem´ aticas de aquel entonces. Sus mayores contribuciones se centran el la teor´ıa de matrices y la geometr´ıa no euclideana. No consigui´ o empleo como matem´ atico y tuvo que graduarse de abogado para ejercer durante m´ as de 15 a˜ nos, durante los cuales public´ o m´ as de 250 trabajos en matem´ aticas.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

208

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

y suponemos las bases can´ onicas para V3 y V2 : {|e1 i , |e2 i , |e3 i} y {|e1 i , |e2 i}. Entonces la matriz B representa la transformaci´ on B : V3 → V2 que lleva un vector gen´erico |xi = (x1 , x2 , x3 ) a un vector gen´erico |yi = (y1 , y2 ) tal que         x1 3 1 −2 3 1 −2  y1 x2  = B= ⇒ B |xi = |yi ⇒ 1 0 4 1 0 4 y2 x3 y esto es

y2 = x1 + 0x2 + 4x3 . La representaci´ on matricial depender´a de la base en la cual se exprese.

in ar

y1 = 3x1 + x2 − 2x3

re lim

2. Si suponemos el operador diferencial D (·) = d(·) dx cuyo dominio esta conformado por el espacio vectorial de los polinomios de grado ≤ 3, entonces tendremos que: D (·) : P3 → P2 . En este caso las bases   2 3 2 podr´ıan ser: |pi i = 1, x, x , x y |˜ pj i = 1, x, x de P3 y P2 respectivamente. tenemos:

1 0 0

0 2 0

 0 0 . 3

rP

Al operar (diferenciar) sobre el |pj i ∈ P3 y expresar ese resultado en la base de P2  d(1)  = 0 = 0 · 1 + 0 · x + 0 · x2  dx        d(x)  = 1 = 1 · 1 + 0 · x + 0 · x2  dx 0  α  0 ⇒ h˜ p | D |p i = D |pj i ⇒ j  d(x2 )  2 0  = 2x = 0 · 1 + 2 · x + 0 · x  dx        d(x3 ) = 3x2 = 0 · 1 + 0 · x + 3 · x2 dx

Bo rr

ad o

Los coeficientes de esa expansi´ on ser´an las columnas de la matriz que los representa. Para enfatizar, los elementos de una matriz, no s´ olo dependen de la base sino del en el cual la base se presente.  orden Consideremos que la base de P2 viene representada por |ˆ pj i = x2 , x, 1 , la representaci´on matricial del operador D (·) = d(·) a dx ser´  d(1)  = 0 = 0 · x2 + 0 · x + 0 · 1  dx         d(x)  = 1 = 0 · x2 + 0 · x + 1 · 1  0 0 0 3  dx D |pj i ⇒ ⇒ hˆ pα | D |pj i =  0 0 2 0  .  d(x2 )  0 1 0 0  = 2x = 0 · x2 + 2 · x + 0 · 1  dx        d(x3 ) = 3x2 = 3 · x2 + 0 · x + 0 · 1 dx Se puede ver que



0  0 0

Hern´ andez & N´ un ˜ez

1 0 0

0 2 0

  1 0  1 0   1 3 1



  1   =  2  ⇒ 1 + 2x + 3x2 ,  3

Universidad de los Andes / Universidad Industrial de Santander

209

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

y equivalentemente 

0  0 0

0 0 1

0 2 0

  1 3  1 0   1 0 1



  3   =  2  ⇒ 3x2 + 2x + 1 ,  1

¡Es el mismo polinomio! Recuerde que las componentes del vector multiplican a los vectores bases en el mismo orden.

re lim

in ar

3. Construyamos la representaci´ on para el mismo operador D del ejemplo   anterior, pero ahora en las siguientes bases: |pi i = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 y |˜ pi i = 1, x, x2 de P3 y P2 , respectivamente. Entonces, nuevamente vemos que D |pj i implica  d(1)  = 0 = 0 · 1 + 0 · x + 0 · x2  dx         d(1+x)  = 1 = 1 · 1 + 0 · x + 0 · x2  0 1 1 1  dx ⇒ h˜ pα | D |pj i =  0 0 2 2  . 2  d 1+x+x ( )  0 0 0 3  = 1 + 2x = 1 · 1 + 2 · x + 0 · x2  dx        d(1+x+x2 +x3 ) = 1 + 2x + 3x2 = 1 · 1 + 2 · x + 3 · x2 dx Representaci´ on diagonal

Dado un operador lineal A ∈ L (V, W), donde dim (V) = dim (W) = n, y sea {|ei i} una base ortonormal para V y W, si adicionalmente se da el caso que

rP

A |ei i = |ei i ,

la representaci´ on matricial ser´ a diagonal

j

e A |ei i = Aji = ej |ei i = δij .

ad o

Esta afirmaci´ on tambi´en es v´ alida para dim (V) 6= dim (W) pero por simplicidad seguimos trabajando con matrices cuadradas. Representaci´ on de operadores herm´ıticos

Bo rr

La representaci´ on matricial de un operador herm´ıtico ser´a A†

i j

 ∗



∗ = ei A† |ej i = ej A |ei i = Aji ,

vale decir: el herm´ıtico conjugado de una matriz, es su traspuesta conjugada. Si la matriz es herm´ıtica, i.e. A† = A ⇒

A†

i j

= Aij .

Por lo tanto, las matrices herm´ıticas son sim´etricas respecto a la diagonal y los elementos de la diagonal son n´ umeros reales. Un operador herm´ıtico estar´a representado por una matriz herm´ıtica.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

210

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

Aqu´ı vale la pena probar algunas de las propiedades que arriba expresamos para operadores herm´ıticos conjugados, vale decir † † † † A† = A; (λA) = λ∗ A† ; (A + B) = A† + B† ; (AB) = B† A† . Es claro que A† y

†



† 

i † i †  ∗ † e A |ej i = A† j = Aji = Aij ,







∗ ∗ † (λA) → ei λA† |ej i = ej λA |ei i = λ∗ ej A |ei i = λ∗ ei A† |ej i = λ∗ A† ,

4.2.2.

in ar

pero m´ as interesante es

† † † (AB) → ei (AB) |ej i = Aik Bjk = (Ajk )∗ (Bik )∗ = (Akj )∗ (Bki )∗ = (Bki )∗ (Akj )∗ → B† A† .

Cambio de bases para vectores

c˜m

re lim

Dada una representaci´ on (una base) particular, un bra, un ket o un operador quedar´a representado por una matriz. Si cambiamos la representaci´on, ese mismo bra, ket u operador tendr´a otra matriz como representaci´ on. Mostraremos c´ omo est´ an relacionadas esas matrices. Dadas dos base discretas ortonormales {|ei i} y {|˜ei i}, entonces un vector cualquiera  



k  m |Ψi = ek hek | |Ψi = ek Ψi |ek i   h˜ e |Ψi = e Ψi h˜em |ek i   | {z }   | {z }     ck Skm



⇒ k k m e |Ψi = h˜ e | Ψi e |˜em i      | {z } |Ψi = (|˜em i h˜em |) |Ψi = h˜em | Ψi |˜em i     | {z }  ˜k S m

rP

con lo cual, una vez m´ as, tendremos que la expresi´on de transformaci´on de componentes de un vector k m c˜m = Skm ck ⇔ ck = S˜m c˜ ,

ad o

k y Skm (o S˜m ) ser´ a la matriz de transformaci´on, cambio de base o cambio de representaci´on. Ahora bien, por la definici´ on de producto interno

 ∗ † k ∗ h˜em |ek i = ek |˜em i ⇒ Skm = Sm ≡ (Skm ) ,

por lo tanto, la matriz de transformaci´ on entre bases es herm´ıtica y la relaci´on anterior queda escrita como



 k † m k † m c˜m = Skm ck ⇒ h˜em | Ψi = Skm ek Ψi ∧ ck = Sm c˜ ⇒ ek |Ψi = Sm h˜e | Ψi .

Bo rr

Igualmente, la regla de transformaci´ on de las representaciones matriciales de operadores lineales queda expresada como



i





˜e A |˜ej i = ˜ei |ek i ek A (|em i hem |) |˜ej i = ˜ei |ek i ek A |em i hem |˜ej i , | {z } | {z } Ski

(Sjm )†

por lo tanto

A˜ij = Ski Akm (Sjm )† ,

donde A˜ij es la representaci´ on del operador A respecto a la base {|˜ej i} y Akm su representaci´on en la base {|em i}. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

211

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

4.2.3.

Traza de operadores

La traza, Tr (A), de un operador A es la suma de los elementos diagonales de su representaci´on matricial A. Esto es, dado un operador A y una base ortogonal {|ei i} para Vn , entonces:

Tr (A) = ek A |ek i = Akk . Por ejemplo, 

2 5 8

 3 6  ⇒ Tr (A) = Aii = 15 . 9

in ar

1 Aij =  4 7 Invariancia de la Traza

La traza de una matriz no depende de la base que seleccionemos, es un invariante que caracteriza al operador independientemente de la base en la cual se represente. Entonces, dadas dos bases discretas ortonormales {|ei i} y {|˜ei i},

re lim





Akk = ek A |ek i = ek |˜em i h˜em | A |ek i = h˜em | A|ek i ek ˜em i = h˜em | A |˜em i = Am m. | {z } I

Donde una vez m´ as hemos utilizado las dos relaciones de cierre |˜em i h˜em | = |ek i ek = I. Es claro que el n´ umero que representa esta suma ser´ a el mismo independientemente de su representaci´on matricial. Propiedades de la Traza Claramente la traza es lineal

rP

Tr (A+λB) = Tr (A) + λ Tr (B) , ya que





Tr (A + λB) = ek A + λB |ek i = ek A |ek i + λ ek B |ek i = Tr (A) + λ Tr (B) . La traza de un producto conmuta, esto es

ad o

Tr (AB) = Tr (BA) ,

y es f´ acilmente demostrable





Tr (AB) = ek AB |ek i = ek A|em i hem |B |ˆek i = ek B|em i hem |A |ek i = Tr (BA) . | {z } | {z } I

I

Bo rr



Recuerde que ek B |em i y ek A |ek i son n´ umeros que pueden ser reordenados. Del mismo modo es f´ acil demostrar que la traza de un triple producto de matrices respeta la ciclicidad del orden de la matrices en el producto

Hern´ andez & N´ un ˜ez

Tr (ABC) = Tr (BCA) = Tr (CAB) .

Universidad de los Andes / Universidad Industrial de Santander

212

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

Practicando con Maxima: Dado el siguiente espacio vectorial V3 = {(x, y, z) : x + y + z = 0} en R3 , y la siguiente transformaci´ on lineal de V3 → V3 F (x, y, z) = (x + y + z, x + y − z, 2z) , (%i1) F(x,y,z):=[x+y+z,x+y-z,-x-y-z];

in ar

( %o1) F (x, y, z) := [x + y + z, x + y − z, −x − y − z] La representaci´ on matricial de esta transformaci´on la podemos obtener evaluando la funci´on en la base can´ onica, de la siguiente manera:

re lim

(%i2) F_matriz:transpose(matrix(F(1,0,0),F(0,1,0),F(0,0,1)));   1 1 1 1 −1 ( %o2)  1 −1 −1 −1 Para obtener el n´ ucleo de la transformaci´on  ℵ (F ) = |vi ∈ V3 podemos proceder como se muestra a continuaci´on:



F |vi = |0i ,

ad o

( %o4) z + y + x = 0 ( %o5) − z + y + x = 0 ( %o6) − z − y − x = 0

rP

(%i3) M:F_matriz.[x,y,z];   z+y+x ( %o3) −z + y + x −z − y − x (%i4) ecu1:M[1,1]=0; ecu2:M[2,1]=0;ecu3:M[3,1]=0;

(%i7) linsolve([ecu1,ecu2,ecu3],[x,y,z]);

Bo rr

solve: dependent equations eliminated: (1) ( %o7) [x = − %r1 , y = %r1 , z = 0] Es decir, la soluci´ on al sistema es: x = −C, y = C y z = 0. Una posible base para el espacio ℵ (F ) puede ser: (−1 1 0)T . Notemos que si evaluamos nuevamente la transformaci´on F para la base can´onica (%i7) Img:matrix(F(1,0,0),F(0,1,0),F(0,0,1));   1 1 −1 ( %o7) 1 1 −1 1 −1 −1

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

213

´ MATRICIAL DE OPERADORES 4.2. REPRESENTACION

Y si reducimos la matriz anterior, obtendremos (%i7) echelon(Img);   1 1 −1 ( %o7) 0 1 0  0 0 0 Es decir, una base para el espacio imagen = (F ) es el conjunto: {(1 1 − 1)T y (0 1 0)T }. Podemos tambi´en calcular una base para V3 = {(x, y, z) : x + y + z = 0}

in ar

(%i7) linsolve(x+y+z=0,[x,y,z]); ( %o7) [x = − %r3 − %r2 , y = %r3 , z = %r2 ]

Es una soluci´ on del tipo: x = −C3 − C2 , y = C3 y z = C2 . Una base vendr´a dada por digamos: {(−1 1 0)T y (−1 0 1)T }.

Ejercicios

re lim

4.2.4.

1. Considere el espacio P(t) de polinomios de grado N en t, vale decir |f it ↔ d adem´ as un operador T = exD ≡ exp(xD), con D = dt

PN

n=0

a0 tn , considere

a) Muestre que T |pit = |pit+x , esto es que el operador T puede ser considerado un operador traslaci´ on espacial para los polinomios P(t) de grado N .

rP

b) Considere que el espacio de polinomios est´a definido en el intervalo [−1, 1], que definimos un R1 producto interno de la forma hf | gi = −1 f g dt y un espacio de polinomios de grado N = 2. ¿Cu´ al es la representaci´ on matricial de T en la base de polinomios de Legendre {P0 , P1 , P2 }? 2. Heredando el formalismo de Mec´ anica Cl´asica, uno construye en Mec´anica Cu´antica el Operador Hamiltoniano, herm´ıtico, para un sistema unidimensional como

ad o

H=

P2 + V(X) , 2m

donde H, P y X son operadores, y V(X) un operador que es una funci´on de otro operador. Adicionalmente, uno puede construir el siguiente operador: [X, P] = i~I. a) Determine los siguientes conmutadores [H, P], [H, X] y [H, XP]

Bo rr

b) Suponga que H |ψn i = En |ψn i y entonces calcule la representaci´on matricial del siguiente operador hψ m | [A, H] |ψn i, para un operador arbitrario A.

3. Considere la representaci´ on matricial de un operador en la base can´onica de la forma   1 a A= 0 1 ¿Existir´ a alg´ un operador B, no singular, tal que D = B−1 AB, con D un operador diagonal? Si ese fuera el caso, ¿Cu´ al ser´ıa la representaci´ on matricial de ese operador B, en la base can´onica? Justifique su respuesta.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

214

´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION

4. Considere el siguiente “operador vectorial” σ = σx i + σy j + σz k donde las matrices σ x , σ y , σ z se conocen como operadores de Pauli y su representaci´on matricial en la base can´onica es:         0 1 0 −i 1 0 1 0 σx = ; σy = ; σz = ; I= . 1 0 i 0 0 −1 0 1 El vector direcci´ on puede escribirse como n = sen(θ) cos(φ)i + sen(θ)sen(φ)j + cos(θ)k = nx i + ny j + nz k , con lo cual: σ · n = nx σx + ny σy + nz σz .



√0 Ly =  −i 2/2 0

√ i 2/2 √0 −i 2/2

 √0 i 2/2  , 0

re lim

5. Dadas las siguientes matrices √   2/2 √ 0 √0 Lx =  2/2 √ 0 2/2  , 2/2 0 0

in ar

A partir de todo lo anterior calcule la representaci´on matricial del siguiente operador en la base can´ onica   i exp ψ σ·n . 2



−1 Lz =  0 0

 0 0 0 0 . 0 1

Demuestre las siguientes reglas de conmutaci´on a) Lx Ly − Ly Lx = iLz . b) Ly Lz − Lz Ly = iLx . c) Lz Lx − Lx Lz = iLy .

4.3.

rP

d ) L2x + L2y + L2z = 2.

Diferenciaci´ on de operadores y algebra matricial

ad o

Dado un operador A (t) el cual supondremos dependiente de una variable arbitraria t podremos definir la derivada como A (t + ∆t) − A(t) dA(t) = l´ım ∆t→0 dt ∆t

k k por lo tanto si u A |ui i = A entonces i



dA(t) dt

Bo rr

k dA(t) u |ui i = dt

k i



  d k dAki = u A(t) |ui i = =  dt dt 

dA11 dt dA21 dt

dA12 dt dA22 dt

dAn 1

dAn 2

dt

dt

.. .

··· ..

dA1n dt dA2n dt

. dAn n dt

   ,  

con lo cual la regla es simple, la representaci´on matricial de la derivada de un operador ser´a la derivada de cada uno de sus elementos. Por ejemplo     x x2 2 1 2x 0 d  . 1 e−x 5x  =  0 −e−x 5 dx 3 2 3x 3 cos(x) 9x 0 − sen(x)

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

215

´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION

4.3.1.

Reglas de diferenciaci´ on de operadores lineales

Las reglas usuales de la diferenciaci´ on se cumplir´an con la diferenciaci´on de operadores lineales. Esto se demuestra con la representaci´ on matricial d (A (t)) d (B (t)) d (A(t) + B (t)) = + , dt dt dt es decir: d (A(t) + B(t))

 d k d k uk |ui i = u (A(t) + B(t)) |ui i = u A(t) |ui i + uk B(t) |ui i dt dt dt d k d k = u A (t) |ui i + u B(t) |ui i dt dt

dA(t)

dB(t) d (A(t)) d (B(t)) = uk |ui i + uk |ui i = + . dt dt dt dt

Del mismo modo se cumplir´ a que

re lim

d (A(t)B (t)) dA(t) dB(t) = B(t) + A(t) , dt dt dt

in ar



con la precauci´ on que no se puede modificar el orden de aparici´on de los operadores. Es f´acil ver que

rP

k d (A(t)B(t)) d k d k |ui i = u A (t) B(t) |ui i = u A (t) I B(t) |ui i u dt dt dt

k  = u A(t) |um i hum | B(t) |ui i



d uk A(t) |um i m d hum | B(t) |ui i = hu | B(t) |ui i + uk A(t) |um i dt dt

k dA(t)

dB(t) = u |um i hum | B(t) |ui i + uk A(t) |um i hum | |ui i . dt dt

tendremos que

ad o

Otras propiedades de la derivaci´ on de operadores se demuestran a partir de sus expansiones en series. At Por ejemplo, si queremos conocer la expresi´on para dedt , con A 6= A(t), recordemos que # " # "∞ 2 n X (At)n (At) (At) At |vi = I + At + + ··· + · · · |vi , e |vi = n! 2! n! n=0

Bo rr

"∞ # "∞ # "∞ # # "∞ n X d  (At)n  X tn−1 An−1 X ntn−1 An deAt d X (At) |vi = |vi = |vi = |vi = A |vi . dt dt n=0 n! dt n! n! (n − 1)! n=0 n=0 n=0 | {z } eAt

N´ otese que la suma es hasta infinito, por lo tanto al cambiar de ´ındice p = n − 1, p sigue variando hasta infinito y la serie es la misma que la anterior. Entonces

Hern´ andez & N´ un ˜ez

deAt |vi = eAt A |vi ≡ AeAt |vi . dt

Universidad de los Andes / Universidad Industrial de Santander

216

´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION

in ar

Si un s´ olo operador est´ a siendo derivado el orden de presentaci´on de los operadores es indiferente. Ahora bien, cuando se presenta la siguiente situaci´on  d eAt eBt deAt Bt deBt |vi = e |vi + eAt |vi = AeAt eBt |vi + eAt BeBt |vi = eAt AeBt |vi + eAt eBt B |vi , dt dt dt   con A 6= A(t) y B 6= B(t) y siempre eBt , B = 0. Con lo cual, s´ olo para el caso en el que [A, B] = 0 podremos factorizar eAt eBt y  d eAt eBt |vi = (A + B) eAt eBt |vi . dt Si [A, B] 6= 0 el orden de aparici´ on de los operadores eshMUY importante. i dA(t) Para el caso en el cual A = A(t) no necesariamente A(t), e dt = 0. Veamos:

re lim

"∞  "∞ # # n X 1 d (A(t))n  deA(t) d X (A(t)) |vi = |vi |vi = dt dt n=0 n! n! dt n=0 "∞   # X 1 d (A(t)) d (A(t)) n−1 n−2 n−1 d (A(t)) = A(t) + A(t) A(t) · · · A(t) |vi . n! dt dt dt n=0 Adicionalmente

dF (B) dB Esta relaci´ on es f´ acilmente demostrable para el caso en el cual [A, B] = I, el operador identidad, en ese caso ten´ıamos que ABn − Bn A = nBn−1

rP

si [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B]

· · · B}A ABn − Bn A = ABB · · · B}−BB · · · B}A = (I + BA) BB · · · B} − BB | {z | {z | {z | {z n

=IB

n−1

n

n

n−1

· · · B}A + B (I + BA)BB · · · B} − BB | {z | {z n−2

n

ad o

· · · B}A = · · · = nBn−1 . = 2Bn−1 + B2 (I + BA)BB · · · B} − BB | {z | {z n−3

n

Obviamente, para este caso, se cumple que

[A, B] = I ⇒ [A, [A, B]] = [B, [A, B]] = 0 .

Bo rr

Para demostrar esta relaci´ on “desarrollemos en Serie de Taylor” la funcion F (B). Esto es " # ∞ ∞ ∞ ∞ X X X X Bn [A, Bn ] nBn−1 Bn−1 [A, F (B)] = A, fn = fn = [A, B] fn = [A, B] fn n! n! n! (n − 1)! n=0 n=0 n=0 n=0 = [A, B]

dF (B) . dB

Para el caso m´ as general se procede del mismo modo. Si [A, C] = [B, C] = 0 ,

Hern´ andez & N´ un ˜ez

?

con C = [A, B] ⇒ [A, F (B)] = [A, B]

dF (B) . dB

Universidad de los Andes / Universidad Industrial de Santander

217

´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION

Probaremos primero que con C = [A, B] ⇒ [A, Bn ] = ABn − Bn A = n [A, B] Bn−1 .

si [A, C] = [B, C] = 0 , Tendremos que

ABn − Bn A = ABB · · · B}−BB · · · B}A = (C + BA) BB · · · B} − BB · · · B}A | {z | {z | {z | {z n

= CB

n

n

n−1

· · · B}A + B (C + BA)BB · · · B} − BB | {z | {z n

n−2

n−1

= 2CB

n−1

+ B (C + BA)BB · · · B} − BB · · · B}A = · · · = nCBn−1 = n[A, B] B | {z | {z 2

n

n−3

,

in ar

n−1

con lo cual es inmediato demostrar que # " ∞ ∞ ∞ ∞ X X X X [A, Bn ] nBn−1 Bn−1 Bn = = [A, B] = [A, B] [A, F (B)] = A, fn fn fn fn n! n! n! (n − 1)! n=0 n=0 n=0 n=0

4.3.2.

dF (B) . dB

re lim

= [A, B]

La f´ ormula de Glauber

Ahora estamos en capacidad de demostrar limpiamente la f´ormula de Glauber. Esta es 1

eA eB = eA+B e 2 [A,B] .

rP

Para demostrarla, procedemos a considerar un operador F (t) = eAt eBt , por lo tanto  deAt eBt dF(t) |vi = |vi = AeAt eBt |vi + eAt BeBt |vi = A + eAt Be−At eAt eBt |vi dt dt  = A + eAt Be−At F(t) |vi .

ad o

Ahora bien, dado que

si [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B]

entonces

dF (B) , dB

 At  e , B = t [A, B] eAt ⇒ eAt B = BeAt + t [A, B] eAt ,

Bo rr

por lo cual

 dF(t) |vi = A + eAt Be−At F(t) |vi = (A + B + t [A, B]) F (t) |vi , dt por tanteo uno puede darse cuenta que n

F(t) = e

o 2 (A+B)t+ t2 [A,B]

,

cumple con la ecuaci´ on anterior, por lo tanto absorbiendo t en los operadores correspondientes llegamos a la f´ ormula de Glauber 1 eA eB = eA+B e 2 [A,B] . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

218

´ DE OPERADORES Y ALGEBRA MATRICIAL 4.3. DIFERENCIACION

4.3.3.

Algebra de matrices

Por comodidad supongamos que dim (V) = dim (W) = n y consideremos la base ortogonal {|en i}. De este modo, es claro que se obtienen nuevamente las conocidas relaciones para matrices cuadradas

i



e A + B |ej i = ei A |ej i + ei B |ej i = Aij + Bji

Ann + Bnn

An1 + B1n

A11 + B11 A21 + B12 .. .



    =  

An1

+

B1n

i

A12 + B21 A22 + B22 .. .

 A1n + Bn1 A2n + Bn2   ,  n n An + B n

··· ..

.

= (A + B)j , con lo cual es directo la demostraci´on de la     

A11 A21 .. .

A12 A22

An1

An2

···

  1 B1 A1n  B12 A2n     =  ..   . n B1n An

re lim

en forma compacta puede demostrarse que Aij + Bji igualdad de matrices:   1 A1 + B11 A12 + B21 · · · A1n + Bn1  A21 + B12 A22 + B22 A2n + Bn2    =0 ⇒  .. .. ..   . . .



in ar

con lo cual tenemos la suma de matrices. Esto es   1  1 B1 B21 · · · Bn1 A1 A12 · · · A1n 2 2 2 2  2  A1 A2 Bn2 An    B1 B2  +    .. . .. ..   ..  . . . B1n B2n Ann An1 An2 Ann

..

.

B21 B22

··· .. .

B2n

 Bn1 Bn2   ,  n An

en donde Aij = Bji . De igual modo para la representaci´ on de composici´on de operadores

i









e AB |ej i = ei A I B |ej i = ei A |ek i ek B |ej i = ei A |ek i ek B |ej i = Aik Bjk

rP

para multiplicaci´ on de matrices, esto es  1   1 B1 A1 A12 · · · A1n 2   A21 A22  B12 A n     ..  ×  .. ..  .   . . B1n An1 An2 Ann

B21 B22

··· .. .

ad o

B2n

  1 k Ak B 1 Bn1  A2k B1k Bn2    = ..   . Ann Ank B1k

A1k B2k A2k B2k .. .

··· ..

.

 A1k Bnk A2k Bnk   ,  Ank Bnk

Bo rr

como ya sab´ıamos AB 6= BA →Aik Bjk 6=Bki Akj . De la misma manera, la multiplicaci´ on de un n´ umero por una matriz es la multiplicaci´on de todos sus elementos por ese n´ umero

i

e αA |ej i = α ei A |ej i = αAij .

4.3.4.

Ejercicios

1. Si

Mij (t) =



cos(ωt) −sen(ωt)

sen(ωt) cos(ωt)



Demuestre que

Hern´ andez & N´ un ˜ez

d2 M(t) = −ω 2 M(t) . dt2

Universidad de los Andes / Universidad Industrial de Santander

219

´ 4.4. UN PARENTESIS DETERMINANTE

2. Dada a matriz



1 Aji =  1 0

1 1 1

 0 1 . 1

Eval´ ue: A2 , A3 , AAx . 3. Dada la matriz



Aji

0 =  −i 0

0 0 −1

 i 0  0

4.4.

in ar

Demuestre que An = AAA... = I, con n 6= 0.

Un par´ entesis determinante

re lim

El determinante se define con la siguiente aplicaci´on: det |A| : Mn×n → R, es decir, asocia real con cada matriz del espacio vectorial Mn×n de matrices n × n As´ı, dada una matriz 1  1  A1 A12 · · · A1n A1 A12 · · · A1n 2 2  A1 A22  A21 A22 A2n An   ijk··· 1 2 3 A= . ⇒ det |A| = ε A A A · · · =  . .. .. i j k ..  ..  . . n n n n n A1 A2 Ann A1 A2 An

un n´ umero



rP

Hemos generalizado los ´ındices de Levi Civita de tal forma que   0, si cualesquiera dos ´ındices son iguales 1, si los ´ındices i, j, k · · · constituyen una permutaci´on c´ıclica de 1, 2, 3 · · · n εijk··· = εijk··· =  −1, si los ´ındices i, j, k · · · constituyen una permutaci´on antic´ıclica de 1, 2, 3 · · · n

con lo cual

ad o

Esta situaci´ on es clara para el caso de matrices 3 × 3, veamos. 1  1  A1 A1 A12 A13 ijk 1 2 3 2 2 2   A1 A2 A3 A= ⇒ det |A| = ε Ai Aj Ak = A21 A31 A31 A32 A33

A12 A22 A32

A13 A23 A33

,

det |A| = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33

Bo rr

= A11 A22 A33 + A13 A21 A32 + A12 A23 A31 − A11 A23 A32 − A13 A22 A31 − A12 A21 A33 . Propiedades de los determinantes 1. det |A| = det |AT |, donde AT es la traspuesta de A. Esta propiedad proviene de la definici´on del ´ındice de Levi Civita det |A| = εijk··· A1i A2j A3k · · · = εijk··· Ai1 Aj2 Ak3 · · · = det |AT | , que se traduce en que si se intercambian filas por columnas el 1 A1 A12 A13 A11 A21 2 A1 A22 A23 = A12 A22 3 A1 A32 A33 A13 A23

Hern´ andez & N´ un ˜ez

determinante no se altera A31 A32 . A33

Universidad de los Andes / Universidad Industrial de Santander

220

´ 4.4. UN PARENTESIS DETERMINANTE

2. Si dos filas o dos columnas son id´enticas el determinante se anula εiik··· A1i A2i A3k · · · = εiik··· Ai1 Ai2 Ak3 · · · = 0 1 A1 A12 A13 1 A1 A12 A13 = 0 3 A1 A32 A33

in ar

3. Si multiplicamos una fila o una columna por un n´ umero, el determinante queda multiplicado por el n´ umero  εijk··· A1i λA2j A3k · · · = λεijk··· A1i A2j A3k · · · = λ det[A]  εijk··· Ai1 Aj2 λAk3 · · · = λεijk··· Ai1 Aj2 Ak3 · · · = λ det[A] ,

Obvio que 1 A1 2 A1 3 A1 A13 A23 A33

A11 = λA11 A31

A12 λA12 A32

A13 A23 A33

1 A1 2 = A1 0

A13 λA13 A33

A12 A22 0

1 A1 = λ A21 3 A1

rP

al igual que 1 A1 λA11 2 A1 λA21 3 A1 λA31

0 0 0

re lim

de aqu´ı claramente se desprende que si una fila o una columna es cero (λ = 0) el determinante se anula. M´ as a´ un, si dos filas o dos columnas son proporcionales A1i = λA2j el determinante se anula, por cuanto se cumple la propiedad anterior 1 1 A1 A12 A13 A1 λA12 A13 A11 A12 A13 2 A1 λA22 A23 = A21 A22 A23 = λ A21 A22 A23 . 3 A31 A32 A33 A1 λA32 A33 λA31 λA32 λA33

ad o

4. Si se intercambian dos filas o dos columnas 1 A1 2 A1 ijk··· 1 2 3 det |A| = ε Ai Aj Ak · · · = . .. An 1

A13 A23 0

A11 A21 A31

= 0,

A13 A23 A33

1 A1 = λ A11 3 A1

A12 A12 A32

A13 A13 A33

= 0.

cambia de signo el determinante. A12 · · · A1n A22 A2n ˜ , ⇒ εijk··· A1j A2i A3k · · · = − det[A] .. . An An 2

n

Bo rr

˜ se han intercambiando un par de columnas. Claramente las propiedades del donde en la matriz A ´ındice de Levi Civita, obliga al cambio de signo ˜ = − det |A| . det |A|

N´ otese que una s´ıntesis de las propiedades anteriores nos lleva a reescribir el determinante de una matriz de manera que β γ det |A| = εαβγ··· det |A| = εijk··· Aiα Ajβ Akγ · · · ⇐⇒ det |A| = εαβγ··· det |A| = εijk··· Aα i Aj Ak · · ·

claramente, si αβγ · · · ⇐⇒ 123 · · · reobtenemos la definici´on anterior. Si se intercambian dos filas o dos columnas, el determinante cambia de signo debido al intercambio de dos ´ındices griegos. Si dos filas o dos columnas son iguales el determinante se anula debido a la propiedad de s´ımbolo de Levi Civita con ´ındices griegos.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

221

´ 4.4. UN PARENTESIS DETERMINANTE

5. El determinante de un producto es el producto de los determinantes det |AB| = det |A| det |B| . Antes de proceder a la demostraci´ on de este importante propiedad jugaremos un poco m´as con las propiedades de las matrices. Queremos se˜ nalar que si A es una matriz m × n y B es una matriz n × p, entonces tendremos que α (AB) = Aα B , esto es, que la α-esima fila de AB es igual a la multiplicaci´on de la α-esima fila de A, por toda la matriz B. Veamos por lo tanto la α-esima fila 

B21 B22

B1n

B2n

··· ..

.

 Bn1 Bn2   .  Bnn

re lim

 l α α α α α  Cjα = Aα B ⇒ C = (A , A , A , · · · A , )  l j j 1 2 3 n 

B11 B12 .. .

in ar

i

Cji = (AB)j = Ail Bjl

     det |A| det |B| = det |A| εijk··· B1i B2j B3k · · · = εijk··· Aiα Ajβ Akγ · · · εabc··· B1a B2b B3c · · · , que siempre puede ser rearreglado a    β γ i j k i β j γ k εijk··· Aα A A · · · ε B B B · · · = Aα ijk··· i j k 1 2 3 i B1 Aj B2 Ak B3 · · · = det [AB] . Veamos este desarrollo en el caso de matrices 3 × 3:

det |A| det |B| = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33



rP

ε123 B11 B22 B33 + ε312 B31 B12 B23 + ε231 B21 B32 B13 + ε132 B11 B32 B23 + ε321 B31 B22 B13 + ε213 B21 B12 B33 con lo cual

ad o

 = A11 A22 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 − B11 B32 B23 − B31 B22 B13 − B21 B12 B33  + A13 A21 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33  + A12 A23 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33  − A11 A23 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33  − A13 A22 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33  − A12 A21 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33

Bo rr

como son n´ umeros se pueden arreglar de la siguiente forma  = A11 A22 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33  + A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33  + A12 A23 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33  − A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33  − A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33  − A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 = εijk Aiα B1α Ajλ B2λ Akµ B3µ . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

222



´ 4.4. UN PARENTESIS DETERMINANTE

4.4.1.

F´ ormula de Laplace

La f´ ormula de Laplace permite expresar el determinate de una matriz en t´erminos de sus matrices menores o cofactores, matrices que definiremos en la siguiente secci´on. det |A] =

n X

Aij (Ac )ij ,

para cualquier i .

j=1



 −2 2 2 −3  1 2

3 A= 1 4

el desarrollo de Laplace para la primera fila (i = 1) es: = = =

4.4.2.

A11 (Ac )11 + A12 (Ac )12 + A13 (Ac )13 1 1 −3 2 −3 + 2 − (−2) 3 4 4 2 1 2 3(7) + 2(14) + 2(−7) = 35 .

Ejercicios

1. Calcule los siguientes determinantes 0 1 0



2 0 , 0

1 1 2 2

1 2 − x2 3 3

2 3 2 3 1 5 1 9 − x2

,



1 0 3 −2

0 1 −3 1

rP

2 0 2

2 1

re lim

det [A]

in ar

Por ejemplo, para la matriz

2 −2 4 −2

3 1 −2 0

,



−2 1 3 2 0

5 0 −1 6 −3

0 3 0 −4 −1

−1 7 5 1 2

3 −2 −5 2 3

.

ad o

2. Utilizando las propiedades de los determinantes resuelva para x x+2 x+4 x−3 x+3 x x + 5 = 0 . x−2 x−1 x+1

Bo rr

3. Utilizando la propiedad lineal de los determinantes calcule a+b n+p ∆ = c+d q+r

.

4. Encuentre el determinante de la matriz 4 × 4 definida por la funci´on Aij =

1 . i+j−x

5. Muestre que si las filas de un determinante de orden n son linealmente independientes, entonces sus columnas son tambi´en linealmente independientes.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

223

´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

4.5.

Un zool´ ogico de matrices cuadradas

A continuaci´ on presentaremos un conjunto de matrices fundamentales y de operaciones sobre matrices que ser´ an de gran utilidad para el resto de desarrollo del tema. Pero es bueno tener en mente que las matrices pueden tener todas sus componentes reales, diremos que son matrices pertenecientes al espacio vectorial de matrices reales Rn×m o tener como componentes n´ umeros complejos, en este caso diremos que pertenecen al espacio vectorial de matrices complejas Cn×m .

4.5.1.

Matriz unitaria y la matriz nula

in ar

La matriz unitaria es aquella que s´ olo tiene elementos en la diagonal iguales a la unidad I ⇒ Iji = δji .

Mientras que la matriz nula es aquella con todos los elementos iguales a cero

4.5.2.

Matriz diagonal a bloques

re lim

0 ⇒ 0ij = 0 .

Una matriz diagonal es aquella que contiene elementos u ´nicamente en la diagonal, las dem´as componentes son cero. Como veremos m´ as adelante existen algunos m´etodos para reducir una matriz a su forma diagonal. Una propiedad importante de estas matrices es que conmutan, es decir, AB = BA ,

rP

si A y B son diagonales. Pero tambi´en podemos tener matrices diagonales a bloques, vale decir  1  D1 D21 0 0  D12 D22 0 0   Dji =   0 0 D33 D43  0 0 D34 D44

Bo rr

ad o

Tambi´en tenemos las triangulares superior e inferior:   1 ˇ ˇ1 D ˇ1 D ˇ1 D D 1 2 3 4 2 ˇ2 ˇ2   ˇ ji =  0 D2 D3 D4  y D 3 ˇ ˇ3   0 0 D3 D 4 ˇ4 0 0 0 D 4

4.5.3.

 ˆ1 D1 ˆ2  ˆ ji =  D1 D  D ˆ3 1 ˆ4 D 1

0 ˆ D22 D23 ˆ4 D 2

0 0 ˆ3 D 3 ˆ4 D 3

 0 0   0  ˆ4 D 4

Matriz transpuesta

La matriz transpuesta es aquella que se obtiene intercambiando filas por columnas: A = Aij ⇒ AT = Aji .

Si A = AT , (Aij = Aji ), se dice que A es sim´etrica. Y si A = −AT , (Aij = −Aji ), es llamada antisim´etrica. Por lo tanto, una matriz cuadrada se puede representar por la suma de una matriz sim´etrica y una antisim´etrica A= Hern´ andez & N´ un ˜ez

 1  1 A + AT + A − AT . 2 2

Universidad de los Andes / Universidad Industrial de Santander

224

´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

4.5.4.

Matriz de cofactores

A una matriz A le podemos asociar una de cofactores Ac de la   1  1 (Ac )1 a1 a12 a13 i i c Aj =  a21 a22 a23  ⇒ (A )j =  (Ac )21 3 a31 a32 a33 (Ac )1

manera siguiente: 1 1  (Ac )2 (Ac )3 2 2 (Ac )2 (Ac )3  . 3 3 (Ac )2 (Ac )3

i

2

2+1

3 (Ac )1

3+1

4.5.5.

= (−1)

1 a2 3 a2

a13 a33

(Ac )2 = (−1)

2

2+2

1 a2 2 a2

a13 a23

3 (Ac )2

3+2

= (−1)

Matriz adjunta

1 a1 3 a1

a13 a33

(Ac )3 = (−1)

2

2+3

1 a1 3 a1

a12 a32

1 a1 2 a1

a13 a23

3 (Ac )3

3+3

1 a1 2 a1

a12 . a22

= (−1)

re lim

(Ac )1 = (−1)

a22 a32

in ar

Donde los (Ac )j forman la matriz de cofactores, estos cofactores son 2 2 2 2 2 1+3 a1 1+2 a1 a3 1+1 a2 a3 1 c 1 c 1 = (−1) (A ) = (−1) (A ) (Ac )1 = (−1) 3 2 a31 a31 a33 a32 a33

Llamaremos matriz adjunta, adj [A], a la traspuesta de la matriz de cofactores de una determinada matriz: T    j T i = (Ac )i . adj [A] = (Ac ) ⇒ adj Aij = (Ac )j Por ejemplo 1 A= 4 7

2 5 8

  −3 3 6  ⇒ adj [A] =  6 −3 9

rP



 6 −3 −12 6 . 6 −3

Una matriz ser´ a autoadjunta si adj [A] = A.

Matriz singular

ad o

4.5.6.

A es singular si det[A] = 0. Adem´ as, si el determinate de la matriz A es diferente de cero, entonces det A−1 =

1 −1 = det |A| . det |A|

Bo rr

Rango de una matriz: Si det[A] 6= 0 se dice que la matriz cuadrada A tiene un valor de rango r. El rango de una matriz es el n´ umero m´ aximo de vectores filas o columnas linealmente independientes, es decir: 0 ≤ r ≤ n.

4.5.7.

Matriz inversa

Hemos visto que dada una transformaci´on lineal biyectiva, podemos definir una inversa para esa transformaci´ on lineal. Esa transformaci´ on lineal tendr´a como representaci´on un matriz. Por lo tanto dado un operador lineal A diremos que otro operador lineal B ser´a su inverso (por la derecha) si

AB = I → ei AB |ej i = δji → Aik Bjk = δji .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

225

´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

Ejemplo Queremos hallar la matriz inversa de 

2  2 −1





2  0 0

2  2 −1

3 1 1

3 2 5

1 1 1

4 3 8

4 1 2

1 0 0

 4 1 . 2

   0 0 0 0 2 3 4 1 1 0  →  0 2 3 1 −1 0  → 0 1 0 1 −1 1 2 0    1 0 0 −1 2 1 0 0 −1 0  → · · · →  0 1 0 5 −8 −6  0 0 1 −3 5 4 0 2

re lim

Entonces:

3 1 1

in ar

Ahora bien, como conocemos la matriz Aik y la suponemos no singular ( det Aik 6= 0) al tomar un j fijo tendremos un sistema de n ecuaciones lineales inhomog´eneo con n inc´ognitas: Bj1 , Bj2 , Bj3 , · · · Bjn . Al resolver el sistema tendremos la soluci´ on. Un procedimiento para encontrar la inversa es el m´etodo de eliminaci´on de Gauss Jordan. Veamos como funciona para una matriz Aij 3 × 3:   1   A1 A12 A13 1 0 0 1 0 0 B11 B21 B31 Jordan  A21 A22 A23 0 1 0  Gauss→  0 1 0 B12 B22 B32  . 3 3 3 0 0 1 A1 A2 A3 0 0 1 B13 B23 B33

Tambi´en se puede obtener la matriz inversa de A de la siguiente manera:

Por ejemplo, para la matriz 

   −2 2 7 6 2 1  −14 2 −3  ⇒ A−1 = −2 11  . 35 1 2 −7 −11 8

ad o

3 A= 1 4

Algunas propiedades importantes: −1 −1 T A−1 = A, AT = A−1 ,

4.5.8.

adj [A] . det [A]

rP

A−1 =

A†

−1

= A−1

†

,

(AB)

−1

= B−1 A−1 .

Matriz ortogonal

Bo rr

Anteriormente mencionamos que en el espacio real R3 podemos tener una transformaci´on de coordenadas cartesianas: (x, y, z) → (˜ x, y˜, z˜) que consiste en rotar, un ´angulo θ, uno de los sistemas respecto al otro. Si la rotaci´ on se hace, digamos alrededor del eje z, la relaci´on entre las coordenadas es la siguiente:   1 ˜ = x cos(θ) + y sen(θ) ˜ = x1 cos(θ) + x2 sen(θ)  x  x y˜ = −x sen(θ) + y cos(θ) ⇒ x ˜2 = −x1 sen(θ) + x2 cos(θ) ⇒ x ˜i = α ˜ ji xj .   3 3 z˜ = z x ˜ = x Si la longitud desde el origen a alg´ un punto P del espacio es la misma para ambos sistemas de coordenadas xi xi = x ˜i x ˜i = (˜ αki xk )(˜ αij xj ) = xk xj α ˜ ij α ˜ ki . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

226

´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

entonces se tiene que cumplir que: α ˜ ij α ˜ ki = δkj . Esta resultado es una consecuencia de haber impuesto la condici´on para que las longitudes sean las mismas en ambos sistemas de coordenadas y se conoce como la condici´ on de ortogonalidad. En el lenguaje de la matrices reales la condici´on de ortogonalidad se puede enunciar de diferentes formas, todas ellas equivalentes: X j AT A = AAT = I , AT = A−1 , Ai Aik = δkj . i

4.5.9.

in ar

y diremos que la matrices que las satisfacen son matrices ortogonales.

Matrices complejas

re lim

Las matrices pueden tener todos sus componentes reales, Aij ∈ R, y se dice que pertenecen al espacio vectorial de matrices reales Rn×n . Las matrices con todas sus componentes reales no permite estudiar problemas que pueden aparecer en algunas ramas de la F´ısica, como en la Mec´anica Cu´antica. Por lo tanto, de necesita generalizar nuestro estudio a espacios vectoriales a el de espacios vectoriales de matrices complejas: Cn×n , donde en las componentes de las matrices aparecen n´ umeros complejos. Cuando las matrices son complejas surgen generalizaciones que podemos considerar, como mostramos a continuaci´on. La matriz adjunta conjugada o matriz transpuesta conjugada

Estas matrices se construyen tomado el complejo conjugado de cada elemento y luego la transpuesta de la matriz. Se acostumbra denotarlas con A†

La matriz herm´ıtica

rP

A† = (A∗ )T = (AT )∗ .

Son aquellas matrices que satisfacen la siguiente ecuaci´on: A† = A .

ad o

Notemos que si A es real, entonces A† = AT , y por lo tanto las matrices herm´ıticas reales son matrices sim´etricas. La matriz normal

Bo rr

Se llama matriz normal a aquella que satisface A† A = AA† .

La matriz unitaria

La matriz A es unitaria si: A† = A−1 .

Si A es real, entonces A−1 = AT , de manera que las matrices unitarias reales son ortogonales. Es decir, las matrices unitarias son el an´alogo a las matrices ortogonales reales y son de fundamental importancia en la Mec´ anica Cu´ antica porque dejan la norma de los vectores invariantes.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

227

´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

Existe una relaci´ on importante entre matrices normales y matrices unitarias y es el hecho de que una matriz A es normal, si y s´ olo si, existe una matriz diagonal Λ y una unitaria U tal que: A = UΛU† . M´ as adelante veremos que los valores en la diagonal de Λ se denominan los autovalores de A y las columnas de U son los autovectores de A. Practicando con Maxima:

(%i1) A:matrix([1,2,3],[4,8,5],[9,5,4]);   1 2 3 ( %o1) 4 8 5 9 5 4

re lim

La transpuesta es:

in ar

En este ejercicio vamos a introducir algunos comandos b´asicos que nos permitir´an realizar operaciones t´ıpicas con matrices. Dada la siguiente matriz:

(%i2) transpose(A);   1 4 9 ( %o2) 2 8 5 3 5 4

(%i3) adjoint(A);   7 7 −14 7  ( %o3)  29 −23 −52 13 0

ad o

Para la matriz inversa:

rP

El comando adjoint(A) calcula el adjunto de la matriz A. La matriz adjunta es la transpuesta de la matriz de cofactores de A.

Bo rr

(%i4) invert(A);   1 1 2 − 13 − 13 13 23 1  − 13 ( %o4) − 29 91 91 4 1 −7 0 7 (%i5) determinant(A); ( %o5) − 91

Si se quiere, se puede calcular la inversa con el determinante afuera: (%i6) invert(A),detout;   7 7 −14  29 −23 7  −52 13 0 ( %o6) − 91

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

228

´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS

Podemos comprobar que A−1 A = I (%i7) invert(A).A;   1 0 0 ( %o7) 0 1 0 0 0 1 Para calcular la menor (i, j) de la matriz, es decir, eliminar la fila i y la columna j de una matriz se debe escribir:

in ar

(%i8) minor(A,2,2);   1 3 ( %o8) 9 4

rP

(%i9) triangularize(A);   1 2 3 ( %o9) 0 −13 −23 0 0 91 (%i10)echelon(A);   1 2 3  ( %o10) 0 1 23 13 0 0 1

re lim

Para generar una matriz triangular superior a partir de una matriz dada se debe usar el siguiente comando: triangularize(). El comando echelon() es equivalente pero normaliza a 1 el primer elemento no nulo de cada fila utilizando el m´etodo de eliminaci´on de Gauss Jordan.

Con el paquete nchrpl se puede calcular la traza de una matriz (%i11)load(nchrpl)$

( %o12) 13

ad o

(%i12)mattrace(A);

Consideremos ahora la matriz

([1, %i, 0], [1, 2 ,-%i], [%i, 1, 2] );  0 −i 2

Bo rr

(%i13)M:matrix  1 i ( %o13) −1 2 i 1

Para el exponente de matrices tenemos la opci´on domxexpt (true o false). Cuando es true el exp(M ) se interpreta como la matriz cuyo elemento i, j es igual a exp(M [i, j]). En el otro caso, exp(M ) se interpreta como (x)M . (%i14)(1-x)^M;

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

229

´ 4.5. UN ZOOLOGICO DE MATRICES CUADRADAS



i

1−x

(1 − x) 2 (1 − x)

 1 ( %o14)  1−x i (1 − x) 1−x (%i15)domxexpt:false$



1 1 (1−x)i 2

 

(1 − x)

(%i16)(1-x)^M; 1

i 2 1

 −1 

i

( %o16) (1 − x)



0  −i  2

in ar



Y en cuanto al c´ alculo del rango de una matriz (%i17)rank(M); ( %o17) 3

4.5.10.

re lim

(%i18)kill(all)$

Ejercicios

1. Considere las matrices 

−i 0 i

 √ 3 1  B= √ 1 8 2

 i −i  , 0

rP

0 A= i −i

√ −√ 2 6 0

√  − 3 −1  . 2

Diga si son: (a) reales, (b) diagonales, (c) sim´etricas, (d) antisim´etricas, (e) singulares, (f) ortogonales, (g) hem´ıticas, (h) antiherm´ıticas, (i) unitarias o (j) normales. 2. Dada una matriz herm´ıtica



ad o

H=

10 3i −3i 0



construya la matriz unitaria U, tal que U† HU = D donde D es una matriz real y diagonal.

Bo rr

3. Utilizando el m´etodo de eliminaci´ on de Gauss Jordan encuentre la inversa dela matriz   1 2 3 A= 4 8 5  9 5 4 4. Encuentre la matriz inversa de 

2 A= 1 −3

4 −2 3



3 −2  , 2



1 B= 1 0

1 1 1



0 1 , 1



1/2  1/2 C=  1/2 1/2

1/2 1/2 −1/2 −1/2

1/2 −1/2 1/2 −1/2

 1/2 −1/2  . −1/2  1/2

Calcule: BT (A)−1 B y (2A + (B)−1 BT )AT . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

230

4.6. AUTOVECTORES Y AUTOVALORES

5. Considere matrices ortogonales, reales 3 × 3 las cuales, adicionalmente cumplen con: det[M] = 1. a) ¿Cu´ antos par´ ametros reales son necesarios para caracterizar un´ıvocamente a este tipo de matrices? b) ¿Este tipo de matrices forman grupo baja la multiplicaci´on de matrices? c) Si ahora considera la matrices ortogonales reales con det[M] = −1 ¿Este tipo de matrices formar´ an grupo bajo la multiplicaci´ on? Justifique su respuesta. 6. Si A y B son dos matrices herm´ıticas que no conmutan:

entonces pruebe que C es herm´ıtica. 7. Si A = exp (iαB) ,

α ∈ R.

Demuestre que si B es herm´ıtica entonces A es unitaria.

in ar

AB − BA = iC ,

4.6.

re lim

8. Pruebe que el producto directo de dos matrices unitarias resulta en una matriz unitaria.

Autovectores y Autovalores

La ecuaci´ on de Schr¨ odinger independiente del tiempo de la Mec´anica Cu´antica es una ecuaci´on, que escrita en la forma de operadores, tiene la siguiente forma: H |ΨE i = E|ΨE i ,

Bo rr

ad o

rP

donde H es un operador diferencial de segundo orden llamado el hamiltoniano y ΨE la funci´on de onda, en este caso representada por |ΨE i, un estado propio de H que corresponde a un valor propio de la energ´ıa E. Por tratarse de un espacio de Hilbert, es decir, un espacio vectorial con un producto interno bien definido, resulta de inter´es buscar soluciones en lo que se denomina el estado ligado de la ecuaci´on de Schr¨odinger. Esto significa buscar los |ΨE i en el espacio de las funciones de cuadrado integrable introduciendo una base unidimensional para representar ΨE y una matriz para representar H, en otras palabras: buscar una representaci´ on matricial para la ecuaci´ on de Schr¨odinger. Los vectores propios, |ΨE i, autovectores o eigenvectores de un operador lineal H son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un m´ ultiplo escalar de s´ı mismos, con lo que no cambian su direcci´ on. Este escalar E recibe el nombre de valor propio, autovalor, valor caracter´ıstico o eigenvalor. De manera que una transformaci´on queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio, eigenespacio o subespacio fundamental asociado al valor propio E es el conjunto de vectores propios con un valor propio com´ un.

4.6.1.

Definiciones y teoremas preliminares

De manera general, llamaremos a |ψi un autovector del operador A si se cumple que A |ψi = λ |ψi ,

en este caso λ (que, en general ser´ a un n´ umero complejo) se denomina el autovalor correspondiente al autovector |ψi. La ecuaci´ on A |ψi = λ |ψi es conocida en la literatura como la ecuaci´on de autovalores y se

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

231

4.6. AUTOVECTORES Y AUTOVALORES

cumple para algunos valores particulares de los autovalores λ. El conjunto de los autovalores se denomina el espectro del operador A. Supongamos que A : V → V y que dim V = n, supongamos adem´as que una base ortogonal para V es {|ei i}. Por lo tanto la repercusi´ on de esta ecuaci´on sobre la representaci´on matricial es la siguiente

i





e A |ej i ej |ψi = ei λ |ψi = λ ei |ψi ⇒ Aij cj = λci , claramente, si {|ei i} genera una representaci´on diagonal de A, entonces Aij ∝ δji



Aij cj ∝ δji cj = λci ⇒ Aij ∝ λδji .

in ar

Esto lo podemos resumir en el siguiente teorema que presentaremos sin demostraci´on.

un operador lineal A : Vn → Vn , si la representaci´on matricial de A es diagonal,

i Teorema: Dado i e A |ej i = Aj ∝ δji , entonces existe una base ortogonal {|e1 i , |e2 i , |e3 i , · · · |en i}5 y un conjunto de cantidades {λ1 , λn , · · · , λn } tales que se cumple con i = 1, 2, · · · n . J

re lim

A |ei i = λi |ei i

Igualmente se cumple que si existe una base ortogonal {|e1 i , |e2 i , |e3 i , · · · |en i} y un conjunto de cantidades {λ1 , λn , · · · , λn } tales que satisfagan A |ei i = λi |ei i

con i = 1, 2, · · · n ,

entonces se cumple que la representaci´ on matricial de A es diagonal

i e A |ej i = Aij = diag (λ1 , λn , · · · , λn ) .

rP

Algunos comentarios

ad o

1. N´ otese que si |ψi es autovector de A para un determinado autovalor λ entonces |φi = α |ψi (un vector proporcional a |ψi, con α un n´ umero complejo) tambi´en es un autovector para el mismo autovalor. Esto representa una inc´ omoda ambig¨ uedad: dos autovectores que corresponden al mismo autovalor. Un intento de eliminarla es siempre considerar vectores |ψi normalizados, i.e. hψ |ψi = 1. Sin embargo, no deja de ser un intento que no elimina la ambig¨ uedad del todo porque siempre queda el ´angulo de fase arbitrario. Esto es, el vector eiθ |ψi, con θ un n´ umero real arbitrario, tiene la misma norma del vector |ψi. Sin embargo esta arbitrariedad es inofensiva. En Mec´anica Cu´antica las predicciones obtenidas con |ψi son las mismas que con eiθ |ψi.

Bo rr

2. Un autovalor λ ser´ a no degenerado o simple si est´a asociado a un u ´nico autovector |ψi6 de lo contrario si denominar´ a degenerado si existen dos o m´as autovectores de A, linealmente independientes asociados al mismo autovalor λ. El grado (o el orden) de la degeneraci´ on es el n´ umero de vectores linealmente independientes que est´en asociados al mencionado autovalor λ. 3. El orden de degeneraci´ on de un autovalor λ expande un espacio vectorial S (λ) ⊂ Vn (denominado autoespacio) cuya dimensi´ on es el orden de la degeneraci´on. Esto es si λ es g−degenerado, entonces existen {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψg i} ⇒ A |ψi i = λ |ψi i ,

5 Realmente un conjunto de vectores linealmente independientes, pero como siempre se puede ortogonalizar mediante el m´ etodo de Gram Smith, consideraremos que es una base ortogonal de entrada. 6 Con la arbitrariedad del calibre antes mencionado.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

232

4.6. AUTOVECTORES Y AUTOVALORES

adicionalmente un autovector correspondiente al autovalor λ puede ser expresado como |ψi = ci |ψi i

con i = 1, 2, · · · , g ,

con lo cual A |ψi = ci A |ψi i = λ ci |ψi i = λ |ψi . Ejemplos E 1. Reflexi´ on respecto al plano xy. Si R : V3 → V3 es tal que R |ψi = ψ˜ donde se ha realizado una reflexi´ on en el plano xy. Esto es R |ji = |ji ;

R |ki = − |ki ,

in ar

R |ii = |ii ;

con |ii , |ji , |ki los vectores unitarios cartesianos. Es claro que cualquier vector en el plano xy ser´ a autovector de R con un autovalor λ = 1, mientras que cualquier otro vector |ψi ∈ V3 y que no est´e en el mencionado plano cumple con |ψi = c |ki y tambi´en ser´a autovector de R pero esta vez con un autovalor λ = −1.

re lim

2. Dos visiones de rotaciones de ´ angulo fijo θ. La rotaciones de un vector en el plano pueden verse de dos maneras. a) Se considera el plano como un espacio vectorial real V2 con una base cartesiana can´onica: |ii = (1, 0) , |ji = (0, 1), esto es, si: R |ai = λ |ai ⇒ el ´angulo de rotaci´on = nπ

con n entero.

b) Igualmente si consideramos el plano complejo unidimensional, expresemos cualquier vector en el plano en su forma polar |zi = reiθ por lo cual

rP

R |zi = rei(θ+α) = eiα |zi ,

si queremos λ = eiα reales, necesariamente α = nπ con n entero.

ad o

3. Autovalores y autovectores de proyectores. Es interesante plantearse la ecuaci´on de autovalores con la definici´ on del proyector para un determinado autoespacio. Esto es, dado Pψ = |ψi hψ| si este proyector cumple con una ecuaci´ on de autovalores para un |ϕi supuestamente arbitrario Pψ |ϕi = λ |ϕi ⇒ Pψ |ϕi = (|ψi hψ|) |ϕi ⇒ |ϕi ∝ |ψi ,

Bo rr

es decir, necesariamente |ϕi es colineal con |ψi. M´as a´ un, si ahora el |ϕi no es tan arbitrario sino que es ortogonal a |ψi , hψ |ϕi = 0 ⇒ λ = 0, entonces el espectro del operador Pψ = |ψi hψ| es 0 y 1, el primero de los cuales es infinitamente degenerado y el segundo es simple. Esto nos lleva a reflexionar que si existe un autovector de un determinado operador, entonces su autovalor es distinto de cero, pero pueden existir autovalores nulos que generan un autoespacio infinitamente degenerado.

4. El operador diferenciaci´ on: D |f i → D (f ) = f 0 . Los autovectores del operador diferenciaci´ on necesariamente deben satisfacer la ecuaci´on D |f i = λ |f i → D (f ) (x) = f 0 (x) = λf (x) ,

la soluci´ on a esta ecuaci´ on ser´ a una exponencial. Esto es |f i → f (x) = ceλx ,

con c 6= 0 ,

las f (x) se denominar´ an autofunciones del operador. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

233

4.6. AUTOVECTORES Y AUTOVALORES

4.6.2.

Autovalores, autovectores e independencia lineal

Uno de los teoremas m´ as u ´tiles e importantes tiene que ver con la independencia lineal de los autovectores correspondientes a distintos autovalores de un determinado operador lineal. Este importante teorema se puede concretar en lo siguiente: Teorema: Sean {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} autovectores del operador A : Vm → Vn . Supongamos que existen k autovalores: {λ1 , λ2 , · · · , λk }, distintos correspondientes a cada uno de los autovectores |ψj i, entonces los {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψk i} son linealmente independientes.

in ar

Demostraci´ on La demostraci´ on de este teorema es por inducci´on y resulta elegante y sencilla. Primeramente demostramos que j = 1. Obvio que el resultado se cumple y es trivial para el caso k = 1 (un autovector |ψ1 i que corresponde a un autovalor λ1 es obvia y trivialmente linealmente independiente).

re lim

Seguidamente supondremos que se cumple para j = k − 1. Si existen {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} autovectores de A correspondientes a {λ1 , λ2 , · · · , λk−1 } entonces los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} son linealmente independientes. Ahora lo probaremos para j = k. Por lo cual si tenemos k autovectores {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i}, podremos construir una combinaci´ on lineal con ellos, y si esa combinaci´ on lineal se anula ser´an linealmente independientes. cj |ψj i = 0

con j = 1, 2, · · · , k ,

al aplicar el operador A a esa combinaci´on lineal, obtenemos

rP

cj A |ψj i = 0 ⇒ cj λj |ψj i = 0 ,

multiplicando por λk y restando miembro a miembro obtenemos cj (λj − λk ) |ψj i = 0

con j = 1, 2, · · · , k − 1 ,

ad o

(n´ otese que el u ´ltimo ´ındice es k−1) pero, dado que los k−1 vectores |ψj i son linealmente independiente, entonces tendremos k − 1 ecuaciones cj (λj − λk ) = 0, una para cada j = 1, 2, · · · , k − 1. Dado que λj 6= λk necesariamente llegamos a que cj = 0 para j = 1, 2, · · · , k − 1 y dado que cj |ψj i = 0

Bo rr

con lo cual si

con j = 1, 2, · · · , k ⇒ cj 6= 0 ,

cj |ψj i = 0 ⇒ cj = 0

con j = 1, 2, · · · , k ,

y los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} son linealmente independientes y queda demostrado el teorema. J

Es importante acotar que el inverso de este teorema NO se cumple. Esto es, si A : Vm → Vn tiene {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψn i} autovectores linealmente independientes, NO se puede concluir que existan n autovalores {λ1 , λ2 , · · · , λn } distintos correspondientes a cada uno de los autovectores |ψj i. El teorema anterior lo complementa el siguiente que lo presentaremos sin demostraci´on. Este teorema ser´ a de gran utilidad en lo que sigue.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

234

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

Teorema: Si la dim (Vn ) = n cualquier operador lineal A : Vn → Vn tendr´a un m´aximo de n autovalores distintos. Adicionalmente, si A tiene precisamente n autovalores: {λ1 , λ2 , · · · , λn }, entonces los correspondientes n autovectores, {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψn i}, forman una base para Vn y la representaci´on matricial, en esa base, del operador ser´ a diagonal

i ψ A |ψj i = Aij = diag (λ1 , λ2 , · · · , λn ) . J

4.6.3.

Ejercicios

in ar

1. Si |v1 i y |v2 i son autovectores del operador lineal A que corresponden a distintos autovalores. Muestre que α |v1 i + β |v2 i (α 6= 0, β 6= 0) no puede ser un autovector de A. 2. Demuestre que si todo vector de un espacio vectorial V es un autovector del operador lineal A, entonces A = λI. Donde I es el operador identidad. 3. Demuestre que si el operador lineal A conmuta con todos operadores que act´ uan em un determinado espacio vectorial, entonces A = λI.

re lim

4. Si un operador lineal A tiene un autovector |v0 i con autovalor λ0 . Demuestre que |v0 i es tambi´en un autovector del operador A2 con autovalor λ20 . 5. Aun si un operador lineal A no tiene autovectores el operador A2 puede llegar a tenerlos. Demuestre que si A2 tiene un autovector con un autovalor no degenerado λ0 = µ2 , entonces A tiene un autovector.

4.7.

Autovalores y autovectores de un operador

rP

Una vez m´ as, supongamos que A : V → V y que dim V = n, y adem´as {|e1 i , |e2 i , |e3 i , · · · |en i} es una base ortogonal para V. Por lo tanto, la representaci´on matricial de la ecuaci´on de autovalores es la siguiente

i



 e A |ej i ej |ψi = λ ei |ψi ⇒ Aij cj = λci ⇒ Aij − λδji cj = 0 ,

4.7.1.

ad o

con j = 1, 2, · · · , n.  El conjunto de ecuaciones: Aij − λδji cj = 0, puede ser considerado un sistema (lineal y homog´eneo) de ecuaciones con n inc´ ognitas cj .

El polinomio caracter´ıstico.

Bo rr

Dado que un sistema lineal y homog´eneo de ecuaciones con n inc´ognitas tiene soluci´on si el determinante de los coeficientes se anula, tendremos que    Aij − λδji cj = 0 ⇒ det [A−λ1] = 0 ⇒ P (λ) = det Aij − λδji = 0 . Esta ecuaci´ on se denomina ecuaci´ on caracter´ıstica (o secular) y a partir valores (el espectro) del operador A, esto es: 1 A1 − λ A12 ··· A1n 2 2 2 A A − λ A   n 1 2 det Aij − λδji = .. . . . . n An A Ann − λ 2 1

Hern´ andez & N´ un ˜ez

de ella emergen todos los auto = 0.

Universidad de los Andes / Universidad Industrial de Santander

235

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

El resultado ser´ a un polinomio de grado n (el polinomio caracter´ıstico). Las ra´ıces de este polinomio ser´ an los autovalores que estamos buscando. Es claro que estas ra´ıces podr´an ser reales y distintas, algunas reales e iguales y otras imaginarias. Es importante se˜ nalar que polinomio caracter´ıstico ser´a independiente de la base a la cual est´e referida

el la representaci´ on matricial ui A |uj i del operador A. Primero los autovalores, luego los autovectores

Ejemplos

1 3 2−λ 3 3 20 − λ

re lim

1. Una matriz 3 × 3 con 3 autovalores reales distintos   2−λ 2 1 3

i  i  i   1 2 3 e A |ej i = ⇒ det Aj − λδj = 1 3 3 3 20

in ar

El procedimiento es el siguiente. Una vez obtenidos (los autovalores) las ra´ıces del polinomio caracter´ıstico, se procede a determinar el autovector, |ψj i , correspondiente a ese autovalor. Distinguiremos en esta determinaci´ on casos particulares dependiendo del tipo de ra´ız del polinomio caracter´ıstico. Ilustraremos estos casos con ejemplos para el caso espec´ıfico de matrices reales 3 × 3.

= 0,

con lo cual el polinomio caracter´ıstico queda expresado como

λ3 − 24λ2 + 65λ − 42 = (λ − 1) (λ − 2) (λ − 21) = 0 ,

a) λ1 = 1 

2  1 3

1 2 3

rP

y es claro que tiene 3 ra´ıces distintas. Para proceder a calcular los autovectores correspondientes a cada autovalor resolvemos la ecuaci´ on de autovalores para cada autovalor. Esto es  1   1  x 3 x 3   x2  =  x2  ⇐⇒ 20 x3 x3

2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3

= = =

x1 x2 x3 ,

ad o

que constituye un sistema de ecuaciones algebraicas de 3 ecuaciones con 3 inc´ognitas. Resolviendo el sistema tendremos el primer autovector ε(λ1 )  1    x −1 ε(λ1 ) =  x2  = α  1  , 0 x3 con α un n´ umero distinto de cero.

Bo rr

b) λ2 = 2



2  1 3

1 2 3

 1   1  x 3 x 3   x2  = 2  x2  ⇐⇒ x3 20 x3

2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3

= 2x1 = 2x2 = 2x3 .

Resolviendo el sistema se tiene el segundo autovector  1    x −3 ε(λ2 ) =  x2  = α  −3  . x3 1

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

236

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

c) λ3 = 21 

2  1 3

 1   1  3 x x 3   x2  = 21  x2  ⇐⇒ 20 x3 x3

1 2 3

2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3

= = =

21x1 21x2 21x3 .

Al resolver este sistema el tercer autovector 

in ar

ε(λ3 )

   x1 1 =  x2  = α  1  . x3 6

2. Una matriz 3 × 3 con 2 autovalores reales distintos, es decir, una matriz con autovalores repetidos   4−λ −3 1 4 −3 1

i  i  = 0, −1 − λ 0 e A |ej i =  4 −1 0  ⇒ det Aj − λδji = 4 1 7 −4 − λ 1 7 −4

re lim

con lo cual el polinomio caracter´ıstico queda expresado como 2

λ3 + λ2 − 5λ − 3 = (λ + 3) (λ − 1) = 0 ,

y es claro que tiene 2 ra´ıces iguales y una distinta. En este caso λ = 1 es un autovalor degenerado de orden 2. Ahora resolveremos la ecuaci´on de autovalores para cada autovalor. a) λ1 = −3 4  4 1

−3 −1 7

Resolviendo

 1   1  x x 1 0   x2  = −3  x2  ⇐⇒ x3 x3 −4

rP



4x1 − 3x2 + x3 4x1 − x2 1 x + 7x2 − 4x3

= −3x1 = −3x2 = −3x3 .

   −1 x1 =  x2  = α  2  . 13 x3 

ad o

ε(λ1 )

b) λ2 = 1 (autovalor  4  4 1

degenerado de  −3 1 −1 0   7 −4

orden 2)   1  x1 x x2  =  x2  ⇐⇒ x3 x3

4x1 − 3x2 + x3 4x1 − x2 1 x + 7x2 − 4x3

= x1 = x2 = x3 .

Bo rr

Resolviendo el sistema tendremos el segundo autovector  1    x 1 ε(λ2 ) =  x2  = α  2  . x3 3

3. Otra matriz 3 × 3 con autovalores repetidos   2 1 1

i  i  2−λ i   2 3 2 e A |ej i = ⇒ det Aj − λδj = 2 3 3 3 4

Hern´ andez & N´ un ˜ez

1 1 3−λ 2 3 4−λ

Universidad de los Andes / Universidad Industrial de Santander

= 0, 237

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

con lo cual el polinomio caracter´ıstico es 2

λ3 + λ2 − 5λ − 3 = (λ − 7) (λ − 1) = 0 , que tiene 2 ra´ıces iguales y una distinta. En este caso λ = 1 vuelve a ser un autovalor degenerado de orden 2. Volvemos a calcular los autovectores correspondientes a cada autovalor a) λ1 = 7  1   1  1 x x 2   x2  = 7  x2  ⇐⇒ 4 x3 x3

1 3 3

Al resolver el sistema

   x1 1 =  x2  = α  2  . x3 3 

ε(λ1 ) b) λ2 = 1. En este caso el  2 1  2 3 3 3

2x1 + x2 + x3 2x1 + 3x2 + 3x3 3x1 + 3x2 + 4x3

autovalor degenerado de orden 2 presenta una peque˜ na  1   1  1 x x 2x1 + x2 + x3 = 2 2 2   x  =  x  ⇐⇒ 2x1 + 3x2 + 2x3 = 4 x3 x3 3x1 + 3x2 + 4x3 =

Resolviendo

ε(λ2 ) =

7x1 7x2 7x3 .

= = =

in ar

2  2 3

patolog´ıa. Veamos

re lim



x1 x2 x3 .

  1    x 1      x2  = α  0      −1 x3 

rP

   1    0 x      x2  = β  1     −1 x3

ad o

con lo cual el autovector ε(λ2 ) correspondiente al autovalor λ2 = 1 se podr´a escribir como  1      x 1 0 ε(λ2 ) = αε1 (λ2 ) + βε2 (λ2 ) =  x2  = α  0  + β  1  . −1 −1 x3

Bo rr

4. Una matriz 3 × 3 con 1 autovalor real y dos autovalores complejos   1−λ 1 2 3  i 

i e A |ej i =  3 1 2  ⇒ det Aj − λδji = 3 2 2 3 1

2 3 1−λ 2 3 1−λ

= 0,

con lo cual el polinomio caracter´ıstico queda expresado como  λ3 − 3λ2 − 15λ − 18 = (λ − 6) λ2 + 3λ + 3 = 0 ,

En este caso λ1 = 6 es un autovalor real. Adicionalmente existen dos √  √ autovalores complejos, uno el complejo conjugado del otro: λ2 = − 21 3 + i 3 y λ3 = − 12 3 − i 3 . Para proceder a calcular

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

238

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

los autovectores correspondientes a cada autovalor resolvemos la ecuaci´on autovalor real. En este caso existe un u ´ nico autovalor real λ = 6.   1   1  1 2 3 x x 4x1 − 3x2 + x3  3 1 2   x2  = 6  x2  ⇐⇒ 4x1 − x2 2 3 1 x3 x3 x1 + 7x2 − 4x3

de autovalores para cada = = =

6x1 6x2 6x3 .

Tendremos que para λ = 6    x1 1 =  x2  = α  1  . x3 1

ε(λ=6)

Practicando con Maxima:

in ar



En este ejercicio aprenderemos a resolver el problema de autovalores y autovectores. Primeros lo haremos de manera indirecta, realizando los c´ alculos por pasos, y luego usando las funciones espec´ıficas del programa. Dada la matriz A del primer ejemplo anteriormente resuelto:

re lim

(%i1) A:matrix([2,1,3], [1,2,3], [3,3,20]);   2 1 3 ( %o1) 1 2 3  3 3 20

Generamos la matriz identidad 3 × 3 con el comando ident(n).

rP

(%i2) I:ident(3);   1 0 0 ( %o2) 0 1 0 0 0 1

Escribimos la ecuaci´ on de autovalores de manera matricial y la llamaremos M .

ad o

(%i3) M:A-lambda*I;   2−λ 1 3 2−λ 3  ( %o3)  1 3 3 20 − λ

El determinante nos da el polinomio caracter´ıstico, luego resolvemos para λ.

Bo rr

(%i4) factor(determinant(M)); ( %o4) − (λ − 21) (λ − 2) (λ − 1) (%i5) solve(%=0);

( %o5) [λ = 1, λ = 2, λ = 21]

Los autovalores son: λ1 = 1, λ2 = 2 y λ3 = 21. Para cada autovalor evaluaremos una matriz correspondiente:

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

239

(%i6) M1:M,lambda=1; M2:M,lambda=2; M3:M,lambda=21;   1 1 3 ( %o6) 1 1 3  3 3 19   0 1 3 ( %o7) 1 0 3  3 3 18  −19 1 3 −19 3  ( %o8)  1 3 3 −1

in ar

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

Necesitamos ahora resolver, para cada autovalor, la ecuaci´on de autovectores: AX = λi X. As´ı que podemos escribir las siguientes matrices:

re lim

(%i9) M1:M1.[x,y,z]; M2:M2.[x,y,z]; M3:M3.[x,y,z];   3z + y + x ( %o9)  3 z + y + x  19 z + 3 y + 3 x 3z + y  3z + x ( %o10)  18 z + 3 y + 3 x   3 z + y − 19 x ( %o11)  3 z − 19 y + x  −z + 3 y + 3 x

rP

Iremos ahora resolviendo cada uno de los sistemas de ecuaciones. Para λ1 = 1: (%i12)ec1:M1[1,1]=0; ec2:M1[2,1]=0; ec3:M1[3,1]=0;

ad o

( %o12) 3 z + y + x = 0 ( %o13) 3 z + y + x = 0 ( %o14) 19 z + 3 y + 3 x = 0

(%i15)solve([ec1,ec2,ec3],[x,y,z]); solve: dependent equations eliminated: (2) ( %o15) [[x = − %r4 , y = %r4 , z = 0]]

Bo rr

Recordemos que Maxima nos indica con el s´ımbolo %rn que se trata de una constante. As´ı que de las infinitas soluciones escogemos alguna de las m´as simples: (1, −1, 0). Repetimos los c´ alculos para el segundo autovalor, es decir, λ2 = 2: (%i16)ec1:M2[1,1]=0; ec2:M2[2,1]=0; ec3:M2[3,1]=0;

( %o16) 3 z + y = 0 ( %o17) 3 z + x = 0 ( %o18) 18 z + 3 y + 3 x = 0

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

240

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

(%i19)solve([ec1,ec2,ec3],[x,y,z]); solve: dependent equations eliminated: (3) ( %o19) [[x = −3 %r5 , y = −3 %r5 , z = %r5 ]] Por lo tanto un autovector puede ser: (1, 1, −1/3). Finalmente, para λ3 = 21: (%i20)ec1:M3[1,1]=0; ec2:M3[2,1]=0; ec3:M3[3,1]=0;

in ar

( %o20) 3 z + y − 19 x = 0 ( %o21) 3 z − 19 y + x = 0 ( %o22) − z + 3 y + 3 x = 0 (%i23)solve([ec1,ec2,ec3],[x,y,z]);

re lim

solve: dependent equations eliminated: (3)   %r6 %r6 ,y = , z = %r6 ( %o23) x = 6 6 Podemos tomar como autovector a: (1, 1, 6). Maxima ofrece la posibilidad de resolver el problema de autovalores a trav´es de un determinado n´ umero de funciones. Por ejemplo, la funci´ on charpoly nos dar´a el polinomio caracter´ıstico directamente de la matriz que queremos estudiar y respecto de la variable que seleccionemos, es este caso ser´a λ. (%i24)charpoly(A,lambda);

( %o24) λ + ((2 − λ) (20 − λ) − 9) (2 − λ) + 3 (3 − 3 (2 − λ)) − 11

rP

(%i25)factor(%); ( %o25) − (λ − 21) (λ − 2) (λ − 1) (%i26)solve(%=0);

ad o

( %o26) [λ = 1, λ = 2, λ = 21]

El programa tambi´en permite obtener los autovalores directamente de la matriz problema. Esto se hace con el comando eigenvalues(M). El resultado ser´a una lista conformada a su vez por dos listas: la primera sublista la forman los valores propios de la matriz M y la segunda sus multiplicidades correspondientes. Veamos:

Bo rr

(%i27)eigenvalues(A); ( %o27) [[1, 2, 21] , [1, 1, 1]]

La funci´ on para calcular los autovectores es eigenvectors(M). El resultado ser´a una lista con dos elementos; el primero est´ a formado por dos listas: la primera con los valores propios de M y la segunda con sus respectivas multiplicidades, el segundo elemento es una lista de listas de vectores propios, una por cada valor propio. (%i28)eigenvectors(A);

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

241

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

     1 ( %o28) [[1, 2, 21] , [1, 1, 1]] , [[1, −1, 0]] , 1, 1, − , [[1, 1, 6]] 3 Para el ejemplo 2 tratado anteriormente, ten´ıamos la matriz

( %o29) [[[−3, 1] , [1, 2]] , [[[1, −2, −13]] , [[1, 2, 3]]]] Notemos que s´ olo se obtienen dos autovectores. Para el ejemplo 3:

re lim

(%i28)C:matrix([2,1,1], [2,3,2], [3,3,4]);   2 1 1 ( %o29) 2 3 2 3 3 4 (%i28)eigenvectors(C);

in ar

(%i29)B:matrix([4,-3,1], [4,-1,0], [1,7,-4]);   4 −3 1 ( %o29) 4 −1 0  1 7 −4 (%i29)eigenvectors(B);

( %o29) [[[7, 1] , [1, 2]] , [[[1, 2, 3]] , [[1, 0, −1] , [0, 1, −1]]]] Y finalmente el ejemplo 4:

ad o

rP

(%i28)D:matrix([1,2,3], [3,1,2], [2,3,1]);   1 2 3 ( %o29) 3 1 2 2 3 1 (%i28)eigenvectors(D); # # """ √ ## "" ## ## """ √ √ √ √ √ 3i + 3 3i − 3 3i − 1 3i + 1 3i + 1 3i − 1 , , 6 , [1, 1, 1] , 1, ,− , 1, − , , [[1, 1, 1]] ( %o29) − 2 2 2 2 2 2

El caso degenerado

Bo rr

Como hemos visto, existen situaciones en las cuales un determinado autovalor λ = λ0 es degenerado, estudiemos esta situaci´ on con un poco de detalle.   Consideremos una matriz n × n, Aij , por lo cual el polinomio caracter´ıstico P (λ) = det Aij − λδji = 0 tendr´ a una ra´ız degenerada de orden k ≤ n. Entonces el siguiente teorema garantiza la existencia de al menos un subespacio S (λ0 ) ⊂ Vn . Teorema: Sea un operador lineal A : Vn → Vn con una representaci´on matricial n × n tal que su polinomio P (λ) = det Aij − λδji = 0 tiene al menos una ra´ız degenerada λ = λ0 , de orden k ≤ n. Entonces

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

242

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

existen k autovectores, no triviales, que cumplen con A |ψj i = λ0 |ψj i

con j = 1, 2, · · · , k .

Demostraci´ on: La demostraci´ on tambi´en emerge de una variante del M´etodo de Inducci´ on Completa. Para ello, probamos que se cumple para j = 1. Esta afirmaci´ on es obvia. Si existe un λ = λ0 existe un |ψj i, tal que cumple con la ecuaci´ on anterior el es linealmente independiente con ´el mismo. Suponemos que se cumple para 1 ≤ j = m ≤ k. Es decir, existen m autovectores |ψj i de A para el autovalor λ0 . Definamos un subespacio Sλ0 = S (λ0 ) ⊂ Vn donde A |ψj i = λ0 |ψj i ⇒ A |ψj i ∈ Sλ0

/

con j = 1, 2, · · · , m ,

in ar

|ψj i ∈ Sλ0

por lo tanto, podremos separar Vn como una suma directa entre el subespacio Sλ0 y N , su complemento ortogonal Vn = Sλ0 ⊕ N / A |ψj i = λ0 |ψj i ∧ |φi ∈ N ⇒ hφ |ψj i = 0 ,

re lim

claramente Sλ0 es un subespacio invariante de A por cuanto su acci´on se circunscribe dentro del mismo subespacio Sλ0 . Mostraremos que se cumple para operadores herm´ıticos, por cuanto no es verdad en general, entonces  hφ |ψj i = 0  ∧ ⇒ hψj |φi = 0 = hψj | A† |φi = hψj | A |φi ,  A |ψj i = λ0 |ψj i

ad o

rP

de donde se concluye que el vector es ortogonal a Sλ0 y por lo tanto est´a en el complemento ortogonal A |φi ∈ N (por hip´ otesis |φi ∈ N ). Esto implica que N tambi´en es un espacio invariante del operador herm´ıtico A. Entonces, el espacio Vn puede expresarse como una suma directa de los dos subespacios invariantes respecto al operador lineal A y su representaci´on matricial en la base de autovectores tendr´a la forma de una matriz diagonal a bloques:    1 1 ··· 0 0 ··· 0 Q1 · · · Q1m 0 · · · 0   .. . .. .. .   .. . . .. .. ..   .  . . .. . . . ..  0 . .     m m    

j 0 ··· 0 Q1 Qm 0 · · · 0   0 · · · 1 j   u A |ui i = Ai →  m+1 m+1    ··· 0 1 0 0   0 · · · 0 Rm+1 · · · Rn   0  .   . . . . . . . . . . . . . . . . . . . . . . .   . . . .  . . . . . . . . 0

···

0

0

···

1

0

···

0

n Rm+1

···

Rnn

Bo rr

α µ donde Qα β y Rυ son matrices m × m y (n − m) × (n − m), respectivamente. La matriz Qβ opera en Sλ0 µ mientras que Rυ act´ ua sobre el complemento ortogonal N . El polinomio caracter´ıstico de A puede expresarse como       P (λ) = det Aij − λδji = 0 ⇒ P (λ) = det Qij − λδji det Rji − λδji = 0 ,

  y como λ = λ0 es la ra´ız m´ ultiple del polinomio caracter´ıstico que anula el det Qij − λδji , tendremos que   m det Qij − λ0 δji = 0 ⇒ P (λ) = (λ − λ0 ) F (λ)

Hern´ andez & N´ un ˜ez

con F (λ0 ) 6= 0 ,

Universidad de los Andes / Universidad Industrial de Santander

243

4.7. AUTOVALORES Y AUTOVECTORES DE UN OPERADOR

donde λ0 no es ra´ız del polinomio F (λ). Ahora bien, para que se cumpla cuando j = k el polinomio caracter´ıstico es k

m

k

j = k ⇒ P (λ) = (λ − λ0 ) R (λ) ⇒ (λ − λ0 ) F (λ) = (λ − λ0 ) R (λ) . Otra vez λ0 no es ra´ız del polinomio R (λ). La ecuaci´on anterior se cumple para todo λ en particular para λ = λ0 . Por lo tanto, k−m R (λ) 1 = (λ − λ0 ) . F (λ) Es claro que λ = λ0 obliga a k = m. J

Ejercicios

1. Encuentre los autovalores y autovectores de la siguiente  1 3 4 A= 3 −1 −2

in ar

4.7.2.

matriz  −1 −2  2

2. Demuestre que la matriz 

re lim

y verifique si los autovectores son ortogonales entre ellos. 2 A =  −6 3

0 4 −1

 0 4  0

rP

no tiene tres autovectores linealmente independientes y que cualquier autovector tiene la forma:   λ  3λ − 2ν  ν

ad o

3. Construimos un sistema con tres part´ıculas r´ıgidamente unidas, colocadas en tres puntos distintos de la siguiente forma       −1 1 1 m2 = 2 →  −1  y m3 = 1 →  1  m1 = 1 →  1  0 2 −2 a) Encuentre la matriz del tensor de inercia. b) Diagonalice esa matriz y encuentre los ejes principales de inercia.

Bo rr

4. En Mec´ anica Cu´ antica, el problema del oscilador arm´onico simple puede ser representado por un problema de autovalores L|ψ >= λ|ψ > ⇒ < x|L|ψ >= λ < x|ψ > ↔ Lψ(x) = λψ(x)

donde L ↔

d2 x2 1 + + 2 dx 4 2

Si construimos un par de operadores L+ =

x d + 2 dx

y

L− =

x d − 2 dx

Utilice los resultados del problema anterior y construya las nuevas autofunciones de L con sus autovalores.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

244

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

4.8.

Autovalores y autovectores de matrices importantes

En esta secci´ on presentaremos ejemplos de autovalores y autovectores de matrices de importancia en el campo de la F´ısica, esto incluye, por supuesto, el importante problema de las matrices complejas.

4.8.1.

Autovalores y autovectores de matrices similares

re lim

in ar

Supongamos la representaci´ on matricial de un determinado operador lineal A : V → V (dim V = n), y adem´ as que {|e1 i , |e2 i , |e3 i , · · · |en i} y {|w1 i , |w2 i , |w3 i , · · · |wn i} son dos bases ortogonales para V. Entonces A |ej i = Alj |el i y A |wj i = A˜lj |wl i ,



con: Aij = ei A |ej i y A˜ij = wi A |wj i. Ahora bien, cada uno de los vectores base {|ej i} y {|wj i} puede ser expresado en las otras bases {|wj i} y {|ej i} respectivamente como  |wj i = αjl |el i ,  −1 ⇒ |wj i = αjl βlm |wm i ⇒ αjl βlm = βlm αjl = δjm ⇒ βlm = (αlm ) .  m |el i = βl |wm i Las cantidades αjl son n´ umeros que pueden ser “arreglados” como una matriz. Esa matriz, adicionalmente es no singular7 por ser la representaci´ on de una transformaci´on lineal que aplica una base en otra. Entonces adem´ as |wj i = αjl |el i ⇒ A |wj i = αjl A |el i ⇒ A˜lj |wl i = αjm Akm |ek i = αjm Akm βkh |wh i , | {z } δjh

con lo cual

rP

A˜lj = αjm Akm βkl ⇒ A˜lj = βkl Akm αjm ⇒ A˜lj = αkl

−1

Akm αjm ,

que puede ser expresada en el lenguaje de operadores, finalmente como ˜ = C−1 AC A

⇐⇒



−1 k wi A |wj i = αki e A |em i αjm .

ad o

De esta manera hemos demostrado el siguiente teorema: Teorema: Dadas dos matrices, n × n, Alj y A˜ij las cuales corresponden a la representaci´on matricial de un operador A en las bases ortogonales {|ei i} y {|wi i}, respectivamente. Entonces existe una matriz αjl , no singular, tal que

 ˜ = C−1 AC ⇐⇒ wi A |wj i = αi −1 ek A |em i αm . J A k j

Bo rr

El inverso de este teorema tambi´en se cumple. Vale decir: Teorema: Si dos matrices n × n, Alj y A˜ij , est´an relacionadas por la ecuaci´on ˜ = C−1 AC ⇐⇒ A

i  ˜ |wj i = αi −1 wk A |wm i αm , w A k j

˜ y A representan el mismo operador lineal. donde C es una matriz no singular, entonces A 7 det



αij



6= 0

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

245

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Demostraci´ on: Para proceder a demostrarlo supondremos A : V → V y que dim V = n, supongamos adem´ as que: {|ei i} y {|wi i} son bases de V, de tal forma que  |wj i = αjl |el i  −1 ⇒ |wj i = αjl βlm |wm i ⇒ αjl βlm = βlm αjl = δjm ⇒ βlm = (αlm ) ,  m |el i = βl |wm i donde

αjl = el |wj i

y

βlm = (αlm )

−1

= hwm |el i .

Supongamos que

con: Aij = ei A |ej i

y

˜ |wj i = A˜l |wl i , A j

˜ |wj i , con: A˜ij = wi A

in ar

A |ej i = Alj |el i ,

al actuar A sobre |wj i tendremos

−1

A |wj i = αjl A |el i = αjl Akl |ek i = αjl Akl βkm |wm i = βkm Akl αjl |wm i = (αkm ) Akl αjl |wm i , | {z } ˜ ji hwi |A|w

re lim

˜ Con lo cual A ≡ A ˜ y queda demostrado el teorema. J que es exactamente la representaci´ on matricial de A. Definici´ on: Dos matrices, Akl y A˜ij , n × n, se denominar´an similares si existe una matriz no singular αki tal que 

˜ |wj i = αi −1 wk A |wm i αm . J ˜ = C−1 AC ⇐⇒ wi A A k j Podemos juntar los dos teoremas anteriores y afirmar que:

rP

Teorema: Dos matrices, Akl y A˜ij , n × n, similares representan la misma transformaci´on lineal. Teorema: Dos matrices, Akl y A˜ij , n × n, similares tienen el mismo determinante. Demostraci´ on: La demostraci´ on es inmediata y proviene de las propiedades del determinante de un producto: h i     ˜ = det C−1 AC = det C−1 det [A] det [C] = det [A] . J det A

ad o

Con lo cual es inmediato el siguiente Teorema.

Teorema: Dos matrices, Akl y A˜ij , n × n, similares tienen el mismo polinomio caracter´ıstico y con ello el mismo conjunto de autovalores. Demostraci´ on: Es inmediato verificar que

Bo rr

˜ − λI = C−1 AC − λI = C−1 (A − λI) C , A

y dado que

h i     ˜ − λI = det C−1 (A − λI) C = det C−1 det [A − λI] det [C] = det [A − λI] . det A

˜ y A, tendr´an el mismo polinomio caracter´ıstico y con ello el mismo Por lo tanto, ambas matrices, A conjunto de autovalores. J Todos los teoremas de esta secci´ on pueden ser resumidos en el siguiente teorema Teorema: Sea un operador lineal A : V → V y dim V = n, supongamos adem´as que el polinomio caracter´ıstico tiene n ra´ıces distintas, {λ1 , λ2 , . . . , λn }. Entonces tendremos que:

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

246

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Los diferentes autovectores {|u1 i , |u2 i , · · · , |un i} correspondientes a los {λ1 , λ2 , . . . , λn }, formar´ an una base para V.

La representaci´ on matricial del operador uk A |um i en la base de autovectores {|u1 i , |u2 i , · · · , |un i}, ser´ a diagonal

k A¯km = Wm = uk A |um i = diag (λ1 , λ2 , . . . , λn ) .

Cualquier otra representaci´ on matricial, ek A |em i, del operador A en otra base de V, estar´a relacionada con la representaci´ on diagonal mediante una transformaci´on de similaridad ⇐⇒

diag (λ1 , λ2 , . . . , λn ) = αki

−1 k e A |em i αjm ,

in ar

W = C−1 AC

donde αjm es una matriz, no singular y por lo tanto invertible, de cantidades que relacionan ambas bases  |uj i = αjl |el i  −1 ⇐⇒ βlm = (αlm ) ⇒ βlm αjl = δjm .  m |el i = βl |um i

re lim

La demostraci´ on, en t´erminos de los teoremas anteriores es inmediata y se la dejamos como ejercicio al lector. Una clase importante de transformaciones de similaridad son aquellas en las que C es unitaria, en esta caso se tiene que W = C−1 AC = C† AC. Adem´as, si la base original {|ei i} es ortonormal y la matriz C es unitaria, entonces, la nueva base ser´ a ortonormal. Las siguientes propiedades pueden ser de gran utilidad: Si A es herm´ıtica (anti-herm´ıtica) entonces W es herm´ıtica (anti-herm´ıtica).

rP

W† = (C† AC)† = C† A† C = ±C† AC = ±W . Si A es unitaria, es decir A† = A−1 , entonces W es unitaria.

W† W = (C† AC)† (C† AC) = C† A† CC† AC = C† A† AC = C† IC = I .

ad o

Ejemplo Dada la siguiente matriz real



1 A= 0 3

0 −2 0

 3 0  1

Bo rr

Los autovalores y autovectores para A son

  λ1 = 4 λ2 = −2 P (λ) = −(λ − 4)(λ + 2)2 = 0 ⇒  λ3 = −2

La matriz A se puede diagonalizar a trav´es de vectores normalizados de A como columnas.  1 C= √  2

Hern´ andez & N´ un ˜ez

  |u1 i = (1 0 1)T |u2 i = (0 1 0)T ⇒  |u3 i = (−1 0 1)T

la transformaci´on C† AC, donde C se construye con los 1 0 1

√0 2 0

 −1 0 . 1

Universidad de los Andes / Universidad Industrial de Santander

247

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

A pesar que los autovalores de independientes, por lo tanto:  1 √0 1 C† AC =  0 2 2 −1 0

A son degenerados (λ = 4, −2, −2) sus tres autovectores son linealmente  1 1 0  0 3 1

0 −2 0

 1 3 0  0 1 1

√0 2 0

  −1 4 0 = 0 0 1

0 −2 0

 0 0 . −2

Practicando con Maxima:

(%i1) A:matrix([1,0,3], [0,-2,0], [3,0,1]);   1 0 3 ( %o1) 0 −2 0 3 0 1 (%i2) L:eigenvectors(A);

re lim

( %o2) [[[−2, 4] , [2, 1]] , [[[1, 0, −1] , [0, 1, 0]] , [[1, 0, 1]]]]

in ar

Consideremos el ejemplo anterior

El resultado es una lista con los autovalores y su multiplicidad, y para cada autovalor los autovectores como sublistas. Es necesario manipular estas sublistas para obtener los autovectores: (%i3) L2:L[2]$ SL1:L2[1]; SL2:L2[2]; ( %o3) [[1, 0, −1] , [0, 1, 0]] ( %o4) [[1, 0, 1]]

rP

Por lo tanto, una lista con los autovectores es la siguiente (%i5) [SL1[1],SL1[2],SL2[1]]; ( %o5) [[1, 0, −1] , [0, 1, 0] , [1, 0, 1]]

ad o

Notemos el orden: los dos primeros vectores corresponden al autovalor −2 y el tercero al autovalor 4. Vamos ahora a normalizar cada vector. (%i6) V1:SL1[1]sqrt(SL1[1].SL1[1]); V2:SL1[2]/sqrt(SL1[2].SL1[2]);

Bo rr

V3:SL2[1]/sqrt(SL2[1].SL2[1]);   1 1 ( %o6) √ , 0, − √ 2 2 ( %o7) [0,  1, 0]  1 1 ( %o8) √ , 0, √ 2 2 Hacemos una lista con los vectores normalizados: (%i9) Lvec:[V1,V2,V3];

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

248

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

 ( %o9)

   1 1 1 1 √ , 0, − √ , [0, 1, 0] , √ , 0, √ 2 2 2 2

Construimos la matriz C: (%i10)C: transpose(apply(’matrix,Lvec)); 

√1 2

0 1 0

( %o10)  0 − √12

 √1 2 0

√1 2

in ar

Y finalmente

4.8.2.

re lim

(%i11)transpose(C).A.C;   −2 0 0 ( %o11)  0 −2 0 0 0 4

Autovalores y autovectores de matrices herm´ıticas

Tal y como mencionamos con anterioridad, un operador herm´ıtico cumple con  ∗ i

∗ , A† = A ⇒ A† j = ei A† |ej i = ej A |ei i = Aji

rP

esto es: el herm´ıtico conjugado de una matriz, es su traspuesta conjugada. Por lo tanto, las matrices herm´ıticas son sim´etricas respecto a la diagonal y los elementos de la diagonal son n´ umeros reales. Por su parte, llamaremos antiherm´ıtico a un operador que cumpla con:  ∗ i

∗ A† = −A ⇒ A† j = ei A† |ej i = − ej A |ei i = − Aji . Teorema: Suponga un operador herm´ıtico A = A† con autovalores: {λ1 , λ2 , . . . , λn }. Entonces:

ad o

Los autovalores {λ1 , λ2 , . . . , λn } son reales.

Los autovectores {|u1 i , |u2 i , · · · , |un i}, correspondientes a cada uno de los autovalores, ser´an ortogonales. Demostraci´ on:

Bo rr

Para demostrar que los autovalores {λ1 , λ2 , . . . , λn } son reales, proyectamos la ecuaci´on de autovalores en cada uno de los autovectores: A |ψi = λ |ψi ⇒ hψ| A |ψi = λ hψ |ψi .

Ahora bien, dado que hψ |ψi es real, si demostramos que hψ| A |ψi es real, estar´a demostrado que λ lo ser´ a tambi´en. Pero como A es herm´ıtico ∗

hψ| A |ψi = hψ| A† |ψi = hψ| A |ψi ⇒ hψ| A |ψi ∈ R ,

y por consiguiente los autovalores {λ1 , λ2 , . . . , λn } son reales. M´as a´ un, si A es herm´ıtico, y como sus autovalores son reales entonces hψ| A† = λ∗ hψ| = λ hψ| ⇒ hψ| A |φi = λ hψ |φi .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

249

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Para demostrar que los autovectores {|u1 i , |u2 i , · · · , |un i} son ortogonales, consideremos dos autovectores con sus correspondientes autovalores de tal forma que se cumplen las siguientes ecuaciones A |ψi = λ |ψi

A |ϕi = µ |ϕi ,

y

in ar

pero como A es herm´ıtico entonces se cumple que hϕ| A = µ hϕ|, multiplicando a la izquierda por |ψi y a hψ| A = λ hψ| por hϕ| a la derecha.    (hϕ| A = µ hϕ|) |ψi   hϕ| A |ψi = µ hϕ |ψi  ⇒ ⇒ (λ − µ) hϕ |ψi = 0 ,    hϕ| (A |ψi = λ |ψi) hϕ| A |ψi = hϕ |ψi y como hemos supuesto que λ 6= µ con lo cual hϕ |ψi = 0, los autovectores correspondientes a dos autovalores son ortogonales. J

re lim

Ejemplo La siguiente matriz es un ejemplo de una matriz herm´ıtica o autoadjunta:   1 −1 + 2i i 2 −1  ⇒ A† = A A =  −1 − 2i −i −1 3 Los autovalores de esta matriz son:

  λ1 = 4 √ 2 λ 2 = 1 + √5 P (λ) = − (λ − 4) λ − 2 λ − 4 = 0 ⇒  λ3 = 1 − 5 



3√

ad o

 √ 1 λ2 = 1+ 5 ⇒ |u2 i =  3

rP

Los tres autovalores reales generan los siguientes autovectores:   1 λ1 = 4 ⇒ |u1 i =  −1 − i  , 1

1 − 5i √   , − 5−2− 1+ 5 i

Bo rr

|ˆ u3 i = p

Hern´ andez & N´ un ˜ez

λ3 = 1− 5 ⇒ |u3 i =



Estos vectores normalizados son   1 |u1 i 1 −1 − i  , |ˆ u1 i = p = 2 hu1 |u1 i 1

|ˆ u2 i = p

|u3 i hu3 |u3 i

hu2 |u2 i

=p

 =p

30 − 6

1 √ 3



|u2 i

3





3 30 + 6



3√

1 + 5i √   . 5−2− 1− 5 i

3√



√  √ 1 − 5i √   , 5 − 5−2− 1+ 5 i 3√



1 + 5i √   . √  √ 5 5−2− 1− 5 i

Universidad de los Andes / Universidad Industrial de Santander

250

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

in ar

Se puede demostrar que los autovectores son ortogonales:   3√  1 −1 + i 1  √ 1 − 5 i √   = 0 hu1 |u2 i = (u1 )† u2 = 0 ⇒ − 5−2− 1+ 5 i   3√  1 + 5i √   = 0 1 −1 + i 1  √ hu1 |u3 i = (u1 )† u3 = 0 ⇒ 5−2− 1− 5 i   3√  √ √ √  1 + 5i √   = 0 hu2 |u3 i = (u2 )† u3 = 0 ⇒ 3 1 + 5i − 5 − 2 + 1 + 5 i  √ 5−2− 1− 5 i

30+6

a partir de los autovectores          

re lim

La matriz A es entonces diagonalizable si construimos la siguiente matriz normalizados:  1 √ 9 √ √ 9 √ 2 30+6 5 30−6 5   √ √  3(1+ 5 i) 3(1− 5 i)  −1−i √ √  √ √ P= 2 30+6 5 30−6 5   √ √ √ √  3( 5−2−(1− 5)i) 3(− 5−2−(1+ 5)i) 1 √ √ √ √ 2 5

30−6

5

rP

Si elegimos la matriz diagonal a partir de los autovalores:   4 0√ 0 0√  , Λ= 0 1+ 5 0 0 1− 5

entonces resulta que es posible factorizar la matriz A de la siguiente forma (Para el lector se deja la comprobaci´ on) A = PΛP† .

ad o

En este caso, se dice que A es diagonalizable unitariamente, por ser Λ diagonal y por ser P unitaria, es decir, por satisfacer la propiedad P† = P−1 . Es importante se˜ nalar el hecho de que si la matriz A es real, entonces A = PΛPT .

Bo rr

con Λ diagonal y P ortogonal: PT = P−1 . En resumen, si A es una matriz herm´ıtica perteneciente al espacio vectorial de matrices cuadradas n × n (A ∈ Cn×n o A ∈ Rn×n ) , entonces: Sus autovalores son reales. Los autovectores correspondientes a cada autovalor son ortogonales. Los autovectores de A resultan ser una base ortonormal del espacio vectorial (Cn×n o Rn×n ). Adem´ as: A = PΛP† , con P unitaria y Λ diagonal. (Si la matriz A es real P ser´a ortogonal).

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

251

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

4.8.3.

Autovalores y autovectores de matrices unitarias

Tal y como mencionamos anteriormente, un operador ser´a unitario si su inversa es igual a su adjunto. Esto es U−1 = U† ⇒ U† U = UU† = I . Dado que los operadores unitarios conservan la norma de los vectores sobre los cuales ellos act´ uan, i.e.  |˜ xi = U |xi  ⇒ h˜ y |˜ xi = hy| U† U |xi = hy |xi ,  |˜ y i = U |yi

in ar

son elementos naturales para representar cambios de base dentro de un espacio vectorial. De lo anterior se deduce que si {|ei i} es una base ortonormal, el conjunto de vectores transformados: |˜ej i = U |ej i, tambi´en ser´ an ortonormales:



|˜ej i = U |ej i ⇒ ˜ei |˜ej i = ˜ei U |ej i = ei U† U |ej i = δji .

re lim

Los operadores unitarios aplican vectores base de un espacio vectorial en otra. El siguiente teorema lo ilustra. Teorema: La condici´ on necesaria y suficiente para que un operador U : Vn → Vn sea unitario es que aplique vectores de una base ortonormal {|ei i} en otra {|˜ei i}, tambi´en ortonormal. Demostraci´ on: Demostremos primero la condici´on necesaria. Si es unitario aplica una base en otra. Esto es, supongamos que los vectores {|ej i} forman una base ortonormal para Vn . Sean |ψi, y U† |ψi ∈ Vn . Estos vectores pueden ser expresados en t´erminos de la base {|ej i} de Vn . Por lo tanto, si seleccionamos U† |ψi se cumple que:

rP

U† |ψi = cj |ej i ⇒ UU† |ψi = cj U |ej i = cj |˜ej i ⇒ |ψi = cj |˜ej i ,

ad o

donde hemos aplicado el operador U a la ecuaci´on U† |ψi = cj |ej i y el resultado es que el otro vector, |ψi, tambi´en se pudo expresar como combinaci´on lineal de los vectores transformados {|˜ej i} de la base {|ej i}. Y por lo tanto, los {|˜ej i} tambi´en constituyen una base. Es decir, los operadores unitarios aplican una base ortonormal en otra. La condici´ on de suficiencia (Si aplica una base en otra es unitario) se puede demostrar como sigue. Si {|ej i} y {|˜ej i} son bases ortonormales de Vn y una es la transformada de la otra implica que |˜ej i = U |ej i

con



|ej i ej = I ;

h˜ej | = hej | U† ,

i ˜e |˜ej i = δji ,

|˜ej i ˜ej = I ,

Bo rr

por lo tanto

ei |ej i = δji ,

y



U† U |ej i = U† |˜ej i = |ek i ek U† |˜ej i = |ek i ˜ek |˜ej i = |ek i δjk = |ej i .

Esto significa que U† U = I. J De un modo equivalente, se puede demostrar que UU† = I. Veamos:



U† |ej i = |ek i ek U† |ej i = |ek i ˜ek |ej i ,

y ahora, aplicando el operador U a esta ecuaci´on, tenemos



UU† |ej i = U |ek i ˜ek |ej i = |˜ek i ˜ek |ej i = |ej i . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

252

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Queda entonces demostrado demostrado que U es unitario: U† U = UU† = I. Por otro lado, la representaci´ on de una matriz unitaria en una base {|ej i} implica

 ∗ j ∗ Ujk = ek U |ej i ; hem | U† |ej i = ej U |em i = Um , por lo que δjk

=

X 





k

k j ∗ Um Um e |ej i = ek I |ej i = ek UU† |ej i = ek U |em i hem | U† |ej i =

=

X



k



∗ e |ej i = ek I |ej i = ek U† U |ej i = ek U† |em i hem | U |ej i = (Ukm ) Ujm .

m

δjk

in ar

m

Una vez m´ as, dado un operador lineal A, la representaci´on matricial del herm´ıtico conjugado de ese operador, A† , es la traspuesta conjugada de la matriz que representa al operador A. En el caso de operadores unitarios, lo cual es f´ acilmente verificable, basta comprobar la suma de los productos de los elementos de una columna (fila) de la matriz con los complejos conjugados de otra columna (fila) sea:

2. uno si las columnas (filas) son iguales.

re lim

1. cero si las columnas (filas) son distintas.

Ejemplos de matrices unitarias son las llamadas matrices de rotaci´on. Alrededor del eje z tendremos que   cos(θ) sen(θ) 0 R (θ) =  − sen(θ) cos(θ) 0  . 0 0 1 Tambi´en la matriz de rotaci´ on de una part´ıcula de esp´ın i

en el espacio de estados

(α, β, γ) =

i

e− 2 (α+γ) cos(β) −e 2 (α−γ) sen(β) i i e− 2 (α−γ) sen(β) e 2 (α+γ) cos(β)

rP

R

(1/2)



1 2



,

claramente se cumple la regla expuesta arriba.

ad o

Autovalores y autovectores: En cuanto a los autovalores y autovectores de matrices unitarias podemos ver que si |ψu i es un autovector, normalizado del operador U, correspondiente a un autovalor u tendremos que la norma al cuadrado ser´ a igual a U |ψu i = u |ψu i ⇒ hψ u | U† U |ψu i = 1 = u∗ u hψ u |ψu i = u∗ u ⇒ u = eiϕu ,

Bo rr

con ϕu una funci´ on real. Por lo cual podemos concluir que, necesariamente, los autovalores de los operadores unitarios ser´ an n´ umeros complejos de m´ odulo 1. Cuando los autovalores son diferentes, digamos w 6= u, entonces esta condici´ on implica que hψ w |ψu i = 0, con lo cual los autovectores de un operador unitarios son ortogonales. Transformaci´ on unitaria de operadores: Hemos visto como las transformaciones unitarias permiten construir bases ortogonales {|˜ei i} para el espacio vectorial Vn partiendo de otra base {|ei i} tambi´en ortogonal. Mostraremos aqu´ı como transforman los operadores lineales bajo transformaciones unitarias. Definici´ on: Dadas dos bases ortonormales {|ei i} y {|˜ei i} en Vn con; |˜ej i = U |ej i. Un operador lineal unitario U : Vn → Vn y un operador lineal A : Vn → Vn . Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

253

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

˜ : Vn → Vn como aquel cuya representaci´on matricial en la base Definiremos al operador transformado A

˜ |˜ei i = ej A |ei i. J {|˜ei i} es la misma que en la base {|ei i}: ˜ej A A partir de esta definici´ on es f´ acil concluir que





j ˜ |˜ei i = ej U† AU ˜ |ei i = ej A |ei i ⇒ U† AU ˜ = A ⇐⇒ A ˜ = UAU† . ˜e A ˜ = UAU† corresponde a la definici´on de la transformaci´on de un operador A Por lo tanto, la ecuaci´ on A mediante un operador unitario U† . Es f´ acil identificar las propiedades de estos operadores transformados:

 †  † ] †) , ˜ = UAU† = U† A† U = (A A

in ar

El herm´ıtico conjugado y funciones de un operador transformado:

˜ en particular se sigue de esta propiedad que si A = A† , es herm´ıtico, tambi´en lo ser´a A:

Del mismo modo

re lim

 † ˜= A ˜ . A = A† ⇐⇒ A

 2    2) , ] ˜ = UAU† UAU† = UA2 U† =(A A

con lo cual

 n   n−2   n) ] ˜ A = UAU† · · · UAU† = UAn U† =(A

  ˜ , F˜ (A) = F A

rP

donde F (A) es una funci´ on del operador A.



Los autovalores y autovectores de un operador transformado

ad o

E Ser´ a un autovector |φµ i de A correspondiente a un autovalor µ, y sea φ˜µ el transformado de |φµ i mediante el operador unitario U. Entonces E  E  ˜ φ˜µ = UAU† U |φµ i = UA |φµ i = µU |φµ i = µ φ˜µ , A |φµ i = µ |φµ i ⇒ A E ˜ con el mismo autovalor µ : con lo cual es claro que φ˜µ es un autovector de A

E E ˜ φµ = µ φ˜µ .

Bo rr

Equivalentemente podemos afirmar que los autovectores transformados de A, ser´an autovectores del ˜ operador transformado A. Ejemplo Dada la matriz



√1 2

  i A=  − √2  0

√1 2

0

√i 2

  0  . 

0



i

Esta matriz es unitaria, ya que: A† = A−1 .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

254

4.8. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

Los autovalores de esta matriz son: 

P (λ) = (λ − i) 2 λ2 −



 √ √ 2(1+i)−2 −3i   λ1 = √ 4 √ −3i 2(1 + i)λ + 2 i = 0 ⇒ λ2 = 2(1+i)+2 4   λ3 = i 

λ3 λ∗3

=

i(−i) = 1

Estos tres autovalores generan los autovectores:  λ1

=

√   2(1 + i) − 2 −3i ⇒ |u1 i =   4 



√ i− −6i−1 2

  ,  

re lim



1

in ar

Notemos que los valores propios est´ an normalizados a la unidad ! √ √ ! √ √ 2(1 + i) − 2 −3i 2(1 − i) − 2 3i ∗ =1 λ1 λ1 = 4 4 ! √ √ ! √ √ 2(1 + i) + 2 −3i 2(1 − i) + 2 3i λ2 λ∗2 = =1 4 4

0



√ λ2

=

2(1 + i) + 2 4



−3i

  ⇒ |u2 i =   



1

√ i+ −6i−1 2

  ,  

0





0 = i ⇒ |u3 i =  0  , 1

rP

λ3

ad o

Se puede demostrar que los autovectores son ortogonales: hu1 |u2 i =

Bo rr

hu1 |u3 i =

hu2 |u3 i =

(u1 )† u2 = 0 ⇒



(u1 )† u3 = 0 ⇒



(u2 )† u3 = 0 ⇒







1

−i− 6i−1 2

1

√ −i− 6i−1 2

1

√ −i+ 6i−1 2

0

  

1

√ i+ −6i−1 2

 =0

0 

0  0 =0 1   0  0  0 =0 1 0



Con los autovectores normalizados construimos la matriz U, que tambi´en ser´a unitaria, y la matriz diagonal Λ con los autovalores.    √  √ √ 1√ √ 1√ 0 2(1+i)−2 −3i 3+√ 3 3− 3 0 0 √ 4  (1−i) 3+1  √ √   3−1 ( ) (1−i) 2(1+i)+2 −3i U= √( √ ) 0  0 0 ,  − √ √ , Λ= 4 2 3+ 3 2 3− 3 0 0 i 0 0 1 Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

255

4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Como dijimos con anterioridad, existe una relaci´on entre las matrices normales y las matrices unitarias: una matriz A es normal, s´ı y s´ olo s´ı, existe una matriz diagonal Λ y una unitaria U tal que: A = UΛU† . Dejamos al lector la comprobaci´ on. Esto significa que A es tambi´en normal, es decir AA† = A† A .

4.8.4.

Ejercicios

1. Diagonalizar unitariamente A=

2 i

−i 1



,

2. Diagonalizar ortogonalmente  A=

1 −3

1 1+i 5 B= 1−i −2i −3



−3 1

3. Demuestre que la matriz





,

3 B =  −2 4

x x + iy

rP

 C=

 2i −3  0

re lim



in ar

El lector puede entonces demostrar que las matrices herm´ıticas, semi-herm´ıticas y las unitarias son matrices normales.

x − iy −z

−2 6 2

 4 2  3



es igual a C = xσ 1 + yσ 2 + zσ 3 . Donde las matrices σ i son la matrices de Pauli.

Conjunto completo de observables que conmutan

ad o

4.9.

n n  Definici´ on: Diremos que un operador A : V → V es un observable si el conjunto de autovectores ui(µ) de un operador herm´ıtico A, forman una base de Vn . D D A ui(µ) = ai ui(µ) ⇒ ui(µ) ui(µ) = 1 ⇐⇒ ui(µ) uj(ν) = δji δνµ ,

Bo rr

donde el ´ındice µ indica el grado de degeneraci´on del autovalor λi . J Un ejemplo trivial de un observable lo constituyen los proyectores, P|ψi = |ψi hψ| con hψ| ψi = 1. Claramente, la ecuaci´ on de autovalores para un proyector obliga a que tenga dos autovalores 0 y 1. El autovalor nulo es infinitamente degenerado y est´a asociado a todos los vectores ortogonales a |ψi, mientras que el autovalor 1 corresponde a un autovalor simple y est´a asociado a todos los vectores colineales al mismo vector |ψi. Esto es: P|ψi |ψi = |ψi y P|ψi |φi = 0 si hψ| φi = 0 . M´ as a´ un, sea un vector arbitrario |ϕi ∈ Vn . Siempre se podr´a expresar como    |ϕi = P|ψi |ϕi + I − P|ψi |ϕi ⇒ P|ψi |ϕi = P|ψi |ϕi + I − P|ψi |ϕi ,

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

256

4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

por lo tanto     P|ψi |ϕi = P|ψi P|ψi |ϕi + P|ψi − P2|ψi |ϕi = P|ψi |ϕi =⇒ P|ψi P|ψi |ϕi = P|ψi |ϕi , ya que P2|ψi = P|ψi , por definici´ on de proyector. Entonces, se deduce que P|ψi |ϕi es un autovector de P|ψi  con autovalor 1. Igualmente I − P|ψi |ϕi es un autovector de P|ψi con autovalor 0, y la demostraci´ on es inmediata    P|ψi I − P|ψi |ϕi = P|ψi − P2|ψi |ϕi = 0 .

i

i

Para los observables que conmutan se tienen los siguientes teoremas:

in ar

Para el caso de autoespacios correspondientes a autovalores degenerados se puede definir un observable A de la forma   X D para: µ = 1, 2, · · · , k . A= ai Pi con: Pi = ψ·(µ) ψ ·(µ)

Demostraci´ on: La demostraci´ on es sencilla

re lim

Teorema: Si dos operadores lineales A y B, operadores herm´ıticos, conmutan, [A, B] = 0, y |ψi es autovector de A con autovalor σ, entonces B |ψi tambi´en ser´a autovector de A con el mismo autovalor σ.

A |ψi = a |ψi ⇒ B (A |ψi = σ |ψi) ⇒ BA |ψi = A (B |ψi) = σ (B |ψi)

J

Ahora bien, de esta situaci´ on se puede distinguir un par de casos:

rP

si el autovalor σ es no degenerado los autovectores asociados con este autovalor son, por definici´on, colineales con |ψi. Por lo tanto B |ψi, ser´a necesariamente colineal con |ψi. La conclusi´on a esta afirmaci´ on es que NECESARIAMENTE |ψi es autovector de B. si el autovalor σ se degenerado, B |ψi ∈ Sσ , es decir B |ψi est´a en el autoespacio Sσ con lo cual Sσ es globalmente invariante bajo la acci´ on de B.

ad o

Teorema: Si dos observables A y B conmutan, [A,

B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0 Demostraci´ on: Si A |ψ1 i = σ1 |ψ1 i y A |ψ2 i = σ2 |ψ2 i entonces







0 = ψ 1 [A, B] |ψ2 i = ψ 1 AB − BA |ψ2 i = ψ 1 A B |ψ2 i − ψ 1 B (A |ψ2 i)







= σ1 ψ 1 B |ψ2 i − σ2 ψ 1 B |ψ2 i = (σ1 − σ2 ) ψ 1 B |ψ2 i ⇒ ψ 1 B |ψ2 i = 0 . J

Bo rr

Teorema: Si dos observables A y B, operadores herm´ıticos, conmutan, [A, B] = 0, los autovectores {|ψi i} comunes a A y B constituyen una base ortonormal para Vn . Demostraci´ on: Denotemos los autovectores de A como ψi(µ) , de tal modo A ψi(µ) = σi ψi(µ) donde i = 1, 2, .., n − kn + 1 y µ = 1, 2, .., kn ,

kn indica el orden de la degeneraci´ on de un determinado autovalor σn . Dado que A es un observable, los ψi(µ) forman una base, claramente: D ψ i(µ) ψj(ν) = δji δνµ .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

257

4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN



Dado que los elementos de la matriz ψ i(ν) B ψj(ν) = δji , entonces esto quiere decir que los elementos

i(µ) an nulos para i 6= j, pero no podemos decir nada a priori para el caso µ 6= υ y Bj(ν) = ψ i(µ) B ψj(ν) ser´ i = j. En general, al ordenar la base ψ1(1) , ψ1(2) , · · · ψ1(k ) , ψ2(1) , ψ2(2) , · · · , ψ2(k ) , · · · , ψ3(1) , · · · ψn−k (1) , 2 n 1

re lim

in ar

para el caso que consideraremos ser´ a ψ1(1) , ψ1(2) , ψ1(3) , ψ2(1) , ψ2(2) , ψ3(1) , ψ4(1) , ψ4(2) , ψ5(1) . J

La representaci´ on matricial de B en esa base, ψ i(µ) B ψj(ν) , tendr´a la forma de una matriz diagonal a bloques  1 (1)  1 (1) 1 (1) B1 (1) B1 (2) B1 (3) 0 0 0 0 0 0  1 (2)  (2) 1 (2)  B1 (1) B11 (2)  B1 (3) 0 0 0 0 0 0    B 1 (3) B 1 (3) B 1 (3)  0 0 0 0 0 0  1 (1)  1 (2) 1 (3)   2 (1) 2 (1)   0 0 0 B B 0 0 0 0 2 (1) 2 (2)     2 (2) 2 (2) 0 0 0 B2 (1) B2 (2) 0 0 0 0     3 (1)   0 0 0 0 0 B3 (1) 0 0 0     4 (1) 4 (1)   0 0 0 0 0 0 B4 (1) B4 (2) 0   4 (2) 4 (2)   0 0 0 0 0 0 B4 (1) B4 (2) 0   5 (1) 0 0 0 0 0 0 0 0 B5 (1)

rP

Tal y como hemos mencionado los subespacios: E 1 , E 2 , y E 4 corresponden a los autovalores degenerados σ1 , σ2 , y σ4 (de orden 3, 2 y 2 respectivamente). Una vez m´ as surgen dos casos a analizar: Si σn es un autovalor no degenerado, entonces existe un u ´nico autovector asociado a este autovalor (la dimensi´ on del autoespacio es 1 → kj = 1, y no hace falta). Esto corresponde al ejemplo hipot´etico anterior para los autovalores simples σ3 , y σ5 .

Bo rr

ad o

Si σn es un autovalor degenerado, entonces existe un conjunto de autovectores asociados a este autovalor σn (en este caso la dimensi´ on del autoespacio es kn ). Como los ψj(µ) son autovectores de A su representaci´ on matricial ser´ a diagonal a bloques. Ahora bien, como el autoespacio Sa es globalmente

i (µ) invariante bajo la acci´ on de B y Bj(µ) = ψ i(µ) B ψj(µ) es herm´ıtico, por ser B herm´ıtico, entonces B es diagonalizable dentro del bloque que la define. Es decir, se podr´a conseguir una base χj(µ) tal que la representaci´ on matricial de B en esa base es diagonal D D i(µ) ˜ i(µ) = βj(µ) δji , Bj = ψ i(µ) B ψj(µ) =⇒ χi(µ) B χj(µ) = B j(µ) que no es otra cosa que los vectores χj(µ) ser´an autovectores de B B χj(µ) = βj(µ) χj(µ) .

Es importante recalcar que los autovectores ψj(µ) de A asociados con un autovalor degenerado NO son necesariamente autovectores de B. S´ olo que como B es herm´ıtico puede ser diagonalizado dentro del autoespacio.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

258

4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

De ahora en denotaremos los autovectores comunes a dos operadores A y B con distintos auto adelante valores como u i|j(µ) tal que y B u n|m(µ) = βm u n|m(µ) , A u n|m(µ) = σn u n|m(µ) donde hemos dejado “espacio” para permitir la degeneraci´on la cual ser´a indicada por el ´ındice µ. La prueba del inverso del teorema anterior es bien simple  comunes a A y B, entonces A y B conmutan, Teorema: Si existe una base de autovectores uj(µ) [A, B] = 0

in ar

Demostraci´ on: Es claro que AB u n|m(µ) = βm A u n|m(µ) = βm σn u n|m(µ) BA u n|m(µ) = σn B u n|m(µ) = σn βm u n|m(µ)

re lim

restando miembro a miembro obtenemos de manera inmediata (AB − BA) u n|m(µ) = [A, B] u n|m(µ) = (βm σn − σn βm ) u n|m(µ) = 0 . J

Definici´ on: Los operadores: {A, B, C, D · · ·} constituye un conjunto completo de observables que conmuntan si: 1. Obviamente los operadores del conjunto conmutan entre ellos:

[A, B] = [A, C] = [A, D] = [B, C] = [B, D] = [C, D] = · · · = 0 2. Al especificar el conjunto de autovalores para los operadores

rP

{αn , βm , γk , δl , · · ·}

se especifica de manera un´ıvoca un u ´nico autovector com´ un a todos estos operadores {αn , βm , γk , δl , · · ·} ⇒ u n|m|k|l··· (µ) . J

ad o

Ejemplos

1. Considere, que el espacio de estados para un determinado sistema f´ısico viene expandido por una base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i}. Definimos dos operadores Lz y S de la siguiente manera Lz |ξ1 i = |ξ1 i ; S |ξ1 i = |ξ3 i ;

Lz |ξ2 i = 0; S |ξ2 i = |ξ2 i ;

Lz |ξ3 i = − |ξ3 i S |ξ3 i = |ξ1 i

Bo rr

En la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} las representaciones matriciales para siguientes    1 0 0 1 0

i

i 2 ξ Lz |ξj i =  0 0 0  , ξ Lz |ξj i =  0 0 0 0 −1 0 0  0

i ξ S |ξj i =  0 1

Hern´ andez & N´ un ˜ez

0 1 0

 1 0 , 0

 1

i 2 ξ S |ξj i =  0 0

0 1 0

Lz , L2z , S y S2 ser´ an las  0 0  1

 0 0  1

Universidad de los Andes / Universidad Industrial de Santander

259

4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Es claro que estas matrices son reales y sim´etricas y, por lo tanto, son herm´ıticas y, al ser el espacio de dimensi´ on finita, deben ser diagonalizables y sus autovectores formar´an base para ese espacio. Por lo tanto, Lz , L2z , S y S2 son observables. Ahora bien: ¿Cu´al ser´a la forma m´as general de una representaci´ on matricial de un operador que conmute con Lz ?

Esto se desprende de manera directa de





0 = ξ i [M, Lz ] |ξj i = ξ i MLz − Lz M |ξj i = (λj − λi ) ξ i M |ξj i ,

in ar

Notamos que los vectores de la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} son autovectores para Lz con autovalores {1, 0, −1}, con lo cual su representaci´on matricial tiene que ser diagonal. Recuerde que si dos observables A y B conmutan, [A, B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0, con lo cual   M11 0 0

i M22 0 . [M, Lz ] = 0 ⇔ ξ M |ξj i =  0 0 0 M33

con

(λj − λi ) 6= 0

para i 6= j .

L2z |ξ1 i = |ξ1 i ;

re lim

Si nos planteamos la misma pregunta para L2z , vemos que sus autovalores son {1, 0}. Esto es L2z |ξ2 i = 0;

L2z |ξ3 i = |ξ3 i ,

rP

con lo cual tendremos que la representaci´on matricial para ese operador que conmute con L2z , no es diagonal. Esto es  1  N1 0 N31

[N, L2z ] = 0 ⇔ ξ i N |ξj i =  0 N22 0  , N13 0 N33 ya que





0 = ξ 1 [N, L2z ] |ξ3 i ⇒ ξ 1 N |ξ3 i = ξ 1 N |ξ3 i , y vale para cualquier elemento N31 (y equivalentemente para N13 ).

ad o

Adicionalmente, si ordenamos la base de autovectores de Lz , como {|ξ1 i , |ξ3 i , |ξ2 i} tendremos como representaci´ on matricial diagonal a bloques, correspondiente a un autorvalor degenerado 1   1 N1 N31 0

i ˜ |ξj i =  N13 N22 0  . ξ N 0 0 N33

Bo rr

Finalmente, la representaci´ on matricial, m´as general, de un operador que conmute con S2 es  1  P1 P21 P31

[P, S2 ] = 0 ⇔ ξ i P |ξj i =  P12 P22 P32  . N13 P23 P33

Ahora intentaremos construir una base com´ un de autovectores para L2z y S. Para ello notamos que |ξ2 i 2 es un autovector com´ un a Lz y S, por lo tanto existir´a un subespacio expandido por {|ξ1 i , |ξ3 i}. En ese subespacio las respresentaciones matriciales para L2z y S, ser´an    

i 2

i 1 0 0 1 ξ Lz |ξj iS13 = , ξ S |ξj iS13 = . 0 1 1 0

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

260

4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Acto seguido planteamos el problema de autovalores para S, esto es        |q2 i = 0 1 q1 q1 S |qj i = λj |uj i ⇒ =λ ⇒ 1 0 q2 q2  |q3 i =

√1 2

(|ξ1 i + |ξ3 i)

√1 2

(|ξ1 i − |ξ3 i)

con lo cual tendremos Autovalor L2z 0 1 1

Autovalor S 1 1 -1

in ar

Autovectores |q1 i = |ξ2 i |q2 i = √12 (|ξ1 i + |ξ3 i) |q3 i = √12 (|ξ1 i − |ξ3 i)

Cuadro 4.1: Dado que no hay l´ıneas repetidas L2z y S forman un CCOC.

m¨ x1 + kx1 − k(x2 − x1 )

=

0

m¨ x2 + kx2 + k(x2 − x1 )

=

0,

re lim

2. Consideremos otro ejemplo proveniente de la Mec´anica Cl´asica. Se trata de dos osciladores arm´onicos, de igual masa, acoplados con resortes con la misma constante el´astica k. La ecuaciones de movimiento para este sistema son:

rP

con lo cual, podremos expresar estas ecuaciones en forma de operadores: !  d2 m dt −k x1 2 + 2k D |xi = 0 ⇔ = 0. 2 x2 −k m d 2 + 2k dt

ad o

Si pensamos esta ecuaci´ on como una ecuaci´on de autovalores, el autovalor es claramente λ = 0 y como las masas y las constantes el´ asticas son iguales podemos intercambiar las part´ıculas y la f´ısica (las ecuaciones de movimiento) no cambian. Esto se puede expresar matem´aticamente como el operador permutaci´ on de las part´ıculas     1   2  0 1 0 1 x x P= ⇒ = . 1 0 1 0 x2 x1

Bo rr

Es inmediato comprobar que [D, P] = 0, con lo cual existir´a una combinaci´on lineal de autovectores de D (asociados con el autovalor λ = 0) los cuales tambi´en ser´an autovectores de P. Para ello procedamos a calcular los autovalores y autovectores de P     −λ 1 1 1 1 1 P |xi = λ |xi ⇒ = 0 ⇒ λ ± 1 ⇔ |ˆe1 i = √ ; |ˆe2 i = √ . 1 −λ 1 −1 2 2

F´ acilmente podemos expresar el vector posici´on como una combinaci´on lineal de estos dos autovectores de P, esto es  1      1   ξ1 = √2 (x1 + x2 ) ξ ξ x 1 1 1 2 =√ +√ ⇒ x2 1 −1  2 2 ξ2 = √12 (x1 − x2 )

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

261

4.9. CONJUNTO COMPLETO DE OBSERVABLES QUE CONMUTAN

Es claro que 1 |u1 i = √ (x1 + x2 ) 2



1 1

 y

1 |u2 i = √ (x1 − x2 ) 2



1 −1

 ,

son autovectores de P y D.

4.9.1.

Ejercicios

in ar

Dado un observable A y un vector de estado |ψi general, definiremos el valor esperado de A a la cantidad hAi = hψ| A |ψi, y la relaci´ on de dispersi´ on de A como D E D E 2 2 2 2 (∆A) = (A − hAi I) = A2 − hAi ≡ hψ| A2 |ψi − hψ| A |ψi ,

re lim

donde I es el operador identidad. N´ otese que el valor esperado es un n´ umero que representa la dispersi´ on de un observable y tiene la misma estructura e interpretaci´on de la variancia en estad´ıstica. D E 2 1. Muestre que la dispersi´ on siempre es positiva, i.e (∆A) > 0. Para ello:

a) Inicie mostrando que para cualquier operador herm´ıtico C se cumple C2 > 0. b) Termine mostrando que A − hAi I es un operador herm´ıtico.

2. Muestre que la dispersi´ on se anula para el caso en que |ψi es autovector de A con autovalor hAi. 3. Utilizando la desigualdad de Cauchy-Schwarz muestre que las relaciones de dispersi´on entre dos observables A y B siempre cumplen

rP

D ED E 1 2 2 2 (∆A) (∆B) > |h[A, B]i| 4

con

[A, B] = AB − BA .

Esta es la forma general de la relaci´ on de incertidumbre.8

ad o

4. En Mec´ anica Cu´ antica se define el operador de spin como Si = ~2 σi donde las σi son las matrices de Pauli y los valores de i = 1, 2, 3 representan las direcciones x, y, z, respectivamente. a) Encuentre la expresi´ on para el conmutador [Si , Sj ], con i, j = 1, 2, 3.

Bo rr

b) Considere un vector de estado general |ψi = a |+i + b |−i, donde a y b son n´ umeros complejos que cumplen con a2 + b2 = 1 y {|+i , |−i} la base de autovectores de Sz . Muestre que D ED E 2 2 (∆Sz ) (∆Sx ) > ~4 [Im(ab∗ )]2 , con Im(◦) la parte imaginaria del argumento.

8 Para

detalles de las implicaciones de este problema se puede consultar Dumitru, S. “On the uncertainty relations and quantum measurements: conventionalities, shortcomings, reconsideration. arXiv preprint quant-ph/0504058 (2005). Y tambi´ en Dumitru, S. “A possible general approach regarding the conformability of angular observables with mathematical rules of Quantum Mechanics. arXiv preprint quant-ph/0602147 (2006).

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

262

4.10. SISTEMAS DE ECUACIONES LINEALES

4.10.

Sistemas de ecuaciones lineales

A11 x1 + A12 x2 + · · · A1n xn

=

c1

A21 x1 + A22 x2 + · · · A2n xn

= .. .

c2

Am1 x1 + Am2 x2 + · · · Amn xn

=

cm ,

Este sistema puede ser expresado de una forma m´as compacta i α Aα i x =c

y α = 1, 2, .., m ,  por lo tanto, tendremos m ecuaciones lineales para n inc´ognitas x1 , x2 , · · · xn . Las cantidades Aα i resultan ser las componentes de la matriz de los coeficientes. Si todos los ci son cero el sistema se denomina homog´eneo, en caso contrario inhomog´eneo. Puede resultar que el conjunto de las inc´ ognitas {xi } represente una soluci´on, infinitas soluciones o que simplemente no exista una soluci´ on para el sistema. Este problema puede ser pensado como un problema de un operador A en el espacio vectorial de transformaciones lineales L (V, W) donde dim (V) = n y dim (W) = m, con las cα las componentes del vector transformado i |ci = A |xi → cα = Aα i x .

re lim

con i = 1, 2, .., n

in ar

Una de las aplicaciones m´ as u ´tiles del ´algebra de matrices es la resoluci´on de sistemas de ecuaciones lineales.

Ejemplo

4.10.1.

= 5 = 3 = 10



2 ⇒  4 −2

    3 −1 x 5 4 −3   y  =  3  . 3 −1 z 1

ad o

2x + 3y − z 4x + 4y − 3z −2x + 3y − z

rP

El operador A aplicar´ a todo vector de V en alg´ un subespacio (o todo el espacio) de W. A este subespacio se le denomina el rango o recorrido de A y su dimensi´on es igual al rango de la matriz A. Si A (o A) es no singular, entonces existe alg´ un subespacio de V que es aplicado al vector cero de W, es decir, se cumple que A |x0 i = |0i donde el conjunto de vectores {|x0 i} se le llama el espacio nulo de A.

Eliminaci´ on de Gauss Jordan

Bo rr

Uno de los m´etodos m´ as utilizados es el de la eliminaci´on de Gauss Jordan, el cual se basa en el intercambio de ecuaciones y la multiplicaci´ on apropiada e inteligente por constantes y resta de ecuaciones. La idea es construir una matriz triangular superior para poder luego despejar desde abajo. Veamos como se aplica el m´etodo para resolver el sistema de ecuaciones. Primeramente escribimos el siguiente arreglo:   a 2 3 −1 5 b  4 4 −3 3  , c −2 3 −1 1 entonces para eliminar x de la fila c (o la ecuaci´on ser´ a la nueva c  a 2 b  4 c0 0 Hern´ andez & N´ un ˜ez

c) sumamos la fila a con la c, a + c y esta nueva ecuaci´ on  3 −1 5 4 −3 3  , 6 −2 6

Universidad de los Andes / Universidad Industrial de Santander

263

4.10. SISTEMAS DE ECUACIONES LINEALES

ahora −2a + b ser´ a la nueva b

finalmente 3b0 + c0

 a 2 b0  0 c0 0

3 −2 6

−1 −1 −2

 5 −7  , 6

 a 2 b0  0 c00 0

3 −2 0

−1 −1 −5

 5 −7  . −15

Este sistema es equivalente al primer sistema de ecuaciones. La soluci´on emerge r´apidamente: −2y − z = −7 → −2y − 3 = −7 → y = 2 ,

2x + 3 (2) − 3 = 5 → x = 1 .

in ar

−5z = −15 → z = 3 ,

Es bueno recalcar que los sistemas de ecuaciones lineales no necesariamente tienen soluci´on y a veces tienen m´ as de una soluci´ on.

4.10.2.

El m´ etodo de la matriz inversa

re lim

El an´ alisis matricial nos puede ayudar a investigar sobre las posibles soluciones de un sistema de ecuaciones lineales, como vimos, en notaci´ on de matrices el sistema se puede escribir de la manera siguiente:      A11 A12 · · · A1n x1 c1  A21 A22 · · · A2n   x2   c2        ..   ..  =  ..  ⇒ AX = C . ..  .     . . .  Am1 Am2 · · · Amn xn cm

rP

Podemos considerar a cada columna de la matriz A como un vector, entonces el rango r de la matriz A ser´ a igual al n´ umero de vectores linealmente independientes, este n´ umero es tambi´en la dimensi´ on del espacio vectorial que expanden estos vectores. Con respecto a las posibles soluciones del sistema podemos decir: 1. Si C pertenece al rango de A y adem´as r = n, entonces todos los vectores del conjunto son linealmente independientes y el sistema tendr´ a como u ´nica soluci´on al conjunto {x1 , x2 , . . . xn }.

ad o

2. Si C pertenece al rango de A y adem´as r < n, entonces u ´nicamente r vectores ser´an linealmente independientes. Esto significa que podremos escoger los coeficientes de los n − r vectores de manera arbitraria sin dejar de satisfacer el sistema. Por tanto, existir´a un n´ umero infinito de soluciones, que expanden un espacio vectorial de dimensi´on n − r. 3. La otra posibilidad es que el sistema no tenga soluci´on, en este caso C NO pertenece al rango de A.

Bo rr

Cuando el sistema es homog´eneo, C = 0, claramente existe una soluci´on que viene a ser la trivial: {x1 = x2 = · · · = xn = 0}, adem´ as, si r = n ´esta ser´a la u ´nica soluci´on. Es bueno anotar que si hay menos ecuaciones que inc´ ognitas (m < n) entonces autom´aticamente r < n, por lo tanto un conjunto de ecuaciones lineales homog´eneas con menos ecuaciones que inc´ognitas siempre tiene una infinidad de soluciones. Debemos considerar el importante caso cuando m = n, es decir, la matriz A es cuadrada y existe igual n´ umero de ecuaciones como de inc´ ognitas. Al ser cuadrada la matriz se tiene que la condici´on r = n implica que la matriz es no singular (det[A] 6= 0). El caso r < n se corresponde a que det[A] = 0. Para resolver el sistema de ecuaciones consideremos lo siguiente: dada la matriz A, n × n no singular, entonces A tiene una matriz inversa, tal que: AX = C ⇒ X = A−1 C .

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

264

4.10. SISTEMAS DE ECUACIONES LINEALES

Ejemplo Resolver el sistema 2x1 + 4x2 + 3x3

=

4

x1 − 2x2 − 2x3

=

0

−3x1 + 3x2 + 2x3

=

−7

Lo anterior es igual a 

4 −2 3

    3 x1 4 −2   x2  =  0  , 2 x3 −7

in ar

2  1 −3

al calcular la matriz inversa de A entonces resulta que        2 1 −2 4 x1 2 1  4  x2  = 13 7   0  =  −3  . 11 −3 −18 −8 −7 x3 4

4.10.3.

re lim

Existe entonces una u ´nica soluci´ on al sistema, que es: {x1 = 2, x2 = −3, x3 = 4}.

Factorizaci´ on LU

El m´etodo de la matriz inversa es relativamente simple, pero laborioso cuando se trata de resolver sistemas de ecuaciones muy grandes. La factorizaci´on o descomposici´on LU (Lower-Upper) es una t´ecnica, existen varias de este tipo, para factorizar una matriz como el producto de una matriz triangular inferior y una matriz triangular superior. Si A es un matriz cuadrada no singular, entonces AX = C ⇒ A = LU ,

ad o

rP

las matrices L y U ser´ an u ´nicas. Este m´etodo es b´ asicamente una versi´ on de el m´etodo de Gauss Jordan, pero es m´as eficiente a la hora de ser implementado en algoritmos computacionales tanto algebraicos como num´ericos. Para matrices 3 × 3 el m´etodo se implementa de la siguiente manera.      U11 U12 U13 U11 U12 U13 1 0 0  1 0  0 U22 U23  =  L21 U11 L21 U12 + U22 L21 U13 + U23 A =  L21 L31 L32 1 0 0 U33 L31 U11 L31 U12 + L32 U22 L31 U13 + L32 U23 + U33 las nueve inc´ ognitas se obtienen igualando con las componentes conocidas de la matriz A. Con L y U determinadas tenemos entonces que LUX = C ,

Bo rr

por lo tanto, se debe realizar los c´ alculos en dos partes: primero LY = C y luego

UX = Y .

Ejemplo Resolver el siguiente sistema de ecuaciones: 2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 .

La matriz de los coeficientes es:

Hern´ andez & N´ un ˜ez



2 A= 1 −3

4 −2 3

 3 −2  2

Universidad de los Andes / Universidad Industrial de Santander

265

4.10. SISTEMAS DE ECUACIONES LINEALES

C´ alculo de L y U  2 4  1 −2 −3 3

  3 U11 −2  =  L21 U11 2 L31 U11

 U13  L21 U13 + U23 L31 U13 + L32 U23 + U33

U12 L21 U12 + U22 L31 U12 + L32 U22

Con los valores de inicio: U11 = 2, U12 = 4, U13 = 3 se procede a resolver las ecuaciones:

por lo tanto 

1 A = LU =  1/2 −3/2

0 1 −9/4

 0 2 0  0 1 0

4 −4 0

in ar

L31 U11 = −3 L21 U13 + U23 = −2 L31 U13 + L32 U23 + U33 = 2

L21 U11 = 1 L21 U12 + U22 = −2 L31 U12 + L32 U22 = 3

 3 −7/2  −11/8

re lim

Resolvemos primero LY = C, lo cual es bastante f´acil       1 0 0 y1 4  y1 = 4  1/2 y2 = −2 1 0   y2  =  0  ⇒  −3/2 −9/4 1 y3 −7 y3 = − 11 2

rP

Con este resultado resolvemos: UX = Y, y obtenemos la soluci´on       x1 4 2 4 3  x1 = 2  0 −4 −7/2   x2  =  −2  ⇒ x2 = −3  x3 −11/2 x3 = 4 0 0 −11/8

4.10.4.

ad o

Con la matrices L y U se puede calcular el determinante de la matriz A de una manera m´as directa, ya que n Y Uii . det |A| = det |L| det |U| = det |U| = i=1

M´ etodo de Cramer

Bo rr

Un m´etodo alternativo para resolves sistemas de ecuaciones lineales es la conocida regla de Cramer. El funcionamiento del m´etodo lo podemos ilustrar con un sistema de tres ecuaciones y tres inc´ognitas: A11 x1 + A12 x2 + A13 x1

= c1

A21 x1 + A22 x2 + A23 x2

= c2

A31 x1 + A32 x2 + A33 x3

= c3 ,

Como mencionamos anteriormente, el determinate de A11 |A| = A21 A31

Hern´ andez & N´ un ˜ez

una matriz, det(A) = |A|, A12 A13 A22 A23 , A32 A33

Universidad de los Andes / Universidad Industrial de Santander

266

4.10. SISTEMAS DE ECUACIONES LINEALES

no cambia bajo la operaci´ on, A11 |A| = A21 A31

por ejemplo, de A12 A13 A22 A23 = A32 A33

sumarle a la primera columna las cantidades: A11 + (x2 /x1 )A12 + (x3 /x1 )A13 A12 A13 A21 + (x2 /x1 )A22 + (x3 /x1 )A23 A22 A23 A31 + (x2 /x1 )A32 + (x3 /x1 )A33 A32 A33

lo cual es igual a 1 |A| = x1

c1 c2 c3

A12 A22 A32

A13 A23 A33

≡ 1 |∆1 | . x1

x1 =

|∆1 | , |A|

x2 =

|∆2 | , |A|

x3 =

|∆3 | . |A|

A11 |∆3 | = A21 A31

re lim

Donde los determinantes, |∆n |, son los determinantes de Cramer: A11 c1 A13 c1 A12 A13 |∆1 | = c2 A22 A23 , |∆2 | = A21 c2 A23 , A31 c3 A33 c3 A32 A33

in ar

Se puede hacer lo mismo con las otras dos columnas para obtener:

A12 A22 A32

c1 c2 c3

.

Se puede demostrar que si |A| = 6 0, entonces la soluci´on as´ı obtenida es u ´nica. Ejemplo Resolver, nuevamente, el siguiente sistema de ecuaciones:

esto es:



rP

2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 . 2 4 A = XC ⇒  1 −2 −3 3

    x1 4 3 −2   x2  =  0  ⇒ |A| = 11 . −7 2 x3

de manera que

ad o

Los diferentes determinantes de Cramer son: 4 2 4 3 |∆1 | = 0 −2 −2 = 22 , |∆2 | = 1 −7 3 −3 2

Bo rr

x1 =

4.10.5.

22 = 2, 11

4 0 −7

x2 = −

3 −2 2

= −33 ,

33 = −3 , 11

x3 =

2 |∆3 | = 1 −3

4 −2 3

4 0 −7

= 44 .

44 = 4. 11

Ejercicios

1. Resuelva

Hern´ andez & N´ un ˜ez

2x + 3y + z

=

11

x+y+z

=

6

5x − y + 10z

=

34

Universidad de los Andes / Universidad Industrial de Santander

267

4.10. SISTEMAS DE ECUACIONES LINEALES

2. Resuelva x1 + 2x2 + 3x3

=

1

3x1 + 4x2 + 5x3

=

2

x1 + 3x2 + 4x3

=

3

x+y+z

=

1

x + 2y + 4z

=

η

x + 4y + 10z

=

η2

in ar

3. Demuestre que el siguiente sistema s´olo tiene soluci´on si η = 1 o η = 2

4. Encuentre las condiciones sobre η para que al resolver el sistema x1 + ηx2

=

1

= −1 = −2

re lim

x1 − x2 + 3x3 2x1 − 2x2 + ηx3 a) tenga una soluci´ on b) no tenga soluci´ on c) tenga infinitas soluciones

Encuentre todas las soluciones que puedan existir.



3 A= 1 2

rP

5. Encuentre la factorizaci´ on LU de  9 5 , 16

6 0 −2



2  1 B=  5 3

−3 4 3 −6

1 −3 −1 −3

 3 −3  . −1  1

ad o

Resuelva AX = C, cuando: a) C = (21 9 28)T , b) C = (21 7 22)T para la matriz A. Y cuando: c) C = (−4 1 8 − 5)T y d) C = (−10 0 − 3 − 24)T para la matriz B.

Bo rr

6. Utilizando la regla de Cramer resuelva

Hern´ andez & N´ un ˜ez

13x1 + 22x2 − 13x3

=

4

10x1 − 8x2 − 10x3

=

44

9x1 − 18x2 − 9x3

=

72 .

Universidad de los Andes / Universidad Industrial de Santander

268

4.11. ALGUNOS EJEMPLOS RESUELTOS

4.11.

Algunos ejemplos resueltos

1. Dados dos operadores lineales tales que: AB = −BA;

A2 = I;

B2 = I;

y

[A, B] = 2iC

a) Muestre que C2 = I y que [B, C] = 2iA. Soluci´ on: = AB − BA = 2iC ⇒ 2AB = 2iC ⇒ ABAB = −C2 ⇒ −AABB = −C2 ⇒ I = C2

[B, C]

= −i (BAB − ABB) = 2iA ⇒ −i (BAB − A) = 2iA ⇒ −i (−BBA − A) = 2iA

in ar

[A, B]

b) Evalue [[[A, B] , [B, C]] , [A, B]]. Soluci´ on: =

[[2iC, 2iA] , 2iC] = 8 [[AB, iA] , AB] = 8i [(ABA − AAB) , AB]

=

8i [−2B, AB] = 16i (BAB − ABB) = 32iA .

re lim

[[[A, B] , [B, C]] , [A, B]]

2. Sean A y B dos operadores herm´ıticos, con autovalores no degenerados y un operador unitario definido como: U = A + iB. Muestre que : a) [A, B] = 0 y A2 + B2 = I. Soluci´ on: Como †



UU† = U† U = (A + iB) (A + iB) = (A + iB) (A + iB) ⇒ (A + iB) (A − iB) = (A − iB) (A + iB) BA − AB = −BA + AB ⇒ [B, A] = −[B, A] ⇒ [B, A] = 0

rP

La segunda de las afirmaciones se puede demostrar, a partir de

 † UU† = I ⇒ (A + iB) (A + iB) = (A + iB) (A − iB) = A2 + B2 + i (BA − AB) ⇒ I = A2 +B2

ad o

b) Los autovectores de A tambi´en lo son de B Soluci´ on: Si {|ui i} son autovectores de A entonces A |ui i = λi |ui i ⇒ BA |ui i = λi B |ui i

como [B, A] = 0 ,

entonces AB |ui i = λi B |ui i

por lo tanto, B |ui i es un autovector de A. Pero la soluci´on para la ecuaci´on de autovectores (A − λi I) |ui i = 0 es u ´nica, por lo cual todos los autovectores de A son proporcionales. Esto es B |uj i = µj |uj i, con lo cual que damostrado que los autovectores de A son autovalores de B.

Bo rr

c) Si U |vi i = νi |vi i entonces |µi | = 1. Soluci´ on: Es claro que

j †



v U U |vi i = v j I |vi i ⇒ µ∗j µi v j |vi i = v j I |vi i ⇒ µ2i = 1

3. Dada una matriz de la forma 

1 A= β 0

α 1 0

 0 0  1

y

A |vi i = λi |vi i

con α y β n´ umeros complejos distintos de cero. Encuentre: Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

269

4.11. ALGUNOS EJEMPLOS RESUELTOS

a) las relaciones que deben cumplir α y β para que λi sea real. Soluci´ on: El Polinomio caracter´ıstico y la condici´on para que λ sea real ser´a: p (1 − λ)(1 − 2λ + λ2 − αβ) = 0 ⇒ λ = 1 ± αβ ⇒ αβ > 0 ∧ αβ ∈ R

con lo cual

v 2 |v3 i = 0 ⇒

−β √ αβ



1 0



in ar

b) Las relaciones que deben cumplir α y β para que v j |vi i = δij . Soluci´ on: Los autovalores y autovectores para esta matriz ser´an    β   √ 0 p p αβ λ1 = 1 ⇒ |v1 i =  0  ; λ2 = 1+ αβ ⇒ |v2 i =  1  ; λ3 = 1+ αβ ⇒ |v3 i =  1 0 β2 = 1 ⇒ |α| = |β| αβ

4. Dadas las siguientes matrices:  A= 

−2 9



−9 −10 −10 5



1 8

B=





D=

8 −11

14 2

rP

C=

6 −2

re lim

c) Suponga que A es herm´ıtica, encuentre las relaciones que deben cumplir α y β. Soluci´ on: Si A es herm´ıtica, entonces α∗ = β, con lo cual se cumplen autom´aticamente ambas aseveraciones.

2 11





Determine cuales conmutan entre ellas y encuentre la base de autovectores comunes.

ad o

Soluci´ on: Notamos que [A, B] = [A, D] = [D, B] = 0 y     0 2 0 −8 [A, C] = , [B, C] = , −2 0 8 0 Los autovectores comunes a A, B, D, ser´an  1  −2 |u1 i = , 1

Bo rr

5. Dada la representaci´ on matricial de dos operadores   0 0 1 A= 0 1 0  y 1 0 0 a) Eval´ ue [A, B]. Soluci´ on:

Hern´ andez & N´ un ˜ez



0 AB =  1 0

0 0 0

 |u2 i =



0 B= 1 1

 [D, C] =

2 1

0 2

−2 0





1 0 1

 1 1  0

 0 0  = BA ⇒ [A, B] = 0 0

Universidad de los Andes / Universidad Industrial de Santander

270

4.11. ALGUNOS EJEMPLOS RESUELTOS

b) Muestre que A tiene por autovalores λ1 = 1 y λ2 = −1 con λ1 un autovalor degenerado. Construya la base de autovectores para A. Soluci´ on:         0 0 1 x x −λ 0 1 x  0 1 0  y  = λ y  ⇒  0 1 − λ 0  y  1 0 0 z z 1 0 −λ z Entonces para 1 0 −λ

con lo cual tiene dos autovalores  0 0  0 1 1 0

 = λ(1 − λ)λ − (1 − λ) = λ2 − 1 (1 − λ) = 0

in ar

0 1−λ 0

λ = 1 y λ = −1. Para el caso de λ = −1 se cumple que     1 x x z = −x 0   y  = −  y  ⇒ y = −y 0 z z x = −z

re lim

−λ 0 1

con lo cual el autovector asociado con el autovalor λ = −1 tendr´a la forma de   1 |ui−1 = α  0  −1 Para λ = 1 se cumple 

0 1 0

    x x 1 0  y  =  y  ⇒ z z 0

rP

0  0 1

z=x y=y x=z

ad o

con lo cual hay dos vectores linealmente independientes asociados con λ = 1, a saber     1 0 |ui1a = β  0  y |ui1b =  y  con y arbitrario 1 0 N´ otese que estos tres autovectores {|ui1a , |ui1b , |ui−1 } son ortogonales entre si.

Bo rr

c) ¿Cu´ al es la representaci´ on matricial de A en la Soluci´ on: Diagonal de la forma

 1 u A |u1 i u1 A |u2 i

A˜ij =  u2 A |u1 i u2 A |u2 i u3 A |u1 i u3 A |u2 i

base de autovectores?

1   1

u2 A |u3 i A |u3 i  =  0 u

3 0 u A |u3 i

0 1 0

 0 0  −1

ya que los autovectores forman una base ortogonal. Obviamente se cumple que

Hern´ andez & N´ un ˜ez

˜ = −1 det[A] = det[A]

y

˜ = 1. Tr[A] = Tr[A]

Universidad de los Andes / Universidad Industrial de Santander

271

4.11. ALGUNOS EJEMPLOS RESUELTOS

d ) A partir de los autovectores de A encuentre los autovalores y autovectores de B Soluci´ on: Claramente B |u−1 i = − |u−1 i con lo cual tenemos el primer autovector de B asociado al autovalor λ = −1. Para encontrar los otros autovectores tendremos      −λ 1 1 1 0  1 −λ 1   y  =  0  1 1 −λ 1 0 6. Dada la siguiente matriz 2 A= 2 −2

2 −1 4

 −2 4 , −1

in ar



encuentre una matriz C que diagonalize A

re lim

Soluci´ on: Primeramente procedemos a calcular los autovalores de A. 2−λ 2 −2 = −(λ − 3)2 (λ + 6) = 0 . −1 − λ 4 P (λ) = 2 −2 4 −1 − λ Para λ = −6: 

8  2 −2

     2 −2 x1 x1  14x1 + 2x2 − 2x3 = 0 5 4   x2  = −6  x2  ⇒ 2x1 + 11x2 + 4x3 = 0  4 5 x3 x3 −2x1 + 4x2 + 11x3 = 0

Un autovector puede ser:

   1 1 1 |u1 i =  −2  ⇒ |ˆ u1 i =  −2  3 2 2

rP



ad o

Para el autovalor degenerado λ = 3, tenemos       x1 −1 2 −2 x1  −4x1 + 2x2 − 2x3 = 0  2 −4 4   x2  = 3  x2  ⇒ 2x1 − 7x2 + 4x3 = 0  −2 4 −4 −2x1 + 4x2 − 7x3 = 0 x3 x3

Bo rr

En este caso podemos tomar como autovectores         1 1 0 0 2 1 u2 i = √  0  , |u3 i =  1  ⇒ |ˆ |u2 i =  0  ⇒ |ˆ u3 i = √  1  5 2 −1/2 −1/2 1 1 Construimos la matriz C

1 3 − 2  3 2 3

 C=

√2 5

0 − √15

0



√1  2 √1 2

de manera que:



1 3 √

 5 C−1 AC =  4 √ 9 2 2 9

Hern´ andez & N´ un ˜ez

2 − √3

5

5 9 √ 2 9

2 3√



2  −√95   2 4 2 −2 9

2 −1 4

 1 −2 3  4  − 23 2 −1 3

√2 5

0 − √15

0



 −6  √1  =  0 2 √1 0 2

Universidad de los Andes / Universidad Industrial de Santander

 0 0 3 0 . 0 3 272

4.11. ALGUNOS EJEMPLOS RESUELTOS

7. En Mec´ anica Cl´ asica la cantidad de momento angular viene definida como L = r × p. Para pasar a Mec´ anica Cu´ antica se asocia r y p con los operadores posici´on y cantidad de movimiento los cuales, al operar sobre la funci´ on de onda nos proveen   ∂ ∂ hr| X |ψi = x hr |ψi = x ψ (r) hr| Px |ψi = −i~ hr |ψi = −i~ ψ (r) ∂x ∂x  hr| Py |ψi =

hr| Z |ψi = z hr |ψi = z ψ (r)

hr| Pz |ψi =

−i~

∂ ∂y

 hr |ψi = −i~

∂ ψ (r) ∂y

  ∂ ∂ −i~ hr |ψi = −i~ ψ (r) ∂z ∂z

in ar

hr| Y |ψi = y hr |ψi = y ψ (r)

En coordenadas cartesianas, en la representaci´on de coordenadas {|ri} tendremos que hr| R |ψi = r ψ (r)

hr| Px |ψi = −i~ ∇ ψ (r)

y

hr| L |ψi = −i~ (r×∇) ψ (r)  hr| L |ψi = −i~

y

∂ ∂ −z ∂z ∂y



re lim

De forma que en Mec´ anica Cu´ antica las componentes cartesianas del operador cantidad de movimiento angular son



ψ (r) i − i~

z

∂ ∂ −x ∂x ∂z





ψ (r) j − i~

x

∂ ∂ −y ∂y ∂x

 ψ (r) k

rP

Utilizando las definiciones anteriores muestre que el conmutador de las componentes cartesianas de la cantidad de movimiento angular cumple con [Lx , Ly ] |ψi = i~Lz |ψi

con L1 = L1 = Lx ; L2 = L2 = Ly ; L3 = L3 = Lz . En general: [Ll , Lm ] = i~εlmn Ln .

ad o

Soluci´ on: Dado que

Bo rr

[L1 , L2 ] |ψi = [Lx , Ly ] |ψi = (Lx Ly − Ly Lx ) |ψi       ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ −z z −x − z −x y −z ψ (r) = −i~ y ∂z ∂y ∂x ∂z ∂x ∂z ∂z ∂y           ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ = y z −x −z z −x − z y −z −x y −z ψ (r) ∂z ∂x ∂z ∂y ∂x ∂z ∂x ∂z ∂y ∂z ∂z ∂y Con lo cual



=



=

Hern´ andez & N´ un ˜ez

    ∂ ∂ ∂2 ∂ ∂ +y − xy 2 − z 2 − zx ∂z∂x ∂x ∂z ∂y∂x ∂y∂z     ∂ ∂ ∂ ∂ ∂ − z2 − yx 2 − zx −x ψ (r) − zy ∂x∂z ∂y∂x ∂z ∂z∂y ∂y

yz

y

∂ ∂ −x ∂x ∂y

 ψ (r) .

Universidad de los Andes / Universidad Industrial de Santander

273

4.11. ALGUNOS EJEMPLOS RESUELTOS

8. Dados dos Operadores Vectoriales A y B que conmutan entre ellos y con L tales que [A, B] = [A, L] = [L, B] = 0 Demuestre entonces que [A · L, B · L] = i~ (A × B) · L Soluci´ on: [A · L, B · L] = i~εklm Al B m Lk == Al B m i~εklm Lk = Al B m [Ll , Lm ] = Al B m Ll Lm − Al B m Lm bm Ll

in ar

= Al Ll B m Lm − B m Lm Al Ll 9. Considere, que el espacio de estados para un determinado sistema f´ısico viene expandido por la base ortonormal {|u1 i , |u2 i , |u3 i}. Definimos dos operadores Lz y S de la siguiente manera Lz |u1 i = |u1 i ;

Lz |u2 i = 0;

a) Encuentre la representaci´ on matricial Soluci´ on: La matriz ser´ a  1 u Lz S − SLz |u1 i   2  u Lz S − SLz |u1 i  

3 u Lz S − SLz |u1 i

S |u3 i = |u1 i

en la base {|u1 i , |u2 i , |u3 i} del operador: [Lz , S]

u1 Lz S − SLz |u2 i



u2 Lz S − SLz |u2 i



u3 Lz S − SLz |u2 i

 u1 Lz S − SLz |u3 i  

2 u Lz S − SLz |u3 i   

3 u Lz S − SLz |u3 i

rP

con lo cual

 1 u Lz S |u1 i − u1 SLz |u1 i   2

 u Lz S |u1 i − u2 SLz |u1 i  



3 u Lz S |u1 i − u3 SLz |u1 i

Lz |u3 i = − |u3 i

S |u2 i = |u2 i ;

re lim

S |u1 i = |u3 i ;



u1 Lz S |u2 i − u1 SLz |u2 i





u2 Lz S |u2 i − u2 SLz |u2 i





u3 Lz S |u2 i − u3 SLz |u2 i

ad o





 u1 Lz S |u3 i − u1 SLz |u3 i  



2 u Lz S |u3 i − u2 SLz |u3 i   

3

3 u Lz S |u3 i − u SLz |u3 i

de donde



Bo rr

 

i u [Lz , S] |uj i =   

0−0

0−0

1 − (−1)

0−0

0−0

0−0

(−1) − 1

0−0

0−0





0

    = 0     −2

0 0 0

2



  0    0

b) ¿Lz , S y [Lz , S] ser´ an biyectivas? Soluci´ on: Por definici´ on S es biyectiva ya que cada vector tiene su imagen, Lz no lo es por cuanto el vector |u2 i no tiene imagen y,

finalmente [Lz ,S] tampoco ser´a biyectiva dado que ui [Lz , S] |uj i i no tiene inversa ya que del det u [Lz , S] |uj i = 0 c) Encuentre la dimensi´ on del Dominio, del Rango y del n´ ucleo de la transformaciones Lz , S y [Lz , S]

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

274

4.11. ALGUNOS EJEMPLOS RESUELTOS

Soluci´ on: Lz S [Lz , S]

Dominio 3 3 3

Rango 2 3 2

N´ ucleo 1 0 2

dado que [Lz , S] |u2 i = 0 . 10. Encuentre la expresi´ on matricial para los operadores lineales de Pauli: R2 7−→ R2 dado que act´ uan como σz |−i = − |−i

σx |+ix = |+ix ,

σx |−ix = − |−ix

σy |+iy = |+iy ,

σy |−iy = − |−iy





con  ,

|−i 

1 |+ix = √ [|+i + |−i] , 2 1 |+iy = √ [|+i + i |−i] , 2 Soluci´ on: Ahora bien h+ |+ix = 1

y

h+ |+iy = 1

x

y



1 |−ix = √ [|+i − |−i] 2 1 |−iy = √ [|+i − i |−i] 2

h+ |−ix =x h− |+ix = 0

rP

x

0 1

re lim

|+i 

1 0

in ar

σz |+i = |+i ,

h+ |−iy =y h− |+iy = 0

x

h− |−ix = 1

y

h− |−iy = 1

n o Es decir, los vectores {|+ix , |−ix } y |+iy , |−iy forman bases ortonormales, por lo que los vectores {|+i , |−i} se pueden expresar en t´ermino de esas bases como 1 |−i = √ [|+ix − |−ix ] 2

i 1 h |+i = √ |+iy + |−iy 2

i −i h |−i = √ |+iy − |−iy 2

ad o

1 |+i = √ [|+ix + |−ix ] 2

Bo rr

As´ı las expresiones matriciales ser´ an  h+| σz |+i i (σz )j =  h−| σz |+i

Hern´ andez & N´ un ˜ez

h+| σz |−i





1

0

0

−1

= h−| σz |−i

 

Universidad de los Andes / Universidad Industrial de Santander

275

4.11. ALGUNOS EJEMPLOS RESUELTOS

y  i

h+| σx |+i

h+| σx |−i

(σx )j = 

 

h−| σx |+i

h−| σx |−i

 1 [x h+| +x h−|] σx [|+ix + |−ix ]  2  = 1 [x h+| −x h−|] σx [|+ix + |−ix ] 2

in ar

 1 [x h+| +x h−|] σx [|+ix − |−ix ] 2    1 [x h+| −x h−|] σx [|+ix − |−ix ] 2

 1 [x h+| +x h−|] [|+ix − |−ix ]  2  = 1 [x h+| −x h−|] [|+ix − |−ix ] 2 0

1



i

(σx )j = 

 1

 i

h+| σy |+i

h+| σy |−i

h−| σy |+i

h−| σy |−i

 

rP

(σy )j = 

0

re lim



 1 [x h+| +x h−|] [|+ix + |−ix ] 2    1 [x h+| −x h−|] [|+ix + |−ix ] 2

ad o

h i  1 [y h+| +y h−|] σy |+iy + |−iy  2 =  i h i [y h+| −y h−|] σy |+iy + |−iy 2

Bo rr

h i  1 [y h+| +y h−|] |+iy − |−iy  2 =  i h i [y h+| −y h−|] |+iy − |−iy 2 

0

−i

i

0

h i −i [y h+| +y h−|] σy |+iy − |−iy 2 i h 1 [y h+| −y h−|] σy |+iy − |−iy 2

h i −i [y h+| +y h−|] |+iy + |−iy 2 i h −1 [y h+| −y h−|] |+iy + |−iy 2

   

   



i

(σy )j = 



11. Un operador Cantidad de Movimiento Generalizado se define como aquel conjunto de operadores herm´ıticos que cumplen con [Jx , Jy ] = i~Jz

Hern´ andez & N´ un ˜ez

[Jy , Jz ] = i~Jx

[Jz , Jx ] = i~Jy ,

es decir

[Ji , Jj ] = i~ijk Jk

Universidad de los Andes / Universidad Industrial de Santander

276

4.11. ALGUNOS EJEMPLOS RESUELTOS

con ijk el s´ımbolo de Levy Civita (Los ´ındices repetidos NO indican suma). Adicionalmente, definimos los siguientes operadores J2 = J2x + J2y + J2z ;

J+ = Jx + iJy

J− = Jx − iJy

Muestre que  2      J , J+ = J2 , J− = J2 , Jz = 0 Soluci´ on:

in ar

  Para probar esta propiedad se puede demostrar de forma gen´erica que J2k , Jm = 0 con k, m = 1, 2, 3 ≡ x, y, z esto es  2  Jk , Jm = [Jk Jk , Jm ] = Jk Jk Jm − Jm Jk Jk = Jk Jk Jm − (i~mkl Jl + Jk Jm ) Jk con lo cual

 2  Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − Jk (i~mkn Jn + Jk Jm )

re lim

y claramente se anula por cuanto los ’indices no suman pero si son mudos, y mkl = −mlk  2  Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − i~mkn Jk Jn − Jk Jk Jm

al conmutar los cuadrados de las componentes con cualquiera de las componentes, y dado que los conmutadores son lineales entonces queda demostrado que  2            J , J± = J2x + J2y + J2z , Jx ± iJy = J2y , Jx + J2z , Jx ± i J2x , Jy ± i J2z , Jy = 0 12. Si definimos los autovectores comunes a J2 y Jz como |j, mi como Jz |j, mi = m~ |j, mi

rP

J2 |j, mi = j (j + 1) ~2 |j, mi

adicionalmente tenemos que p J− |j, mi = ~ j(j + 1) − m(m − 1) |j, m − 1i

con hj, m |j 0 , m0 i = δjj 0 δmm0

p J+ |j, mi = ~ j(j + 1) − m(m + 1) |j, m + 1i

ad o

y si suponen (es f´ acil demostrarlo) que −j ≤ m ≤ j esto quiere decir que dado el valor un j, m var´ıa entre −j y j de uno en uno, esto es m = −j, −j + 1, −j + 2, · · · , j − 2, j − 1, j. Suponga ahora que j = 21 . Encuentre:

Bo rr

a) la representaci´ on matricial para: Jz , J− , J+ , J2 , en la base de autovectores de Jz , J2 . Soluci´ on: Si |j, mi son autovectores de J2 y Jz su representaci´on matricial ser´a diagonal y como m var´ıa entre −j y j con incrementos de 1 tendremos que ser´an matrices 2 × 2. La base ortogonal de autovectores ser´ a 12 , − 12 , 12 , 12

1 1 1 1     1 1 1 1 1 0 2 , 2 Jz 2 , 2 2 , 2 Jz 2 , − 2 ~ ≡   

1 1 1 1 1 1 1 1 2 0 −1 2 , − 2 Jz 2 , 2 2 , − 2 Jz 2 , − 2



 1 1 2 1 1    1 1 2 1 1 , 1 0 2, 2 J 2 2 2, 2 J 2, −2 3 2  ≡ ~  

1 1 2 1 1 1 1 2 1 1 4 0 1 2, −2 J 2, 2 2, −2 J 2, −2

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

277

4.11. ALGUNOS EJEMPLOS RESUELTOS

La representaci´ on matricial para J− , J+  1 1 1 1 2 , 2 J+ 2 , 2 

1 1 1 1 2 , − 2 J+ 2 , 2 1 1  1 1 2 , 2 J− 2 , 2  1 1

1 1 2 , − 2 J− 2 , 2

obviamente no ser´a diagonal

1 1 1 1    0 1 2 , 2 J+ 2 , − 2  ≡ ~ 

1 1 1 1 J+ , − 0 0 , − 2 2 2 2 1 1 

1 1   0 0 2 , 2 J− 2 , − 2  ≡ ~  1 1

1 1 1 0 2 , − 2 J− 2 , − 2

Bo rr

ad o

rP

re lim

in ar

b) Encuentre los autovalores y autovalores para Jz , J− , J+ , J2 . Soluci´ on:  son autovectores de J2 y Jz . En el caso de J2 con un autovalor de Otra vez, 12 , − 12 , 12 , 12 3 2 an ± ~2 respectivamente. Para 4 ~ para ambos autovectores y en el caso de Jz los autovalores ser´ J− , J+ no tendr´ an autovalor distinto de cero en esta base.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

278

5

in ar

Cap´ıtulo

Bo rr

ad o

rP

re lim

Ap´endice

279

´ A LOS CAS 5.1. INTRODUCCION

5.1.

Introducci´ on a los CAS

Los sistemas algebraicos computacionales o sistemas de ´algebra computacional (CAS: Computer Algebra System) son sistemas o calculadoras avanzadas, que permiten realizar operaciones de manera simb´olica. Esto significa que el computador puede efectuar operaciones con ecuaciones y f´ormulas simb´olicamente, es decir, a + b = c se interpreta como la suma de variables y no como la suma de n´ umeros previamente asignados. Estos sistemas permiten operar de manera exacta con s´ımbolos que representan objetos matem´ aticos tales como:

Polin´ omios, Funciones Racionales, Sistemas de Ecuaciones. Grupos, Anillos, Algebras . . . A diferencia de los sistemas tradicionales de computaci´on num´erica: FORTRAN, Basic, C, C++, Java => Precisi´on fija (Punto Flotante)

in ar

N´ umeros (Enteros, racionales, reales, complejos...)

re lim

Otra caracter´ıstica principal radica en el hecho de que son interactivos (interpretados o ejecutados al momento de proveer una instrucci´ on), es decir, trabajan de la forma: Input : solve(problema); Output : respuesta

Los CAS se pueden clasificar en dos grandes grupos:1

rP

Sistemas de Prop´ osito Especial (Creados para hacer c´alculos en un ´area espec´ıfica): FORM, GAP, CAMAL, SHEEP, STENSOR, LiE, KANT.

ad o

Sistemas de Prop´ osito General (¡Especies de navajas suizas!): Axiom, Derive, Reduce, Maple, MatLab, Mathematica, Maxima, MuPAD. Recientemente, lenguajes como Python comienzan a incorporar bibliotecas que permiten generar formas de c´alculo simb´olico2 que ofrecen una perspectiva interesante para integrar ambientes algebr´ aicos-num´ericos-visuales. Los CAS modernos de prop´ osito general son ambientes completamente integrados de computaci´on para la investigaci´ on y la educaci´ on conformados por: Interfaz gr´ afica (worksheet) o ambiente interactivo:

Bo rr

Procesador de texto, de f´ ormulas y de gr´aficas. Con salidas en Latex, RTF, HTML, FORTRAN y C; o hyperlinks a otros documentos. Manuales en l´ınea.

Enlaces a otros programas y bibliotecas Capacidades para c´ alculo num´erico Capacidades para visualizaci´ on, con salidas gr´aficas en diferentes formatos: PostScript, GIF,JPG, . . . Pensado para usuarios no especializados en computaci´on

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

280

re lim

in ar

´ A LOS CAS 5.1. INTRODUCCION

Figura 5.1: Ventana gr´afica de vxMaxima

rP

La principal ventaja de estos programas radica en la enorme capacidad para realizar c´alculos algebraicos largos y tediosos. Por ejemplo, se puede demostrar que la funci´on:  √  nz x2 +y 2 +z 2 √ 2 2 sen y +z p f= 2 x + y2 + z2

ad o

es soluci´ on de la ecuaci´ on diferencial:

 2  ∂4f ∂4f ∂2f ∂4f 2 ∂ f + + + n + =0 ∂x4 ∂y 2 x2 ∂z 2 x2 ∂x2 ∂y 2

Bo rr

y la realizaci´ on de ´este c´ alculo le puede tomar a un PC est´andar un tiempo de CPU relativamente corto: tiempo de cpu =

1,065 seg

Un ejemplo de un CAS es Maxima que b´asicamente consta de una hoja de trabajo (worksheet) que es una interfaz tipo procesador de textos. Las hojas de trabajo constan de dos modos b´asicos de funcionamiento: el modo texto y el modo c´ alculo. Maxima opera en la celda de c´alculos de la manera siguiente: Input (Instrucci´ on de entrada) Output (respuesta del programa)

1 Una comparaci´ on de los diferentes CAS puede verse en: https://en.wikipedia.org/wiki/List_of_computer_algebra_ systems 2 http://docs.sympy.org/

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

281

´ 5.2. MAXIMA: SINTAXIS BASICA

Existe la posibilidad de introducir textos de la misma manera que en un procesador de textos est´ andar y de generar gr´ aficas en 2D y 3D a trav´es de los respectivos comandos. La interacci´ on con la hoja de trabajo se hace a trav´es de lo que denominamos la celda del Input, que aparece se˜ nalado por un aviso de espera o PROMPT [ -->

Maxima: Sintaxis b´ asica

re lim

5.2.

in ar

El c´ odigo fuente de Maxima, c´ odigo de software libre, puede ser compilado sobre diferentes sistemas operativos: Windows, Linux, MacOS X y Android, y puede obtenerse en: http://sourceforge.net/projects/ wxmaxima o en http://andrejv.github.io/wxmaxima, con la respectiva documentaci´on. Utilizaremos la versi´ on gr´ afica wxMaxima para los fines pedag´ogicos del desarrollo de estas notas. Tambi´en existe una versi´ on que funciona s´olo en modo texto para ser ejecutada en una consola o terminal. En la Figura 5.1 se puede apreciar el despliegue de una hoja de c´alculo con algunos instrucciones sencillas, notemos que cada instrucci´ on (en azul) termina con un punto y coma, de esta manera se le dice al programa la finalizaci´ on del comando a ejecutar. Luego de escribir la instrucci´on y presionar la tecla Enter  el Output aparecer´ a a continuaci´ on en color negro.

Es necesario familiarizarse con los comandos b´asicos del programa, para ello iremos desarrollando algunos c´ alculos sencillos a manera de conocer la filosof´ıa de c´omo funciona Maxima, y durante el transcurso de este curso iremos haciendo un despliegue de las aplicaciones del programa para c´alculos m´as espec´ıficos. (%i1) 3!+3^5; ( %o1) 249

rP

Veamos ahora la diferencia entre el igual = y los dos puntos : (%i2) a=b+c; ( %o2) c+b

( %o3) a (%i4) a:b+c; ( %o4) c+b

Bo rr

(%i5) a;

ad o

(%i3) a;

( %o5) c+b

Al usar “=”no asignamos a la variable lo que est´a del lado derecho mientras que con “:”si le asignamos el objeto a la nueva variable. Los c´ alculos se pueden hacer tanto con n´ umeros enteros como en Punto Flotante: (%i6) 15+5^(50);

( %o6) 88817841970012523233890533447265640

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

282

´ 5.2. MAXIMA: SINTAXIS BASICA

(%i7) 15.0+5^(50); ( %o7) 8,881784197001253 × 1034 Pero el ´enfasis radica en los c´ alculos exactos:

y si queremos el valor num´erico podemos escribir (%i9) float(%); ( %o9) 1,180812852661949

in ar

(%i8) cos(%pi/12)^2 + log(2/3+5)/7;  π  log 17  2 3 + ( %o8) cos 12 7

re lim

Aqu´ı hemos hecho uso de varios s´ımbolos nuevos. Las constantes matem´aticas en Maxima se escriben de la siguiente manera: La unidad imaginaria i: %i El n´ umero π: %pi. El s´ımbolo ∞: inf. El n´ umero e: %e. En cuanto a los logaritmos:

rP

ex = exp(x).

log(x): la funci´ on logaritmo en base e

log(x)/log(b) el logaritmo de x en base b.

(%i10)3^12$

Bo rr

(%i11)%;

ad o

Para las funciones trigonom´etricas es lo est´andar: sin(x), asin(x), cos(x), acos(x), tan(x), atan(x), csc(x), sec(x), cot(x). Tambi´en hemos utilizado % para introducir la u ´ltima salida en la siguiente instrucci´on, veamos nuevamente como funciona, pero ahora pondremos al final del comando el s´ımbolo $ en lugar de ; para decirle al programa que ejecute la instrucci´ on sin escribir la salida.

( %o11) 531441

Veamos otro ejemplo: (%i12)alpha;

( %o12) α

(%i13)%+sqrt(beta);

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

283

´ 5.2. MAXIMA: SINTAXIS BASICA

( %o13)

p β+α

(%i14)%o12+2*gamma^2; ( %o14) 2 γ 2 + α Es importante tener cuidado a la hora de poner los par´entesis en las expresiones: (%i15)1+2*3^2;

(%i16)(1+2)*3^2; ( %o16) 27 El volumen de un cilindro V = π(radio)2 × altura (%i17)radio:5$

re lim

(%i18)altura:50$

in ar

( %o15) 19

(%i19)area:%pi*radio^2; ( %o19) 25 π (%i20)volumen:area*altura; ( %o20) 1250 π

rP

Para limpiar la memoria del programa de todas las variables utilizadas se puede usar el comando kill(all) (Existen otras opciones que veremos m´ as adelante). Esta es una manera de reiniciar la hoja de trabajo. (%i21)volumen; ( %o21) 1250 π

( %o22) done

ad o

(%i22)kill(all);

(%i23)volumen; ( %o23) volumen

C´ alculos elementales

Bo rr

5.2.1.

Se puede definir, evaluar y derivar funciones abstractas utilizando := como se muestra a continuaci´ on (%i1) f(x,y):=exp(x^2+y^2)/(x-y);  exp y 2 + x2 ( %o1) f (x, y) := x−y (%i2) f(2,3);

( %o2) − e13 Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

284

´ 5.2. MAXIMA: SINTAXIS BASICA

(%i3) %,numer; ( %o3) − 442413,3920089205 (%i4) f(alpha^(1/2),beta^(1/2)); ( %o4) √

eβ+α √ α− β

Derivando respecto a x y y;

2

( %o5)

2

2

2 y ey +x 2 x ey +x + x−y x−y

2

(%i6) f(x):=3*sin(x+1)+2*sqrt(x); √ ( %o6) f (x) := 3 sin (x + 1) + 2 x (%i7) F:3*sin(x+1)+2*sqrt(x); √ ( %o7) 3 sin (x + 1) + 2 x (%i8) f(8); F(8); 5

rP

( %o8) 3 sin 9 + 2 2 √  ( %o9) 3 sin (x + 1) + 2 x (8)

re lim

Aqu´ı es bueno acotar que una expresi´ on NO es una funci´on:

in ar

(%i5) diff(f(x,y),x) + diff(f(x,y),y);

Por lo tanto, F es u ´nicamente una expresi´on que no puede ser evaluada como la funci´on f . Pero se le puede dar la vuelta para evaluarla con ev() (%i10)ev(F,x=8); 5

ad o

( %o10) 3 sin 9 + 2 2

Consideremos los siguientes c´ alculos b´ asicos: (%i11)kill(all)$

Bo rr

(%i1) sigma(x):=2*x/sqrt(x^2+1); ( %o1) σ (x) := √

2x x2 + 1

La primera derivada:

(%i2) diff(sigma(x),x);

( %o2) √

2

x2 + 1



2 x2

3

(x2 + 1) 2

La cuarta derivada: Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

285

´ 5.2. MAXIMA: SINTAXIS BASICA

(%i3) diff(sigma(x),x,4); 90 x

( %o3)

(x2 + 1)

5 2



300 x3 (x2 + 1)

7 2

210 x5

+

9

(x2 + 1) 2

Si queremos reutilizar la derivada para definir una nueva funci´on, en este caso la funci´on derivada, lo podemos hacer utilizando dos ap´ ostrofos ” (No es la doble comilla) (%i4) dsigma(x):=’’ %o2; 2 x2 + 1

2 x2



3

(x2 + 1) 2

in ar

( %o4) dsigma (x) := √ (%i5) dsigma(2); 2 3

52 (%i6) integrate(sigma(x),x); p ( %o6) 2 x2 + 1

re lim

( %o5)

La misma integral, pero definida para x entre 0 y 1. (%i7) integrate(sigma(x),x,0,1); √  ( %o7) 2 2−1

rP

L´ımites: (%i8) limit(sigma(x),x,1/2);

( %o9) 2 Sumatorias:

ad o

2 ( %o8) √ 5 (%i9) limit(sigma(x),x,inf);

(%i10)sum(sigma(i),i,0,6);

Bo rr

√ 10 8 6 4 12 ( %o10) √ + √ + √ + √ + √ + 2 37 26 17 10 5 Podemos calcular series de Taylor, digamos, alrededor de x = 1 y hasta orden 4. (%i11)taylor(sigma(x),x,1,4);

( %o11)

1 1  1 −1  1  1 1 −1  1  4 3 2 5 2 2 (x − 1) + 3 2 2 (x − 1) + 3 2 2 (x − 1) + 2 2 (x − 1) + 2 2 + · · · 128 16 8 2

Al rededor de x = 0 es m´ as simple todo:

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

286

´ 5.2. MAXIMA: SINTAXIS BASICA

(%i12)taylor(sigma(x),x,0,6); ( %o12)

3 5 x + (−1) x3 + 2 x + · · · 4

Y por supuesto, tambi´en podemos hacer una gr´afica de la funci´on. Para ello utilizaremos el comando wxplot2d que nos generar´ a un gr´ afico embebido dentro de la misma hoja de trabajo. (%i13)wxplot2d(sigma(x),[x,-10,10]);

rP

re lim

in ar

( %o13)

Los c´ alculos anteriores se pueden repetir para que queden de una manera m´as elegante usando una camilla, esto har´ a que no se efect´ ue la evaluaci´on de las operaciones.

1



x

Bo rr

Z

ad o

(%i14)’diff(sigma(x),x)=diff(sigma(x),x);   d 2x 2 2 x2 √ ( %o14) =√ − 3 dx x2 + 1 x2 + 1 (x2 + 1) 2 (%i15)’integrate(sigma(x),x,0,1)=integrate(sigma(x),x,0,1); ( %o15) 2

dx = 2

√

 2−1

x2 + 1 (%i16)’limit(sigma(x),x,inf)=limit(sigma(x),x,inf);   x =2 ( %o16) 2 l´ım √ x→∞ x2 + 1 (%i17)’sum(sigma(i),i,0,6)=sum(sigma(i),i,0,6); 0

( %o17) 2

6 X i=0



i

i2

Hern´ andez & N´ un ˜ez

√ 12 10 8 6 4 =√ +√ +√ +√ +√ + 2 37 26 17 10 5 +1 Universidad de los Andes / Universidad Industrial de Santander

287

´ 5.2. MAXIMA: SINTAXIS BASICA

Anteriormente mencionamos que uno de las ventajas de los programas de manipulaci´on simb´olica es la gran capacidad de llevar a cabo c´ alculos largos y tediosos, veamos entonces como se hace para demostrar que la funci´ on antes mencionada: (%i18)f(x,y,z):=sin(n*z*sqrt(x^2+y^2+z^2)/sqrt(y^2+z^2))/sqrt(x^2+y^2+z^2);   √ n z z 2 +y 2 +x2 √ 2 2 sin z +y p ( %o18) f (x, y, z) := 2 z + y 2 + x2   2 ∂4f ∂4f ∂4f ∂2f 2 ∂ f + 2 2 + 2 2 +n + 2 =0 ∂x4 ∂y x ∂z x ∂x2 ∂y

in ar

es soluci´ on de la ecuaci´ on diferencial

(%i19)diff(f(x,y,z),x,4)+diff(diff(f(x,y,z),x,2),y,2)+diff(diff(f(x,y,z),x,2),z,

( %o19) (( Expression too long to display! ))

re lim

2)+n^2*(diff(f(x,y,z),x,2)+diff(f(x,y,z),y,2));

rP

Aqu´ı Maxima no hace un despliegue en la pantalla de los c´alculos porque la expresi´on matem´ atica es muy larga. Existen opciones para que muestre en pantalla los que nos interese que iremos viendo m´ as adelante. Necesitamos entonces decirle al programa que la expresi´on anterior sea simplificada, es decir, que minimice la expresi´ on a su valor m´ as simple. Para simplificar expresiones que contienen radicales, exponenciales o logaritmos es conveniente utilizar el comando ratsimp. Tambi´en existe la opci´on fullratsimp (%i20)ratsimp(%); ( %o20) 0

ad o

En la mayor´ıa de los casos Maxima no factoriza ni desarrolla autom´aticamente las expresiones, por lo tanto, debemos indicarle al programa que haga las respectivas simplificaciones. Veamos un ejemplo con polinomios: (%i21)kill(all)$

(%i1) p:(x+2)*(x-1);

Bo rr

( %o1) (x − 1) (x + 2) (%i2) q:(x-3)^2; 2

( %o2) (x − 3) (%i3) p-q;

( %o3) (x − 1) (x + 2) − (x − 3)

2

(%i4) expand(p-q);

( %o4) 7 x − 11 Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

288

´ 5.2. MAXIMA: SINTAXIS BASICA

(%i5) expand(p/q); ( %o5)

x2

x 2 x2 + − − 6 x + 9 x2 − 6 x + 9 x2 − 6 x + 9

Si queremos dividir usando fracciones simples podemos hacer lo siguiente: (%i6) partfrac(p/q,x); ( %o6)

7 10 + +1 x − 3 (x − 3)2

in ar

Las funciones logexpand y radexpand permiten controlar si queremos simplificar logaritmos y radicales cuando contienen productos. Veamos: (%i7) log(x*y);

(%i8) sqrt(x*y); √ ( %o8) x y (%i9) sqrt(x^2); ( %o9) |x| (%i10)radexpand:all$ logexpand:all$ (%i11)log(x*y); sqrt(x*y); sqrt(x^2);

rP

( %o11) √ log y + log x √ ( %o12) x y ( %o13) x

re lim

( %o7) log (x y)

Lo inverso a la expansi´ on de expresiones es la factorizaci´on:

( %o14) 23 52

ad o

(%i14)factor(200);

(%i15)factor(x^2+x-2);

Bo rr

( %o15) (x − 1) (x + 2) (%i16)p:x^3-1;

( %o16) x3 − 1

(%i17)factor(%);

( %o17) (x − 1) x2 + x + 1



La evaluaci´ on de expresiones se realiza de la manera siguiente

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

289

´ 5.2. MAXIMA: SINTAXIS BASICA

(%i18)ev(p,x=8); ( %o18) 511 O tambi´en (%i19)p,x=%pi; ( %o19) π 3 − 1

in ar

(%i20)ev(x+(x+y)^2-3*(x+y)^3,x+y=t); ( %o20) x − 3 t3 + t2

Para finalizar con esta gu´ıa r´ apida de Maxima veamos el uso de uno de los comandos m´as comunes de estos programas, y que tiene que ver con la soluci´on de ecuaciones.

( %o21) x3 + 2 x2 + 2 x = 2 x2 (%i22)sol:solve(ecu,x); h i √ √ ( %o22) x = − 2 %i, x = 2 %i, x = 0

re lim

(%i21)ecu:3*x^2+2*x+x^3-x^2=2*x^2;

Recordemos que %i es la notaci´ on para el imaginario i. Si necesitamos aislar una de las soluciones usamos el comando rhs (de right-hand side):

rP

(%i23)rhs(part(sol,1)); rhs(part(sol,2)); √ ( %o23) √ − 2 %i ( %o24) 2 %i

Para un sistema de ecuaciones, digamos, dos ecuaciones con dos inc´ognitas:

ad o

(%i25)ecu1:x^2+y^2=1; ( %o25) y 2 + x2 = 1

(%i26)ecu2:(x-2)^2+(y-1)^2=4; 2

2

Bo rr

( %o26) (y − 1) + (x − 2) = 4

(%i27)solve([ecu1,ecu2],[x,y]);    4 3 ( %o27) x = , y = − , [x = 0, y = 1] 5 5 Cuando el sistema no tiene soluci´ on Maxima responde de la siguiente manera (%i28)solve([x+y=0,x+y=1],[x,y]);

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

290

´ 5.2. MAXIMA: SINTAXIS BASICA

( %o28) [ ] En el caso de un sistema que tiene m´as inc´ognitas que ecuaciones el programa utiliza los s´ımbolos %r1 , %r2 ... para indicar los par´ ametros arbitrarios (%i29)solve([x+y+z=9,x-y=2*z],[x,y,z]);   3 %r1 − 9 %r1 + 9 ,y = − , z = %r1 ( %o29) x = 2 2

(%i30)ecus:[x+y+z+w=1,x-y+z-w=-2,x+y-w=0]; ( %o30) [z + y + x + w = 1, z − y + x − w = −2, y + x − w = 0]

re lim

(%i31)linsolve(ecus,[x,y,z]);   4w − 3 2w − 3 ( %o31) x = ,y = − ,z = 1 − 2w 2 2

in ar

En lugar de solve se puede recurrir a un comando diferente que hace lo mismo, pero que es m´as eficiente desde el punto de vista de los recursos usados por el computador, el comando es linsolve para ecuaciones lineales.

En el caso de polin´ omios de orden superior el resultado estar´a dado de forma aproximada: (%i32)ec:x^7+x^5-x^3+x-2; ( %o32) x7 + x5 − x3 + x − 2

rP

(%i33)allroots(ec);

ad o

[ x=0.766414088337633 %i+0.5507199727230275 , x=0.5507199727230275-0.766414088337633 %i , x=0.4922671445862202 %i - 0.9637112977011089 , x=-0.4922671445862202 %i -0.9637112977011089 , x=1.381985877916414 %i -0.08700867502191806 , x=-1.381985877916414 %i -0.08700867502191806 , x=0.9999999999999988 ]

(%i34)realroots(ec);

Bo rr

( %o34) [x = 1]

Otro tipo de ecuaciones a resolver son las ecuaciones diferenciales. Veamos como funciona con la ecuaciones diferenciales ordinarias (%i35)ecd:(2*x+1)*’diff(y,x)+y*(x-1)=0;   d y + (x − 1) y = 0 ( %o35) (2 x + 1) dx (%i36)ode2(ecd,y,x);

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

291

´ 5.2. MAXIMA: SINTAXIS BASICA

( %o36) y = %c e

3 log(2 x+1) −x 4 2

Por ser una ecuaci´ on diferencial de primer orden debe aparecer una constante en la soluci´on. La constante aqu´ı es denotada por “ %c”. (%i37)ecd2:’diff(y,x,2)-3*’diff(y,x)+2*y=x;   d d2 y−3 ( %o37) y + 2y = x d x2 dx (%i38)ode2(ecd2,y,x);

in ar

2x + 3 4

( %o38) y = %k1 e2 x + %k2 ex +

Para el caso de que se tengan condiciones iniciales utilizamos ic2 para indicar las condiciones

( %o39) y =

5 e2 x 2x + 3 − 2 ex + 4 4

Y para valores de contorno bc2

re lim

(%i39)ic2(%o38,x=0,y=0,diff(y,x)=1);

(%i40)bc2(%o38,x=0,y=0,x=1,y=0);  3 e2 − 5 ex 2x + 3 (3 e − 5) e2 x − + ( %o40) y = 4 e2 − 4 e 4 e2 − 4 e 4

rP

Existe el comando desolve para resolver tambi´en ecuaciones o sistemas de ecuaciones diferenciales ordinarias lineales utilizando transformadas de Laplace. Trabaja de manera parecida a ode2 pero se necesita especificar la dependencia de las funciones con las variables independientes. (%i41)ecd3:’diff(y(x),x,2)-y(x)=2*x;

d2 y (x) − y (x) = 2 x d x2 (%i42)desolve(ecd3,[y(x)]);  ex ddx y (x) x=0 + y (0) + 2 e−x ( %o42) y (x) = − 2

ad o

( %o41)

d dx

 y (x) x=0 − y (0) + 2 − 2x 2

Si tenemos condiciones iniciales en x = 0 entonces podemos escribir:

Bo rr

(%i43)atvalue(y(x),x=0,1); atvalue(diff(y(x),x),x=0,2);

( %o43) 1 ( %o44) 2

(%i45)desolve(ecd3,[y(x)]);

( %o45) y (x) =

5 ex 3 e−x − − 2x 2 2

Si desolve no encuentra una soluci´ on, entonces devuelve “false”.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

292

´ 5.2. MAXIMA: SINTAXIS BASICA

Veamos un ejemplo de un sistema de ecuaciones diferenciales (%i46)ecd_1: ’diff(f(x),x)=’diff(g(x),x)+sin(x); d d f (x) = g (x) + sin x dx dx (%i47)ecd_2: ’diff(g(x),x,2)=’diff(f(x),x)-cos(x);

( %o46)

d d2 g (x) = f (x) − cos x 2 dx dx (%i48)atvalue(’diff(g(x),x),x=0,a)$ atvalue(f(x),x=0,b)$ atvalue(g(x),x=0,c)$ (%i51)desolve([ecd_1, ecd_2], [f(x),g(x)]);

( %o51) [f (x) = a ex + b − a, g (x) = cos x + a ex + c − a − 1] (%i52)kill(all)$ Operaciones b´ asicas con matrices:

in ar

( %o47)

rP

re lim

(%i1) A:matrix([1,2,3],[4,5,6],[7,8,9]);B:matrix([9,8,7],[6,5,4],[3,2,1]);   1 2 3 ( %o1) 4 5 6 7 8 9 9 8 7 ( %o2) 6 5 4 3 2 1 (%i3) A+B;   10 10 10 ( %o3) 10 10 10 10 10 10

(%i4) A.B;  30 ( %o4)  84 138

ad o

El producto ordinario de matrices:

24 69 114

 18 54 90

El producto elemento a elemento

Bo rr

(%i5) A*B;   9 16 21 ( %o5) 24 25 24 21 16 9

El cociente elemento a elemento (%i6) A/B;

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

293

´ 5.2. MAXIMA: SINTAXIS BASICA

1 ( %o6)

9 2 3 7 3

1 4

3 7 3 2



1 4

9

El producto por un escalar: (%i7) n*A;  n 2n ( %o7) 4 n 5 n 7n 8n

 3n 6 n 9n

in ar

Podemos generar matrices de muchas maneras

(%i9) A:genmatrix(a,4,4);   2 5 10 17 5 8 13 20  ( %o9)  10 13 18 25 17 20 25 32 Tambi´en de manera interactiva: (%i10)n:3$ (%i11)M:entermatrix(n,n)$

4. General

ad o

(%i12)M;  3 (y + x) ( %o12)  0 0

3. Antisymmetric

rP

Is the matrix 1. Diagonal 2. Symmetric Answer 1, 2, 3 or 4 : 1; Row 1 Column 1: (x+y)^n$ Row 2 Column 2: (x-y)^(n+1)$ Row 3 Column 3: (x.y)^(n-1)$ Matrix entered.

re lim

(%i8) a[i,j]:=i^2 + j^2$

0 4 (x − y) 0

 0 0  2 (x · y)

Bo rr

La matriz identidad de tama˜ no n x n usamos el comando ident(n), como mostramos a continuaci´ on (%i13)ident(4);  1 0 0 0 1 0 ( %o13)  0 0 1 0 0 0

Hern´ andez & N´ un ˜ez

 0 0  0 1

Universidad de los Andes / Universidad Industrial de Santander

294

´ 5.2. MAXIMA: SINTAXIS BASICA

5.2.2.

Bibliotecas

No todos los comandos est´ an disponibles en la memoria cuando el programa es iniciado. S´olo los comandos est´ andar son cargados autom´ aticamente. Pero podemos contar con funciones adicionales para trabajar cargando al programa los diferentes paquetes, m´odulos o librer´ıas que dispone Maxima. Por ejemplo, el paquete vect nos permite introducir vectores y operar con ellos. El paquete vect debe entonces ser previamente cargado y se hace de la manera siguiente: (%i1) load(vect)$

in ar

Las operaciones b´ asicas de suma, resta, multiplicaci´on y multiplicaci´on por escalares de vectores las podemos ver a continuaci´ on, pero primero debemos saber como introducir los vectores al programa. Por ejemplo, para los vectores a = 2i + 4j + 6k, b = 5i + 7j + 9k y c = i + 3j, tenemos: (%i2) a:[2,4,6]; ( %o2) [2, 4, 6] (%i3) b:[5,7,9];

re lim

( %o3) [5, 7, 9] (%i4) c:[1,3,0]; ( %o4) [1, 3, 0] (%i5) a+b+c; ( %o5) [8, 14, 15]

rP

(%i6) 3*a+5*b-c; ( %o6) [30, 44, 63]

Si queremos calcular el m´ odulo de los vectores podemos hacerlo definiendo una funci´on: la funci´on m´ odulo, como mostramos a continuaci´ on:

ad o

(%i7) modulo(a):=sqrt(a.a); √ ( %o7) modulo(a) := a.a

Bo rr

(%i8) modulo(a); modulo(b); modulo(c); √ ( %o8) 2√ 14 ( %o9) √155 ( %10) 10 Para el producto escalar usamos un punto (%i11)a.b;

( %11) 92

Mientras que para el producto vectorial debemos usar la tilde ∼ y escribir lo siguiente

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

295

re lim

in ar

´ 5.2. MAXIMA: SINTAXIS BASICA

Figura 5.2: Curvas integrales para y 0 = −x + e−y

( %o12) [−6, 12, −6] (%i13)express(b~a);

ad o

( %o13) [6, −12, 6]

rP

(%i12)express(a~b);

De manera que el producto triple lo podemos calcular asi: (%i14)c.(express(a~b)); ( %o14) 30

Bo rr

Otra librer´ıa que podemos explorar es plotdf que nos permite realizar gr´aficos del tipo y 0 = f (x, y) y hacernos una idea de c´ omo es la soluci´ on de ´esta ecuaci´on diferencial. (%i1) load(plotdf)$

La librer´ıa plotdf nos permite estudiar los campos de direcciones y las curvas integrales a trav´es del estudio de las pendientes. Veamos la siguiente ecuaci´on diferencial y 0 = −x + e−y

su soluci´ on, de manera gr´ afica, es decir los campos de direcciones lo podemos obtener escribiendo el siguiente Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

296

re lim

in ar

´ 5.2. MAXIMA: SINTAXIS BASICA

Figura 5.3: Curva integrales para y 0 = −x + e−y y que pasa por el punto (2, 3)

(%i2) plotdf(-x+exp(-y));

rP

comando.

ad o

La gr´ afica que resulta puede verse en la Figura 5.2 y cada curva integral (curvas en rojo) se obtiene haciendo un “click”sobre un punto de la gr´afica, esto generar´a la curva integral que pasa por ese punto. Por otra parte, existen varias opciones para el comando plotdf. Supongamos que queremos la trayectoria que pase por el punto espec´ıfico (2, 3). Para tal fin escribimos (%i3) plotdf(-x+exp(-y),[trajectory_at,2,3]);

Bo rr

Y la gr´ afica obtenida puede verse en la Figura 5.3. Tambi´en nos podemos encontrar con que la ecuaci´on diferencial depende de alg´ un par´ametro, digamos κ. Por ejemplo y 0 = −x + κe−y y nos gustar´ıa obtener una gr´ afica para alg´ un valor del par´ametro en part´ıcular, digamos κ = −0,5. Entonces podemos escribir (%i4) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"]);

O, si queremos recorrer, en una misma figura, los diferentes valores del par´ametro usamos la opci´ on sliders, como se muestra a continuaci´ on

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

297

re lim

in ar

´ 5.2. MAXIMA: SINTAXIS BASICA

Figura 5.4: Curva integrales para y 0 = −x + κe−y y para diferentes valores de κ.

rP

(%i5) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"],[sliders,"kappa=-3:3"]);

Bo rr

ad o

La gr´ afica que se obtiene se muestra en la Figura 5.4, y como se puede ver, en la parte inferior aparece un bot´ on deslizante y el valor del par´ ametro κ. Al deslizar el bot´on, estaremos cambiando el valor del par´ametro que en este caso variar´ a entre −3 y 3, podremos apreciar entonces como los campos de direcciones y las curvas integrales seleccionadas cambian.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

298

´ 5.2. MAXIMA: SINTAXIS BASICA

5.2.3.

Maxima en modo texto

re lim

Obatala%maxima Maxima 5.36.1 http://maxima.sourceforge.net using Lisp SBCL 1.2.10 Distributed under the GNU Public License. See the file COPYING. Dedicated to the memory of William Schelter. The function bug_report() provides bug reporting information. (%i1) integrate( tan(x), x ); (%o1) log(sec(x)) (%i2) float(sqrt(%pi)); (%o2) 1.772453850905516 (%i3) quit();

in ar

Es posible utilizar Maxima en un computador que funcione bajo alguno de los diferentes versiones de sistemas operativos tipo UNIX, como por ejemplo Linux, esto lo podemos hacer cuando no queremos utilizar el ambiente gr´ afico. Podemos recurrir al ambiente de texto escribiendo el comando maxima en un terminal de nuestro computador, esto har´ a que entremos en un ambiente de c´alculo que funcionar´a exclusivamente en modo texto y aparecer´ a, luego de una bienvenida, el aviso de espera o prompt. Para finalizar una sesi´ on en Maxima se utiliza el comando quit(). Esta posibilidad que ofrece el programa es muy conveniente a la hora de realizar grandes c´alculos ya que podemos dejar el proceso en modo “background” y utilizar el computador en otra actividad. Al entrar en este modo al programa tendremos un mensaje como el que se muestra a continuaci´ on y donde aprovecharemos de hacer un par de c´alculos a modo de ejemplo.

Obatala% maxima < archimax.txt

rP

Sobre UNIX podemos utilizar los archivos de entradas y salidas est´andar para leer e imprimir informaci´ on en el terminal: , |.

ad o

Con esta instrucci´ on Maxima ejecutar´a todos los comandos que se encuentran en el archivo de texto archimax.txt e ir´ a mostrando los resultados en pantalla En la siguiente instrucci´ on Maxima ejecutar´a todos los comandos que se encuentran en el archivo de texto archimax.txt pero escribir´ a los resultados en el archivo de salida llamado archimax.out Obatala% maxima < archimax.txt > archimax.out Tambi´en se puede hacer que todos los comandos del archivo sean ejecutados para luego ser enviados al terminal pero paginados.

Bo rr

Obatala% maxima < archimax.txt | more

Maxima puede ser detenido temporalmente con el comando “Control Z” de manera que para poner procesos en “background” se procede de la manera usual: Obatala% maxima < archimax.txt > archimax.out ^Z Suspended Obatala%> bg [2] maxima < archimax.txt > archimax.out & Obatala% Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

299

´ 5.2. MAXIMA: SINTAXIS BASICA

O si lo preferimos, y de manera equivalente, podemos escribir la instrucci´on pero ponemos al final & Obatala% maxima [1] 5114

5.2.4.

< archimax.txt > archimax.out &

Invocando la ayuda

El ambiente wxMaxima permite acceder al manual de ayuda f´acilmente visible en la barra de herramientas, parte superior de la ventana. Pero tambi´en si conocemos el comando podemos escribir, por ejemplo:

0: diff (Functions and Variables for Differentiation) 1: diff (Functions and Variables for Differentiation) 2: diff (Functions and Variables for itensor) Enter space-separated numbers, ‘all’ or ‘none’:

in ar

(%i1) describe(diff);

re lim

Al seleccionar una de las opciones, por ejemplo si escribimos 1 despu´es de los dos puntos, aparecer´ a la descripci´ on completa del comando:

Bo rr

ad o

rP

-- Function: diff diff (, , , ..., , ) diff (, , ) diff (, ) diff () Returns the derivative or differential of with respect to some or all variables in . ’diff (, , )’ returns the ’th derivative of with respect to . ’diff (, , , ..., , )’ returns the mixed partial derivative of with respect to , ..., . It is equivalent to ’diff (... (diff (, , ) ...), , )’. ’diff (, )’ returns the first derivative of with respect to the variable . ’diff ()’ returns the total differential of , that is, the sum of the derivatives of with respect to each its variables times the differential ’del’ of each variable. No further simplification of ’del’ is offered. The noun form of ’diff’ is required in some contexts, such as stating a differential equation. In these cases, ’diff’ may be quoted (as ’’diff’) to yield the noun form instead of carrying out the differentiation..... There are also some inexact matches for ‘diff’. Try ‘?? diff’ to see them.

Tambi´en podemos utilizar:

(%i2) apropos("diff");

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

300

5.3. EJERCICIOS

[covdiff,diff,maxtaydiff,pdiff_diff_var_names,pdiff_prime_limit...] O pedirle al programa algunos ejemplos (%i3) example(diff); kill(f,g,h,x,y) done diff(sin(x)+x^3+2*x^2,x) cos(x)+3*x^2+4*x diff(sin(x)*cos(x),x) cos(x)^2-sin(x)^2 diff(sin(x)*cos(x),x,2) -4*cos(x)*sin(x)

in ar

(%i4) (%o4) (%i5) (%o5) (%i6) (%o6) (%i7) (%o7) . . .

5.3.

Ejercicios

1. Calcule:

2. Para la siguiente funci´ on

rP

a) los 70 primeros decimales del n´ umero e b) el arco coseno hiperb´ olico de 1 c) la expansi´ on de sin(2 arctan(x))

re lim

Las ayudas completas de Maxima se pueden consultar en: http://maxima.sourceforge.net/es/

(x + 1)3 f (x) = √ x2 − 1

Calcule ∂f (x) ∂f (x) ∂x , ∂x2

ad o

a) b)

Z

c)

Z f (x)dx ,

Bo rr

l´ım f (x) ,

x→∞

4

f (x)dx 2

l´ım f (x) ,

x→−∞

l´ım f (x)

x→0

d ) Haga un gr´ afico de f (x) para valores de x ∈ [−5, 5].

3. Encuentre las ra´ıces de

p = x7 + x5 + 2x + x

4. Resuelva la siguiente ecuaci´ on diferencial x

dy(x) = y(x) ln(xy(x)) − y(x); dx

y haga una gr´ afica del campo de direcciones que muestre algunas curvas integrales. Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

301

5.3. EJERCICIOS

5. Resuelva la siguiente ecuaci´ on diferencial  dy(t) d2 y(t) − 1 − y(t)2 + y(t) = 0 , d2 t dt

con: y(0) = 0 ,

dy(t) = −0,1 dt

6. Realice los ejercicios de la secci´ on 1.4 con la ayuda de la librer´ıa vect de Maxima. 7. En un archivo de texto escriba las siguientes instrucciones que tienen que ver con operaciones de n´ umeros complejos:

re lim

in ar

z_1=1+2%i; z_2=3+4%i; z_1+z_2; z_1*z_2; expand(%); z_1/z_2; rectform(%); polarform(%);

guarde el archivo con el nombre pruebamax.txt y en un terminal de su computador, y en el mismo directorio donde est´ a el archivo escriba: localhost%

maxima < pruebamax.txt > pruebamax.out &

Bo rr

ad o

rP

y verifique que en el archivo pruebamax.out se haya realizado los c´alculos.

Hern´ andez & N´ un ˜ez

Universidad de los Andes / Universidad Industrial de Santander

302

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF