Algebra Lineal

January 7, 2017 | Author: Emily Bullock | Category: N/A
Share Embed Donate


Short Description

Download Algebra Lineal...

Description

Álgebra Mineal

Álgebra lineal

Ismael Gutiérrez García Jorge Robinson Evilla

Barranquilla ќљќњяіюǰȱ2012

Gutiérrez García, Ismael. Álgebra lineal / Ismael Gutiérrez García, Jorge Robinson Evilla. -- Barranquilla : Editorial Universidad del Norte, 2012. vii, 205 p. : il. ; 24 cm. ,QFOX\HUHIHUHQFLDVELEOLRJUi¿FDV S HtQGLFH ,6%1 1. Álgebras lineales. I. Robinson Evilla, Jorge. III. Tít. *HG  &2%U81%

www.uninorte.edu.co .PYtDD3XHUWR&RORPELD$$ %DUUDQTXLOOD &RORPELD

© 2012, Editorial Universidad del Norte © 2012, Ismael Gutiérrez García y Jorge Robinson Evilla

Coordinación editorial =RLOD6RWRPD\RU2 Editor Humberto Llinás Solano Corrección de textos Henry Stein Diseño de portada Angélica Albarracín Procesos técnicos Munir Kharfan de los Reyes

+HFKRHQ&RORPELD Made in Colombia

Autores

ISMAEL GUTIÉRREZ GARCÍA Licenciado en Matemáticas y Física de la Universidad del Atlántico. Magíster en Matemáticas, convenio Universidad del Valle-Universidad del Norte. Doctor en Matemáticas (Dr. rer. nat) de la Universidad de Johannes Gutenberg de Mainz (Alemania) y miembro de la Sociedad Colombiana de Matemáticas. Desde 1993 es profesor de tiempo completo de la Universidad del Norte y actualmente es director del grupo de investigaciones en Álgebra de esta institución.

JORGE ROBINSON EVILLA Licenciado en Ciencias de la Educación, énfasis en Matemáticas y Física, de la Universidad del Atlántico. Especialista en Matemáticas de la Universidad del Norte. Desde 1995 es profesor catedrático de la Universidad del Norte.

´Indice general Pr´ ologo

VII

1. Preliminares 1 1.1. Cuerpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 8 1.3. Ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2. Espacios vectoriales 2.1. Primeras definiciones . . . . . . . . 2.2. Subespacios . . . . . . . . . . . . . 2.3. Dependencia e independencia lineal 2.4. Base y dimensi´on . . . . . . . . . . 2.5. El espacio cociente . . . . . . . . . 2.6. Ejercicios . . . . . . . . . . . . . . 3. Homomorfismos 3.1. Definiciones b´ asicas . . . . . . . 3.2. Teoremas de isomorf´ıa . . . . . 3.3. La K-´ algebra EndK (V ) . . . . 3.4. El grupo lineal general GL(V ) . 3.5. El rango de un homomorfismo . 3.6. Ejercicios . . . . . . . . . . . .

. . . . . .

4. Matrices y ecuaciones lineales 4.1. La K-´algebra Mat(n, K) . . . . . 4.2. El grupo lineal general GL(n, K) 4.3. Rango de una matriz . . . . . . . 4.4. Sumas directas y proyecciones . . 4.5. Ecuaciones lineales . . . . . . . . v

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

. . . . . .

. . . . .

. . . . . .

17 17 20 28 36 46 50

. . . . . .

55 55 63 67 74 77 80

. . . . .

85 85 94 105 113 121

VI

´ Gutierrez-Robinson

4.6. La factorizaci´on LU de una matriz . . . . . . . . . . . . . 127 4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5. El determinante 5.1. Grupo sim´etrico y el signo . . . . . . . 5.2. La funci´on determinante . . . . . . . . 5.3. Polinomio caracter´ıstico y auto-valores 5.4. Ejercicios . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

139 139 146 164 170

6. Espacios normados y espacios euclidianos 173 6.1. Normas y algunos conceptos topol´ogicos . . . . . . . . . . 173 6.2. Espacios euclidianos . . . . . . . . . . . . . . . . . . . . . 183 6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 Bibliograf´ıa y referencias

´INDICE GENERAL

199

Pr´ologo Esta propuesta editorial inicia su proceso de redacci´on con tres objeti´ vos claros. El primero es lograr un texto de Algebra lineal que contenga las definiciones y los teoremas necesarios para comprender los m´ as importantes y fundamentales espacios vectoriales que se utilizan para la construcci´on y el desarrollo de diferentes ramas de la matem´atica moderna. El segundo objetivo es incluir la demostraci´on de cada uno de los lemas y teoremas presentados, a excepci´on de las que resultan repetitivas, o de aquellas que por su condici´on de ejercicio formativo se han propuesto como tareas para el lector. El tercer objetivo es mostrar un gran n´ umero de ejemplos que ayuden a los estudiantes en la comprensi´on y aplicaci´ on de definiciones, lemas y teoremas. Iniciamos el texto con un estudio preciso y completo sobre las nociones de cuerpos y sistemas de ecuaciones lineales reales. En el cap´ıtulo segundo definimos los espacios vectoriales y presentamos los resultados b´asicos sobre base y dimensi´on de un espacio vectorial. En el tercer cap´ıtulo tratamos los homomorfismos entre espacios vectoriales, haciendo ´enfasis en los teoremas de isomorf´ıa y en la contrucci´on de bases para espacios vectoriales de homomorfismos. En el cuarto cap´ıtulo se estudiamos las matrices aprovechando su relaci´ on directa con los homomorfismos para agilizar algunas demostraciones. En el cap´ıtulo quinto nos referimos a funciones de volumen y en particular la funci´on determinante. Esta u ´ltima la analizamos a partir del grupo sim´etrico de grado n. Terminamos el texto con el sexto cap´ıtulo, en el cual presentamos las primeras definiciones y teoremas sobre espacios normados y euclidianos.

vii

.

Cap´ıtulo 1 Preliminares Contenido 1.1. Cuerpos . . . . . . . . . . . . . . . . . . . . . .

1

1.2. Ecuaciones lineales . . . . . . . . . . . . . . . .

8

1.3. Ejercicios. . . . . . . . . . . . . . . . . . . . . .

15

Este cap´ıtulo corresponde a las definiciones y los teoremas b´asicos sobre cuerpos. Comenzamos con la definici´on de grupo y algunas propiedades importantes de ellos, adem´ as de algunos ejemplos de grupos de uso frecuente tales como el grupo sim´etrico de grado n, con n ∈ N y el grupo de las clases residuales m´odulo un n´ umero primo p.

1.1.

Cuerpos

Iniciamos esta secci´ on presentando la definici´on de grupo. 1.1.1 Definici´ on. Sea G un conjunto no vac´ıo tal que a cada par (x, y) ∈ G × G est´a asociado un u ´nico x · y ∈ G, esto es, sobre G est´a definida una operaci´on binaria “ · ”. (En lo sucesivo escribimos simplemente xy en lugar de x · y). El par (G, ·) se denomina un grupo si se verifican: (G1) Para todo x, y, z ∈ G se cumple x(yz) = (xy)z. (G2) Existe un elemento e ∈ G tal que xe = ex = x, para todo x ∈ G. 1

2

´ Gutierrez-Robinson

(G3) Para cada x ∈ G existe un y ∈ G tal que xy = yx = e. Si para cada x, y ∈ G se cumple, adem´as, que xy = yx, entonces decimos que G es un grupo abeliano o conmutativo. Es usual escribir los grupos abelianos de forma aditiva, es decir, escribimos x + y en lugar de xy. Si solo se verifica el axioma (G1), entonces llamamos a G un semigrupo. Si G es un conjunto finito, entonces al n´ umero de elementos de G lo denominamos orden de G y lo notamos con |G|. 1.1.2 Ejemplos. Algunos ejemplos de grupos: 1. Z, Q, R y C son grupos abelianos con respecto a la suma usual. 2. Si K es Q, R o C, entonces K × := {x ∈ K | x = 0} es un grupo abeliano con respecto a la multiplicaci´on usual. 3. Sea Ω un conjunto no vac´ıo. El conjunto de todas las biyecciones de Ω en s´ı mismo, notado con Sym(Ω), es un grupo con respecto de la composici´ on de funciones usualmente denominado grupo de permutaciones de Ω. Un caso especial se tiene cuando Ω = {1, . . . , n}. En este caso escribimos Sym(n) en lugar de Sym(Ω) y hablamos del grupo sim´ etrico de grado n. Se verifica que |Sym(n)| = n!. 4. Sea n ∈ N. Para x, y ∈ Z definimos x≡y

m´ od n ⇔ n | (x − y),

la relaci´on de congruencia m´ odulo n. Esta define sobre Z una relaci´ on de equivalencia. La clase de equivalencia de x ∈ Z est´a dada por [x] = {nk + x | k ∈ Z} = x + nZ. Sabemos que [x] = [y] ⇔ x ≡ y

m´ od n

⇔ x = nk + y, con k ∈ Z, es decir, las clases de equivalencias distintas son [0], [1], · · · , [n−1]. Si consideramos ahora el conjunto Zn := {[x] | 0 ≤ x < n}, Cap´ıtulo 1. Preliminares

3

´ Algebra lineal

podemos definir sobre este dos operaciones binarias, suma y multiplicaci´on de la siguiente manera: [x] + [y] := [x + y].

(1.1)

[x] · [y] := [xy].

(1.2)

Demostremos que estas operaciones est´an bien definidas: supongamos que [a] = [a ] y [b] = [b ]. Entonces a = a + nk y b = b + nt, con k, t ∈ Z. Entonces a + b = (a + b ) + n(k + t), lo cual demuestra que [a + b] = [b + b ]. Es decir, [a] + [b] = [a ] + [b ]. No es dif´ıcil verificar que (Zn , +) es un grupo abeliano, con m´odulo [0] y −[x] = [n − x]. Por otro lado, ab = a b + n(b k + a t + nkt). Esto significa que [ab] = [a b ]. Es decir, [a] · [b] = [a ] · [b ]. Es importante anotar que en general, (Zn , ·) no es un grupo. Algunas consecuencias de la definici´on de grupo se presentan a continuaci´ on. 1.1.3 Lema. Sea G un grupo. Entonces: 1. Existe un u ´nico e ∈ G que satisface (G2). 2. Para cada x ∈ G existe un u ´nico y ∈ G tal que yx = e. Usamos la notaci´on x−1 para denotar el inverso de x ∈ G. 3. (x−1 )−1 = x, para todo x ∈ G. 4. (xy)−1 = y −1 x−1 , para todo x, y ∈ G. ´ n. Demostracio 1. Sea e ∈ G tal que e x = xe = x, para todo x ∈ G. Entonces, e = ee = e . 2. Sea x ∈ G y supongamos que existen y, z ∈ G tales que yx = xy = e = xz = zx. Entonces y = ey = (zx)y = z(xy) = ze = z. 3. De la definici´on de x−1 se sigue que x−1 x = xx−1 = e, esto es, x es el inverso de x−1 . En consecuencia x = (x−1 )−1 . 1.1. Cuerpos

4

´ Gutierrez-Robinson

4. De la definici´on de grupo se sigue: (y −1 x−1 )(xy) = y −1 (x−1 x)y = y −1 (ey) = y −1 y = e, Entonces (y −1 x−1 ) = (xy)−1 , lo cual completa la prueba.



En el siguiente lema se demuestra que en un grupo se cumplen las leyes de cancelaci´ on a izquierda y a derecha. 1.1.4 Lema. Sean G un grupo y a, x, y ∈ G. 1. Si ax = ay, entonces x = y. 2. Si xa = ya, entonces x = y. ´ n. Del lema 1.1.3 se sigue: Demostracio x = ex = (a−1 a)x = a−1 (ax) = a−1 (ay) = (a−1 a)y = ey = y. Similarmente se demuestra la otra afirmaci´ on.



1.1.5 Definici´ on. Sea K un conjunto no vac´ıo sobre el cual est´an definidas dos operaciones binarias, suma y multiplicaci´ on. La terna (K, +, ·) se denomina un cuerpo (un campo) si se verifican las siguientes propiedades (C1) (K, +) es un grupo abeliano, con m´odulo 0. (C2) (K × , ·) es un grupo abeliano, con m´odulo 1, diferente de 0. (C3) Para todo x, y, z ∈ K se cumplen x(y + z) = xy + xz y (x + y)z = xz + yz. 1.1.6 Definici´ on. Sea K un cuerpo y U un subconjunto no vac´ıo de K. Diremos que U es un subcuerpo de K, si al restringir las operaciones definidas sobre K a U , se verifica que U es un cuerpo. 1.1.7 Observaciones. Sea K un cuerpo. Entonces: 1. Del lema 1.1.3 se sigue 0 y 1 est´an determinados de manera u ´nica. 2. Si a ∈ K y b ∈ K × , entonces −a y b−1 tambi´en est´an determinados de manera u ´nica. Cap´ıtulo 1. Preliminares

5

´ Algebra lineal

3. Si se cumplen (C1), (C3) y K × es un semigrupo, entonces K se llama un anillo. 4. Si R es un anillo y existe 1 ∈ R, entonces R se llama un anillo con elemento identidad. Si R es un anillo y xy = yx, para todo x, y ∈ R, entonces R se llama conmutativo. 1.1.8 Teorema. Sea R un anillo. Entonces: 1. x0 = 0x = 0, para todo x ∈ R. 2. x(−y) = (−x)y = −(xy), para todo x, y ∈ R. ´ n. Demostracio 1. Note inicialmente que x0+x0 = x(0+0) = x0 = x0+0. Aplicando la propiedad cancelativa, se sigue que x0 = 0. Similarmente se demuestra que 0x = 0. 2. Usando 1. tenemos xy + x(−y) = x(y + (−y)) = x0 = 0. Es decir, x(−y) = −(xy). Similarmente se demuestra que (−x)y = −(xy).  1.1.9 Ejemplos. Algunos ejemplos de cuerpos y anillos. 1. Z con las operaciones usuales es un anillo conmutativo con elemento identidad. 2. Q, R y C con las operaciones usuales son cuerpos. 3. Sea n ∈ N. En el ejemplo 1.1.2 se demostr´o que Zn con la suma m´ od n es un grupo abeliano. La asociatividad y la conmutatividad de la multiplicaci´ on se obtienen como consecuencia de la asociatividad y la conmutatividad de la multiplicaci´ on en Z. Similar sucede con la distributividad. Esto nos permite asegurar que Zn es un anillo conmutativo. N´otese, adem´ as, que [1][x] = [x][1] = [x], para todo [x] ∈ Zn . Por lo tanto, Zn es tambi´en una anillo con elemento identidad. 1.1. Cuerpos

6

´ Gutierrez-Robinson

4. Si p es un n´ umero primo, entonces Zp es un cuerpo. En efecto, de lo anterior es suficiente demostrar que todo elemento no nulo de Zn tiene un inverso multiplicativo. Sea [0] = [x] ∈ Zp . Entonces mcd(x, p) = 1 y se verifica que existen t, s ∈ Z tales que tx+sp = 1. Por lo tanto, [t][x] + [s][p] = [1]. Pero [p] = [0], en consecuencia [t] = [x]−1 . 1.1.10 Teorema. Sea K un cuerpo y x, y ∈ K. En tal caso 1. Si xy = 0, entonces x = 0 o y = 0 2. Si a ∈ K × y ax = ay, entonces x = y ´ n. Demostracio 1. Supongamos que xy = 0 y x = 0. Entonces, y = 1y = (x−1 x)y = x−1 (xy) = x−1 0 = 0. 2. x = 1x = (a−1 a)x = a−1 (ax) = a−1 (ay) = (a−1 a)y = 1y = y.



1.1.11 Definici´ on. Sean K un cuerpo, a ∈ K y n ∈ Z. Definimos inductivamente el elemento de K, notado con na, de la siguiente manera ⎧ 0, si n = 0 ⎨ (n − 1)a + a, si n ≥ 1 na := ⎩ −(|n|a), si n < 0. Si n1 = 0, para todo n´ umero natural n, entonces diremos que K tiene caracter´ıstica cero. Si existe n ∈ N tal que n1 = 0, entonces el menor n´ umero con tal propiedad se llamar´a la caracter´ıstica de K. Usualmente se nota con Char(K). 1.1.12 Teorema. Si K es un cuerpo, entonces, Char(K) es cero o un n´ umero primo. ´ n. Supongamos que Char(K) = 0 y, adem´as que Demostracio Char(K) = mn, con m, n ∈ N y m, n > 1. Entonces se verifica que 0 = (mn)1 = (m1)(n1). Dado que K es un cuerpo, se verifica que m1 = 0 o n1 = 0, lo cual contradice la minimalidad de la caracter´ıstica.  Cap´ıtulo 1. Preliminares

7

´ Algebra lineal

1.1.13 Ejemplos. Algunos ejemplos de caracter´ısticas. 1. Q, R y C son cuerpos de caracter´ıstica cero. 2. Si p es un n´ umero primo, entonces Zp es un cuerpo de caracter´ıstica p. En efecto, p[1] = [0] y si m < p, entonces m[1] = [0]. 1.1.14 Definici´ on. Se define el cuerpo primo P de un cuerpo K como la intersecci´on de todos sus subcuerpos. Esto es,  P = {U | U es subcuerpo de K}. Evidentemente P est´a contenido en cualquier subcuerpo de K. Es decir, P es el subcuerpo m´as peque˜ no de K. 1.1.15 Teorema. Sea K un cuerpo con caracter´ıstica p. Entonces K tiene un subcuerpo isomorfo a Zp , el cual denominamos cuerpo primo de K. ´ n. Definimos la funci´on ϕ : Zp −→ K de la siguiente Demostracio manera: [m] −→ m · 1, para todo m ∈ {0, 1, . . . , p − 1}. Se verifica sin dificultades que ϕ es un homomorfismo de anillos, es decir, ϕ(x + y) = ϕ(x) + ϕ(y) y ϕ(xy) = ϕ(x)ϕ(y), para todo x, y ∈ Zp . Demostramos ahora que ϕ es inyectiva. En efecto, supongamos que ϕ(x) = ϕ(y), con x = y. Entonces si definimos z := x − y, se verifica que ϕ(z) = 0. Por otro lado, ϕ([1]) = ϕ(zz −1 ) = ϕ(z)ϕ(z −1 ) = 0. En consecuencia, para todo [m] ∈ Zp se verifica que ϕ([m]) = ϕ([m][1]) = ϕ([m])ϕ([1]) = 0, lo cual es contradictorio. Entonces ϕ define un isomorfismo entre Zp y P. Finalmente, todo subcuerpo de K tiene a 1 como elemento y, por lo tanto, tambi´en a m · 1; es decir, todo subcuerpo de K contiene a Im(ϕ) y as´ı, este debe ser su cuerpo primo.  1.1. Cuerpos

8

´ Gutierrez-Robinson

1.2.

Ecuaciones lineales

1.2.1 Definici´ on. Una ecuaci´ on lineal en las n-variables x1 , . . . xn sobre un cuerpo K es una igualdad de la forma a 1 x1 + a 2 x2 + · · · + an xn = b

(1.3)

donde aj , b ∈ K para todo j ∈ {1, . . . , n}. Los escalares a1 , . . . , an se denominan coeficientes de la ecuaci´ on. 1.2.2 Ejemplos. Las siguientes ecuaciones son lineales, reales, en las variables x, y, z, w. √ 1. 3x − 2y + z = 0 2. − 12 x − y = π 3. x + y − z − w = 9 4. (ln 2)x + (ln 3)y − (ln 5)z = 1, mientras que 1. sen x + cos y − x = 1 √ 2. 3 x + y + z = 0 3. ex − ey = 1 4. ln x + ln y − ln z = 0 no son ecuaciones lineales. 1.2.3 Definici´ on. Sean K un cuerpo y n ∈ N. Definimos K n := {(x1 , . . . , xn ) | xj ∈ K}. Sobre este conjunto podemos definir dos operaciones binarias denominadas suma y multiplicaci´on por un escalar de la siguiente manera: Sean x = (x1 , . . . , xn ), y = (y1 , . . . , yn ), k ∈ K x + y := (x1 + y1 , . . . , xn + yn ) kx := (kx1 , . . . , kxn ). on de la ecuaci´ on Un elemento (c1 , . . . , cn ) ∈ K n se denomina una soluci´ lineal (1.3) si y solo si a1 c1 + · · · + an cn = b. El conjunto de todas las soluciones de (1.3) se denomina conjunto soluci´ on. Cap´ıtulo 1. Preliminares

9

´ Algebra lineal

1.2.4 Ejemplo. El elemento (3, 0, 0) ∈ R3 es una soluci´on de la ecuaci´ on lineal 3x − 4y + 15z = 9, mientras que la terna (1, −1, 2) no lo es. Podemos obtener el conjunto soluci´on S de la siguiente manera: 3x − 4y + 15z = 9 ⇔ 3x = 4y − 15z + 9 ⇔ x = 13 (4y − 15z + 9). Entonces S =



(x, y, z) | x = 13 (4y − 15z + 9), y, z ∈ R}

= {( 13 (4y − 15z + 9), y, z) | y, z ∈ R}

= {( 13 (4t − 15s + 9), t, s) | t, s ∈ R}.

Podemos observar que (3, 0, 0) se obtiene con los valores t = 0 y s = 0. 1.2.5 Definici´ on. Un conjunto de m-ecuaciones lineales en las nvariables x1 , . . . xn sobre un cuerpo K: a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .. .

(1.4)

am1 x1 + am2 x2 + · · · + amn xn = bm con aij , bj ∈ K para todo i ∈ {1, 2, . . . , n} y todo j ∈ {1, 2, . . . , m} se denomina un sistema de m ecuaciones lineales en las n variables x1 , . . . xn sobre K. Si b1 = · · · = bm = 0, entonces el sistema lineal se denomina homog´ eneo. Notemos que el vector (0, 0, . . . , 0) ∈ K n siempre es soluci´on de un sistema lineal homog´eneo. Esta se denominar´a soluci´ on trivial o soluci´ on nula. El sistema de ecuaciones anterior puede expresarse en la forma n 

aij xj = bi , i = 1, . . . , m.

(1.5)

j=1

1.2.6 Definici´ on. Si Sj es el conjunto soluci´on del la j-esima ecuaci´on del sistema (1.4), digamos

entonces S :=

m

aj1 x1 + aj2 x2 + · · · + ajn xn = bj m,

j=1 Sj

es el conjunto soluci´on del sistema. 1.2. Ecuaciones lineales

10

´ Gutierrez-Robinson

1.2.7 Definici´ on. Dos sistemas de m ecuaciones lineales en n variables sobre un cuerpo K se denominan equivalentes si tienen el mismo conjunto soluci´on. Dado un sistema de ecuaciones lineales, ¿como obtener otro sistema de ecuaciones que sea equivalente a este y que, adem´as, su conjunto soluci´ on sea f´acil de calcular? En el siguiente teorema presentamos una respuesta a ese interrogante. 1.2.8 Teorema. El sistema de dos ecuaciones lineales en n variables sobre un cuerpo K a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2

(1.6)

en el que a11 = 0 es equivalente al sistema a11 x1 + a12 x2 + · · · + a1n xn = b1 a22 x2 + · · · + a2n xn = b2 ,

(1.7)

donde a2j = a21 a1j − a11 a2j , j = 2, . . . , n b2 = a21 b1 − a11 b2 . ´ n. Para j = 1, 2 definimos Demostracio Lj := aj1 x1 + aj2 x2 + · · · + ajn xn . Entonces los sistemas de ecuaciones (1.6) y (1.7) se transforman, respectivamente, en L1 = b1 L2 = b2

(1.8)

y L1 = b1 a21 L1 − a11 L2 = a21 b1 − a11 b2 . Sea (x1 , . . . , xn ) ∈ K n una soluci´on del sistema (1.6). Entonces a21 L1 = a21 b1 −a11 L2 = −a11 b2 Cap´ıtulo 1. Preliminares

(1.9)

11

´ Algebra lineal

y, en consecuencia, a21 L1 − a11 L2 = a21 b1 − a11 b2 . Es decir, toda soluci´on de (1.6) es una soluci´ on de (1.7). Rec´ıprocamente, supongamos que (x1 , . . . , xn ) ∈ K n una soluci´on del sistema (1.7). Entonces a21 L1 = a21 b1 y se sigue que a21 L1 − (a21 L1 − a11 L2 ) = a21 b1 − (a21 b1 a11 b2 ) a11 L2 −1 a11 (a11 L2 )

= a11 b2 = a−1 11 (a11 b2 )

L2 = b2 , con lo cual se tiene el resultado.



1.2.9 Definici´ on. Llamamos transformaciones elementales sobre las ecuaciones de un sistema lineal las siguientes: (a) Multiplicar la i-´esima ecuaci´ on Ei por una constante no nula k. kEi → Ei . (b) Sumar la i-´esima ecuaci´on a la j-´esima ecuaci´on. E i + E j → Ej . Demostramos m´as adelante que las siguientes operaciones se obtienen a partir de transformaciones elementales: (c) Intercambiar la i-´esima ecuaci´ on con la j-´esima ecuaci´on. Ei ↔ Ej . (d) Sumar k-veces la i-´esima ecuaci´on a la j-´esima ecuaci´on. kEi + Ej → Ej . 1.2. Ecuaciones lineales

12

´ Gutierrez-Robinson

1.2.10 Ejemplo. Resolver el siguiente sistema lineal: y + 2z = 6 3x − 3y − 3z = −15 x + 3y + 3z = 11. Soluci´ on: 1. Efectuando la operaci´on elemental E1 ↔ E3 , se tiene el sistema equivalente x + 3y + 3z = 11 3x − 3y − 3z = −15 y + 2z = 6. 2. Si efectuamos la operaci´on elemental E2 − 3E1 → E2 , se tiene x + 3y + 3z = 11 −12y − 12z = −48 y + 2z = 6 1 E2 → E2 y tenemos: 3. Realizamos la operaci´on − 12

x + 3y + 3z = 11 y+z = 4 y + 2z = 6 4. Seguimos ahora con la operaci´on E3 − E2 → E3 para obtener x + 3y + 3z = 11 y+z = 4 z = 2 Por sustituci´ on hacia atr´ as tenemos el sistema equivalente x = −1 y = 2 z = 2, es decir, el sistema tiene soluci´on u ´nica y esta es (−1, 2, 2) ∈ R3 . Cap´ıtulo 1. Preliminares

13

´ Algebra lineal

En el procedimiento anterior hemos podido ahorrar la escritura de las ecuaciones y trabajar con un arreglo rectangular formado por los coeficientes del sistema y los t´erminos independientes, el cual nos permite simplificar la notaci´on. Si tenemos el sistema lineal a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .. .. . . am1 x1 + am2 x2 + · · · + amn xn = bm , podemos simbolizarlo con el arreglo rectangular ⎛ ⎞ a11 a12 · · · a1n | b1 ⎜ a21 a22 · · · a2n | b2 ⎟ ⎜ ⎟ ⎜ .. .. ⎟ .. . . ⎝ . . . | . ⎠ a11 a12 · · · amn | b1 Cada n-tupla (ai1 a12 · · · ain ) la llamamos i-´esima fila. 1.2.11 Ejemplo. Resolver el siguiente sistema de ecuaciones lineales. y + 2z = 6 3x − 3y − 3z = −15 x + 3y + 3z = 11. ´ n: Solucio ⎛

⎞ ⎛ ⎞ 0 1 2 | 6 1 3 3 | 11 ⎝3 −3 −3 | −15⎠ F1 ↔F3 ⎝3 −3 −3 | −15⎠ −3F1 +F2 →F2 1 3 3 | 11 0 1 2 | 6 ⎛

⎛ ⎞ ⎞ 1 3 3 | 11 1 3 3 | 11 1 ⎝0 −12 −12 | −48⎠ − 12 F2 →F2 ⎝0 1 1 | 4 ⎠ −F2 +F3 →F3 0 1 2 | 6 0 1 2 | 6 ⎛

⎞ 1 3 3 | 11 ⎝0 1 1 | 4 ⎠. 0 0 1 | 2 1.2. Ecuaciones lineales

14

´ Gutierrez-Robinson

En este punto podemos retornar al sistema escalonado x + 3y + 3z = 11 y+z =4 z=2 y proceder como en el ejemplo 1.2.10. 1.2.12 Ejemplo. Resolver el sistema de ecuaciones lineales x − 3y + 2z = 0 −5x + 4y + 3z = 0. ´ n: Solucio 



1 −3 2 | 0 −5 4 3 | 0

5E1 +E2 →E2



 1 −3 2 | 0 − 1 F2 →F2 11 0 −11 13 | 0



1 −3 2 0 1 − 13 11



1 0 − 17 11 0 1 − 13 11

 | 0 3E +E →E 2 1 1 | 0  | 0 . | 0

Obtenemos entonces el sistema equivalente x− y−

17 11 z 13 11 z

=0 = 0.

El conjunto soluci´ on est´a dado por:  S = (x, y, z) | x = 17 11 z, y =   17 13 = ( 11 t, 11 t, t) | t ∈ R .

13 11 z,

Cap´ıtulo 1. Preliminares

z∈R



15

´ Algebra lineal

1.3.

Ejercicios

1. Determine el conjunto soluci´on del sistema: 2x1 − x2 + 5x3 = 6 5x1 + 5x2 − x3 = 9 x1 + x2 + 3x3 = 5. 2. Determine el conjunto soluci´on del sistema: x1 + x2 + x3 − 3x4 = 0 −5x1 + x2 + 5x3 − 7x4 = 0. 3. Resuelva el siguiente sistema no lineal: sen x − 4 cos x = 4 4 sen x − 4 cos x = 4. 4. Resuelva el siguiente sistema no lineal: sen α + 2 cos β + 3 tan γ = 0 2 sen α + 5 cos β + 3 tan γ = 0 − sen α − 5 cos β + 5 tan γ = 0. donde 0 ≤ α, β ≤ 2π y 0 ≤ γ < π. 5. Determine una funci´ on polin´omica de grado 2 (si existe) que pase por los puntos (1, 2), (2, 2) y (1, 3). 6. Determine una funci´ on polin´omica de grado 3 (si existe) que pase por los puntos (−1, 6), (1, 0), (2, 8) y (3, 34). 7. Para qu´e valores de κ el sistema x + 2y − 3z = 4 3x − y + 5z = 2 4x + y + (κ2 − 14)z = κ + 2 a) ¿Es inconsistente? b) ¿Tiene soluci´ on u ´nica? 1.3. Ejercicios.

16

´ Gutierrez-Robinson

c) ¿Tiene infinitas soluciones? 8. La ecuaci´ on de una circunferencia en el plano xy es de la forma ax2 + ay 2 + bx + cy + d = 0. Halle la ecuaci´ on de la circunferencia que pasa por los puntos (−4, 5), (−2, 7) y (4, −3).

Cap´ıtulo 1. Preliminares

Cap´ıtulo 2 Espacios vectoriales Contenido 2.1. 2.2. 2.3. 2.4. 2.5. 2.6.

Primeras definiciones . . . . . . . . . Subespacios . . . . . . . . . . . . . . . Dependencia e independencia lineal Base y dimensi´ on . . . . . . . . . . . El espacio cociente . . . . . . . . . . . Ejercicios . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

17 20 28 36 46 50

A continuaci´ on introducimos la noci´on de espacio vectorial de manera axiom´atica, que es sin duda un concepto b´asico y central del ´algebra lineal. En lo sucesivo K denota siempre un cuerpo y sus elementos los llamamos escalares.

2.1.

Primeras definiciones

2.1.1 Definici´ on. Sea V un conjunto no vac´ıo y supongamos que sobre V est´an definidas una operaci´on binaria +, denominada suma, + : V × V −→ V (v1 , v2 ) −→ v1 + v2 y una operaci´on externa ·, denominada multiplicaci´ on por escalar, · : K × V −→ V (k, v) −→ kv. 17

18

´ Gutierrez-Robinson

Decimos que V es un espacio vectorial sobre K, si se verifican los siguientes axiomas: (EV1) (V, +) es un grupo abeliano. (EV2) Para todo k, k1 , k2 ∈ K y para todo v, v1 , v2 ∈ V : (1) (k1 + k2 )v = k1 v + k2 v, (2) k(v1 + v2 ) = kv1 + kv2 , (3) (k1 k2 )v = k1 (k2 v), (4) 1v = v. Si K es solamente un anillo y se verifican (EV1) y (EV2), entonces V se llama un m´ odulo sobre K o simplemente un K-m´odulo. Los elementos de V se llaman vectores y los de K, escalares. 2.1.2 Ejemplos. Espacios vectoriales. (a) Si V es un grupo abeliano trivial V = {0} y definimos k0 = 0, para todo k ∈ K, entonces se tiene que V es un espacio vectorial sobre K. (b) Sea n ∈ N y consideremos nuevamente K n = {(x1 , . . . , xn ) | xj ∈ K}. Con la suma y la multiplicaci´on por escalar por componentes (ver definici´ on 1.2.3) se verifica que K n es un espacio vectorial sobre K. En particular Zn2 , Zn11 , Qn , Rn y Cn son espacios vectoriales sobre Z2 , Z11 , Q, R y C, respectivamente. (c) Si F es un subcuerpo de K, entonces K es un espacio vectorial sobre F . En particular, R es un espacio vectorial sobre Q y C es un espacio vectorial sobre R. (d) Si K es finito con caracter´ıstica p y P es su subcuerpo primo, entonces podemos identificar a P con Zp y as´ı tenemos que K es un espacio vectorial sobre P . M´ as adelante demostramos que n un n ∈ N. |K| = p , para alg´ (e) Sea X un conjunto no vac´ıo y definimos: Fun(X, K) := {f | f : X −→ K}. Cap´ıtulo 2. Espacios vectoriales

19

´ Algebra lineal

Para f, g ∈ Fun(X, K), x ∈ X y k ∈ K definimos: (f + g)(x) := f (x) + g(x) (kf )(x) := kf (x). Con estas operaciones Fun(X, K) es un espacio vectorial sobre K. Un caso particular se tiene cuando X = N, en cuyo caso Fun(X, K) no es m´as que el espacio vectorial de todas las sucesiones sobre K. Algunas consecuencias inmediatas de la definici´ on de espacio vectorial son las siguientes: 2.1.3 Teorema. Sean V un espacio vectorial sobre K, v ∈ V y k ∈ K. Entonces (a) 0v = 0. (b) k0 = 0. (c) kv = 0 si y solo si k = 0 o v = 0. (d) (−k)v = k(−v) = −(kv). ´ n. Demostracio (a) 0v + 0v = (0 + 0)v = 0v + 0. Usando la ley de cancelaci´on se tiene que 0v = 0. (b) k0 + k0 = k(0 + 0) = k0 + 0. Usando otra vez el lema 1.1.4 se tiene que k0 = 0. (c) Supongamos que kv = 0. Si k = 0, entonces existe k −1 y se sigue que 0 = k −1 0 = k −1 (kv) = (k −1 k)v = 1v = v. (d) kv + (−k)v = (k + (−k))v = 0v = 0. Entonces (−k)v = −(kv). De manera similar se tiene kv + k(−v) = k(v + (−v)) = k0 = 0. Por lo tanto, k(−v) = −(kv).



2.1. Primeras definiciones

20

2.2.

´ Gutierrez-Robinson

Subespacios

Estamos interesados en determinar subconjuntos de un espacio vectorial V que al ser considerados con las operaciones de V restringidas a ellos adquieren la estructura de espacios vectoriales. Tales subconjuntos se denominan subespacios. Pero es importante anotar que con solo restringir las operaciones de un espacio vectorial a cualquier subconjunto no por ello se garantiza que ´este adquiera dicha estructura. Por ejemplo, sea U el subconjunto de R2 definido por U := {(x, y) ∈ R2 | x + y = 1}. y U

0

x

Figura 2.1: U no es un subespacio vectorial / U. Note que v1 = (1, 0), v2 = (0, 1) ∈ U ; sin embargo, v1 + v2 ∈ 2.2.1 Definici´ on. Sean V un espacio vectorial sobre K y ∅ = U ⊆ V . Decimos que U es un subespacio de V si al restringir a U las operaciones suma y multiplicaci´ on por escalar definidas sobre V , entonces U adquiere la estructura de espacio vectorial. Si U es un subespacio de V , entonces escribimos U ≤ V . Si adem´ as, U es un subespacio propio de V , es decir, U = V , entonces escribimos U < V . Es evidente que V y {0} son subespacios de V , que se denominan subespacios triviales de V . 2.2.2 Lema. Sean V un espacio vectorial sobre K y ∅ = U ⊆ V . Entonces U ≤ V , si y solo si (S1) (U, +) es un subgrupo de (V, +); es decir, para todo u, v ∈ U se tiene que u − v ∈ U . Cap´ıtulo 2. Espacios vectoriales

21

´ Algebra lineal

(S2) Para todo k ∈ K y todo u ∈ U , se verifica que ku ∈ U . ´ n. Si U ≤ V , entonces se verifican inmediatamente (S1) Demostracio y (S2). La afirmaci´on rec´ıproca es clara.  Note que las propiedades (S1) y (S2) pueden resumirse en una equivalente. Esto es, U ≤ V si y solo si para todo u, v ∈ U y para todo k ∈ K se verifica que ku − v ∈ U . 2.2.3 Ejemplo. Sea U ⊆ R3 definido por U = {(t, 2t, 5t) | t ∈ R}. Demostramos que U ≤ R3 . Sean u = (t, 2t, 5t), u = (t , 2t , 5t ) ∈ U y k ∈ R. Entonces u + u = (t + t , 2t + 2t , 5t + 5t ) = (t + t , 2(t + t ), 5(t + t )) ∈ U. Adem´ as, ku = k(t, 2t, 5t) = (kt, 2kt, 5kt) ∈ U. Con lo cual se tiene la afirmaci´ on. Una ilustraci´on es la siguiente: z

y x

Figura 2.2: U es un subespacio vectorial

2.2.4 Ejemplo. Sea U = C 0 (R) el conjunto de todas las funciones reales continuas con dominio R. Se verifica que U es un subespacio de Fun(R, R). Ver ejemplo 2.1.2 (e).

2.2. Subespacios

22

´ Gutierrez-Robinson

2.2.5 Ejemplo. Sea U = P (R) el conjunto de todas las funciones polin´ omicas definidas sobre R. Esto es, f ∈ P (R) si y solo si f : R −→ R y existen aj ∈ R y n ∈ N0 tales que f (x) =

n 

aj xj , para todo x ∈ R.

j=0

Como lector puede demostrar que P (R) es un subespacio de Fun(R, R). 2.2.6 Ejemplo. El c´odigo ISBN-10, sigla que proviene del ingl´es International Standard Book Number, ha sido utilizado por las editoriales desde hace muchos a˜ nos para identificar a cada libro. Este consiste en una palabra x1 x2 . . . x10 , la cual se forma tomando caracteres en el alfabeto K = {0, 1, . . . , 9, X}. Para formalizar matem´ aticamente la asignaci´on de una palabra de c´odigo a cada libro, comencemos identificando el alfabeto K con el cuerumero 10 es reemplazado por la letra X. Para simpo Z11 , donde el n´ plificar la notaci´on, escribimos j en lugar de la notaci´on usual para una clase de equivalencia [j] ∈ Z11 . Definimos   10   10  (11 − j)xj ≡ 0 m´ od 11 . (2.1) U := (x1 , . . . , x10 ) ∈ K  j=1

Se demuestra sin dificultades que U < K 10 . Ahora la pregunta interesante es: ¿Qu´e informaci´ on se guarda en la 10-tupla (x1 , . . . , x10 )? En cada palabra de c´ odigo x1 x2 . . . x10 la informaci´ on se distribuye de la siguiente manera: 1. La cifra x1 identifica el idioma del pa´ıs en el que se edita el libro. Por ejemplo, 0 y 1 para ingl´es, 8 y 9 para espa˜ nol, o 3 para alem´ an. 2. Las cifras x2 x3 identifican la editorial. umero que la editorial 3. Las cifras x4 x5 x6 x7 x8 x9 corresponden al n´ asigna internamente al libro. 4. x10 es una cifra de control; es decir, garantiza que la palabra de c´ odigo sea admisible. La validez de una palabra de c´odigo se garantiza si se verifica la ecuaci´on de control dada en (2.1). Cap´ıtulo 2. Espacios vectoriales

23

´ Algebra lineal

Como ilustraci´on, mostramos el libro Matem´ aticas b´ asicas con trigonometr´ıa de I. Guti´errez y J. Robinson, publicado en el a˜ no 2004 por Ediciones Uninorte con el c´ odigo ISBN 9 − 58 − 825200 − 8. ISBN 978-9-58-825200-1

9 789588 252001 En este ejemplo, la cifra de control x10 se asigna de tal manera que 10 · 9 + 9 · 5 + 8 · 8 + 7 · 8 + 6 · 2 + 5 · 5 + 4 · 2 + 3 · 0 + 2 · 0 + 1 · c10 ≡ 0 m´ od 11. Es decir, debe verificarse que 300 + x10 ≡ 0 m´ od 11. Por lo tanto, x10 = 8. Desde enero de 2007 el c´odigo ISBN-10 fue reemplazado por el c´ odigo ISBN-13. Las nuevas palabras de c´ odigo tienen longitud 13 con entradas en el alfabeto K = {0, . . . , 9}. La cifra de control se calcula igual como en el c´odigo de barras EAN-13. Observe en el ejemplo anterior que en la parte superior del c´odigo de barras se encuentra el ISBN-10 y en la parte inferior el ISBN-13. Este est´a conformado por los cinco bloques 978 − 9 − 58 − 825200 − 1, el cual se forma a partir del ISBN-10, anteponiendo el prefijo 978 y un nuevo c´alculo de la cifra de control. 2.2.7 Ejemplo. Sean n ∈ N y V = Zn2 . Para c = (c1 , . . . , cn ) ∈ V definimos su peso, notado con wt(c) de la siguiente manera: wt(c) := |{j | cj = 0}|. Es decir, wt(c) determina el n´ umero de entradas distintas de cero que aparecen en c. Por ejemplo, si n = 7 y c = (1, 1, 1, 1, 0, 0, 1), entonces 2.2. Subespacios

24

´ Gutierrez-Robinson

wt(c) = 5. Cada subespacio de V se denomina un c´ odigo lineal binario de longitud n. Demostramos ahora que U := {c ∈ V | wt(c) ≡ 0 m´ od 2} es un c´ odigo lineal binario de longitud n. Para ello definimos inicialmente el soporte de x = (x1 , . . . , xn ) ∈ V , notado con sop(x) de la siguiente manera: sop(x) := {j | xj = 0}. Note inicialmente que si c, c ∈ V , entonces wt(c + c ) = wt(c) + wt(c ) − 2 |sop(c) ∩ sop(c )|.

(2.2)

En consecuencia, si wt(c) y wt(c ) son n´ umeros pares, entonces wt(c+c )  tambi´en lo es. Es decir, si c, c ∈ U , entonces c+c ∈ U . La multiplicaci´on por escalar sobre Z2 es trivial y as´ı se tiene la afirmaci´on. En el siguiente teorema demostramos que en general la uni´on de dos subespacios de un espacio vectorial V no es un subespacio. Esta condici´ on se adquiere solo en situaciones triviales. 2.2.8 Teorema. Sea V un espacio vectorial sobre K. (a) Sean U1 , . . . , Un < V . Si |K| ≥ n, entonces U1 ∪ · · · ∪ Un ⊂ V . (b) Sean U1 , U2 < V . Entonces U1 ∪ U2 ≤ V si y solo si U1 ⊆ U2 o U 2 ⊆ U1 . ´ n. Demostracio (a) Supongamos que V = U1 ∪ · · · ∪ Un y sin perder generalidad, supongamos que U1  U2 ∪ · · · ∪ Un . Sean x ∈ U1 \ (U2 ∪ · · · ∪ Un ) yy∈ / U1 y consideramos el conjunto X := {λx + y | λ ∈ K}. Demostramos que cada Uj contiene a lo mas un elemento de X. Si λ = 0 y λx + y ∈ U1 , entonces y ∈ U1 , lo cual es contradice la elecci´on de y. Esto demuestra que el u ´nico elemento de X que pertenece a U1 es x. Cap´ıtulo 2. Espacios vectoriales

25

´ Algebra lineal

Supongamos que para j ≥ 2 y para λ1 = λ2 se verifica que λ1 x + y, λ2 x + y ∈ Uj . Entonces (λ1 x + y) − (λ2 x + y) = (λ1 − λ2 )x ∈ Uj , lo cual implicar´ıa que x ∈ Uj , con lo que se contradice la escogencia de x. Dado que |K| ≥ n, se tiene la afirmaci´on. on es inmediata. (b) Si U1 ⊆ U2 o U2 ⊆ U1 , entonces la afirmaci´ Rec´ıprocamente, supongamos que U1 ∪ U2 ≤ V , que U1  U2 y que U2  U1 . Sean x ∈ U1 \ U2 y y ∈ U2 \ U1 . Entonces x − y ∈ U1 ∪ U2 . Por lo tanto, x − y ∈ U1 o x − y ∈ U2 . Supongamos, sin perder generalidad que, x − y ∈ U1 . Entonces y ∈ U1 , lo cual es una contradicci´on.  Si V es un espacio vectorial sobre K, denotemos con Sub(V ) el conjunto de todos los subespacios de V . Es claro que Sub(V ) est´ a parcialmente ordenada por inclusi´ on, que el subespacio trivial {0} es un elemento m´ınimo y que V es un elemento m´aximo. En el siguiente teorema presentamos un resultado interesante a la hora de establecer cotas superiores e inferiores para un conjunto finito de Sub(V ). 2.2.9 Teorema. Sea V un espacio vectorial sobre K y U1 , . . . , Un ≤ V . Entonces  (a) nj=1 Uj es un subespacio de V . (b) Si definimos

entonces

n

j=1 Uj

n 

Uj :=

n 

j=1

 uj | u j ∈ U j ,

j=1

es un subespacio de V .

´ n. Demostracio (a) Dado que 0 ∈ Uj , para todo j ∈ {1, . . . , n} se tiene que 0∈

n 

Uj = ∅.

j=1

2.2. Subespacios

26

´ Gutierrez-Robinson

 Sean x, y ∈ nj=1 Uj y k ∈ K. Entonces kx − y ∈ Uj , para todo j ∈ {1, . . . , n}. Por lo tanto,

kx − y ∈

n 

Uj

j=1

y se tiene la afirmaci´on.

n n (b) Es claro que 0∈ ∅. Sean x, y ∈ j=1 Uj = j=1 Uj y k ∈ K. Entonces x = nj=1 uj y y = nj=1 vj , con uj , vj ∈ Uj . Entonces

kx − y =

n 

(kuj − vj ) ∈

j=1

n 



Uj .

j=1

2.2.10 Nota. Un conjunto parcialmente ordenado C en el que cada par de elementos tiene supremo e ´ınfimo se denomina un ret´ıculo (en ingles Lattice). Si C tiene un elemento m´ınimo y un elemento m´aximo y cada subconjunto U de C tiene supremo e ´ınfimo, entonces C se denomina un ret´ıculo completo. Si V es un espacio vectorial sobre K y U = {U1 , . . . , Un } ⊆ Sub(V ), entonces se verifica que

´ınf(U) =

n 

Uj

y

sup(U) =

j=1

n  j=1

Es decir, Sub(V ) es un ret´ıculo completo. Una ilustraci´on es la siguiente: Cap´ıtulo 2. Espacios vectoriales

Uj .

27

´ Algebra lineal

V n 

Uj

j=1

U1

U2

U3 n 

···

Un

Uj

j=1

{0} Finalizamos esta secci´ on con un resultado v´alido en general en la teor´ıa de grupos. 2.2.11 Teorema. (Identidad de Dedekind). Sea V un espacio vectorial sobre K y U1 , U2 , U3 ≤ V , con U1 ⊆ U3 . Entonces (U1 + U2 ) ∩ U3 = U1 + (U2 ∩ U3 ). ´ n. Es claro que U1 + (U2 ∩ U3 ) ⊆ U1 + U2 y, adem´as, Demostracio que U1 + (U2 ∩ U3 ) ⊆ U3 . Por lo tanto, U1 + (U2 ∩ U3 ) ⊆ (U1 + U2 ) ∩ U3 . Rec´ıprocamente, sea x ∈ (U1 +U2 )∩U3 . Entonces x ∈ (U1 +U2 ) y x ∈ U3 . Es decir, existen u1 ∈ U1 , u2 ∈ U2 y u3 ∈ U3 tales que u3 = u1 + u2 . Dado que U1 ⊆ U3 , se verifica que u 2 = u3 − u 1 ∈ U 2 ∩ U 3 . Entonces u3 = u1 + u2 ∈ U1 + (U2 ∩ U3 ). Esto demuestra que (U1 + U2 ) ∩ U3 ⊆ U1 + (U2 ∩ U3 ), con lo cual se tiene el resultado.



2.2. Subespacios

28

´ Gutierrez-Robinson

2.2.12 Nota. En el teorema anterior la hip´otesis U1 ⊆ U3 es importante. Por ejemplo, sea V = R2 y sean U1 := {(x, y) | x = 0, y ∈ R} U2 := {(x, y) | y = 0, x ∈ R} U3 := {(x, y) | y = x, x, y ∈ R}. Se verifica que (U1 + U2 ) ∩ U3 = U3 y U1 + (U2 ∩ U3 ) = U1 .

2.3.

Dependencia e independencia lineal

2.3.1 Definici´ on. Sea V un espacio vectorial sobre K y X ⊆ V . (a) Definimos el subespacio generado por X, notado con X, como la intersecci´on de todos los subespacios de V que contienen a X. Esto es,  U. X := X⊆U ≤V

(b) Si X = V , entonces X se llama un sistema de generadores de V . Si adem´ as X es finito, entonces decimos que V es finitamente generado. 2.3.2 Observaciones. Sea V un espacio vectorial sobre K y X, Y ⊆ V . (a) Del teorema 2.2.9 (a) se sigue que efectivamente X es un subespacio de V . De la definici´on anterior se tiene que X es el subespacio m´as peque˜ no de V que contiene a X. Es decir, si U ≤ V y X ⊆ U , entonces X ⊆ U . (b) Si X = ∅, entonces X = {0}. (c) Si X ⊆ Y , entonces X ⊆ Y . (d) Si X = ∅, entonces   n aj xj | aj ∈ K, xj ∈ X, n ∈ N . X = j=1

Cap´ıtulo 2. Espacios vectoriales

(2.3)

29

´ Algebra lineal

En efecto, sea U el conjunto del lado derecho de la igualdad (2.3). Es claro que X ⊆ U . Adem´ as, si x, y ∈ U y k ∈ K, entonces kx − y ∈ U . Es decir, U ≤ V . Por lo tanto, X ⊆ U .  Rec´ıprocamente, sea u = nj=1 aj xj ∈ U . Entonces cada aj xj ∈ X y, en consecuencia, u ∈ X. Esto demuestra la igualdad. Los elementos de X se denominan combinaci´ on lineal de los elementos de X. (e) Si U1 , . . . , Un ≤ V , entonces n  j=1

Uj =

n 

 Uj .

j=1

2.3.3 Definici´ on. Sean V un espacio vectorial sobre K e I un conjunto no vac´ıo. (a) Un sistema de vectores en V , o simplemente un sistema en V , es una funci´on f : I −→ V . Si f (i) = vi , entonces escribimos (vi | i ∈ I) para denotar a f . Si I es finito, digamos I = {1, . . . , n}, entonces escribimos (v1 , . . . , vn ) en lugar de (vi | i ∈ {1, . . . , n}). (b) Un sistema S = (vi | i ∈ I) se denomina linealmente independiente, si para todo k ∈ I   / vi | i ∈ I \ {k} . vk ∈ Si S no es linealmente independiente, entonces decimos que S es linealmente dependiente. (c) Un conjunto {vi | i ∈ I} se llama linealmente independiente si para todo k ∈ I   / vi | i ∈ I \ {k} . vk ∈ En otro caso se llamar´ a linealmente dependiente. Note que si 0 = v ∈ V , entonces {v} = {v, v} es linealmente independiente, mientras que el sistema (v, v) no lo es. 2.3.4 Observaciones. Sea S = (vi | i ∈ I) un sistema en un espacio vectorial V sobre un cuerpo K. Entonces 2.3. Dependencia e independencia lineal

30

´ Gutierrez-Robinson

(a) La funci´on f : I −→ V definida por f (i) = vi no necesariamente es inyectiva. (b) Si vj = 0, para alg´ un j ∈ I, entonces S es linealmente dependiente. En efecto, 0 ∈ U , para todo U ≤ V . En particular vj = 0 ∈ vi | j = i ∈ I ≤ V. (c) Si vj = vk , con j, k ∈ I, j = k, entonces S es linealmente dependiente. En efecto,   vj = vk ∈ vi | i ∈ I \ {j} . (d) Si S es linealmente independiente y J ⊆ I, entonces el sistema S  = (vj | j ∈ J) es linealmente independiente. (e) Si S es un sistema de generadores de V . Es decir, V = vi | i ∈ I y π ∈ Sym(I), entonces S  := (vπ(i) | i ∈ I) tambi´en es un sistema de generadores de V . 2.3.5 Lema. Sea S = (vi | i ∈ I) un sistema en un espacio vectorial V sobre un cuerpo K. Entonces son equivalentes (a) S es linealmente dependiente. (b) Existen J ⊆ I, finito y i ∈ I \ J tal que  vi = aj vj , aj ∈ K.

(2.4)

j∈J

(c) Existen J  ⊆ I, finito y aj ∈ K con j ∈ J  tal que  aj vj = 0, j∈J 

donde todos los aj son no nulos. ´ n. Demostracio (a) ⇒ (b) Supongamos que S  es linealmente dependiente. Entonces existe i ∈ I tal que vi ∈ vi | i ∈ I \ {j} . Esto significa, usando la definici´ on 2.3.1, que existen J ⊆ I finito y i ∈ I \ J tales que  aj vj , aj ∈ K. vi = j∈J

Cap´ıtulo 2. Espacios vectoriales

31

´ Algebra lineal

(b) ⇒ (c) La igualdad (2.4) puede escribirse de la siguiente manera:  (−aj )vj = 0. 1 · vi + j∈J

T´ omese entonces J  := J ∪ {i}.  (c) ⇒ (a) Supongamos que j∈J  aj vj = 0, con aj = 0. Entonces para i ∈ J  se verifica que       vi = − a−1 i aj vj ∈ vj | j ∈ J \ {i} ⊆ vj | j ∈ I \ {i} . i=j∈J 

Es decir, S es linealmente dependiente.



2.3.6 Lema. Sea S = (vi | i ∈ I) un sistema en un espacio vectorial V sobre un cuerpo K. Entonces son equivalentes: (a) S es linealmente independiente.  (b) Si j∈J aj vj = 0, con aj ∈ K y J ⊆ I finito, entonces aj = 0, para todo j ∈ J. ´ n. Se sigue inmediatamente del lema anterior. Demostracio



2.3.7 Ejemplos. Sistemas linealmente independientes. (a) Sea V = R3 . Si definimos S = ((1, 0, 0), (0, 1, 0), (0, 0, 1)), entonces S es una sistema linealmente independiente. (b) Sea V = K n y para cada j ∈ {1, . . . , n} definimos ej := (0 . . . , 0, 1, 0 . . . , 0), donde el 1 aparece en la j-´esima posici´on. Demostramos que el sistema S = (e1 , . . . , en ) es linealmente independiente y, adem´ as, genera a V . Dado que (x1 , . . . , xn ) =

n 

xj ej ,

j=1

se verifica que Si

n

j=1 aj ej

  K n = ej | j ∈ {1, . . . , n} .

= 0, entonces aj = 0, para todo j ∈ {1, . . . , n}. 2.3. Dependencia e independencia lineal

32

´ Gutierrez-Robinson

(c) Sea V = C 0 (R). Demostremos que el sistema S = (erx | r ∈ R) es linealmente independiente. Supongamos que no lo es. Entonces del lema 2.3.5 se tiene que existen er1 x , . . . , ern x con n ∈ N tal que n 

aj erj x = 0, para todo x ∈ R,

(2.5)

j=1

umero de con aj ∈ R× , ri = rj , para i = j y n denota el menor n´ escalares no nulos para los cuales (2.5) es posible. Es decir, si m 

ak esk x = 0, para todo x ∈ R,

k=1

con m < n, entonces ak = 0, para todo k ∈ {1, . . . , m}. Dado que erj x = 0, para todo x ∈ R, se sigue que n > 1. Derivando con respecto a x a ambos lados de (2.5), se tiene que   d  0= a j e rj x = aj rj erj x , para todo x ∈ R. dx n

n

j=1

j=1

(2.6)

De (2.5) y (2.6) se sigue que: 0 = rn

n  j=1

aj e

rj x



n 

rj a j e

rj x

=

j=1

n−1 

aj (rn − rj )erj x .

j=1

Por la minimalidad del n se sigue que aj (rn − rj ) = 0, para todo j ∈ {1, . . . , n − 1}. De donde podemos afirmar que aj = 0, para todo j ∈ {1, . . . , n − 1}, lo cual es una contradicci´on. Por lo tanto S es linealmente independiente. (d) Sea V = P (R). Para j ∈ N0 definimos ej (x) := xj , para todo x ∈ R. Demostramos que el sistema S = (ej | j ∈ N0 ) es linealmente independiente ya dem´as que V no es finitamente generado. Cap´ıtulo 2. Espacios vectoriales

33

´ Algebra lineal

Supongamos que S es linealmente dependiente. Entonces para alg´ un n ∈ N y an ∈ R× se verifica que n 

aj ej (x) =

j=0

n 

aj xj = 0, para todo x ∈ R.

j=0

Derivando n veces con respecto a x, se tiene que n! an = 0, lo cual es contradictorio. Para demostrar la segunda afirmaci´on supongamos que V es finitamente generado; es decir, existen n ∈ N y f1 , . . . , fn ∈ V tales que V = f1 , . . . , fn . Supongamos, adem´as, que para cada j ∈ {1, . . . , n} existen ajk ∈ R tales que fj (x) =

nj 

ajk xk , para todo x ∈ R.

k=0

Definimos ahora n := m´ax{nj | 1 ≤ j ≤ n}. Sea f ∈ V definida por f (x) = xn+1 , para todo x ∈ R. Dado que V es generado por la fj , se sigue que f = nj=1 bj fj . Es decir, para todo x ∈ R se verifica que xn+1 =

n 

bj fj (x).

j=1

Derivando n + 1 veces con respecto a x, se tiene la contradicci´on (n + 1)! =

n 

(n+1)

bj f j

(x) = 0.

j=1

El siguiente ejemplo juega un papel importante en la teor´ıa de c´odigos lineales. En este se fundamenta la construcci´on del c´ odigo de Reed Solomon. 2.3.8 Ejemplo. Sea V = K n . Para a ∈ K definimos vn (a) := (1, a, . . . , an−1 ) ∈ K n . Sean a1 , . . . , an ∈ K × , con ai = aj , para i = j. Demostramos, usando inducci´ on sobre n, que el sistema S = (vn (a1 ), . . . , vn (an )) es linealmente independiente. 2.3. Dependencia e independencia lineal

34

´ Gutierrez-Robinson

Si n = 1, entonces la afirmaci´on es inmediata. Hip´ otesis inductiva. Supongamos que la afirmaci´on es v´ alida para n − 1.  Sea n > 1 y supongamos que nj=1 bj vn (aj ) = 0, con bj ∈ K. Esto significa que para todo i ∈ {0, 1, . . . , n − 1} se verifica que n 

bj aij = 0.

j=1

Para i ∈ {1, . . . , n − 1} tenemos: 0= =

n  j=1 n 

bj aij −

n 

 bj ai−1 an j

j=1

bj (aj − an )ai−1 j

j=1

=

n−1 

bj (aj − an )ai−1 j .

j=1

Esto significa que 0=

n−1 

bj (aj − an )vn−1 (aj ).

j=1

Usando la hip´otesis inductiva se tiene que bj (aj − an ) = 0, para j = 1, . . . , n − 1. Es decir, bj = 0 para j = 1, . . . , n − 1. Por lo tanto, tambi´en bn = 0 y se tiene la afirmaci´on. 2.3.9 Teorema. Sean k ∈ N y S = {v1 , . . . , vk } ⊆ K n . Si S es linealmente independiente, entonces todo conjunto de k + 1 vectores de S es linealmente dependiente. ´ n. Procedemos por inducci´on matem´atica sobre k. Demostracio Si k = 1, entonces S = {λv1 | λ ∈ K}. Sea {w1 , w2 } ⊆ S, con w1 = w2 . Entonces existen λ1 , λ2 ∈ K tales que w1 = λ1 v1 y w2 = λ2 v1 . En consecuencia, λ 2 w 1 − λ1 w 2 = 0 Cap´ıtulo 2. Espacios vectoriales

35

´ Algebra lineal

y se tiene que {w1 , w2 } es linealmente dependiente. Hip´ otesis inductiva. Supongamos que la afirmaci´on es v´ alida para k − 1. Sea T = {w1 , . . . , wk+1 } ⊆ S. Entonces para cada i ∈ {1, . . . , k + 1} existen λij ∈ K tales que wi =

k 

λij vj .

(2.7)

j=1

Diferenciamos dos casos: Caso 1. Para todo i ∈ {1, . . . , k + 1} se verifica que λi1 = 0. Entonces para todo i ∈ {1, . . . , k + 1} en el lado derecho de (2.7) no aparece el vector v1 . Esto trae como consecuencia que T ⊆ v2 , . . . , vk . Dado que el conjunto {v2 , . . . , vk } es linealmente independiente y consta de k − 1 vectores, podemos aplicar la hip´ otesis de inducci´on y se tiene que T es linealmente independiente. Caso 2. Para alg´ un i ∈ {1, . . . , k + 1} se verifica que λi1 = 0. Sin perder generalidad supongamos que λ11 = 0, y para i ∈ {2, . . . , k + 1} definimos λi1 ci := . λ11 Entonces k  ci λ1j vj ci w1 = ci λ11 v1 + j=2

y para i ∈ {2, . . . , k + 1} se tiene que ci w1 − wi = ci λ11 v1 +

k 

ci λ1j vj −

j=2

= λi1 v1 +

k 

=

j=2

=

k 

λij vj

j=1

ci λ1j vj − λi1 v1 −

j=2 k 

k 

ci λ1j vj −

k 

λij vj

j=2 k 

λij vj

j=2

(ci λ1j − λij )vj .

j=2

Esta igualdad expresa cada uno de los k vectores ci w1 − wi como combinaci´ on lineal de k − 1 vectores linealmente independientes v2 , . . . vk . 2.3. Dependencia e independencia lineal

36

´ Gutierrez-Robinson

Usando la hip´ otesis de inducci´on, se tiene que los k vectores ci w1 − wi son linealmente dependientes. Por lo tanto, existen t2 , . . . tk+1 ∈ K, no todos nulos, tales que k+1 

ti (ci w1 − wi ) = 0.

i=2

Entonces

k+1 

k+1   ti c i w 1 − ti wi = 0,

i=2

i=2

la cual es una combinaci´on lineal no trivial de los vectores w1 , . . . , wk+1 , que representa al cero. Por lo tanto, el conjunto {w1 , . . . , wk+1 } es linealmente dependiente. 

2.4.

Base y dimensi´ on

En esta secci´on nos ocuparemos del concepto de base para un espacio vectorial. Se demuestra que todo espacio vectorial tiene una base y que la cardinalidad de una base es invariante. Es decir, dos bases cualesquiera de un mismo espacio vectorial tienen el mismo n´ umero de elementos. Esto da origen al concepto de dimensi´ on de un espacio vectorial. 2.4.1 Definici´ on. Un sistema B = (vi | i ∈ I) en un espacio vectorial V sobre un cuerpo K se denomina una base para V , si y solo si B es linealmente independiente y, adem´ as, genera a V . 2.4.2 Lema. Sea B = (vi | i ∈ I) una base para un espacio vectorial V sobre un cuerpo K. Entonces (a) Para cada J ⊆ I finito es v´ alida la siguiente afirmaci´on:   Si j∈J aj vj = j∈J bj vj , con aj , bj ∈ K, entonces para todo j ∈ J se verifica que aj = bj . (Principio de comparaci´ on de coeficientes) (b) Para todo v ∈ V existen J ⊆ I finito y escalares u ´nicos aj ∈ K tales que  aj vj . (2.8) v= j∈J

(Estos aj ∈ K se denominan coordenadas o componentes del vector v con respecto a la base B.) Cap´ıtulo 2. Espacios vectoriales

37

´ Algebra lineal

´ n. Demostracio (a) Se sigue de la independencia lineal de B. (b) La existencia de J ⊆ I finito y de los escalares aj ∈ K tales que se verifica (2.8) se sigue del hecho que B es un sistema de generadores de V . La unicidad de los escalares aj ∈ K se sigue de (a).  2.4.3 Nota. Sea R un anillo conmutativo. En general para un R-m´odulo M la unicidad de los escalares en la combinaci´on lineal (2.8) no esta garantizada. Por ejemplo, sea M = {0, a} un grupo abeliano de orden 2 y R = Z. Se verifica que M es un Z-m´odulo. Note que 2a = a + a = 0 = 0a. 2.4.4 Ejemplos. Bases de espacios vectoriales. (a) Si V = K n , entonces del ejemplo 2.3.7 (b) se tiene que el sistema B = (ej | j ∈ {1, . . . , n}) es una base para V . Esta base es usualmente denominada base est´ andar o base can´ onica de K n . (b) Sean V = R3 y B = (e1 , e2 , e3 ) la base can´onica de V . Entonces todo elemento de V puede expresarse como una combinaci´ on lineal de los elementos de B. El sistema B  = (v1 , v2 , v3 ), donde v1 = (1, 1, 1) v2 = (−1, 0, 1) v3 = (0, 1, 0) es tambi´en una base para V . En consecuencia, todo v ∈ V puede expresarse como combinaci´on lineal de los elementos de B  . Naturalmente, las coordenadas del vector v con respecto a B  son en general diferentes a las consideradas con respecto a la base est´adar. Por ejemplo, sea uB = (2, −1, 2). Entonces uB  = 2v1 − v2 + 2v3 = 2(1, 1, 1) − (−1, 0, 1) + (0, 1, 0) = (3, 3, 1). ´ 2.4. Base y dimension

38

´ Gutierrez-Robinson

(c) Sea V = P (R). Del ejemplo 2.3.7 (d) se sigue que el sistema B = (ej | j ∈ N0 ), con ej (x) = xj , para todo x ∈ R, es una base para V . Demostramos ahora la existencia de una base para espacios vectoriales finitamente generados. La idea es construir una base a partir de un sistema linealmente independiente. 2.4.5 Teorema. Sean V un espacio vectorial sobre K, S = (w1 . . . , wm ) un sistema de generadores de V y R = (w1 , . . . , wk ) un sistema linealmente independiente, con k ∈ {1, . . . , m}. Entonces existe una base de V , digamos B = (wj1 , . . . , wjn ), con ji ∈ {1, . . . , m} tal que R ⊆ B ⊆ S. ´ n. Con una enumeraci´ Demostracio on adecuada tenemos R ⊆ {w1 , . . . , wn } ⊆ S, con k ≤ n ≤ m y (w1 , . . . , wn ) un sistema linealmente independiente con n maximal. Es decir, no existe t > n tal que (w1 , . . . , wt ) sea linealmente independiente. Si j > n, entonces (w1 , . . . , wn , wj ) es linealmente dependiente. Por lo tanto, existen ai ∈ K tal que n 

ai wi + aj wj = 0,

i=1

y no todos los ai son nulos. Dado que (w1 , . . . , wn ) es linealmente independiente, debe verificarse que aj = 0, ya que de lo contrario todos los ai ser´ıan cero. Esto demuestra que wj = −

n 

a−1 j ai wi ∈ w1 . . . , wn  .

i=1

Por lo tanto V = S = w1 . . . , wn , con lo cual tenemos que el sistema B = (w1 . . . , wn ) es una base para V .  Consideremos ahora el caso general. En la demostraci´ on de este un papel importante lo juega el lema de Zorn. 2.4.6 Teorema. Sea V un espacio vectorial sobre un cuerpo K. Supongamos que S es un sistema de generadores de V y R es un sistema de V linealmente independiente con R ⊆ S. Entonces existe una base B de V tal que R ⊆ B ⊆ S. Cap´ıtulo 2. Espacios vectoriales

39

´ Algebra lineal

´ n. Consideremos el conjunto I(R, S) definido por Demostracio I(R, S) := {X | R ⊆ X ⊆ S y X es linealmente independiente}. Dado que R ∈ I(R, S), se tiene que este conjunto es no vac´ıo y, adem´as, est´a parcialmente ordenado por inclusi´on. Demostramos que todo subconjunto de I(R, S) que sea totalmente ordenado (una cadena), tiene una cota superior. Sea C = {Ri | i ∈ I} una cadena de I(R, S). Si definimos  Ri , A := i∈I

entonces se tiene inmediatamente que R ⊆ A ⊆ S. Demostramos ahora que A es linealmente independiente, con lo cual podemos afirmar que A ∈ I(R, S).  Supongamos que nj=1 aj vj = 0, con aj ∈ K y vj ∈ A. Entonces para cada j ∈ {1, . . . , n} existe i ∈ I tal que vj ∈ Ri . Dado que C es una cadena, podemos afirmar que existe i0 ∈ I tal que vj ∈ Ri0 , para todo j ∈ {1, . . . , n}. Por hip´otesis Ri0 es linealmente independiente. Por lo tanto aj = 0, para todo j ∈ {1, . . . , n}. El lema de Zorn garantiza que I(R, S) tiene un elemento maximal, digamos B ∈ I(R, S). Es decir, en particular B es linealmente independiente. Resta demostrar que V = B. Para ello supongamos que alg´ un s ∈ S no puede expresarse como combinaci´ on lineal de los elementos de B. Entonces B ∪ {s} ⊆ S es linealmente independiente, lo cual contradice la maximalidad de B. Por tanto S ⊆ B y en consecuencia V = S ⊆ B = B.  2.4.7 Corolario. Sea V un espacio vectorial sobre K. Entonces (a) Todo espacio vectorial V = {0} tiene una base. (b) Todo sistema linealmente independiente de V esta contenido en alguna base de V . (c) Todo sistema generador de V contiene una base de V . ´ n. Se sigue del teorema anterior. Demostracio



2.4.8 Nota. Sean R un anillo conmutativo y M un R-m´odulo. Contrario a lo que sucede con los espacios vectoriales, la existencia de una base para M no est´a garantizada. Consideremos por ejemplo que M sea el ´ 2.4. Base y dimension

40

´ Gutierrez-Robinson

grupo aditivo de los n´ umeros racionales (Q, +) y que R = Z. Se verifica que M es un Z-m´odulo. Supongamos que B = (qi | i ∈ I) es una base para M . Si q ∈ M , entonces existen J ⊆ I finito y aj ∈ Z tales que  a j qj . q= j∈J

En particular se cumple que q1  = aj qj . 2 j∈J

Es decir, 1 · q1 =



(2aj )qj .

j∈J

Esto trae como consecuencia que 2a1 = 1, lo cual contradice el hecho que a1 ∈ Z. 2.4.9 Corolario. Sea V un espacio vectorial sobre K, finitamente generado. Si U ≤ V , entonces existe W ≤ V tal que V = U + W y U ∩ W = {0}. En este caso W se llama un complemento de U en V . ´ n. Sean B = (w1 . . . , wk ) y B  = (w1 . . . , wn ) bases Demostracio para U y V , respectivamente. Definimos W := wk+1 . . . , wn . Entonces V = U + W y U ∩ W = {0}.  2.4.10 Ejemplo. Sean V = R2 y U = (1, 2) ≤ V . Se verifica sin dificultades que B = ((1, 2), (1, 1)) es una base para V . Usando el corolario anterior, se tiene que W := (1, 1) es un complemento de U . Es claro, adem´ as, que cualquier vector que no sea un m´ ultiplo escalar de (1, 2) genera un complemento de U en R2 . Una ilustraci´on es la siguiente: 2.4.11 Nota. Sean R un anillo conmutativo y M un R-m´odulo. Nuevamente, en este contexto la teor´ıa cambia considerablemente. La existencia de complementos para un subm´odulo U de M no est´ a garantizada. Consideremos una vez mas el el Z-m´odulo de los n´ umeros racionales y como subm´odulo U consideremos a (Z, +). Cap´ıtulo 2. Espacios vectoriales

41

´ Algebra lineal

y

U W

x

0

Figura 2.3: Un complemento Supongamos que N tiene un complemento en M , digamos W . Entonces M = U + W y U ∩ W = {0}. En particular se tiene que 1 = u + w, con u ∈ U, w ∈ W. 2 Es decir, 1 = 2u + 2w, con u ∈ U, w ∈ W. En consecuencia 1 − 2u = 2w ∈ U ∩ W = {0}. Esto es, 1 = 2u, con u ∈ Z, lo cual es una contradicci´on. 2.4.12 Lema. Sean V un espacio vectorial sobre K y B = (v1 , . . . , vn ) una base para V . Si π ∈ Sym(n), entonces B  = (vπ(1) , . . . , vπ(n) ) tambi´en es una base para V . ´ n. Se deja como ejercicio. Demostracio



2.4.13 Lema. Sean V un espacio vectorial sobre K y B = (v1 , . . . , vn ) n a una base para V . Si v ∈ V y v = i=1 i vi , con ai ∈ K y aj = 0, entonces B  = (v1 , . . . , vj−1 , v, vj+1 , . . . , vn ) tambi´en es una base para V . ´ 2.4. Base y dimension

42

´ Gutierrez-Robinson

´ n. Dado que aj = 0, se tiene que Demostracio vj =

a−1 j



v−

n 

 ai vi ∈ v1 , . . . , vj−1 , v, vj+1 , . . . , vn .

i=1 i=j

Por lo tanto, B   = v1 , . . . , vn  = V . Demostramos ahora que B  es linealmente independiente. Para ello, supongamos que bv +

n 

bi vi = 0, con b, bi ∈ K.

i=1 i=j

Entonces b

n 

ai v i +

i=1

n 

bi vi = 0,

i=1 i=j

o equivalentemente, baj vj +

n 

(bai + bi )vi = 0.

i=1 i=j

La independencia lineal del sistema (v1 . . . , vn ) implica que baj = 0 y bai + bi = 0, para todo i = j. Dado que aj = 0, se tiene que b = 0 y consecuentemente bi = 0, para todo i = j.  El siguiente teorema es conocido en la literatura como teorema de extensi´on de Steinitz.1 2.4.14 Teorema. (Steinitz) Sea B = (v1 , . . . , vn ) una base para el espacio vectorial V sobre K. Si {w1 , . . . , wm } es un subconjunto de V linealmente independiente, entonces m ≤ n y existe π ∈ Sym(n) tal que (w1 , . . . , wm , vπ(m+1) , . . . , vπ(n) ) es una base para V . ´ n. Procedemos por inducci´ Demostracio on matem´ atica sobre m. Sea m = 1. Dado que (w1 ) es linealmente independiente, se tiene que w1 = 0. Por lo tanto, V = {0} y se tiene que m = 1 ≤ n. 1 Ernst Steinitz (1871-1928). Matem´ atico alem´ an. Elabor´ o una teor´ıa moderna del ´lgebra, en especial la teor´ıa de los cuerpos, que expuso en su obra Algebraische a Theorie der K¨ orper.

Cap´ıtulo 2. Espacios vectoriales

43

´ Algebra lineal

Dado que B es una base para V se tiene que existen a1 , . . . an ∈ K tales que n  w1 = ai v i . i=1

Dado que w1 = 0, existe j ∈ {1, . . . , n} con aj = 0. Del lema 2.4.13 se sigue que B  = (v1 , . . . , vj−1 , w1 , vj+1 , . . . , vn ) es una base para V . Del lema 2.4.12 se sigue que B  = (w1 , v1 , . . . , vj−1 , vj+1 , . . . , vn ) es tambi´en una base para V . Hip´ otesis inductiva. Supongamos que la afirmaci´on es v´ alida para m − 1. Sea 1 < m ≤ n. Dado que el conjunto {w1 , . . . , wm } es linealmente independiente, se tiene que {w1 , . . . , wm−1 } tambi´en lo es. Por la hip´otesis de inducci´ on m − 1 ≤ n y existe (con una enumeraci´on adecuada de los vectores vi ) una base para V de la forma (w1 , . . . , wm−1 , vm , . . . , vn ).

(2.9)

Demostramos que m ≤ n. Supongamos que no lo es. Es decir, supongamos que m > n. Dado que por hip´otesis de inducci´on se tiene que m − 1 ≤ n, la u ´nica opci´on libre es m − 1 = n. Entonces (w1 . . . , wm−1 ) es una base para V y en consecuencia wm ∈ w1 . . . , wm−1 , lo cual contradice la independencia lineal de (w1 , . . . , wm ). Es decir, m ≤ n. on lineal de los elementos de la Si expresamos a wm como combinaci´ base (2.9) tenemos: wm =

m−1  j=1

aj w j +

n 

bi vi , con aj , bi ∈ K.

i=m

Dado que (w1 , . . . , wm ) es linealmente independiente, con una enumeraci´ on adecuada de los vi se tiene que bm = 0. Usando nuevamente el lema 2.4.13 podemos reemplazar vm por wm y tenemos una base de la forma B  = (w1 , . . . , wm−1 , wm , vm+1 , . . . , vn ), con lo cual se tiene la prueba completa.



´ 2.4. Base y dimension

44

´ Gutierrez-Robinson

2.4.15 Corolario. Sea V un espacio vectorial sobre K, finitamente generado. Entonces dos bases cualesquiera de V tienen el mismo n´ umero de elementos. ´ n. Del teorema 2.4.5 se sigue que existe una base B Demostracio para V , digamos B = (v1 , . . . , vn ). Sea B  = (wi | i ∈ I) otra base para V . Si |I| > n, entonces existir´ıa en V un sistema (w1 , . . . , wn+1 ) linealmente independiente, lo cual contradice del teorema anterior. Esto implica que |I| ≤ n. Teniendo en cuenta nuevamente tanto el teorema anterior como el hecho de que B  es una base y que B es un conjunto linealmente independiente, se tiene que n ≤ |I|. Por lo tanto, n = |I|.  No obstante que un espacio vectorial puede tener infinitas bases, el resultado anterior nos permite asociar a cada espacio vectorial finitamente generado un n´ umero natural u ´nico. Concretamente podemos asociar a cada espacio vectorial el n´ umero de elementos de una base. 2.4.16 Definici´ on. Sea V = {0} un espacio vectorial sobre K finitamente generado. Se define la dimensi´ on de V , notada dimK V , como el n´ umero de elementos de una base para V . Si V = {0}, entonces se define dimK E := 0. Tambi´en es usual decir que V es un espacio vectorial de dimensi´ on finita y se escribe dimK V < ∞. Si V no es finitamente generado, entonces se dice que V tiene dimensi´ on infinita y escribimos dimK V = ∞. 2.4.17 Ejemplos. De los ejemplos anteriores se sigue: (a) dimK K n = n. En particular, dimR R2 = 2 y dimR R3 = 3. (b) dimR P (R) = ∞. 2.4.18 Teorema. Sea K un cuerpo finito con caracter´ıstica p. Entonces un n´ umero natural n. |K| = pn , para alg´ ´ n. Del teorema 1.1.15 se sigue que K0 = {0, 1, . . . , p} Demostracio es un subcuerpo de K. Supongamos que dimK0 K = n y que (v1 , . . . , vn ) ´nica es una base para K sobre K0 . Entonces todo v ∈ V tiene una u representaci´on en la forma v=

n 

ai v1 , con ai ∈ K0 .

i=1

Entonces |K| = |K0

|n

=

pn .



Cap´ıtulo 2. Espacios vectoriales

45

´ Algebra lineal

2.4.19 Teorema. Sea V un espacio vectorial sobre K, finitamente generado y U ≤ V . Entonces (a) dimK U ≤ dimK V . (a) dimK U = dimK V si y solo si U = V . ´ n. Sea B = (v1 , . . . , vn ) una base para V tal que B  = Demostracio (v1 , . . . , vm ) es una base para U . El teorema de Steinitz nos permite afirmar que dimK U = m ≤ n = dimK V. Si m = n, entonces V = v1 . . . vn  = U .



2.4.20 Teorema. Sean V un espacio vectorial sobre K, U y W subespacios de V de dimensiones finitas. Entonces dimK (U + W ) = dimK U + dimK W − dimK (U ∩ W ). ´ n. Supongamos que dimK U = n, dimK W = m y Demostracio dimK (U ∩ W ) = d. Sea (u1 , . . . , ud ) una base para U ∩ W . Del teorema 2.4.5 se tiene que existen bases (u1 , . . . , ud , ud+1 . . . , un ) para U y (u1 , . . . , ud , wd+1 , . . . , wm ) para W . Con esto se tiene que U + W = u1 , . . . , un , wd+1 , . . . , wm . Demostramos ahora que (u1 , . . . , un , wd+1 , . . . , wm ) es un sistema linealmente independiente. Para ello supongamos que n 

a j uj +

j=1

Entonces

m 

bj wj = 0, con aj , bj ∈ K.

(2.10)

j=d+1

n 

aj uj = −

j=1

m 

bj wj = 0, ∈ U ∩ W.

j=d+1

Dado que (u1 , . . . , ud ) y (u1 , . . . , ud , wd+1 , . . . , wm ) son bases para U ∩W y W , respectivamente, se tiene que bd+1 = · · · = bm = 0. En efecto, −

m  j=d+1

bj w j =

d 

cj uj , con cj ∈ K.

j=1

´ 2.4. Base y dimension

46

´ Gutierrez-Robinson

Entonces

d 

c j uj +

j=1

m 

bj wj = 0.

j=d+1

En consecuencia, c1 = · · · = cd = bd+1 = · · · = bm = 0. Entonces de (2.10) se obtiene n 

aj uj = 0,

j=1

on tenemos que del cual inferimos que a1 = · · · = an = 0. En conclusi´ (u1 , . . . , un , wd+1 , . . . , wm ) es una base para U + W y se tiene la afirmaci´ on. 

2.5.

El espacio cociente

Sean V un espacio vectorial sobre K y U ≤ V . Para v ∈ V definimos el subconjunto v + U de V de la siguiente manera: v + U := {v + u | u ∈ U }. Al conjunto de todos estos subconjuntos de V lo notamos con V /U , esto es, V /U = {v + U | v ∈ V }. Sobre este conjunto definimos las siguientes operaciones binarias: Para todo v, v1 , v2 ∈ V y todo k ∈ K (v1 + U ) + (v2 + U ) := (v1 + v2 ) + U. k(v + U ) := kv + U.

(2.11) (2.12)

2.5.1 Lema. Sean V un espacio vectorial sobre K y U ≤ V . Entonces v1 + U = v2 + U si y solo si v1 − v2 ∈ U . ´ n. Supongamos que v1 + U = v2 + U . Entonces Demostracio v1 = v1 + 0 ∈ v1 + U = v2 + U. Por lo tanto, existe u ∈ U tal que v1 = v2 + u. Es decir, v1 − v2 ∈ U . Rec´ıprocamente, supongamos que v1 − v2 ∈ U . Entonces v1 − v2 = u, para alg´ un u ∈ U . Entonces v1 + U = (v2 + u) + U = v2 + U .  Cap´ıtulo 2. Espacios vectoriales

47

´ Algebra lineal

2.5.2 Teorema. Sean V un espacio vectorial sobre K y U ≤ V . Entonces con las operaciones definidas en (2.11) y (2.12), se tiene que V /U es un espacio vectorial sobre K, el cual llamamos espacio cociente de V m´ odulo el subespacio U . ´ n. Demostremos inicialmente que las operaciones est´ Demostracio an bien definidas: Suma. Supongamos que v1 + U = v2 + U y v1 + U = v2 + U . Entonces usando el lema anterior se tiene que v1 − v2 ∈ U y v1 − v2 ∈ U . Por lo tanto, (v1 − v2 ) + (v1 − v2 ) ∈ U y se tiene que (v1 + v1 ) − (v2 + v2 ) ∈ U . Usando nuevamente el lema anterior se sigue que (v1 + v1 ) + U = (v2 + v2 ) + U, lo cual es equivalente a afirmar que (v1 + U ) + (v1 + U ) = (v2 + U ) + (v2 + U ). Multiplicaci´ on por escalar. Supongamos que v1 + U = v2 + U y k ∈ K. Entonces v1 − v2 ∈ U y asimismo k(v1 − v2 ) = kv1 − kv2 ∈ U . Consecuentemente, kv1 + U = kv2 + U . La verificaci´ on de la validez de los axiomas que definen un espacio vectorial es rutinaria, por ejemplo: k((v1 + U ) + (v2 + U )) = k((v1 + v2 ) + U ) = k(v1 + v2 ) + U = (kv1 + kv2 ) + U = (kv1 + U ) + (kv2 + U ) = k(v1 + U ) + k(v2 + U ). El resto se deja como ejercicio.



2.5.3 Teorema. Sean V un espacio vectorial sobre K y U y W subespacios de V , con U ≤ W ≤ V . Entonces (a) Si (wi + U | i ∈ I) es una base para W/U y (vj + W | j ∈ J) es una base para V /W , entonces (wi + U, vj + U | i ∈ I, j ∈ J) es una base para V /U . (b) Si dimK V /U < ∞, entonces dimK V /U = dimK V /W + dimK W/U 2.5. El espacio cociente

48

´ Gutierrez-Robinson

(c) Si dimK V < ∞, entonces dimK V /W = dimK V − dimK W. En particular, dimK V /W < ∞. ´ n. Demostracio

 (a) Sea v ∈ V . En ese  caso v + W = j∈J aj (vj + W ), con aj ∈ K. Entonces v + W = j∈J aj vj + W y por el lema 2.5.1 se sigue que v−



aj vj ∈ W.

j∈J

Entonces existen bi ∈ K tales que:     v− aj v j + U = bi (wi + U ). j∈J

i∈I

Esto significa que     v− aj vj − bi w i ∈ U j∈J

i∈I

y se tiene que v+U =



aj (vj + U ) +

j∈J



bi (wi + U ).

i∈I

Esto demuestra que V /U = wi + U, vj + U | i ∈ I, j ∈ J. Supongamos ahora que existen cj , di ∈ K tales que   cj (vj + U ) + di (wi + U ) =  0!" . i∈I

j∈J

Entonces



(cj vj + U ) +

j∈J

Por lo tanto,

en V /U



(di wi + U ) = U.

i∈I

 j∈J

cj vj +



 di wi ∈ U.

i∈I

Cap´ıtulo 2. Espacios vectoriales

49

´ Algebra lineal

Dado que  U ≤ W y para todo i ∈ I se verifica que wi ∈ W , se sigue que j∈J cj vj ∈ W . Es decir,  j∈J

cj (vj + W ) =  0!" . en V /W

Esto trae como consecuencia que cj = 0, para todo j ∈ J. Entonces  i∈I di wi ∈ U . Por lo tanto,  di (wi + U ) =  0!" . i∈I

en W/U

Tenemos entonces que di = 0, para todo i ∈ I. Con esto demostramos que el sistema (wi + U, vj + U | i ∈ I, j ∈ J) es linealmente independiente. (b) Se sigue inmediatamente de (a). (c) Si en (b) tomamos U = {0}, entonces se tiene la afirmaci´on.



2.5.4 Teorema. Sean V un espacio vectorial sobre K y para cada i ∈ {1, . . . , m} sea Ui ≤ V , con dimK V /Ui < ∞. Entonces dimK V /

∩m i=1

Ui ≤

m 

dimK V /Ui .

i=1

´ n. Procedemos por inducci´on sobre m. Demostracio Demostramos inicialmente que dimK U1 /(U1 ∩ U2 ) ≤ dimK V /U2 . Para ello, sean uj ∈ U1 , (j = 1, . . . , n) de tal forma que el sistema (uj + (U1 ∩ U2 ) | j = 1, . . . , n) sea linealmente independiente. Si se verifica que n  j=1

aj (uj + U2 ) =  0!" , en V /U2

2.5. El espacio cociente

50

´ Gutierrez-Robinson

entonces se sigue que

n

j=1 aj uj

∈ (U1 ∩ U2 ) y, por lo tanto,

a1 = · · · = an = 0, con lo cual se sigue que n ≤ dimK V /U2 y tambi´en que dimK U1 /(U1 ∩ U2 ) ≤ dimK V /U2 . Utilizando el teorema 2.5.3 se tiene que dimK V /(U1 ∩ U2 ) = dimK V /U1 + dimK U1 /(U1 ∩ U2 ) ≤ dimK V /U1 + dimK V /U2 . Sea m > 1. Entonces m−1 dimK V / ∩m i=1 Ui ≤ dimK V / ∩i=1 Ui + dimK V /Um

≤ =

m−1  i=1 m 

dimK V /Ui + dimK V /Um

dimK V /Ui .



i=1

2.6.

Ejercicios

√ √ √   1. Sea Q[ 2] := x + y 2 | x, y ∈ Q . ¿Es Q[ 2] con las operaciones usuales de R un espacio vectorial real?, ¿lo es sobre Q? 2. Demuestre que si U es un subespacio de un espacio vectorial V , entonces U con las restricciones de las operaciones de V es un espacio vectorial. 3. Considere los siguientes subconjuntos de R2 : a) U1 = {(x, y) ∈ R2 | x2 + y 2 = 1}. b) U2 = {(x, y) ∈ R2 | x ∈ R}. c) U3 = {(x, y) ∈ R2 | x ≤ y}. d ) U4 = {(x, y) ∈ R2 | −3x + y = 0}. En cada caso determine si Uj es un subespacio de R2 . 4. Sea S = {(t + s, 2t + s, s) | s, t ∈ R}. Demuestre que S es un subespacio de R3 . Cap´ıtulo 2. Espacios vectoriales

51

´ Algebra lineal

5. Considere los siguientes subespacios vectoriales de R4 a) U = (1, 2, −1, 3), (2, 4, 1, −2), (3, 6, 3, −7). b) V = (1, 2, −4, 11), (2, 4, −5, 14). Demuestre que U = V . 6. Sea W = {(x, y, z) | x ≥ 0} ⊆ R3 . Explique porque W no es un subespacio de R3 . 7. Sea W = {(x, y, z) | x + y + z = 0} ⊆ R3 . Demuestre que W es un subespacio de R3 . 8. Escriba el vector (1, −2, 5) ∈ R3 como una combinaci´on lineal de los vectores e1 = (1, 1, 1), e2 = (1, 2, 3), e3 = (2, −1, 1). 9. ¿Para qu´e valores de k el vector u = (1, −2, k) ∈ R3 es una combinaci´ on lineal de los vectores v = (3, 0, −2) y w = (2, −1, −5)? 10. Demuestre que (1, 2, , 3), (0, 1, 2), (0, 0, 1) = R3 . 11. Sean V y W dos espacios vectoriales sobre un cuerpo K y definimos U := {(v, w) | v ∈ V, w ∈ W }. Demuestre que U es un espacio vectorial sobre K con la adici´on y multiplicaci´ on por escalar por componentes. 12. Sea V un espacio vectorial sobre un cuerpo K y sean S, T ⊆ V . Demuestre que a) Si S ⊆ T , entonces S ⊆ T  b) S = S. 13. Verifique si R3 con las siguientes operaciones es un espacio vectorial real: (x1 , y1 , z1 ) + (x2 , y2 , z2 ) :=(x1 + x2 , y1 , z1 ) y α(x, y, z) :=(αx, αy, αz). 14. Demuestre que el vector cero en un espacio vectorial es u ´nico. 2.6. Ejercicios

52

´ Gutierrez-Robinson

15. Considere los siguientes vectores en R3 v1 = (−1, 2, 1), v2 = (0, 2, 3). Demuestre que W := {α1 v1 + α2 v2 | αj ∈ R} es un subespacio de R3 con dimensi´on 2. 16. Considere la ecuaci´on diferencial y  − y  + y = 0. Una soluci´ on de esta es una funci´on f ∈ Fun(R, R) que satisface la ecuaci´on. Sea W el conjunto de todas las soluciones de la ecuaci´on diferencial. Demuestre que W es un subespacio de Fun(R, R). 17. Determine si el vector v = (1, 0, 1) pertenece al subespacio vectorial de R3 generado por el conjunto M = {v1 = (−1, 4, 1), v2 = (0, 1, −2), v3 = (1, 1, 1)}. 18. Determine si p(x) = x2 + 1 ∈ M , donde M = {p1 , p2 , p3 }. p1 (x) = x2 + x, p2 (x) = x2 − 2x − 2, p3 (x) = −x2 + 2. 19. Sea V un espacio vectorial sobre un cuerpo K y sean U1 , U2 ≤ V . Demuestre que U1 + U2 = U1 ∪ U2 . 20. Sean V un espacio vectorial sobre K y M = {v1 , v2 , v3 } ⊆ V un conjunto linealmente independiente. Determine si los siguientes conjuntos son linealmente independientes a) W = {v1 + v2 , v2 + v3 , v1 + v3 }. b) W = {v1 , v1 + v2 , v1 + v2 + v3 }. 21. Sea M = {v1 , v2 , v3 , v4 } ⊆ R3 , con v1 = (1, 2, 2), v2 = (1, 0, 1), v3 = (1, 1, 0), v4 = (−1, 1, −1). Determine una base para M  y su dimensi´ on. Cap´ıtulo 2. Espacios vectoriales

53

´ Algebra lineal

22. Sea E un espacio vectorial sobre K y sea U un subespacio de E. Demuestre que dimK U ≤ dimK E. 23. Sea E un espacio vectorial sobre K y dimK E = n. Demuestre que cualquier subconjunto de E que tenga n+1 vectores es linealmente dependiente. 24. Sea E un espacio vectorial sobre K y dimK E = n. Demuestre que ning´ un subconjunto de E que tenga n − 1 vectores puede generar a E. 25. Demuestre que los subespacios no triviales de R3 son rectas que pasan por el origen o planos que pasan por el origen. 26. Halle la dimensi´ on del conjunto soluci´on del sistema homog´eneo x+y+z = 0 2x − y + 4z = 0. 27. Halle la dimensi´ on del conjunto soluci´on del sistema homog´eneo x1 + x2 + x3 + x4 = 0 2x1 − 2x2 + x3 − x4 = 0 x1 + x4 = 0. 28. Sea V un espacio vectorial de dimensi´on n sobre un cuerpo K y sean U1 y U2 subespacios de V con dimensiones k1 y k2 , respectivamente. Demuestre que dimK (U1 ∩ U2 ) ≥ k1 + k2 − n. Muestre un ejemplo en el que esta dimensi´on sea exactamente k1 + k2 − n. 29. Halle todos los n´ umeros reales λ para los cuales el sistema B = ((λ, 1, 0), (1, λ, 1), (0, 1, λ)) no es una base para R3 . 30. Sean a, b ∈ R. Determine si el conjunto B = {1, eax , ebx } es linealmente independiente.

2.6. Ejercicios

Cap´ıtulo 3 Homomorfismos Contenido 3.1. Definiciones b´ asicas . . . . . . . . . . . . . . .

55

3.2. Teoremas de isomorf´ıa . . . . . . . . . . . . .

63

3.3. La K-´ algebra EndK (V ) . . . . . . . . . . . . . .

67

3.4. El grupo lineal general GL(V ) . . . . . . . . .

74

3.5. El rango de un homomorfismo . . . . . . . . .

77

3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . .

80

Es de gran importancia te´orica considerar funciones entre espacios vectoriales que preservan la estructura algebraica. Estas funciones son denominadas homomorfismos entre espacios vectoriales, funciones lineales o tambi´en transformaciones lineales.

3.1.

Definiciones b´ asicas

3.1.1 Definici´ on. Sean V y W espacios vectoriales sobre K. (a) Una funci´on A : V −→ W se llama un homomorfismo de V en W o una transformaci´ on lineal de V en W si para todo v, v1 , v2 ∈ V y k ∈ K se verifican: a) A(v1 + v2 ) = A(v1 ) + A(v2 ) b) A(kv) = kA(v). 55

56

´ Gutierrez-Robinson

Se sigue inmediatamente que A(0) = 0 y A(−v) = −A(v). El conjunto de todos los homomorfismos de V en W lo notamos con HomK (V, W ). Si V = W , entonces en lugar de HomK (V, W ) escribimos EndK (V ) y sus elementos los llamamos endomorfismos de V . (b) Sea A ∈ HomK (V, W ), definimos: (1) Im(A) = {A(v) | v ∈ V } (la imagen de A). (2) ker(A) = {v ∈ V | A(v) = 0} (el n´ ucleo de A). (c) Sea A ∈ HomK (V, W ); entonces, (1) Si A es inyectiva, entonces A se llama un monomorfismo. (2) Si A es sobreyectiva, entonces A se llama un epimorfismo. (3) Si A es biyectiva, entonces A se llama un isomorfismo. Si existe un isomorfismo de V en W , entonces decimos que V y W son isomorfos y escribimos V ∼ = W . Si A es un isomorfismo de V en V , entonces decimos que A es un automorfismo de V . 3.1.2 Ejemplos. Sean V y W espacios vectoriales sobre K y U ≤ V . (a) Sean k ∈ K y A : V −→ V definida por A(v) = kv, para todo v ∈ V . Entonces A ∈ End(V ). (b) Sean V = K n y W = K. Definimos A : V −→ W de la siguiente manera: n  xj . A(x1 , . . . , xn ) := j=1

Entonces se tiene que A ∈ HomK (V, W ). (c) Sean V = K n y W = K. Definimos A : V −→ W mediante A(x1 , . . . , xn ) := xj . Entonces se tiene que A ∈ HomK (V, W ) y se denomina la proyecci´ on sobre la j-´esima componente. (d) Sea π : V −→ V /U definida por π(v) := v + U. Se verifica que π es un epimorfismo, cuyo n´ ucleo es U . Cap´ıtulo 3. Homomorfismos

57

´ Algebra lineal

(e) Sean V = P (R) y A : P (R) −→ P (R) definida por A(f ) = f  , para todo f ∈ V . Entonces A ∈ End(V ). Se verifica, adem´as, que A no es un monomorfismo. En efecto, para toda funci´on constante se tiene que A(f ) = 0. (f ) Sean V = C([a, b], R) y W = R. Definimos I : V −→ W de la siguiente manera: # b I(f ) := f (x)dx. a

Entonces se verifica que I ∈ HomK (V, W ). 3.1.3 Ejemplos. Homomorfismos. (a) Sea A : R2 −→ R3 definida por A(x, y) = (x + y, x − y, 2x). Se verifica que A es un homomorfismo de R2 en R3 . En efecto, sean v1 = (x1 , y1 ) y v2 = (x2 , y2 ). Entonces A(v1 + v2 ) = A(x1 + x2 , y1 + y2 ) = (x1 + x2 + y1 + y2 , x1 + x2 − y1 − y2 , 2(x1 + x2 )) = (x1 + y1 , x1 − y1 , 2x1 ) + (x2 + y2 , x2 − y2 , 2x2 ) = A(v1 ) + A(v2 ). Adem´ as, A(k(x, y)) = A(kx, ky) = (kx + ky, kx − ky, 2(kx)) = k(x + y, x − y, 2x) = kA(x, y). El n´ ucleo de A est´a dado por: ker(A) = {(x, y) ∈ R2 | (x + y, x − y, 2x) = (0, 0, 0)}. Para determinarlo es suficiente resolver el sistema homog´eneo x+y =0 x−y =0 2x = 0. Por lo tanto, ker(A) = {(0, 0)}. ´ 3.1. Definiciones basicas

58

´ Gutierrez-Robinson

(b) Sea A : R3 −→ R3 definida por A(x, y, z) = (x + 2y − z, y + z, x + y − 2z). Muestre que A es un endomorfismo de R3 , determine una base para su n´ ucleo y encuentre un conjunto generador de su imagen. Soluci´ on. Se verifica sin dificultades que A es un endomorfismo 3 ucleo de A est´a dado por: de R . El n´ ker(A) = {(x, y, z) | (x + 2y − z, y + z, x + y − 2z) = (0, 0, 0)}. Determinar el n´ ucleo de A s equivalente a resolver el sistema homog´eneo x + 2y − z = 0 y+z =0 x + y − 2z = 0. La soluci´ on de este est´ a dada por {(x, y, z) | x = 3z, y = −z}. Por lo tanto, ker(A) = {t(3, −1, 1) | t ∈ R} y se tiene que ker(A) = (3, −1, 1). En consecuencia, dimR ker(A) = 1. Por otro lado, note que A(x, y, z) = (x + 2y − z, y + z, x + y − 2z) = (x, 0, x) + (2y, y, y) + (−z, z, −2z) = x(1, 0, 1) + y(2, 1, 1) + z(−1, 1, −2). Esto trae como consecuencia que Im(A) = (1, 0, 1), (2, 1, 1), (−1, 1, −2). Adem´as, podemos afirmar que dimR Im(A) ≤ 3. Se deja como ejercicio verificar que dimR Im(A) = 2. Cap´ıtulo 3. Homomorfismos

59

´ Algebra lineal

3.1.4 Lema. Sean V y W espacios vectoriales sobre un cuerpo K y A ∈ HomK (V, W ). Entonces (a) Im(A) ≤ W . (b) ker(A) ≤ V . (c) A es un monomorfismo si y solo si ker(A) = {0}. (d) A es un epimorfismo si y solo si Im(A) = W . (e) A es un isomorfismo si y solo si ker(A) = {0} y Im(A) = W . ´ n. Demostracio (a) Sean y1 , y2 ∈ Im(A) y k ∈ K. Entonces existen v1 , v2 ∈ V tal que A(v1 ) = y1 y A(v2 ) = y2 . Por lo tanto, y1 − ky2 = A(v1 ) − kA(v2 ) = A(v1 − kv2 ) ∈ Im(A). (b) Sean v1 , v2 ∈ ker(A) y k ∈ K. Entonces A(v1 ) = 0 = A(v2 ) y as´ı A(v1 − kv2 ) = A(v1 ) − kA(v2 ) = 0, con lo cual se tiene que v1 − kv2 ∈ ker(A). (c) Supongamos que A es un monomorfismo y sea v ∈ ker(A). Dado que A(v) = 0 = A(0), se sigue que v = 0. Entonces ker(A) = {0}. Rec´ıprocamente, sean ker(A) = {0} y v1 , v2 ∈ V . Entonces A(v1 ) = A(v2 ) ⇔ A(v1 − v2 ) = 0 ⇔ v1 − v2 ∈ ker(A) ⇔ v1 − v2 = 0 ⇔ v 1 = v2 . (d) Se sigue de la definici´on de epimorfismo. (e) Se sigue de (c) y (d).



3.1.5 Lema. Sean V y W espacios vectoriales sobre K, B = (vi | i ∈ I) y B  = (wj | j ∈ J) bases respectivas para V y W . (a) Dados los elementos wi ∈ W (cualesquiera), existe exactamente un A ∈ HomK (V, W ) tal que A(vi ) = wi , para todo i ∈ I. ´ 3.1. Definiciones basicas

60

´ Gutierrez-Robinson

(b) Dados aji ∈ K, para i ∈ I y j ∈ J, con la propiedad de que para cada i ∈ I solo un n´ umero finito de los aji son no nulos, se tiene que existe un u ´nico A ∈ HomK (V, W ) tal que A(vi ) =



aji wj , i ∈ I.

j∈J

´ n. Demostracio  (a) Existencia. Sea v ∈ V . Entonces v = i∈I ai vi , con ai ∈ K y solo un n´ umero finito de los ai son no nulos. Definimos  ai wi . A(v) := i∈I

v 1 , v2 ∈ V Verificamos inicialmente que A ∈ HomK (V, W ). Sean y k ∈K. Entonces existen ai , bi ∈ K tales que v1 = i∈I ai vi y v2 = i∈I bi vi . Entonces A(v1 + kv2 ) = A =





 (ai + kbi )vi

i∈I

(ai + kbi )wi

i∈I

=



ai wi + k

i∈I



bi wi

i∈I

= A(v1 ) + kA(v2 ) Evidentemente A(vi ) = wi , para todo i ∈ I. Unicidad. Sea A, B ∈ HomK (V, W ) tales que para todo i ∈ I se verifica A(vi ) = wi = B(vi ).  Sea ahora v = i∈I ai vi ∈ V cualquiera. Entonces A(v) =

 i∈I

ai A(vi ) =



ai B(vi ) = B

i∈I



 ai vi = B(v).

i∈I

Esto demuestra que A = B.  (b) Si en (a) tomamos wi = j∈J aji wj , se tiene la afirmaci´on. Cap´ıtulo 3. Homomorfismos



61

´ Algebra lineal

3.1.6 Ejemplo. Sea A : R2 −→ R2 un endomorfismo de R2 tal que A(3, 1) = (2, −4) y A(1, 1) = (0, 2). Determine A(x, y), para cualquier (x, y) ∈ R2 . Soluci´ on. Note que el conjunto {v1 = (3, 1), v2 = (1, 1)} es linealmente independiente. Por lo tanto, B = (v1 , v2 ) es una base para R2 . Esto implica que cualquier (x, y) ∈ R2 puede expresarse como una combinaci´ on lineal de v1 y v2 . Se deja al lector verificar que (x, y) =

x−y 2 (3, 1)

+

3y−x 2 (1, 1).

Con lo cual se tiene que A(x, y) = =

x−y 3y−x 2 A(3, 1) + 2 A(1, 1) x−y 3y−x 2 (2, −4) + 2 (0, 2)

= (x − y, −2x + 2y) + (0, 3y − x) = (x − y, −3x + 5y). 3.1.7 Ejemplo. Describa expl´ıcitamente un endomorfismo de R3 que tiene como imagen el subespacio generado por {(1, 0, −1), (1, 2, 2)}. Soluci´ on. Consideremos a B como la base est´andar de R3 . Esto es, B = ((1, 0, 0), (0, 1, 0), (0, 0, 1)). Del lema 3.1.5 se sigue que existe un u ´nico A ∈ End(R3 ) tal que A(1, 0, 0) = (1, 0, −1) A(0, 1, 0) = (1, 2, 2) A(0, 0, 1) = (0, 0, 0). Entonces A(x, y, z) = xA(1, 0, 0) + yA(0, 1, 0) + zA(0, 0, 1) = x(1, 0, −1) + y(1, 2, 2) + z(0, 0, 0) = (x, 0, −x) + (y, 2y, 2y) = (x + y, 2y, −x + 2y). ´ 3.1. Definiciones basicas

62

´ Gutierrez-Robinson

3.1.8 Teorema. Sean V y W espacios vectoriales sobre un cuerpo K, con dimK V = n < ∞. Son equivalentes: (a) dimK W = n (b) V ∼ = W. ´ n. (a) ⇒ (b). Supongamos que dimK V = n = dimK W . Demostracio Sean B = (v1 , . . . , vn ) una base para V y B  = (w1 , . . . , wn ) una base para W . Del lema anterior se tiene que existe A ∈ HomK (V, W ) tal que A(vi ) = wi , para todo i ∈ {1, . . . , n}. A es un epimorfismo. Sea w ∈ W . Entonces w = ai ∈ K y se tiene que w=

n 

ai w i =

i=1

n 

i=1 ai wi ,

con

n   ai A(vi ) = A ai v i .

i=1

A es un monomorfismo. Sea v = 0 = A(v) =

n

n 

i=1

n

i=1 ai vi

ai A(vi ) =

i=1

n 

∈ ker(A). Entonces ai w i .

i=1

Dado que B  es una base para W se tiene que ai = 0, para todo 1 ≤ i ≤ n. Es decir, ker(A) = {0} y por lo tanto, A es inyectiva. (b) ⇒ (a). Sea A ∈ HomK (V, W ) un isomorfismo y B = (v1 , . . . , vn ) una base para V . Demostramos que B  = (A(v1 ), . . . , A(vn )) es una base para W . B  genera a W . Demostramos que W = A(vi ) | i ∈ {1, . . . , n}. Sea w ∈ W . Dado que A es sobre, existen ai ∈ K tales que n n    w=A ai vi = ai A(vi ). i=1

i=1

B  es linealmente independiente. Sup´ongase que Entonces n   ai vi = 0 A n

n

i=1 ai A(vi )

= 0.

i=1

y se sigue que i=1 ai vi ∈ ker(A) = {0}. Dado que B es una base para V se sigue que ai = 0, para todo i ∈ {1, . . . , n}.  En particular todo espacio vectorial de dimensi´ on finita V es isomorfo a K n para alg´ un n ∈ N. Cap´ıtulo 3. Homomorfismos

63

´ Algebra lineal

3.2.

Teoremas de isomorf´ıa

3.2.1 Primer teorema de isomorf´ıa. Sean V y W espacios vectoriales sobre K y A ∈ HomK (V, W ). Entonces (a) existe un epimorfismo π : V −→ V /ker(A) (b) existe un monomorfismo i : Im(A) −→ W (c) existe un isomorfismo C : V /ker(A) −→ Im(A) tales que A = i ◦ C ◦ π. Ilustraci´ on: V

A

π

W i

V /ker(A)

C

Im(A)

´ n. El epimorfismo π : V −→ V /ker(A) est´a dado por la Demostracio proyecci´on can´onica del ejemplo 3.1.2 (d). Es decir, π(v) = v + ker(A),

v ∈ V.

El monomorfismo i est´a dado por la inclusi´on can´onica i(w) = w, para todo w ∈ Im(A). Definimos ahora C : V /ker(A) −→ W de la siguiente manera: C(v + ker(A)) := A(v), para todo v ∈ V. C est´ a bien definida. Sean v1 +ker(A) = v2 +ker(A). Entonces v1 −v2 ∈ ker(A) y se tiene que 0 = A(v1 − v2 ) = A(v1 ) − A(v2 ). Esto demuestra que C(v1 + ker(A)) = C(v2 + ker(A)). C es un homomorfismo. Sean k ∈ K, x1 = v1 + ker(A) y x2 = v2 + ker(A) ∈ V /ker(A). Entonces C(x1 + kx2 ) = C((v1 + kv2 ) + ker(A)) = A(v1 + kv2 ) = C(x1 ) + kC(x2 ). 3.2. Teoremas de isomorf´ıa

64

´ Gutierrez-Robinson

C es un monomorfismo. Usamos el lema 3.1.4 (c) v + ker(A) ∈ ker(C) ⇔ C(v + ker(A)) = 0 ⇔ A(v) = 0 ⇔ v ∈ ker(A). Finalmente, demostramos que A = i ◦ C ◦ π. Sea v ∈ V . Entonces (i ◦ C ◦ π)(v) = (i ◦ C)(v + ker(A)) = i(A(v)) = A(v), con lo cual se completa la demostraci´on.



3.2.2 Corolario. Sean V y W espacios vectoriales sobre K, V de dimensi´ on finita y A ∈ HomK (V, W ). Entonces dimK V = dimK ker(A) + dimK Im(A). ´ n. Si V es de dimensi´ Demostracio on finita, entonces del primer teorema de isomorf´ıa y del teorema 2.5.3 (c) se sigue que dimK Im(A) = dimK V /ker(A) = dimK V − dimK ker(A), con lo cual se tiene la afirmaci´on.  Similar como en la teor´ıa de grupos, existen otros dos teoremas de isomorf´ıa, expresados en t´erminos de suma e intersecci´on de subespacios.

3.2.3 Segundo teorema de isomorf´ıa. Sean V un espacio vectorial sobre K y U, W ≤ V . Entonces (U + W )/W ∼ = U/(U ∩ W ). Ilustraci´ on: Cap´ıtulo 3. Homomorfismos

65

´ Algebra lineal

V

U +W U

W U ∩W

{0} ´ n. Consideremos la funci´on C : U −→ (U + W )/W Demostracio definida por C(u) := u + W, u ∈ U. C est´ a bien definida. Sean u, v ∈ U . Si u = v, entonces u−v = 0 ∈ W . Por consiguiente, (u − v) + W = W y se tiene que u + W = v + W . C es un epimorfismo. Es evidente. Por otro lado, para u ∈ U tenemos u ∈ ker(C) ⇔ u + W = W ⇔u∈W ⇔ u ∈ U ∩ W. Esto demuestra que ker(C) = U ∩ N . Usando el primer teorema de isomorf´ıa se tiene que U/(U ∩ W ) = U/ker(C) ∼ = Im(C) = (U + W )/W, con lo cual se tiene la afirmaci´on.



3.2.4 Tercer teorema de isomorf´ıa. Sean V un espacio vectorial sobre K y T, U, W ≤ V con U ⊆ T . Entonces (V /U )/(T /U ) ∼ = V /T. Ilustraci´ on: 3.2. Teoremas de isomorf´ıa

66

´ Gutierrez-Robinson

π

V

V /U

T

T /U

U

{0}

{0} ´ n. Sea C : V /U −→ V /T definida por Demostracio C(v + U ) := v + T. C est´ a bien definida. Sean v, v  ∈ V y supongamos que v + U = + U . Entonces v − v  ∈ U ⊆ T . Por lo tanto, v + T = v  + T . C es un epimorfismo. La sobreyectividad es inmediata. Por otro lado, v

C(v + U + v  + U ) = C((v + v  ) + U ) = (v + v  ) + T = (v + T ) + (v  + T ) = C(v + U ) + C(v  + U ). Determinemos el n´ ucleo de C. Sea v ∈ V . Entonces v + U ∈ ker(C) ⇔ v + T = T ⇔ v ∈ T. Por lo tanto, ker(C) = T /U . Nuevamente usamos el primer teorema de isomorf´ıa y tenemos (V /U )/(T /U ) = (V /U )/ker(C) ∼ = Im(C) = V /T, y se tiene el resultado.



3.2.5 Teorema. Sean V y W espacios vectoriales sobre un cuerpo K, con dimK V = dimK W = n y A ∈ HomK (V, W ). Son equivalentes: (a) A es un isomorfismo. Cap´ıtulo 3. Homomorfismos

67

´ Algebra lineal

(b) A es un monomorfismo. (c) A es un epimorfismo. ´ n. (a) ⇒ (b). Es inmediato. Demostracio (b) ⇒ (c). Demostramos que Im(A) = W . Del corolario anterior dimK Im(A) = dimK V − dimK ker(A).

(3.1)

Dado que A es inyectiva, se tiene que ker(A) = {0}. Entonces dimK Im(A) = dimK V = dimK W. Dado que Im(A) ≤ W , se sigue que Im(A) = W . (c) ⇒ (a). Dado que A es sobre, se verifica que Im(A) = W . Por lo tanto, usando (3.1) dimK V = dimK W + dimK ker(A). Por hip´otesis se tiene que dimK V = dimK W , lo cual trae como consecuencia que dimK ker(A) = 0, es decir, ker(A) = {0} y se concluye que A es inyectiva, por lo tanto, un isomorfismo. 

3.3.

La K-´ algebra EndK (V )

El principal objetivo de esta secci´on es demostrar que, si V y W son espacios vectoriales sobre K, entonces HomK (V, W ) tambi´en lo es, adem´as de que en el caso particular V = W se verifica que EndK (V ) adquiere no solo la estructura de anillo con elemento identidad, sino que adem´as es una ´ algebra sobre K o simplemente una K-´ algebra. 3.3.1 Teorema. Sean V y W espacios vectoriales sobre K. (a) Para A, B ∈ HomK (V, W ) y k ∈ K definimos A + B y kA de la siguiente manera: (A + B)(v) = A(v) + B(v) para todo v ∈ V (kA)(v) = kA(v) para todo v ∈ V. Con estas operaciones el conjunto HomK (V, W ) es un espacio vectorial sobre K. ´ 3.3. La K-algebra EndK (V )

68

´ Gutierrez-Robinson

(b) Sean B = (v1 , . . . , vn ) y B  = (w1 , . . . , wm ) bases para V y W , respectivamente. Conforme el lema 3.1.5 para i ∈ {1, . . . , m} y j ∈ {1, . . . , n} definimos Eij ∈ HomK (V, W ) mediante Eij (vk ) = δjk wi . Es decir,

 Eij (vk ) :=

0 para; j = k wi para j = k.

Entonces E = (E11 , . . . , Emn ) es una base para HomK (V, W ). En particular se sigue que dimK HomK (V, W ) = dimK V · dimK W. ´ n. Demostracio (a) Es rutinario verificar HomK (V, W ) es un espacio vectorial sobre K. El cero de HomK (V, W ) es la funci´ on nula. (b) E genera a HomK (V, W ). Sea A ∈ HomK (V, W ) cualquiera. Dado que B  es una base para W se tiene que existen aik ∈ K tales que m  aik wi , k ∈ {1, . . . , n}. A(vk ) = i=1

Definimos B :=

m  n 

aij Eij ∈ HomK (V, W ).

i=1 j=1

Entonces para k ∈ {1, . . . , n} se tiene que B(vk ) =

m  n  i=1 j=1

Por lo tanto, A = B =

aij Eij (vk ) =  ! " δjk wi

m 

m  n i=1

aik wi = A(vk ).

i=1

j=1 aij Eij

y podemos afirmar que

HomK (V, W ) = Eij | i ∈ {1, . . . , n}, j ∈ {1, . . . , m}. Cap´ıtulo 3. Homomorfismos

69

´ Algebra lineal

E es linealmente independiente. Supongamos que m  n 

aij Eij = 0, con aij ∈ K.

i=1 j=1

Entonces para k ∈ {1, . . . , n} se verifica 0= =

n m  

aij Eij (vk )

i=1 j=1 m 

aik wi .

i=1

Dado que B  es una base para W se tiene que aik = 0 para todo i y todo k.  3.3.2 Ejemplo. Sea A : R2 −→ R3 definida por A(x, y) = (x − y, y − x, 2x). Utilizando el teorema anterior, determinamos una base E para Hom(R2 , R3 ) y expresamos A como combinaci´ on lineal de los elementos de ella. Sean B = (v1 , v2 ) y B  = (w1 , w2 , w3 ) las bases can´onicas para R2 y 3 R respectivamente. Entonces se tiene

i=1

i=2

i=3

j=1 E11 (v1 ) = w1 E11 (v2 ) = 0 E11 (x, y) = (x, 0, 0) E21 (v1 ) = w2 E21 (v2 ) = 0 E21 (x, y) = (0, x, 0) E31 (v1 ) = w3 E31 (v2 ) = 0 E31 (x, y) = (0, 0, x)

j=2 E12 (v1 ) = 0 E12 (v2 ) = w1 E12 (x, y) = (y, 0, 0) E22 (v1 ) = 0 E22 (v2 ) = w2 E22 (x, y) = (0, y, 0) E32 (v1 ) = 0 E32 (v2 ) = w3 E32 (x, y) = (0, 0, y)

Entonces A(x, y) = E11 (x, y) − E12 (x, y) − E21 (x, y) + E22 (x, y) + 2E31 (x, y). ´ 3.3. La K-algebra EndK (V )

70

´ Gutierrez-Robinson

3.3.3 Teorema. Sean V1 , V2 , V3 y V4 espacios vectoriales sobre K. (a) Sean A ∈ HomK (V2 , V3 ) y B ∈ HomK (V1 , V2 ). Si definimos (AB)(v) := A(B(v)) para todo v ∈ V1 , entonces AB ∈ HomK (V1 , V3 ). (b) Sean A1 , A2 ∈ HomK (V2 , V3 ) y B ∈ HomK (V1 , V2 ). Entonces (A1 + A2 )B = A1 B + A2 B. (c) Sean A ∈ HomK (V2 , V3 ) y B1 , B2 ∈ HomK (V1 , V2 ). Entonces A(B1 + B2 ) = AB1 + AB2 . (d) Sean A ∈ HomK (V3 , V4 ), B ∈ HomK (V2 , V3 ) y C ∈ HomK (V1 , V2 ). Entonces A(BC) = (AB)C. Una ilustraci´on: V1

C

A(BC)

V2 B

V4

A

V3

(e) Sean A ∈ HomK (V2 , V3 ) y B ∈ HomK (V1 , V2 ) y k ∈ K. Entonces k(AB) = A(kB) = (kA)B. ´ n. Demostracio (a) Sean v1 , v2 , v ∈ V1 y k ∈ K. Entonces AB(v1 + kv2 ) = A(B(v1 + kv2 )) = A(B(v1 ) + kB(v2 )) = A(B(v1 )) + A(kB(v2 )) = AB(v1 ) + kAB(v2 ). Cap´ıtulo 3. Homomorfismos

71

´ Algebra lineal

(b) Sea v ∈ V1 . Entonces ((A1 + A2 )B)(v) = (A1 + A2 )(B(v)) = A1 (B(v)) + A2 (B(v)) = A1 B(v) + A2 B(v) = (A1 B + A2 B)(v). (c) Sea v ∈ V1 . Entonces (A(B1 + B2 ))(v) = A((B1 + B2 )(v)) = A(B1 (v)) + A(B2 (v)) = (AB1 )(v) + (AB2 )(v) = (AB1 + AB2 )(v). (d) Sea v ∈ V1 . Entonces (A(BC))(v) = A((BC)(v)) = A(B(C(v))) = (AB)(C(v)) = ((AB)C)(v). (e) Sea v ∈ V1 . Entonces (k(AB))(v) = k(AB)(v) = k(A(B(v))) = (kA)(B(v)) = ((kA)B)(v). La otra igualdad se obtiene de igual forma.



3.3.4 Teorema. Sea V un espacio vectorial sobre K. Entonces (a) EndK (V ) es un anillo con elemento identidad. (b) Sea B = (v1 , . . . , vn ) una base para V . Definimos Eij ∈ EndK (V ) como en el teorema 3.3.1 (b). Esto es, Eij (vk ) = δjk vi . ´ 3.3. La K-algebra EndK (V )

72

´ Gutierrez-Robinson

Entonces E = (E11 , . . . , Enn ) es una base para EndK (V ). Adem´ as, Eij Ekl = δjk Eil y n 

Eii = IV .

(3.2) (3.3)

i=1

´ n. Demostracio (a) Es una consecuencia del teorema anterior. (b) Si en el teorema 3.3.1 tomamos V = W y para todo i ∈ {1, . . . , n} hacemos vi = wi , entonces se tiene que E = (E11 , . . . , Enn ) es una base para EndK (V ). Para cada m ∈ {1, . . . , n} se verifica que Eij Ekl (vm ) = Eij (Ekl (vm )) = Eij (δlm vk ) = δlm Eij (vk ) = δlm δjk vi = δjk Eil (vm ). Finalmente, para todo m ∈ {1, . . . , n} tenemos n 

Eii (vm ) = Emm (vm ) = vm = IV (vm ),

i=1

con lo cual se completa la prueba.



3.3.5 Definici´ on. Sea V un espacio vectorial sobre un cuerpo K. Supongamos que sobre V esta definida una operaci´on binaria ∗, denominada multiplicaci´ on ∗ : V × V −→ V (v1 , v2 ) −→ v1 ∗ v2 Decimos que V es una ´ algebra sobre K o simplemente una K-´ algebra, si se verifican (a) (V, +, ∗) es un anillo. Cap´ıtulo 3. Homomorfismos

73

´ Algebra lineal

(b) u ∗ (kv) = (ku) ∗ v = k(u ∗ v), para todo u, v ∈ V y todo k ∈ K. 3.3.6 Teorema. Sea V un espacio vectorial sobre un cuerpo K. Si consideramos como multiplicaci´on sobre EndK (V ) la composici´ on de funciones, entonces V es una K-´algebra, ´ n. Del teorema 3.3.1 se sigue que EndK (V ) es un esDemostracio pacio vectorial sobre K. Del teorema 3.3.4 se tiene que EndK (V ) es un anillo. El resto se sigue del lema 3.3.3 (e).  3.3.7 Observaci´ on. Sea V un espacio vectorial sobre K con dimensi´ on finita n. En general EndK (V ) no es un cuerpo. Si n > 1, entonces E12 E22 = E12 = 0 = E22 E12 y se tiene que la multiplicaci´on no es conmutativa. 3.3.8 Teorema. Sea V una K-´ algebra de dimensi´ on finita con elemento identidad, digamos 1. Sea adem´as v ∈ V con la propiedad vx = 0, para todo x ∈ V \ {0}. Entonces v tiene un u ´nico inverso multiplicativo. ´ n. Definimos A : V −→ V mediante A(x) := vx, para Demostracio x ∈ V . Se verifica sin dificultades que A ∈ EndK (V ) y, adem´as, por hip´ otesis se tiene que ker(A) = {0}. Dado que V es de dimensi´ on finita, del teorema 3.2.5 se sigue A es sobre. Es decir, existe w ∈ V tal que A(w) = vw = 1. Consideremos ahora B : V −→ V definida por B(x) := wx, para x ∈ V . Es claro que B ∈ EndK (V ). Note que x ∈ ker(B) ⇔ B(x) = 0 ⇒ A(B(x)) = 0 ⇔ v(wx) = 0 ⇒ x = 0. Es decir, B es inyectiva y por el mismo argumento anterior tambi´en sobre. Esto es, existe y ∈ V tal que B(y) = wy = 1. En consecuencia v = v1 = v(wy) = (vw)y = 1y = y. Es decir, se cumple tambi´en que wv = 1.



´ 3.3. La K-algebra EndK (V )

74

3.4.

´ Gutierrez-Robinson

El grupo lineal general GL(V )

En esta secci´on demostramos que los elementos de EndK (V ) que son biyecciones forman un grupo con respecto a la multiplicaci´on de la Kalgebra, el cual llamamos grupo lineal general de V . ´ 3.4.1 Teorema. Sean V1 , V2 y V3 espacios vectoriales sobre K. ´ nico (a) Si A ∈ HomK (V1 , V2 ) es un isomorfismo, entonces existe un u B ∈ HomK (V2 , V1 ) tal que AB = IV2 , BA = IV1 y B es un isomorfismo. En este caso llamamos a B la inversa de A y la notamos con A−1 . (b) Sean A ∈ HomK (V1 , V2 ) y B ∈ HomK (V2 , V3 ) isomorfismos. Entonces BA ∈ HomK (V1 , V3 ) es un isomorfismo y, adem´as, (BA)−1 = A−1 B −1 . ´ n. Demostracio (a) La existencia de una biyecci´on B con las propiedades AB = IV2 , BA = IV1 est´a garantizada, ya que A es biyectiva. Resta verificar que B es un homomorfismo. Sean v, v  ∈ V2 . Entonces A(B(v + kv  )) = AB(v + kv  ) = IV2 (v + kv  ) = v + kv 

= AB(v) + k(AB)(v  ) = A(B(v)) + A(kB(v  )) = A(B(v) + kB(v  )). Dado que A es inyectiva, se sigue que B(v + kv  ) = B(v) + kB(v  ). (b) Es claro que la composici´ on de biyecciones es una biyecci´on. Del teorema 3.3.3 (a) se sigue que la composici´on de dos homomorfismos es un homomorfismo. El resto se sigue del lema 1.1.3.  3.4.2 Definici´ on. Sean V un espacio vectorial sobre un cuerpo K. (a) Si A es un automorfismo de V , entonces decimos que A es regular o invertible. En caso contrario, A se llamar´ a singular. Cap´ıtulo 3. Homomorfismos

75

´ Algebra lineal

(b) Al conjunto de todos los automorfismos de V lo notamos con GL(V ). No es dif´ıcil verificar que GL(V ) es un grupo con respecto a la composici´ on de funciones. Su elemento identidad es IV . 3.4.3 Teorema. Sean V y W espacios vectoriales sobre K, con dimensiones finitas, y sea A ∈ HomK (V, W ). Entonces son equivalentes (a) A es un isomorfismo. (b) Si B = (v1 , . . . , vn ) es una base para V , entonces el sistema B  = (A(v1 ), . . . , A(vn )) es una base para W . ´ n. (a) ⇒ (b). Ver demostraci´on del teorema 3.1.8. Demostracio All´ı se demostr´ o que si B = (v1 , . . . , vn ) es una base para V y A es un isomorfismo de V en W , entonces B  = (A(v1 ), . . . , A(vn )) es una base para W . (b) ⇒ (a). Es suficiente demostrar que A es biyectiva. n A es inyectiva. Sea v = i=1 ai vi ∈ ker(A) cualquiera. Entonces n n    ai vi = ai A(vi ). 0 = A(v) = A i=1

i=1

La independencia lineal de B  trae como consecuencia que ai = 0, para todo i = 1, . . . , n, con lo cual se demuestra que v = 0. Usando el teorema 3.2.5 se tiene que A es tambi´en sobre y se tiene la conclusi´ on.  3.4.4 Observaci´ on. Sean K un cuerpo finito con |K| = q y V un espacio vectorial sobre K con dimK V = n. Del teorema anterior y del lema 3.1.5 se sigue que el n´ umero de elementos de GL(V ) es igual al n´ umero de bases de V . Cada base (v1 , . . . , vn ) de V surge de la siguiente elecci´ on: q n − 1 posibilidades para v1 ∈ V \ {0} q n − q posibilidades para v2 ∈ V \ v1  .. . q n − q n−1 posibilidades para vn ∈ V \ v1 , . . . , vn−1 . En consecuencia, |GL(V )| = (q n − 1)(q n − q) · · · (q n − q n−1 ). 3.4. El grupo lineal general GL(V )

76

´ Gutierrez-Robinson

3.4.5 Teorema. Sean V un espacio vectorial sobre K con dimensi´ on finita. Para A ∈ EndK (V ) son equivalentes: (a) Si C ∈ EndK (V ) y AC = 0, entonces C = 0. (b) Existe A−1 ∈ EndK (V ) tal que AA−1 = A−1 A = IV . (c) Existe B ∈ EndK (V ) tal que BA = IV . (d) Existe D ∈ EndK (V ) tal que AD = IV . (e) Si C ∈ EndK (V ) y CA = 0, entonces C = 0. ´ n. Demostracio algebra de dimensi´ on finita, la (a) ⇒ (b). Dado que EndK (V ) es una K-´ afirmaci´ on se sigue del teorema 3.3.8. (b) ⇒ (c). Es inmediato. (c) ⇒ (a). Supongamos AC = 0. Entonces 0 = B(AC) = (BA)C = IV C = C. (e) ⇒ (b). Se sigue del teorema 3.3.8. (b) ⇒ (d). Es inmediato. (d) ⇒ (e). Supongamos CA = 0. Entonces 0 = (CA)D = C(AD) = CIV = C. As´ı se tiene el teorema demostrado.  En el teorema anterior el hecho que V sea un espacio vectorial de dimensi´ on finita garantiza que B en el inciso (c) y D en el inciso (d) sean el mismo endomorfismo. En el siguiente ejemplo mostramos un caso donde esto no se cumple. 3.4.6 Ejemplo. Sea V = P (R) y D, I ∈ End(V ) definida por # x f (t)dt. (D(f ))(x) = f  (x) y (I(f ))(x) = 0

Entonces se cumplen DI(f )(x) = f (x) y ID(f )(x) = f (x) − f (0). As´ı se tiene que en general ID = DI. Cap´ıtulo 3. Homomorfismos

77

´ Algebra lineal

3.5.

El rango de un homomorfismo

3.5.1 Definici´ on. Sean V y W espacios vectoriales sobre el cuerpo K y A ∈ HomK (V, W ). Si Im(A) tiene dimensi´on finita sobre K, entonces se define y nota el rango de A de la siguiente manera: r(A) := dimK Im(A). 3.5.2 Ejemplo. Sea A : R3 −→ R3 como en el ejemplo 3.1.3 (b). Esto es, A(x, y, z) = (x + 2y − z, y + z, x + y − 2z). Se demostr´ o que A ∈ EndR (R3 ) y, adem´as, Im(A) = (1, 0, 1), (2, 1, 1), (−1, 1, −2). Note que 3(1, 0, 1) + (−1, 1, −2) = (2, 1, 1), con lo cual podemos afirmar que Im(A) = (1, 0, 1), (−1, 1, −2). Dado que estos dos vectores son linealmente independientes, se sigue que r(A) = dimK Im(A) = 2. 3.5.3 Teorema. Sean V y W espacios vectoriales sobre el cuerpo K y A ∈ HomK (V, W ). (a) Si V es de dimensi´ on finita sobre K, entonces r(A) = dimK V − dimK ker(A) ≤ dimK V. (b) Si W es de dimensi´ on finita sobre K, entonces r(A) ≤ dimK W . ´ n. Demostracio (a) Del primer teorema de isomorf´ıa 3.2.1 se sigue que r(A) = dimK Im(A) = dimK V − dimK ker(A) ≤ dimK V. (b) Dado que Im(A) ≤ W , se sigue la afirmaci´ on. 3.5. El rango de un homomorfismo



78

´ Gutierrez-Robinson

3.5.4 Teorema. Sean V1 , V2 , V3 y V4 espacios vectoriales sobre K. (a) Sean A, B ∈ HomK (V1 , V2 ) con rangos finitos r(A) y r(B), respectivamente. Entonces |r(A) − r(B)| ≤ r(A + B) ≤ r(A) + r(B). (b) Sean A ∈ HomK (V2 , V3 ) y B ∈ HomK (V1 , V2 ). Si r(A) o r(B) es finito, entonces r(AB) ≤ m´ın{r(A), r(B)}. Si dimK V2 < ∞, entonces r(A) y r(B) son finitos y, adem´as, r(A) + r(B) − dimK V2 ≤ r(AB). (c) Sean A ∈ HomK (V2 , V3 ), B ∈ HomK (V1 , V2 ) y C ∈ HomK (V3 , V4 ) con r(A) finito. Si B es un epimorfismo y C es un monomorfismo, entonces r(A) = r(AB) = r(CA). ´ n. Demostracio (a) Sea w ∈ Im(A + B). Entonces w = (A + B)(x) = A(x) + B(x) para alg´ un x ∈ V1 . Es decir, w ∈ Im(A) + Im(B). Por lo tanto, Im(A + B) ≤ Im(A) + Im(B). Entonces usando el teorema 2.4.20 tenemos: r(A + B) = dimK Im(A + B) ≤ dimK (Im(A) + Im(B)) ≤ dimK Im(A) + dimK Im(B) = r(A) + r(B). Por otro lado, w ∈ Im(−B) ⇔ w = (−B)(x) para alg´ un x ∈ V1 . ⇔ w = −B(x) para alg´ un x ∈ V1 . ⇔ w ∈ Im(B). Por lo tanto, Im(B) = Im(−B) y se tiene que r(B) = r(−B). Con esto tenemos: r(A) = r(A + B + (−B)) ≤ r(A + B) + r(B). Cap´ıtulo 3. Homomorfismos

79

´ Algebra lineal

Por lo tanto, r(A) − r(B) ≤ r(A + B). Similar demostramos que r(B) − r(A) ≤ r(A + B). (b) Es claro que Im(AB) ≤ Im(A). Por lo tanto, r(AB) ≤ r(A) y se tiene que r(AB) es finito, siempre que r(A) lo sea. Adem´ as, Im(AB) = {A(B(v)) | v ∈ V1 } = Im(A1 ), donde A1 = A |Im(B) . Esto es, A1 : Im(B) −→ V3 y para todo v  ∈ Im(B) se verifica que A1 (v  ) = A(v  ). Dado que ker(A1 ) = ker(A) ∩ Im(B), aplicando el primer teorema de isomorf´ıa 3.2.1 a A1 se sigue que Im(AB) = Im(A1 ) ∼ = Im(B)/(ker(A) ∩ Im(B)). Esto demuestra que r(AB) ≤ r(B) y se tiene que r(AB) ≤ m´ın{r(A), r(B)}. Si dimK V2 < ∞, entonces de (3.4) se tiene, adem´as, que r(AB) = dimK Im(B) − dimK (ker(A) ∩ Im(B)) = r(B) − dimK (ker(A) ∩ Im(B)) ≥ r(B) − dimK ker(A) = r(B) − (dimK V2 − dimK Im(A)) = r(B) + r(A) − dimK V2 . (c) Una ilustraci´on de la situaci´on es la siguiente:

V1

B

V2

A

V3

Im(A)

C

C1

3.5. El rango de un homomorfismo

V4

Im(CA)

(3.4)

80

´ Gutierrez-Robinson

donde definimos C1 := C |Im(A) . Dado que C es un monomorfismo, se tiene que C1 es un isomorfismo. Entonces r(A) = dimK Im(A) = dimK Im(CA) = r(CA). De la sobreyectividad de B se sigue que Im(AB) = {(AB)(v) | v ∈ V1 } = {A(w) | w ∈ V2 } = Im(A). Por lo tanto, r(A) = r(AB).

3.6.



Ejercicios

1. En cada caso determine si la funci´on dada es un homomorfismo. En caso afirmativo determine su n´ ucleo e imagen. a) A : R3 −→ R3 definida por A(x, y, z) = (x, y, 0). b) A : R2 −→ R2 definida por A(x, y) = (x + 2, y + 1). c) A : R3 −→ R3 definida por A(x, y, z) = (x + 1, y + 1, z − 1). 2. Encuentre un homomorfismo A con dominio R3 y que tome valores en el espacio vectorial W = (1, 0, 1), (0, 1, 0) ⊆ R3 . 3. Sea A : R3 −→ R3 definida por A(x, y, z) = (x + 2y + 3z, x − z, 2x + 2y + 2z). a) Demuestre que A ∈ EndR (R3 ). b) Halle una base B1 para ker(A). c) Halle una base B2 para Im(A). d ) Verifique que B1 ∪ B2 es una base para R3 . e) Determine el conjunto A−1 (1, 1, 1). f ) Sea S := (1, 1, 1), (2, 2, 2), (1, 0, 1). Halle un conjunto generador de A(S). 4. Sea la funci´on A : X −→ X definida por A(x, y) = (x2 , y 2 ). a) ¿Si X = R2 se verifica que A ∈ EndR (X)? b) ¿Si X = Z22 se verifica que A ∈ EndZ2 (X)? Cap´ıtulo 3. Homomorfismos

81

´ Algebra lineal

5. Sean U y V dos espacios vectoriales sobre un cuerpo K y A ∈ HomK (U, V ). Demuestre que si dimK (U ) es infinita, entonces Im(A) o ker(A) es de dimensi´ on infinita. 6. Sea A : R3 −→ R3 definida por A(x, y, z) = (x − y, x + y, 2y). a) Demuestre que A ∈ EndR (R3 ). b) Determine ker(A), Im(A). c) Halle una base B para EndR (R3 ) y exprese A como combinaci´ on lineal de los elementos de B. 7. A : R2 −→ R2 definida por A(x, y) = (2x − y, x + y). a) Demuestre que A ∈ EndR (R2 ). b) Determine si A es uno a uno y en caso afirmativo, halle su inversa. 8. Sean V un espacio vectorial sobre un cuerpo K y A ∈ EndK (V ) sobreyectivo. Demuestre que si dimK (V ) es finita, entonces A es uno a uno. 9. Sean V un espacio vectorial sobre un cuerpo K, de dimensi´on finita y A ∈ EndK (V ), que no es sobreyectivo. Demuestre que existe 0 = v ∈ V tal que T (v) = 0. 10. Sean V un espacio vectorial sobre un cuerpo K, de dimensi´on finita y B = (v1 , . . . , vn ) una base para V . Sea {w1 , . . . , wn } ⊆ V y definimos A : V −→ V de la siguiente manera:  Si v = nj=1 aj vj ∈ V , entonces T (v) :=

n 

aj w j .

j=1

a) Demuestre que A ∈ EndK (V ). b) ¿Bajo que condiciones se verifica que A es un isomorfismo? 11. Sean U y V dos espacios vectoriales sobre un cuerpo K. Demuestre que si A ∈ HomK (U, V ) y B ∈ HomK (U, V ) y A(vi ) = B(vi ) para todo elemento vi de una base de U , entonces A = B. 3.6. Ejercicios

82

´ Gutierrez-Robinson

12. Sea A : R3 −→ R3 definida por A(x, y, z) = (x + 2y + 3z, 3x + 2y + z, x + y + z). Demuestre que a) A ∈ EndR (R3 ). b) A es singular. c) Si (a, b, c) (5, 7, 5).



(1, 1, 1), (3, 2, 0), entonces A(a, b, c)



13. Sean U y V dos espacios vectoriales sobre un cuerpo K con dimK (U ) = dimK (V ). Demuestre que existe A ∈ HomK (U, V ) tal que A es biyectiva. Es decir, A es un isomorfismo. 14. Halle A ∈ EndR (R3 ) tal que a) ker(A) = {(x, y, z) ∈ R3 | x = y} b) (2, 1, 3) ∈ Im(A) c) A(0, 1, 0) ∈ Z3 . 15. Sean V un espacio vectorial sobre un cuerpo K y A ∈ EndK (V ). Suponga que existen λ1 , . . . , λn ∈ K y n ∈ N tales que An + λ1 An−1 + · · · + λn−1 A + λn I = 0.  0, entonces A es invertible. En este caso Demuestre que si λn = determine A−1 como funci´on de A. 16. Sea V un espacio vectorial sobre un cuerpo K con dimK (V ) = 2. Sea, adem´as, B = (e1 = (1, 0), e2 = (0, 1)) la base can´onica para V . Defina A, B : V → V mediante A(e1 ) = e1 + e2 A(e2 ) = e2 B(e1 ) = e2 B(e2 ) = 0. Demuestre que AB, BA ∈ EndK (V ) y, adem´as, AB = BA. 17. Sean V un espacio vectorial sobre K, A ∈ EndK (V ) y U ≤ V con la propiedad de ser A-invariante. Esto es, A(u) ∈ U , para todo u ∈ U . Definimos Cap´ıtulo 3. Homomorfismos

83

´ Algebra lineal

(I) La restricci´on de A a U , notada con AU mediante: AU (x) := A(x), para todo x ∈ U. (II) La funci´on AV /U : V /U −→ V /U as´ı: AV /U (x + U ) := A(x) + U, para todo x ∈ V. Demuestre que a bien definida y AU ∈ End(U ). a) AU est´ b) AV /U est´a bien definida y es un homomorfismo. c) Si AU y AV /U son monomorfismos, entonces A es un monomorfismo. d ) Si AU y AV /U son epimorfismos, entonces A es un epimorfismo. e) Si AU y AV /U son isomorfismos, entonces A es un isomorfismo. f ) Si dimK V < ∞ y A es un isomorfismo, entonces AU y AV /U son isomorfismos. 18. Sea S(K) el conjunto de todas las sucesiones en K. Esto es, S(K) = {(a1 , a2 , a3 , . . .) | aj ∈ K} Definiendo sobre S(K) una suma y multiplicaci´on por escalar por componentes; es decir, (aj )j∈N + (bj )j∈N = (aj + bj )j∈N k(aj )j∈N = (kaj )j∈N se verifica que S(K) es un espacio vectorial. a) Definimos S, T : S(K) −→ S(K) de la siguiente manera: S((a1 , a2 , a3 , . . .)) := (0, a1 , a2 , a3 , . . .) T ((a1 , a2 , a3 , . . .)) := (a2 , a3 , a4 , a5 . . .). Demuestre que S, T ∈ EndK (S(K)) y determine ker(S), Im(S), ker(T ), Im(T ) 3.6. Ejercicios

84

´ Gutierrez-Robinson

b) Definimos U := {(0, a1 , a2 , a3 , . . .) | aj ∈ K}. Demuestre que U ≤ S(K) y S(u) ∈ U , para todo u ∈ U . Demuestre adem´ as que S es un monomorfismo de S(K), pero SS(K)/U no es un monomorfismo de S(K)/U . c) Sea W := {(a1 , 0, 0, 0 . . .) | a1 ∈ K}. Demuestre T es un epimorfismo de S(K), pero TS(K)/W no es un epimorfismo de S(K)/W . 19. Demuestre que si dimK V = 2 y A ∈ EndK (V ), entonces el conjunto B = {A2 , A, IV } es linealmente dependiente. 20. Determine el conjunto EndR (R).

Cap´ıtulo 3. Homomorfismos

Cap´ıtulo 4 Matrices y ecuaciones lineales Contenido 4.1. La K-´ algebra Mat(n, K) . . . . . . . . . . . . .

85

4.2. El grupo lineal general GL(n, K) . . . . . . . .

94

4.3. Rango de una matriz . . . . . . . . . . . . . . 105 4.4. Sumas directas y proyecciones . . . . . . . . . 113 4.5. Ecuaciones lineales . . . . . . . . . . . . . . . . 121 4.6. La factorizaci´ on LU de una matriz . . . . . . 127 4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . 131

En todo este cap´ıtulo R denotar´ a siempre un anillo con elemento identidad y K un cuerpo. El resultado central de esta secci´on es que el conjunto de matrices de tama˜ no m × n con entradas en K, notado con Mat(m × n, K), es isomorfo como espacio vectorial a HomK (V, W ), donde V y W tienen dimensiones n y m respectivamente. Se demostrara adem´as que si m = n, entonces el conjunto de las matrices de tama˜ no n × n, notado con Mat(n, K), es isomorfo como K-´ algebra a EndK (V ).

4.1.

La K-´ algebra Mat(n, K)

4.1.1 Definici´ on. Sean m, n ∈ N. Definimos Im,n := {(i, j) | i, j ∈ N, 1 ≤ i ≤ m, 1 ≤ j ≤ n}. 85

86

´ Gutierrez-Robinson

(a) Una funci´on A : Im,n −→ R se denomina una matriz de tama˜ no m × n o tambi´en una matriz de tipo (m, n) sobre R. Si A es una matriz de tama˜ no m × n y si A(i, j) = aij ∈ R para todo i ∈ {1, . . . m}, j ∈ {1, . . . , n}, entonces escribimos



a11 ⎜ a21 ⎜ A=⎜ . ⎝ ..

a12 a22 .. .

⎞ a1n a2n ⎟ ⎟ .. ⎟ . . ⎠

··· ···

am1 am2 · · ·

(4.1)

amn

El conjunto de todas las matrices de de tama˜ no m × n sobre R lo notamos con Mat(m × n, R). Si m = n, entonces decimos que A es cuadrada de tama˜ no n y el conjunto de todas estas lo notamos con Mat(n, R). (b) Decimos, adem´as, que A consta de m filas fj = (aj1 · · · ajn ), y n columnas

⎞ a1k ⎟ ⎜ ck = ⎝ ... ⎠ , amk

j = 1, . . . , m



k = 1, . . . , n.

(c) Si aij = 0 para todo i < j, entonces A se llama triangular inferior. Si aij = 0 para todo i > j, entonces A se llama triangular superior y si aij = 0, para todo i = j, entonces A se llama diagonal. Un caso especial de una matriz diagonal es la matriz In definida por In = (δij ). Es decir, ⎞ ⎛ 1 0 ··· 0 ⎜0 1 · · · 0⎟ ⎟ ⎜ In = ⎜ . .⎟ , .. ⎝ .. . .. ⎠ 0 0 ···

1

la cual llamamos matriz id´ entica de tama˜ no n. Una matriz cuyas entradas son todas cero, la cual notamos con 0, se denominar´a la matriz nula. Esta es simult´aneamente triangular inferior, triangular superior y diagonal. Cap´ıtulo 4. Matrices y ecuaciones lineales

87

´ Algebra lineal

4.1.2 Teorema. Sea V = Mat(m × n, K). Definimos sobre V las siguientes operaciones binarias: Para k ∈ K y A, B ∈ V , digamos A = (aij ) y B = (bij ). (aij ) + (bij ) := (aij + bij ) para todo i, j. k(aij ) := (kaij ) para todo i, j. Entonces V es un espacio vectorial sobre K con dimensi´on mn y, por lo tanto, isomorfo a K mn . ´ n. Es rutinario verificar que V es un espacio vectorial Demostracio sobre K. Una base para V est´a dada por E = (eij | i ∈ {1, . . . , m}, j ∈ {1, . . . , n}),

(4.2)

donde eij es la matriz que tiene un 1 en la posici´ on (i, j) y cero en el resto de entradas. Esto es, ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ eij = ⎜ ⎜ ⎜ ⎜ ⎜ ⎝

columna j ↓



0 ..

⎟ ⎟ ⎟ ⎟ ⎟ ⎟ .←− fila i ⎟ ⎟ ⎟ ⎟ ⎠

. 0 1 0 ..

. 0

Es claro que, si A = (aij ) ∈ Mat(m × n, K), entonces A=

n m  

aij eij .

i=1 j=1

Es decir, E = V . La independencia lineal es clara. En consecuencia E es una base para V y as´ı dimK V = mn.  Estas matrices eij las denominamos unidades matriciales. Note que, si m = n, entonces n  eii = In . i=1

En el siguiente resultado establecemos relaciones entre matrices y homomorfismos. ´ 4.1. La K-algebra Mat(n, K)

88

´ Gutierrez-Robinson

4.1.3 Definici´ on. Sean V y W espacios vectoriales sobre K con bases B = (v1 , . . . , vn ) y B  = (w1 , . . . , wm ), respectivamente. Si A ∈ HomK (V, W ), entonces mediante las ecuaciones A(vj ) =

m 

aij wi ,

j = 1, . . . , n

(4.3)

i=1

con aij ∈ K determinados de manera u ´nica, se define una matriz (aij ). Escribimos (aij ) =B  AB y llamamos a (aij ) la matriz asociada a A con respecto a las bases B y B  . Si V = W y B = B  = B, entonces escribimos simplemente AB para denotar la matriz. Es importante observar que la matriz B AB depende del orden de los vectores en las bases B y B. 4.1.4 Ejemplos. Sean V y W espacios vectoriales sobre K. (a) Si dimK V = n y B es una base cualquiera para V , entonces (IV )B = In . (b) Sean V = R3 , W = R2 con las bases est´andares sobre R. Sea A ∈ HomR (V, W ) definido por A(x, y, z) = (x + y − z, y + z). Dado que A(1, 0, 0) = (1, 0) = 1e1 + 0e2 A(0, 1, 0) = (1, 1) = 1e1 + 1e2 A(0, 0, 1) = (−1, 1) = −1e1 + 1e2 . Por lo tanto,

 B  AB

=

 1 1 −1 . 0 1 1

(c) Sea T : R2 −→ R2 definida por T (x, y) = (4x − 2y, 2x + y). Sea B = (f1 , f2 ), con f1 = (1, 1) y f2 = (−1, 0) una base para R2 . Similar como en el ejemplo anterior tenemos: T (1, 1) = (2, 3) = 3f1 + f2 T (−1, 0) = (−4, −2) = −2f1 + 2f2 . Por lo tanto,

 TB =

 3 −2 . 1 2

Cap´ıtulo 4. Matrices y ecuaciones lineales

89

´ Algebra lineal

4.1.5 Teorema. (Isomorf´ıa) Sean V y W espacios vectoriales sobre K con bases B = (v1 , . . . , vn ) y B  = (w1 , . . . , wm ), respectivamente. Entonces, la funci´on ϕ : HomK (V, W ) −→ Mat(m × n, K) definida por ϕ(A) =B  AB es un isomorfismo entre espacios vectoriales sobre K. Esto es, como espacios vectoriales sobre K se verifica que HomK (V, W ) ∼ = Mat(m × n, K). ´ n. Sean A, C ∈ HomK (V, W ) con Demostracio A(vj ) =

m 

aij wi

y

C(vj ) =

i=1

m 

cij wi

i=1

para todo j = 1, . . . , n. Entonces (A + C)(vj ) = A(vj ) + C(vj ) m m   aij wi + cij wi = i=1

=

m 

i=1

(aij + cij )wi .

i=1

Por lo tanto, ϕ(A + C) =B  (A + C)B = (aij + cij ) = (aij ) + (cij ) =B  AB +B CB = ϕ(A) + ϕ(C). Similarmente se demuestra que ϕ(kA) = kϕ(A) para todo k ∈ K. Esto demuestra que ϕ es un homomorfismo. Por otro lado, la inyectividad de ϕ se sigue del siguiente hecho ker(ϕ) = {A | A ∈ HomK (V, W ), ϕ(A) =B  0B } = {(aij ) | aij = 0 para todo i, j} = {0}. La sobreyectividad se sigue del lema 3.1.5(b). ´ 4.1. La K-algebra Mat(n, K)



90

´ Gutierrez-Robinson

4.1.6 Teorema. Sean U, V, W espacios vectoriales sobre K, a los que les corresponden las siguientes bases: B1 = (u1 , . . . , ut ), B2 = (v1 , . . . , vn ) y B3 = (w1 , . . . , wm ). Sean, adem´as, A ∈ HomK (V, W ) y B ∈ HomK (U, V ) con B3 AB2 = (aij ) y B2 BB1 = (bjs ). Entonces B3 (AB)B1 = (cis ), donde n  cis = aij bjs . j=1

Ilustraci´ on: B

U

V A

AB

W ´ n. De A(vj ) = Demostracio sigue que AB(us ) = A

m

i=1 aij wi

n 

y B(us ) =

n

j=1 bjs vj

se

 bjs vj

j=1

= =

n 

bjs A(vj ) j=1 n  m 

bjs aij wi

j=1 i=1

=

m  n  i=1

 aij bjs wi .

j=1

 Esto demuestra que B3 (AB)B1 = (cis ) con cis = nj=1 aij bjs .  Definimos a continuaci´ on una multiplicaci´on entre matrices. Esta definici´on nos permitir´a tener propiedades importantes como la asociatividad y la distributividad. 4.1.7 Definici´ on. Sea R un anillo con elemento identidad. Para A = (aij ) ∈ Mat(m × n, R) y B = (bjk ) ∈ Mat(n × r, R) se define el producto Cap´ıtulo 4. Matrices y ecuaciones lineales

91

´ Algebra lineal

AB como la matriz C = (cik ) ∈ Mat(m × r, R), donde cik =

n 

aij bjk ,

j=1

para todo i ∈ {1, . . . , m} y para todo k ∈ {1, . . . , r}. 4.1.8 Corolario. Sean U, V, W espacios vectoriales sobre K que tienen como bases B1 = (u1 , . . . , ut ), B2 = (v1 , . . . , vn ) y B3 = (w1 , . . . , wm ), respectivamente. Si A ∈ HomK (V, W ) y B ∈ HomK (U, V ), entonces B3(AB)B1

= B 3 AB 2

B2 B B1 .



´ n. Se sigue del teorema 4.1.6 y la definici´on 4.1.7. Demostracio

4.1.9 Ejemplo. Sea V un espacio vectorial sobre un cuerpo K, con dimK V = n. Si B = (v1 . . . , vn ) es una base para V , entonces a la base E = (E11 , . . . , Enn ) de EndK (V ) definida en 3.3.4 mediante Eij (vk ) = δjk vi , est´an asociadas las unidades matriciales eij . Se verifica adem´as que eij ekl = δjk eil .

(4.4)

4.1.10 Ejemplos. (a) Si R = Z2 , entonces el producto de dos elementos no nulos de Mat(2, Z2 ) puede ser la matriz nula. 

    1 0 0 0 0 0 = . 0 0 0 1 0 0

(b) Sea R = R. Otros ejemplos de productos matriciales son: ⎛ ⎞   1   1 2 0 ⎝ ⎠ 3 1 = (1) . 0 1 0 1 0 ⎛ ⎞ 1 1 0 $ % ⎜0 0 1⎟ $ % ⎟= 1 2 0 . (2) 1 0 0 1 ⎜ ⎝0 1 1⎠ 0 1 0 ´ 4.1. La K-algebra Mat(n, K)

92

´ Gutierrez-Robinson



1 (3) ⎝0 0 ⎛ 1 (4) ⎝3 1

⎞⎛ 2 0 1 1 1⎠ ⎝3 0 1 1 ⎞⎛ 2 3 1 0 0⎠ ⎝0 1 0 0

⎞ ⎛ 2 3 7 0 0⎠ = ⎝4 1 0 1 ⎞ ⎛ 2 0 1 1 1⎠ = ⎝0 0 1 1

⎞ 2 3 1 0⎠. 1 0 ⎞ 4 5 6 0⎠. 3 1

Los productos matriciales (3) y (4) demuestran que en general la multiplicaci´ on de matrices no es conmutativa. 4.1.11 Teorema. Sea R un anillo con elemento identidad, no necesariamente conmutativo. (a) Para A, C ∈ Mat(m × n, R) y B, D ∈ Mat(n × r, R) se verifican: (A + C)B = AB + CB A(B + D) = AB + AD. (b) Para A ∈ Mat(m × n, R), B ∈ Mat(n × r, R) y C ∈ Mat(r × t, R) se verifica A(BC) = (AB)C. (c) Mat(n, R) es una K-´ algebra con elemento identidad In . ´ n. Demostracio (a) Suponga que A = (aij ), C = (cij ) y B = (bjk ). Definimos X := (A + C)B y Y := AB + CB. Si X = (xik ) y Y = (yik ), entonces para todo i ∈ {1, . . . , m} y todo k ∈ {1, . . . , r} se verifica xik =

n  j=1

(aij + cij )bjk =

n  j=1

aij bjk +

n 

aij bjk = yik .

j=1

Esto demuestra que X = Y . Similarmente se demuestra la otra igualdad. (b) Suponga que A = (aij ), B = (bjk ) y C = (ckl ). Definimos X := A(BC) y Y := (AB)C. Si X = (xil ) y Y = (yil ), entonces para Cap´ıtulo 4. Matrices y ecuaciones lineales

93

´ Algebra lineal

todo i ∈ {1, . . . , m} y todo l ∈ {1, . . . , t} se verifica n r    xil = aij bjk ckl j=1

= =

k=1

n  r 

aij bjk ckl j=1 k=1 r  n  

aij bjk ckl

k=1

j=1

= yil . (c) Se sigue del teorema 4.1.2 y de (a) y (b).



4.1.12 Definici´ on. Sean V y W K-´algebras y A ∈ HomK (V, W ). Decimos que A es un homomorfismo entre K-´algebras, si para todo v, v  ∈ V se verifica A(vv  ) = A(v)A(v  ). Si adem´as, A es una biyecci´on, entonces decimos que A es un isomorfismo entre K-´algebras o que V y W son isomorfas como K-´algebras. Si A ∈ EndK (V ) y A es biyectivo, entonces diremos que A es un automorfismo entre K-´algebras. 4.1.13 Ejemplos. Homomorfismos entre K-´algebras. (a) Sea V un espacio vectorial sobre K y A : K −→ EndK (V ) definida por A(k) := kIV . Claramente A es un homomorfismo entre espacios vectoriales sobre K. Por otro lado, para todo v ∈ V se verifica que A(kk  )(v) = (kk  )IV (v) = (kk  )v y tambi´en (kIV )(k  IV )(v) = (kIV )(k  IV (v)) = (kIV )(k  v) = kk  IV (k  v) = kk  v, con lo cual se tiene A(kk  ) = A(k)A(k  )y as´ı podemos afirmar que A es un homomorfismo entre K-´algebras. ´ 4.1. La K-algebra Mat(n, K)

94

´ Gutierrez-Robinson

(b) Sea n ∈ N y A : K −→ Mat(n, K) definida por A(k) := kIn . Similar como el anterior, se demuestra que A es un homomorfismo entre K-´algebras. 4.1.14 Teorema. Sea V un espacio vectorial sobre K con dimK V = n. Si B = (v1 , . . . , vn ) es una base para V , entonces la funci´on ϕ : EndK (V ) −→ Mat(n, K) definida por ϕ(A) = AB es un isomorfismo entre K-´algebras. ´ n. Se sigue del teorema 4.1.5 y del corolario 4.1.8. Demostracio

4.2.



El grupo lineal general GL(n, K)

4.2.1 Definici´ on. Sea A ∈ Mat(n, K). Si existe B ∈ Mat(n, K) tal que AB = In o BA = In , entonces AB = BA = In y B est´a determinada de manera u ´nica por A. En efecto, supongamos que existen B, C ∈ Mat(n, K) tales que AB = In y CA = In . Entonces B = In B = (CA)B = C(AB) = CIn = C. Llamamos a B la inversa de A y la notamos con A−1 . Si A tiene inversa, entonces A se denomina invertible o regular. En caso contrario, A se llamar´ a singular. 4.2.2 Definici´ on. Notamos con GL(n, K) al conjunto de todas las matrices invertibles de tama˜ no n con entradas en K. Es claro que este con la multiplicaci´ on de matrices como operaci´on es un grupo, el cual llamamos grupo lineal general de grado n sobre K. Con base en el teorema de isomorf´ıa 4.1.5, todas las afirmaciones sobre el espacio vectorial EndK (V ) pueden hacerse ahora sobre el espacio vectorial Mat(n, K). A continuaci´on presentamos un resultado que se obtiene inmediatamente al aplicar este isomorfismo a 3.4.5. 4.2.3 Teorema. Para A ∈ Mat(n, K) son equivalentes: (a) Si C ∈ Mat(n, K) y AC = 0, entonces C = 0. Cap´ıtulo 4. Matrices y ecuaciones lineales

95

´ Algebra lineal

(b) Existe A−1 ∈ Mat(n, K) tal que AA−1 = A−1 A = In . (c) Existe B ∈ Mat(n, K) tal que BA = In . (d) Existe B ∈ Mat(n, K) tal que AB = In . (e) Si C ∈ Mat(n, K) y CA = 0, entonces C = 0. ´ n. Dado que Mat(n, K) es una K-´algebra, el resultado Demostracio se sigue igual como en 3.4.5.  4.2.4 Ejemplo. Sea A ∈ Mat(2, K) dada por   a b A= . c d Demostramos que A es invertible si y solo si λ := ad − bc = 0. Supongamos que λ = 0. Entonces    d −b a b 1 = I2 . λ −c a c d Por lo tanto, A es invertible. Rec´ıprocamente, supongamos que λ = 0. Diferenciamos dos casos esenciales, los otros son similares: Caso 1. Sea b = 0 o d = 0. Entonces      a b λ 0 d −b = = 0. c d 0 0 0 0 ! "  B

Dado que B = 0, del teorema 4.2.3 se sigue que A no es invertible. Caso 2. Sea b = 0 y d = 0. Entonces      λ 0 a b 0 1 = = 0. 0 0 c d 0 0  ! " C

Dado que C = 0, del teorema 4.2.3 se sigue que A no es invertible. 4.2.5 Ejemplo. Sea A ∈ Mat(3, K) dada por ⎛ ⎞ a 0 0 A = ⎝b c 0⎠ . d e f 4.2. El grupo lineal general GL(n, K)

96

´ Gutierrez-Robinson

Demostramos que A es invertible si y solo si acf = 0. Supongamos que acf = 0. Entonces ⎛

⎞⎛ 1 a 0 0 a b ⎝ b c 0 ⎠ ⎝− ac be−cd d e f acf

0 1 c − cfe

⎞ 0 0 ⎠ = I3 . 1 f

Por lo tanto, A es invertible. Rec´ıprocamente, supongamos que acf = 0. Diferenciamos tres casos: Caso 1. Sea f = 0. Entonces ⎛ ⎞⎛ ⎞ a 0 0 0 0 0 ⎝ b c 0 ⎠ ⎝0 0 0⎠ = 0. d e f 0 0 1 ! "  B

Dado que B = 0, del teorema 4.2.3 se Caso 2. Sea a = 0. Entonces ⎛ ⎞⎛ 0 1 0 0 ⎝0 0 0⎠ ⎝ b d 0 0 0 ! " 

sigue que A no es invertible. ⎞ 0 0 c 0 ⎠ = 0. e f

C

Dado que C = 0, del teorema 4.2.3 se sigue que A no es invertible. Caso 3. Sea c = 0. Sin perder generalidad podemos supones f = 0, ya que de lo contrario tendr´ıamos nuevamente el caso 1. Entonces ⎛ ⎞⎛ ⎞ a 0 0 0 0 0 ⎝ b c 0 ⎠ ⎝−f 0 0⎠ = 0. d e f e 0 0 ! "  D

Dado que D = 0, del teorema 4.2.3 se sigue que A no es invertible. En el siguiente teorema se demuestra que el producto de matrices invertibles, es invertible. Por otro lado, demostramos que la transpuesta y la multiplicaci´on por escalar de una matriz invertible tambi´en lo son. 4.2.6 Teorema. Sean A, B ∈ GL(n, K) y 0 = k ∈ K. Entonces: (a) AB es invertible y (AB)−1 = B −1 A−1 . Cap´ıtulo 4. Matrices y ecuaciones lineales

97

´ Algebra lineal

(b) (kA)−1 = k −1 A−1 . (c) (A−1 )−1 = A. ´ n. (a) Note que Demostracio (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = In . Por la unicidad de la inversa se sigue el resultado. (b) Note que (kA)(k −1 A−1 ) = (kk −1 )AA−1 = 1In = In . Nuevamente la unicidad de la inversa demuestra la afirmaci´on. (c) Es una consecuencia inmediata de la definici´on de inversa.  El primer resultado del anterior teorema puede generalizarse a un n´ umero finito de matrices. En efecto, puede demostrarse por inducci´on matem´atica que, si A1 , . . . , Am ∈ GL(n, K), entonces −1 (A1 · · · Am )−1 = A−1 m · · · A1 .

Ver ejercicios al final del cap´ıtulo. El objetivo inmediato es encontrar un algoritmo, formalmente justificado, que nos permita determinar, si existe, la inversa de una matriz A ∈ Mat(n, K). Presentamos ahora algunas definiciones preliminares. 4.2.7 Definici´ on. Una matriz E ∈ Mat(n, K) se denomina elemental si y solo si, (a) E se obtiene al multiplicar la i-´esima fila de In por una constante no nula k. Esta matriz la notamos con E1 . (b) E se obtiene efectuando sobre la matriz identidad In la transformaci´on elemental Fi + Fj → Fj . Esta la notamos con E2 . Esto es, E1 y E2 se obtienen de la siguiente forma: columna i ↓ ⎞



1

⎜ ⎜ ⎜ ⎜ kFi →Fi ⎜ In −→ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝

..

.

⎟ ⎟ ⎟ ⎟ 1 ⎟ ⎟ .←− fila i k ⎟ ⎟ 1 ⎟ ⎟ .. . ⎠ 1

4.2. El grupo lineal general GL(n, K)

98

´ Gutierrez-Robinson



In

Fi +Fj →Fj

−→

⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝

columna i ↓

1

4.2.8 Ejemplo. Las siguientes ⎛ ⎞ ⎛ 1 1 0 0 ⎜ 0 ⎝ 0 2 0 ⎠, ⎜ ⎝ 0 0 0 1 1

..



⎟ ⎟ ⎟ ⎟ fila i ←− 1 ⎟ ⎟ .. ⎟. . ⎟ ⎟ fila j 1 1 ←− ⎟ ⎟ .. . ⎠ 1

.

son matrices elementales: ⎞ ⎞ ⎛ 0 0 0 1 0 0 1 0 0 ⎟ ⎟, ⎝ 2 1 0 ⎠. 0 1 0 ⎠ 0 0 1 0 0 1

4.2.9 Ejemplo. Considere las siguientes matrices ⎛ ⎛ ⎞ ⎞ ⎛ ⎞ 2 0 0 1 0 0 1 0 2 E1 = ⎝ 0 1 0 ⎠ , E2 = ⎝ 1 1 0 ⎠ y A = ⎝ 3 1 0 ⎠ . 0 0 1 0 0 1 0 1 1 Note que ⎛

⎞ 2 0 4 E1 A = ⎝ 3 1 0 ⎠ 0 1 1



y

⎞ 1 0 2 E2 A = ⎝ 4 1 2 ⎠ . 0 1 1

Esto sugiere que efectuar operaciones elementales sobre A es equivalente a multiplicar a la izquierda de A por la matriz elemental que resulta de efectuar la misma operaci´on sobre In . 4.2.10 Teorema. Sean A ∈ Mat(n, K) y 0 = k ∈ K. Entonces, (a) E1 A es la matriz que se obtiene al multiplicar la i-´esima fila de A por la constante k. (b) E2 A es la matriz que se obtiene al sumar la i-´esima fila de A a su j-´esima fila. ´ n. La afirmaci´ Demostracio on se sigue de la definici´on del producto matricial y la definici´on de las matrices elementales.  Cap´ıtulo 4. Matrices y ecuaciones lineales

99

´ Algebra lineal

4.2.11 Observaci´ on. Si eji es una unidad matricial, entonces E2 = In + eji . Con esta notaci´ on, demostramos en el siguiente teorema que las matrices elementales son invertibles. 4.2.12 Teorema. Sea E una matriz elemental de tama˜ no n. Entonces E es invertible y E −1 es un producto de matrices elementales. ´ n. Es inmediato que E1 ∈ GL(n, K). Para demostrar Demostracio que E2 ∈ GL(n, K) tenemos en cuenta que e2ji = 0 y (In + eji )(In − eji ) = In2 + eji − eji − e2ji = In . Es decir, E2−1 = (In − eji ). El resto se deja como ejercicio.



4.2.13 Algoritmo de la inversa. Sea A ∈ Mat(n, K) y supongamos umero finito de opeque podemos obtener a In luego de realizar un n´ raciones elementales sobre las filas de A. Del teorema 4.2.10 sabemos que cada operaci´on elemental sobre las filas de A tiene asociada un producto de matrices elementales. Es decir, podemos encontrar matrices elementales E1 , . . . , Em tales que Em · · · E1 A = In . Dado que cada Ej es invertible tenemos −1 In ; A = E1−1 · · · Em

por lo tanto, se tiene −1 In )−1 = Em · · · E1 In . A−1 = (E1−1 · · · Em

Podemos entonces concluir que la sucesi´on de operaciones elementales que transforma a A en In tambi´en reduce a In en A−1 . Por lo tanto, tenemos el siguiente algoritmo: (A|In ) −  (In |A−1 ). 4.2.14 Observaciones. Las siguientes operaciones pueden obtenerse mediante la ejecuci´on de una sucesi´on finita de operaciones elementales: (a) Sumar un m´ ultiplo de la i-´esima fila Fi a la j-´esima fila Fj . Esta la notamos con kFi + Fj → Fj . 4.2. El grupo lineal general GL(n, K)

100

´ Gutierrez-Robinson

(b) Intercambiar la i-´esima fila Fi con la j-´esima fila Fj . Esta operaci´on la notamos con Fi ↔ Fj .

4.2.15 Lema. Las siguientes operaciones sobre las filas de una matriz A pueden obtenerse despu´es de efectuar un n´ umero finito de transformaciones elementales: (a) Sumar k-veces la i-´esima fila Fi de A a la j-´esima fila Fj . Esta la notamos con kFi + Fj → Fj . (b) Intercambiar la i-´esima fila Fi de A con la j-´esima fila Fj . Esta operaci´on la notamos con Fi ↔ Fj . ´ n. Demostracio (a) Efect´ ue las siguiente operaciones, en ese orden (1) kFi → Fi

(2) Fi + Fj → Fj

(3) k −1 Fi → Fi

(b) Efect´ ue las siguiente operaciones, en ese orden (1) −Fj → Fj

(2) Fi + Fj → Fj (3) −Fi → Fi

(4) Fi + Fj → Fi

(5) −Fi → Fi

(6) Fi + Fj → Fj .



4.2.16 Ejemplo. Determinemos la inversa de la matriz A dada por ⎛

⎞ 3 4 −1 A = ⎝1 0 3 ⎠ . 2 5 −4 Soluci´ on. Cap´ıtulo 4. Matrices y ecuaciones lineales

101

´ Algebra lineal

Operaci´ on 4 −1 0 3 5 −4 0 3 4 −1 5 −4 0 3 4 −10 5 −1 1 0 3 0 −4 10 0 5 −10 1 0 3 0 1 0 0 5 −10 1 0 3 0 1 0 0 0 −10 1 0 3 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 3 1 2 1 3 2 1 0 0

Entonces

1 0 0 0 1 0

0 0 1 0 0 1 1 0 0 0 0 1 0 1 0 1 −3 0 0 −2 1 0 1 0 −1 3 0 0 −2 1 0 1 0 −1 1 1 0 −2 1 0 1 0 −1 1 1 5 −7 −4 0 1 0 −1 1 1 7 2 − 12 10 5 3 11 6 − − 2 2 5 −1 1 1 7 2 − 12 10 5 ⎛

A−1

F1 ↔F2

−2F1 +F3 →F3 −3F1 +F2 →F2

−F2 →F2

F3 +F2 →F2

−5F2 +F3 →F3

1 − 10 F3 →F3

−3F3 +F1 →F1

⎞ − 11 − 65 2 1 1 ⎠. = ⎝ −1 1 7 2 −2 10 5 3 2

4.2.17 Ejemplo. Determinemos λ ∈ R para los cuales A es singular. ⎛

⎞ 1 1 −1 A = ⎝ 0 −1 1 ⎠ . −1 −2 λ Aplicamos el algoritmo de la inversa: 4.2. El grupo lineal general GL(n, K)

102

´ Gutierrez-Robinson

Operaci´ on 1 1 −1 0 −1 1 −1 −2 λ 1 1 −1 0 −1 1 0 −1 λ − 1 1 1 −1 0 1 −1 0 −1 λ − 1 1 1 −1 0 −1 1 0 0 λ−2

1 0 0 1 0 1 1 0 1 1 0 1

0 1 0 0 1 0 0 −1 0 0 −1 −1

0 0 1 0 0 1 0 0 1 0 0 . 1

F1 +F3 →F3

−F 2→F2

F2 +F3 →F3

Si λ = 2, entonces se tiene una fila de ceros que permanecer´a invariante bajo operaciones elementales. Esto impide obtener la matriz id´entica, por lo cual concluimos que A no es invertible.

Cambio de base. Dado un homomorfismo A ∈ HomK (V, W ) y dadas dos bases para V y dos bases para W , digamos B1 , B1 y B2 , B2 , respectivamente, ¿que relaci´on existe entre las matrices B2 AB1 y B2 AB1 ? Presentamos seguidamente dos lemas importantes para ir construyendo la respuesta a este interrogante 4.2.18 Lema. Sean V un espacio vectorial sobre K, con dimK V = n y A ∈ EndK (V ). Entonces son equivalentes: (a) A es invertible. (b) Para toda base B de V se verifica que AB es invertible y, adem´as, (A−1 )B = (AB )−1 . (c) Existe una base B de V tal que AB es invertible. ´ n. (a) ⇒ (b). Supongamos que A es invertible. Entonces Demostracio existe A−1 ∈ EndK (V ) tal que IV = AA−1 . Por lo tanto, del teorema 4.1.6 se sigue que In = (IV )B = AB (A−1 )B . Cap´ıtulo 4. Matrices y ecuaciones lineales

103

´ Algebra lineal

(b) ⇒ (c). Es inmediato. (c) ⇒ (a). Sea B una base para V tal que AB es invertible. Del teorema de isomorf´ıa 4.1.5 se sigue que existe C ∈ EndK (V ) tal que CB = A−1 B , con lo cual se sigue que (AC)B = AB CB = In ; por lo tanto, AC = IV y se tiene que A es invertible.



4.2.19 Lema. Sean V un espacio vectorial sobre K y B = (v1 , . . . , vn ) una base para V . Sea adem´ as  A = (aij ) ∈ Mat(n, K) y para cada j ∈ {1, . . . , n} definimos: wj := ni=1 aij vi . Entonces (a) B  = (w1 , . . . , wn ) es una base para V si y solo si A es invertible. (b) Si A es invertible y A−1 = (bij ), entonces para cada j ∈ {1, . . . , n} vj =

n 

bkj wk .

k=1

´ n. (a) Si definimos C ∈ EndK (V ) mediante Demostracio C(vj ) := wj , j = 1, . . . , n, entonces CB = A. Del teorema 3.4.3 se sigue que B  es una base para V si y solo si C es un isomorfismo. Es decir, si y solo si C es invertible. Del lema 4.2.18 se sigue C es invertible si y solo si CB = A es invertible. (b) Para todo j ∈ {1, . . . , n} se verifica vj =

n  i=1

δij vi =

n  n  i=1

 aik bkj vi =

k=1

n 

bkj

k=1

con lo cual se tiene el resto de la afirmaci´on.

n 

aik vi =

i=1

n 

bkj wk ,

k=1



4.2.20 Teorema. Cambio de base. Sean V y W espacios vectoriales sobre un cuerpo K. Sean B1 = (v1 , . . . , vn ), B1 = (v1 , . . . , vn ) dos bases  ) dos bases para W . para V y B2 = (w1 , . . . , wm ), B2 = (w1 , . . . , wm Sean, adem´as, n  bij vi j = 1, . . . , n (4.5) vj = i=1

4.2. El grupo lineal general GL(n, K)

104

´ Gutierrez-Robinson

wl =

m 

ckl wk

l = 1, . . . , m

(4.6)

k=1

Entonces, para todo A ∈ HomK (V, W ) se verifica que B2 AB1

= (ckl )−1

B2 AB1 (bij ).

En el caso en que V = W , B1 = B2 = B y B1 = B2 = B  , se tiene que AB  = (bij )−1 AB (bij ). ´ n. Demostracio B 2 AB 1

A

V

W

IV

IW A

V B2 AB1

W

Del lema anterior se sigue que (bij ) y (ckl ) son invertibles. Dado que IV (vj ) = vj =

n 

bij vi

y

i=1

IW (wl ) = wl =

m 

ckl wk ,

k=1

se verifica que B1 (IV )B1

= (bij )

y

B2 (IW )B2

= (ckl )−1 .

Usando el teorema 4.1.6 tenemos: B2 AB1

=

B2 (IW AIV )B1

=

B2 (IW )B2 B2 AB1 B1 (IV )B1 (ckl )−1 B2 AB1 (bij )

=

El resto se obtiene con un simple reemplazo.



Cap´ıtulo 4. Matrices y ecuaciones lineales

105

´ Algebra lineal

4.3.

Rango de una matriz

Sean V y W espacios vectoriales sobre K con dimensiones finitas y sea A ∈ HomK (V, W ). Problema. ¿Como pueden elegirse bases para V y W de tal forma que la representacion matricial de A con respecto a estas bases tenga forma lo mas sencilla posible? Daremos respuesta a esta pregunta en esta secci´ on. Para ello introducimos el concepto de rango de una matriz, el cual jugar´a un papel importante a la hora de construir la respuesta. 4.3.1 Definici´ on. Sea A = (aij ) ∈ Mat(m × n, K), con vectores filas fj = (aj1 , . . . , ajn ), y vectores columnas

j = 1, . . . , m



⎞ a1k ⎜ ⎟ ck = ⎝ ... ⎠ , amk

k = 1, . . . , n.

Consideramos estos como elementos de K n y K m , respectivamente, y definimos rf (A) := dimK f1 , . . . , fm  (4.7) rc (A) := dimK c1 , . . . , cn .

(4.8)

Llamamos a rf (A) el rango (por filas) de A y a rc (A) el rango (por columnas) de A. 4.3.2 Ejemplos. C´ alculo de rangos. (a) Sea A ∈ Mat(3 × 4, K) dada por ⎛ ⎞ 1 −1 2 1 0 10 5 ⎠ . A=⎝ 2 3 −3 6 3 Note que ⎛ ⎞ ⎛ ⎞ 1 −1 2 1 1 −1 2 1 ⎝ 2 0 10 5 ⎠ 0 10 5 ⎠ −3F1 +F3 →F3 ⎝ 2 0 0 0 0 3 −3 6 3 Dado que los vectores filas primero y segundo son linealmente independientes se sigue que rf (A) = 2. 4.3. Rango de una matriz

106

´ Gutierrez-Robinson

(b) Sea A ∈ Mat(4, K) dada por ⎛

1 ⎜ 0 A=⎜ ⎝ 0 0

1 1 0 0

⎞ 1 1 ⎟ ⎟. 1 ⎠ 1

1 1 1 0

Dada la independencia lineal de las filas y de las columnas, se sigue inmediatamente que rf (A) = rc (A) = 4. (c) Sean a, b ∈ K, n ≥ 2 y A ∈ Mat(m × n, K) definida por ⎛

a b b ··· ⎜b a b · · · ⎜ ⎜ A = ⎜b b a · · · ⎜ .. ⎝. b

b ···

b

⎞ b b⎟ ⎟ b⎟ ⎟. .. ⎟ .⎠ a

Si a = b = 0, entonces rf (A) = rc (A) = 0 y si a = b = 0, entonces rf (A) = rc (A) = 1. Supongamos que a = b. Entonces efectuando para cada j ∈ {2, . . . , n} las operaciones −F1 +Fj → Fj , se obtiene la matriz ⎞ ⎛ a b b ··· b b ⎜b − a a − b 0 ··· 0 0 ⎟ ⎟ ⎜ ⎜b − a 0 a − b ··· 0 0 ⎟ ⎟. ⎜ ⎜ .. .. ⎟ ⎝ . . ⎠ b−a

0

0

···

0 a−b

Efectuando la operaci´on C1 + · · · + Cn → C1 , (se suman todas las columnas a la columna 1) se obtiene la matriz ⎛

a + (n − 1)b b b ··· ⎜ 0 a−b 0 ··· ⎜ ⎜ 0 0 a − b ··· ⎜ ⎜ .. ⎝ . 0

0

0

Efectuando ahora la operaci´on F1 −

···

b a−b (F2



b 0 0 .. .

⎟ ⎟ ⎟ ⎟. ⎟ ⎠

a−b + · · · + Fn ) → F1 , se

Cap´ıtulo 4. Matrices y ecuaciones lineales

107

´ Algebra lineal

obtiene la matriz ⎛ a + (n − 1)b 0 0 ··· ⎜ 0 a − b 0 ··· ⎜ ⎜ 0 0 a − b ··· ⎜ ⎜ .. ⎝ . 0 Conclusi´ on:



rc (A) =

0

0

···



0 0 0 .. .

⎟ ⎟ ⎟ ⎟. ⎟ ⎠

a−b

n si (a + (n − 1)b)(a − b)n−1 = 0 n − 1 si (a + (n − 1)b) = 0 = a − b.

En el siguiente lema presentamos una relaci´on entre el rango de un homomorfismo (ver definici´on 3.5.1) y el rango de la matriz asociada a este con respecto a un par de bases dadas. 4.3.3 Lema. Sean V y W espacios vectoriales sobre un cuerpo K. Si B1 = (v1 , . . . , vn ) y B2 = (w1 , . . . , wm ) son bases para V y W , respectivamente, y A ∈ HomK (V, W ) con A(vj ) =

m 

aij wi , j = 1, . . . , n,

i=1

entonces r(A) = rc ((aij )). ´ n. Definimos B : W −→ K m de la siguiente manera: Demostracio ⎛ ⎞ k1 m   ⎜ .. ⎟ B ki wi := ⎝ . ⎠ , ki ∈ K. i=1 km Se deja como ejercicio verificar que B es un isomorfismo. Del teorema 3.5.4 (c) se sigue que r(A) = r(BA) = dimK (Im(BA)). Note que Im(BA) es el subespacio generado por los vectores ⎞ ⎛ a1j n   ⎟ ⎜ BA(vj ) = B aij wi = ⎝ ... ⎠ =: cj , j = 1, . . . , n. i=1 amj Por lo tanto, r(A) = dimK c1 . . . , cn  = rc ((aij )), con lo cual se tiene la afirmaci´on.



4.3. Rango de una matriz

108

´ Gutierrez-Robinson

4.3.4 Lema. Sean A ∈ Mat(m×n, K), B ∈ Mat(n, K), C ∈ Mat(m, K) y D ∈ Mat(n × s, K) (a) Si B y C son invertibles, entonces rc (CAB) = rc (A). (b) rc (AD) ≤ m´ın{rc (A), rc (D)}. ´ n. Demostracio (a) Si tomamos los homomorfismos asociados a las respectivas matrices y aplicamos el teorema 3.5.4 (c), se obtiene el resultado. (b) Similar como en (a), pero esta vez usamos el teorema 3.5.4 (b).  4.3.5 Teorema. (a) Sean V , W espacios vectoriales sobre K con dimensiones finitas y A ∈ HomK (V, W ). Entonces existen bases B1 y B2 de V y W , respectivamente, tales que   Ir 0 , B2 AB1 = 0 0 donde r = r(A). (b) Si A ∈ Mat(m × n, K), entonces existen matrices invertibles B ∈ Mat(m, K) y C ∈ Mat(n, K) tales que   Ir 0 BAC = , 0 0 donde r = rc (A). ´ n. Demostracio (a) Sea (vr+1 , . . . , vn ) una base para ker(A), con r ∈ N y sea B = (v1 , . . . , vn ) una base para V . El teorema de isomorf´ıa asegura que dimK (Im(A)) = dimK V /ker(A) = n − dimK ker(A) = r. Se deja como ejercicio verificar que (A(v1 ), . . . , A(vr )) es una base para Im(A). Elijamos ahora una base (w1 , . . . , wm ) de W , de tal forma que wj = A(vj ), para j = 1, . . . , r. Entonces A(vj ) = wj ,

para j = 1, . . . , r

A(vj ) = 0,

para j = r + 1, . . . , n.

Cap´ıtulo 4. Matrices y ecuaciones lineales

109

´ Algebra lineal

Esto demuestra que  B 2 AB 1

=

 Ir 0 , 0 0

con r = r(A). (b) Se sigue de (a) y del teorema del cambio de base.



La matriz transpuesta Presentamos ahora una funci´on que asocia a cada A ∈ Mat(m × n, K) una matriz At ∈ Mat(n × m, K), llamada la transpuesta de A. 4.3.6 Definici´ on. Sea A = (aij ) ∈ Mat(m × n, K). Se define la transpuesta de A, notada At , como la matriz que se obtiene intercambiando filas por columnas en A. Es decir, At = (aji ) ∈ Mat(n × m, K). Esto es, ⎛ ⎛ ⎞ ⎞ a11 a12 · · · a1n a11 a21 · · · am1 ⎜ a21 a22 · · · a2n ⎟ ⎜ a12 a22 · · · am2 ⎟ ⎜ ⎜ ⎟ ⎟ t A=⎜ . .. ⎟ y A = ⎜ .. .. ⎟ . .. .. ⎝ .. ⎝ ⎠ . . ⎠ . . . am1 am2 · · ·

amn

an1 a2n · · ·

amn

Algunas propiedades de la transpuesta se demuestran a continuaci´on. 4.3.7 Lema. Sean A, C ∈ Mat(m × n, K), B ∈ Mat(n × r, K) y k ∈ K. Entonces (a) (At )t = A (b) (A + C)t = At + C t (c) (kA)t (d) (AB)t = B t At (e) Si A ∈ Mat(n, K) es regular, entonces At tambi´en lo es. ´ n. Demostracio (a) Se sigue inmediatamente de la definici´ on de matriz transpuesta. (b) Es inmediato. 4.3. Rango de una matriz

110

´ Gutierrez-Robinson

(c) Es inmediato. (d) Supongamos que A = (aij ), B = (bjk ) y definimos AB = (cik ). Entonces para todo i ∈ {1, . . . , m} y todo k ∈ {1, . . . , r} se verifica que n  cik = aij bjk . j=1

Sean B t = (fij ) y At = (gjk ). Sabemos que fij = bji y gjk = akj . Definimos B t At = (dik ). Entonces para todo i ∈ {1, . . . , m} y todo k ∈ {1, . . . , r} se verifica que dik =

n 

fij gjk =

j=1

n 

bji akj =

j=1

n 

akj bji = cki .

j=1

Esto permite afirmar que (AB)t = B t At . (e) Note que

At (A−1 )t = (A−1 A)t = In .

Por lo tanto, At es invertible y su inversa es (A−1 )t .



El siguiente resultado nos permite hablar simplemente del rango de una matriz en lugar de rango por filas o rango por columnas y lo notamos con r(A). 4.3.8 Teorema. Si A ∈ Mat(m × n, K), entonces se verifica que rf (A) = rc (A) ≤ m´ın{m, n}. ´ n. Usando el teorema 4.3.5 (2) se tiene que existen maDemostracio trices invertibles B ∈ Mat(m, K) y C ∈ Mat(n, K) tales que   I 0 BAC = r , 0 0 donde r = rc (A). Utilizando el lema 4.3.7 se tiene que   Ir 0 t t t CAB = . 0 0 Usando nuevamente el teorema 4.3.5 (b) obtenemos que rc (A) = r = rc (C t At B t ) = rc (At ) = rf (A), con lo cual se tiene la afirmaci´on.



Cap´ıtulo 4. Matrices y ecuaciones lineales

111

´ Algebra lineal

4.3.9 Teorema. A ∈ Mat(n, K) es regular si y solo si r(A) = n. ´ n. Sea B = (bij ) ∈ Mat(n, K) y sea A ∈ Mat(n, K) Demostracio dada por ⎛ ⎞ f1 ⎜ .. ⎟ A = ⎝ . ⎠, fn con fj = (aj1 , . . . , ajn ). Entonces ⎛ n

j=1 b1j fj

⎜ .. BA = ⎝ n .

⎞ ⎟ ⎠.

j=1 bnj fj

Supongamos que A es invertible. Si B = A−1 , entonces de BA = In se sigue que n  bij fj = ei = (0, . . . , 0, 1, 0 . . . , 0). j=1

Entonces, K n = e1 , . . . , en  = f1 , . . . , fn ; es decir, r(A) = n. Rec´ıprocamente, si r(A) = n, entonces K n = f1 , . . . , fn . Por lo tanto, existen bij ∈ K con n  bij fj , ei = j=1

para todo i = 1, . . . , n. Esto significa que BA = In .



4.3.10 Definici´ on. Sea A ∈ Mat(n, K), digamos A = (aij ). Definimos la traza de A, denotada Tr(A) de la siguiente manera: Tr(A) :=

n 

aii .

i=1

4.3.11 Teorema. Sean A, B ∈ Mat(n, K) y k ∈ K. Entonces (a) Tr(A + kB) = Tr(A) + kTr(B). (b) Tr(A) = Tr(At ). (c) Tr(AB) = Tr(BA). En particular, si B ∈ GL(n, K), entonces Tr(B −1 AB) = Tr(A). 4.3. Rango de una matriz

112

´ Gutierrez-Robinson

´ n. Demostracio (a) Se deja como ejercicio. (b) Se deja como ejercicio. (c) Sean A = (aij ) y B = (bjk ). Entonces Tr(AB) =

n n  

aij bji =

i=1 j=1

n n  

bji aij = Tr(BA).

j=1 i=1

Con esto se sigue que Tr(B −1 AB) = Tr(ABB −1 ) = Tr(A).



4.3.12 Definici´ on. Sean V un espacio vectorial sobre K con dimension finita y A ∈ EndK (V ). Si B es una base para V (cualquiera), definimos Tr(A) := Tr(AB ). Es importante anotar que esta definici´ on no depende de la elecci´on de la base para V . En efecto, si B  es otra base para V , entonces por el teorema del cambio de base se tiene que existe una matriz regular X tal que AB = X −1 AB  X. Del teorema anterior se sigue que Tr(AB ) = Tr(AB  ). 4.3.13 Teorema. Sea f ∈ HomK (Mat(n, K), K) tal que f (AB) = f (BA), para todo A, B ∈ Mat(n, K). Entonces existe k ∈ K tal que f (X) = kTr(X), para todo X ∈ Mat(n, K). ´ n. Usamos la base (eij | i, j = 1, . . . , n) de Mat(n, K) Demostracio definida en los ejemplos 4.1.4. Para i = j se verifica que f (eij ) = f (eij ejj ) = f (ejj eij ) = f (0) = 0. Adem´ as, f (eii ) − f (e11 ) = f (ei1 e1i − e1i ei1 ) = 0.   Para X = (xij ) = ni=1 nj=1 xij eij , se sigue entonces que f (X) =

n n   i=1 j=1

xij f (eij ) = f (e11 )

n 

xii = f (e11 )Tr(X).

i=1

Cap´ıtulo 4. Matrices y ecuaciones lineales



113

´ Algebra lineal

4.4.

Sumas directas y proyecciones

4.4.1 Definici´ on. Sea V un espacio vectorial sobre K y U , W subespacios de V . Se dice que V es la suma directa de U y W si y solo si se verifican: (a) V = U + W . (b) U ∩ W = {0}. Tambi´en es usual decir que W es un complemento de U en V . Usaremos la notaci´ on V = U ⊕ W . En la definici´on anterior es importante tener en cuenta que W no es el complemento de U desde el punto de vista de la teor´ıa de conjuntos. Adem´ as, dado un subespacio U de V puede existir mas de un complemento. Por ejemplo, si V = R2 y U = {(x, 0) | x ∈ R}, entonces W1 = {(0, x) | x ∈ R} y W2 = {(x, x) | x ∈ R} son complementos distintos de U . 4.4.2 Teorema. Si V es un espacio vectorial de dimensi´ on finita n y U ≤ V , entonces existe un complemento para U en V . ´ n. Sea B = (u1 , . . . , um ) una base para U . Entonces Demostracio podemos extender esta a una base B  = (u1 , . . . , um , um+1 , . . . , un ) de V . Si definimos W := um+1 , . . . , un , entonces se verifica claramente que V = U + W .  n Por otro lado, sea v ∈ U ∩ W , digamos v = m j=1 aj uj = j=m+1 aj uj con aj ∈ K. Entonces m  j=1

a j uj +

n 

(−aj )uj = 0;

j=m+1

por lo tanto, aj = 0 para todo j = 1, . . . , n. Es decir, v = 0.



4.4.3 Definici´ on. Sean V, V1 , . . . , Vm espacios vectoriales sobre K. (a) Si U1 , . . . , Un son subespacios de V , decimos que V es la suma directa interna de los Uj siempre que se verifica: a) V = U1 + · · · + Un .  b) Si nj=1 uj = 0, con uj ∈ Uj , entonces uj = 0, para todo j. 4.4. Sumas directas y proyecciones

114

´ Gutierrez-Robinson

Usamos la notaci´ on V = U1 ⊕ · · · ⊕ Un , o tambi´en V =

&n

j=1 Uj .

(b) Si sobre el producto cartesiano V  = V1 × . . . × Vm definimos las siguientes operaciones   ) := (v1 + v1 , . . . , vm + vm ) (v1 , . . . , vm ) + (v1 , . . . , vm

k(v1 , . . . , vm ) := (kv1 , . . . , kvm ), donde vj , vj ∈ Vj , k ∈ K, entonces V  es un espacio vectorial sobre K y se denomina la suma directa externa de los Vj . Aplicamos la misma notaci´ on que la usada en la suma directa interna. Demostramos ahora que la definici´ on 4.4.3 (a), cuando n = 2 es equivalente a la definici´on 4.4.1. 1. Supongamos que V = U + W y U ∩ W = {0} y sea, adem´as, u + w = 0, con u ∈ U y w ∈ W ; entonces u = −w ∈ U ∩ W = {0}. Esto demuestra que u = w = 0. 2. Sea V = U +W y supongamos que de u+w = 0, u ∈ U y w ∈ W se sigue que u = w = 0. Sea ahora v ∈ U ∩W . Entonces v +(−v) = 0. Dado que v ∈ U y −v ∈ W , se sigue que v = 0. 3. Sea V  = V1 ⊕ + · · · ⊕ Vn una suma directa externa y definimos V'j := {(0, . . . , 0, vj , 0 . . . , 0) | vj ∈ Vj }. Entonces, V  es una suma directa interna de los V'j con V'j ∼ = Vj . &m 4.4.4 Teorema. Sean V = i=1 Vj y Bi = (vi1 , . . . , vinj ) una base para Vi . Entonces (a) B = (v11 , . . . , v1n1 , . . . , vm1 , . . . , vmnm ) es una base para V . (b) Sea A ∈ EndK (V ), con A(Vi ) ⊆ Vi , para i = 1, . . . , m. Entonces para cada una de las funciones AVi : Vi −→ Vi se verifica que



(AV1 )B1 ⎜ 0 ⎜ AB = ⎜ .. ⎝ . 0

(AV2 )B2

··· ···

0 0 .. .

0

···

(AVm )Bm

0

Cap´ıtulo 4. Matrices y ecuaciones lineales

⎞ ⎟ ⎟ ⎟. ⎠

115

´ Algebra lineal

´ n. Se verifica sin dificultades que estas funciones est´an Demostracio bien definidas.  (a) Dado que V = m i=1 Vi , se tiene que B es un sistema de generadores para V . Por otro lado, supongamos que ni m  

kij vij = 0, con kij ∈ K.

i=1 j=1

 i kij vij = 0 y, por lo tanto, kij = 0. Por hip´otesis se tiene que nj=1 Esto demuestra que el sistema es linealmente independiente y, en resumen, una base para V .  i (b) Dado que A(vij ) = AVi (vij ) = nk=1 akj vik , se tiene la conclusi´ on.  4.4.5 Teorema. Sean V un espacio vectorial sobre K y U1 , . . . , Um ≤ V . Entonces son equivalentes: & 1. V = m j=1 Uj .  2. a) V = m j=1 Uj . b) Para todo j con 1 ≤ j < m se verifica que j 

 Ui ∩ Uj+1 = {0}.

i=1

& ´ n. Supongamos que V = m Demostracio as, supongaj=1 Uj y, adem´ mos que j j  $ % ui = uj+1 ∈ Ui ∩ Uj+1 . j

i=1

i=1

Entonces i=1 ui − uj+1 = 0 y de 4.4.3 se sigue que uj+1 = 0. k Rec´ıprocamente, sea i=1 ui = 0 con ui ∈ Ui y k maximal con la propiedad uk = 0, k ≤ m. Entonces k−1  i=1

ui = −uk ∈

k−1 

 Ui ∩ Uk = {0},

i=1

lo cual contradice la escogencia de k.



4.4. Sumas directas y proyecciones

116

´ Gutierrez-Robinson

4.4.6 Definici´ on. Sea V un espacio vectorial sobre K. Una funci´on on o idempotente si se verifica P ∈ EndK (V ) se llama una proyecci´ que P 2 = P . 4.4.7 Teorema. Sea P ∈ EndK (V ) una proyecci´on. Entonces, (a) V = ker(P ) ⊕ Im(P ). as, ker(P ) = Im(IV − (b) IV − P es tambi´en es una proyecci´on y, adem´ P ) y Im(P ) = ker(IV − P ). (c) Si B1 = (v1 , . . . , vp ) es una base para Im(P ) y B2 = (w1 , . . . , wt ) es una base para ker(P ), entonces B = (v1 , . . . , vp , w1 , . . . , wt ) es una base para V y, adem´as,   I 0 PB = p . 0 0 ´ n. Demostracio (a) Sea v ∈ V cualquiera. Entonces, P (v − P (v)) = P (v) − P 2 (v) = P (v) − P (v) = 0. Entonces v − P (v) ∈ ker(P ). Adem´as, v = (v − P (v)) + P (v) ∈ ker(P ) + Im(P ). Esto demuestra que V = ker(P ) + Im(P ). Sea ahora v ∈ ker(P ) ∩ Im(P ). Entonces existe w ∈ V tal que P (w) = v. Adem´ as, P (v) = 0; entonces 0 = P (v) = P (P (w)) = P 2 (w) = P (w) = v. Esto demuestra que ker(P ) ∩ Im(P ) = {0}. (b) Note inicialmente que (IV − P )2 = IV2 − IV P − P IV + P 2 = IV − P . Es decir, IV − P es es una proyecci´on. v ∈ Im(P ) ⇔ v = P (w) para alg´ un w ∈ V. ⇔ P (v) = P (P (w)) para alg´ un w ∈ V. ⇔ P (v) = v. ⇔ (IV − P )(v) = 0. ⇔ v ∈ ker(IV − P ). Cap´ıtulo 4. Matrices y ecuaciones lineales

117

´ Algebra lineal

Por otro lado, v ∈ ker(P ) ⇔ P (v) = 0. ⇔ (IV − P )(v) = v. ⇔ v ∈ Im(IV − P ). (c) Se deja como ejercicio.



En el siguiente teorema se establecen relaciones entre sumas directas y proyecciones. & 4.4.8 Teorema. 1. Sea V = m i=1 Vi un espacio vectorial sobre K. Definimos Pi ∈ EndK (V ) mediante Pi

m 

 vj := vi para vj ∈ Vj .

j=1

Entonces se verifica que P1 , . . . , Pm son proyecciones y, adem´as, m 

Pi = IV y Pi Pj = δij Pi .

i=1

2. Sean P1 , . . . , Pm proyecciones de V con δij Pi . Entonces m ( V = Im(Pi ).

m

i=1 Pi

= I V y P i Pj =

i=1

´ n. Demostracio 1. Se deja como ejercicio verificar que cada Pi est´ a bien definida y que es una proyecci´on. Sea i = j. Entonces, P i Pj

m 





vk = Pi Pj

m 

k=1

 vk

= Pi (vj ) = 0.

k=1

Adem´ as, m  i=1

Pi

m   k=1

m  m m m     vk = Pi (vk ) = Pi (vi ) = vi . i=1 k=1

i=1

Por lo tanto, se tiene la afirmaci´on completa. 4.4. Sumas directas y proyecciones

i=1

118

2.

´ Gutierrez-Robinson

a) Sea v ∈ V . Entonces, v = IV (v) m   = Pi (v) i=1

=

m 

Pi (v) ∈

i=1

m 

Im(Pi ).

i=1

 Es decir, V ⊆ m i=1 Im(Pi ). La otra contenencia es inmediata y con ello se tiene la igualdad.  b) Sea ahora m i=1 Pi (vi ) = 0, con vi ∈ Vi . Tenemos que demostrar que Pi (vi ) = 0 para todo i. Sea j = i. Entonces, 0 = Pj (0) = Pj

m 

 Pi (vi ) = Pj2 (vj ) = Pj (vj ).



i=1

4.4.9 Definici´ on. Sea V un espacio vectorial sobre K y G ⊆ EndK (V ). Diremos que el subespacio U de V es G-invariante, si g(U ) ⊆ U para todo g ∈ G. 4.4.10 Lema. Sea V un espacio vectorial sobre K y P ∈ EndK (V ). Sea, adem´ as, G ⊆ EndK (V ) tal que gP = P g para todo g ∈ G. Entonces V = ker(P ) ⊕ Im(P ), donde ker(P ) y Im(P ) son G-invariantes. ´ n. La afirmaci´ Demostracio on V = ker(P ) ⊕ Im(P ) se sigue del teorema 4.4.7 (a). Demostramos que ker(P ) es G-invariante: si v ∈ ker(P ) y g ∈ G, entonces P (g(v)) = P g(v) = g(P (v)) = g(0) = 0, con lo cual se sigue que g(v) ∈ ker(P ). Demostramos que Im(P ) es G-invariante: si v = P (w) ∈ Im(P ), entonces g(v) = g(P (w)) = gP (w) = P g(w) = P (g(w)) ∈ Im(P ), con lo cual se tiene la afirmaci´ on.



4.4.11 Teorema. (Maschke). Sean V un espacio vectorial sobre K de dimensi´ on finita y G un subconjunto finito de EndK (V ). Supongamos, Cap´ıtulo 4. Matrices y ecuaciones lineales

119

´ Algebra lineal

adem´as, que G es un grupo con respecto a la composici´on de funciones y Char(K) = 0 o Char(K) = p y p  |G|. Si U es un subespacio Ginvariante de V , entonces existe un subespacio W de V , el cual tambi´en es G-invariante y V = U ⊕ W . ´ n. En el teorema 4.4.2 se demostr´ Demostracio o que existe un complemento W de U ; es decir, V = U ⊕ W . Sea P : V −→ V definida de la siguiente manera: si v = u + w con u ∈ U y w ∈ W , entonces P (v) := u. Se deja como ejercicio verificar que P es una proyecci´on. Definimos ahora Q ∈ EndK (V ) as´ı: Q=

1  −1 g Pg |G|

(4.9)

g∈G

1. Demostramos que si u ∈ U , entonces Q(u) = u: sea u ∈ U . Dado que U es G-invariante, se verifica que g(u) ∈ U para todo g ∈ G. Entonces, g −1 P g(u) = g −1 P (g(u)) = g −1 g(u) = u.  !" ∈U

Por lo tanto, Q(u) =

1  −1 g P g(u) |G|

(4.10)

1  u |G|

(4.11)

1 |G|u = u. |G|

(4.12)

g∈G

=

g∈G

=

2. Demostramos que Q(v) ∈ U para todo v ∈ V : si v ∈ V , entonces P g(u) ∈ U . Dado que U es G-invariante se tiene que g −1 P g(v) = g −1 (P g(u)) ∈ U.  ! " ∈U

Como consecuencia se sigue que Im(Q) ⊆ U . De (4.12) se sigue la otra contenencia y concluimos que Im(Q) = U . 3. Demostramos que Q2 = Q: Sea v ∈ V . Entonces Q(v) ∈ U y Q(Q(v)) = Q(v). As´ı se tiene que Q2 = Q. 4.4. Sumas directas y proyecciones

120

´ Gutierrez-Robinson

4. Del teorema 4.4.7 se sigue que V = ker(Q) + Im(Q) = ker(Q) + U = U + ker(Q). Demostramos finalmente que ker(Q) es G-invariante. Sea k ∈ G cualquiera. Entonces,  1 kg −1 P g kQ = |G| g∈G

=

1 |G|

=

1 |G|

=

1 |G|



(kg −1 )P (gk −1 )k

g∈G



(kg −1 )P (kg −1 )−1 k

g∈G



hP h−1 k

h∈G

= Qk. La conclusi´on se sigue del lema 4.4.10.



4.4.12 Ejemplo. La condici´on Char(K)  |G| en el teorema de Maschke es necesaria. En efecto, sea K = Zp con p primo. Sea, adem´as, V = u, w un espacio vectorial sobre K con dimensi´on 2. Definimos A ∈ EndK (V ) de la siguiente manera: A(u) = u A(w) = u + w Entonces, Aj (u) = u Aj (w) = ju + w Por lo tanto, Ap = IV y G := A es un grupo finito de orden p. Sea U := u. Evidentemente U es G-invariante. Supongamos que W es un complemento G-invariante para U en V . Entonces W = w  y A(w ) = kw , para alg´ un k ∈ K. Sea w = au + bw. Entonces A(w ) = au + bu + bw = kau + kbw. Por lo tanto, a + b = ka y b = kb. Es decir, k = 1, b = 0, lo cual es una contradicci´on. Cap´ıtulo 4. Matrices y ecuaciones lineales

121

´ Algebra lineal

4.5.

Ecuaciones lineales

Sea K un cuerpo y supongamos que est´an dados una matriz A = (aij ) ∈ Mat(m × n, K) y un vector columna b = (bj ) ∈ K m . Se trata de encontrar un vector columna x = (xj ) ∈ K n de tal forma que Ax = b.

(4.13)

Es decir, se trata de decidir si el sistema de ecuaciones lineales n 

aij xj = bi

i = 1, . . . , m.

(4.14)

j=1

tiene soluci´ on. Si b = 0, entonces el sistema (4.14) se denomina un sistema de ecuaciones lineales homog´ eneo. Si b = 0, entonces se llamar´a no homog´eneo. Otra forma de escribir (4.14) es: a11 x1 + · · · + a1n xn = b1 a21 x1 + · · · + a2n xn = b2 .. . am1 x1 + · · · + amn xn = bm . De manera equivalente podemos plantear el problema anterior en t´erminos de funciones lineales definidos sobre espacios vectoriales de dimensi´ on finita. Problema. Sean V y W espacios vectoriales sobre un cuerpo K, con dimK (V ) = n y dimK (W ) = m. Dados A ∈ HomK (V, W ) y b ∈ W , encuentre todos los elementos x ∈ V para los cuales se verifica que Ax = b.

(4.15)

Cada x se denomina una soluci´ on de (4.15) y el conjunto de todas estas se llamar´ a conjunto soluci´ on de (4.15). Se verifica que (4.14) y (4.15) son equivalentes. En efecto, sean B1 = (v1 . . . , vn ) y B2 = (w1 . . . , wm ) bases para V y W , respectivamente. Supongamos que B2 AB1 = (aij ). Es decir, para cada 1 ≤ j ≤ n se tiene que m  A(vj ) = aij wi . i=1

4.5. Ecuaciones lineales

122

Sean b =

´ Gutierrez-Robinson

m

i=1 bi wi

yx=

n

j=1 xj vj . n 

Ax = b ⇔ A

Entonces

m   xj v j = bi w i

j=1

⇔ ⇔ ⇔ ⇔

n  j=1 n 

i=1

xj A(vj ) =

m 

bi w i

i=1

xj

m 

aij wi =

j=1 i=1 m n 

m 

bi w i

i=1

m   xj aij wi = bi w i

i=1 n 

j=1

i=1

aij xj = bi i = 1, . . . , m.

j=1

Por lo tanto, (4.14) y (4.15) son equivalentes. 4.5.1 Teorema. Sean V y W espacios vectoriales sobre un cuerpo K, as, A ∈ HomK (V, W ) y con dimK (V ) = n y dimK (W ) = m. Sean, adem´ b ∈ W . Consideramos nuevamente las ecuaciones: (L) Ax = b (H) Ax = 0 Entonces: 1. El conjunto soluci´on de (H) es un subespacio de V cuya dimensi´on es n − r(A). Adem´ as, este conjunto soluci´on es ker(A). 2. Si existe una soluci´on x0 de (L), entonces el conjunto soluci´on de (L) est´a dado por {xo + y | y ∈ ker(A)}. ´ n. Demostracio 1. De la definici´on de n´ ucleo se sigue que ker(A) es el conjunto soluci´ on de (H). Usando el primer teorema de isomorf´ıa se sigue que n − dimK ker(A) = dimK Im(A) = r(A). Cap´ıtulo 4. Matrices y ecuaciones lineales

123

´ Algebra lineal

2. Suponemos que x0 es una soluci´on de (L). En este caso Ax0 = b. Sea, adem´as, y ∈ ker(A). Entonces, A(x0 + y) = A(x0 ) + A(y) = b. Es decir, x0 + y es una soluci´on de (L). Rec´ıprocamente, supongamos que x1 es una soluci´on de (L). As´ı A(x1 − x0 ) = A(x1 ) − A(x0 ) = b − b = 0. Entonces x1 −x0 ∈ ker(A) y se tiene que x1 = xo +y con y ∈ ker(A).  4.5.2 Teorema. Consideramos nuevamente el sistema de ecuaciones lineales (4.14) n  aij xj = bi i = 1, . . . , m. j=1

Definimos la matriz B := (A|b). Es decir, ⎞ ⎛ a11 · · · a1n | b1 ⎜ a21 · · · a2n | b2 ⎟ ⎟ ⎜ B=⎜ . .. ⎟ . .. ⎝ .. . | . ⎠ a11 · · · amn | b1 Entonces (L) tiene por lo menos una soluci´on si y solo si r(A) = r(B). ´ n. Sean cj ∈ K m , con 1 ≤ j ≤ n las columnas de la Demostracio matriz A = (aij ). Entonces el sistema de ecuaciones (L) puede expresarse as´ı: n  xj cj = b. j=1

Suponemos que (L) admite una soluci´on. Entonces b ∈ c1 , . . . , cn  . Por lo tanto, dimK c1 , . . . , cn  = dimK c1 , . . . , cn , b, de manera que r(A) = r(B). Rec´ıprocamente, suponemos que r(A) = r(B). Entonces se tiene que dimK c1 , . . . , cn  = dimK c1 , . . . , cn , b. Dado que c1 , . . . , cn  ⊆ c1 , . . . , cn , b, podemos afirmar que c1 , . . . , cn  = c1 , . . . , cn , b. Es decir,b ∈ c1 , . . . , cn . Entonces existen x1 , . . . , xn ∈ K tales que n b = on j=1 xj cj . Esto demuestra que x = (x1 , . . . , xn ) es una soluci´ de (L).  4.5. Ecuaciones lineales

124

´ Gutierrez-Robinson

4.5.3 Algoritmo. Para resolver (L), consideramos las siguientes transformaciones sobre (L): 1. Intercambio de dos filas de la matriz B. 2. Intercambio de dos columnas de la matriz A. ultiplo de la j-´esima fila fj 3. Sumar a la i-´esima fila fi de B, un m´ de B. Es decir, fi ← fi + afj , para i = j, a ∈ K. Con estas transformaciones las soluciones de (L) permanecen invariantes. El procedimiento corre de la siguiente manera: Paso 1. Usando 1. se tiene que a11 = 0. Paso 2. Usando las transformaciones fi ← f i −

ai1 f1 , parai ≥ 2, a11

tenemos un sistema de ecuaciones en la forma a11 x1 +

n  j=2 n 

a1j xj

= b1

aij xj

= bi

i = 2, . . . , m.

j=2

Paso 3. Con el sistema reducido n 

aij xj = bi

i = 2, . . . , m.

j=2

se procede de la misma forma. Si (aij ) = 0, entonces el proceso termina; en caso contrario, para garantizar que a22 = 0 podr´ıa ser necesaria una reenumeraci´on de las variables x2 , . . . , xn . Cap´ıtulo 4. Matrices y ecuaciones lineales

125

´ Algebra lineal

Finalmente obtenemos un sistema de ecuaciones (L) de la forma b11 y1 + b12 y2 + · · · + b1j yj + · · · + b1n yn = b1 b22 y2 + · · · + b2j yj + · · · + b2n yn = b2 .. . bjj yj + · · · + bjn yn = bj

0 = bj+1 .. . 0 = bm .

con bkk = 0 para k = 1, . . . , j. Si (L) tiene una soluci´ on, entonces se debe verificar que bj+1 = · · · = bm = 0. En este caso podemos elegir libremente a yj+1 , . . . , yn . Dado que bkk = 0, (k = 1, . . . , j), ´nicos se tiene que el sistema (L) suministra sucesivamente valores u para yj , yj−1 . . . , y1 . Una soluci´on u ´nica para (L) se tiene si y solo si j = n. 4.5.4 Ejemplo. Halle el conjunto soluci´on de 2x1 − 3x2 + 2x3 + 5x4 = 3 x1 − x2 + x3 + 2x4 = 1 −3x1 + 2x2 + 2x3 + x4 = 0. Soluci´ on. ⎛ ⎞ 2 −3 2 5 | 3 ⎝ 1 −1 1 2 | 1⎠ f1 ↔ f3 −3 2 2 1 | 0 ⎛

⎞ 1 −1 1 2 | 1 ⎝ 2 −3 2 5 | 3⎠ f2 ← −2f1 + f2 y f3 ← 3f1 + f3 −3 2 2 1 | 0 ⎛

⎞ 1 −1 1 2 | 1 ⎝0 −1 0 1 | 1⎠ f3 ← −f2 + f3 0 −1 5 7 | 3 ⎛

⎞ 1 −1 1 2 | 1 ⎝0 −1 0 1 | 1⎠. 0 0 5 6 | 2 4.5. Ecuaciones lineales

126

´ Gutierrez-Robinson

Tenemos entonces el sistema equivalente x1 − x2 + x3 + 2x4 = 1 −x2 + x4 = 1 5x3 + 6x4 = 2, que podemos escribir as´ı: x1 − x2 + x3 = 1 − 2x4 −x2 = 1 − x4 5x3 = 2 − 6x4 . Entonces el conjunto soluci´on es: {( 15 (x4 − 2), x4 − 1, 15 (2 − 6x4 ), x4 ) | x4 ∈ K}. 4.5.5 Teorema. Sean A = (aij ) ∈ Mat(m × n, K) y b ∈ K m . Consideramos nuevamente los sistemas de ecuaciones lineales n (L) j=1 aij xj = bi i = 1, . . . m n (H) j=1 aij xj = 0 i = 1, . . . n. Entonces: 1. Si r(A) = n, entonces (L) tiene, a lo m´as, una soluci´on. 2. Si m = n = r(A), entonces (L) tiene exactamente una soluci´on. 3. El espacio generado por las soluciones del sistema (H) tiene dimensi´ on n − r(A). Si n = m, entonces n − r(A) ≥ n − m > 0. 4. Si m = n, entonces (H) tiene una soluci´ on no trivial, es decir, diferente de 0 si y solo si A no es regular. ´ n. Demostracio 1. Si r(A) = n, entonces los vectores columnas cj de A son linealmente independientes. En ese caso existe, a lo m´ as, una expresi´on para b en la forma n  b= xj c j . j=1

Cap´ıtulo 4. Matrices y ecuaciones lineales

127

´ Algebra lineal

2. Supongamos que m = n = r(A). Entonces (c1 , . . . , cn ) es una base ´nica reptresentaci´on de b en la para K n . Por lo tanto, existe una u forma n  xj c j . b= j=1

3. Es una consecuencia del teorema 4.5.1. ' ∈ HomK (K n , K n ) de la siguiente manera: 4. Definimos A ' 1 , . . . , yn ) := A(y

n 

a1j yj , . . . ,

j=1

n 

 anj yj .

j=1

Entonces, ' = {0} (H) tiene una soluci´ on no trivial ⇔ ker(A) ' no es un isomorfismo ⇔ A ⇔ A no es regular.

4.6.

La factorizaci´ on LU de una matriz

En esta secci´ on abordamos el problema de factorizar una matriz usando matrices triangulares. Luego aplicaremos esta factorizaci´ on para resolver sistemas de ecuaciones lineales. Este m´etodo tiene una notoria importancia desde el punto de vista de la eficiencia en el c´ omputo de las m´aquinas, especialmente cuando se presentan sistemas con un n´ umero grande de ecuaciones. 4.6.1 Problema. Dada A ∈ Mat(n, R), encontrar, si existen, dos matrices L, U ∈ Mat(n, R), con L triangular inferior y U triangular superior de tal manera que A = LU . ´ n: supongamos que existen matrices F1 , . . . , Fk , las cuales son Solucio productos de matrices elementales, tales que Fk · · · F1 A = U, donde U es una matriz triangular superior. Por lo tanto, A = F1−1 · · · Fk−1 U. ´ LU de una matriz 4.6. La factorizacion

128

´ Gutierrez-Robinson

Note que para cada j la matriz Fj−1 es triangular inferior y el producto de matrices triangulares inferiores es triangular inferior. Por lo tanto, si definimos L := F1−1 · · · Fk−1 , se tiene la factorizaci´on A = LU . 4.6.2 Ejemplo. Halle la factorizaci´ on ⎛ 1 1 ⎝ 1 2 A= 0 3

LU de la siguiente matriz: ⎞ 0 1 ⎠ 1

Soluci´ on: ⎛

⎞ ⎛ ⎛ ⎞ ⎞ 1 1 0 1 1 0 1 1 0 −3F2 +F3 →F3 2 →F2 ⎝ ⎝ 1 2 1 ⎠ −F1 +F ⎝ 0 1 0 1 1 ⎠ 1 ⎠. −→ −→ 0 3 1 0 3 1 0 0 −2 Cada una de las operaciones anteriores tiene asociada una matriz Fj , j = 1, 2. Estas matrices son: ⎛ ⎛ ⎞ ⎞ 1 0 0 1 0 0 1 0 ⎠. F1 = ⎝ −1 1 0 ⎠ y F2 = ⎝ 0 0 0 1 0 −3 1 Note que



⎛ ⎞ ⎞ 1 1 0 1 1 0 1 ⎠ =: U F1 A = ⎝ 0 1 1 ⎠ y F2 (F1 A) = ⎝ 0 1 0 3 1 0 0 −2

Para la matriz L se verifica que L = demostrar que ⎛ 1 0 ⎝ 1 1 L= 0 3

F2−1 F1−1 . Se deja como ejercicio ⎞ 0 0 ⎠. 1

4.6.3 Ejemplo. Halle la factorizaci´ on LU de la siguiente matriz: ⎞ ⎛ 4 2 1 0 ⎜ −4 −6 1 3 ⎟ ⎟ A=⎜ ⎝ 8 16 −3 −4 ⎠ 20 10 4 −3 Cap´ıtulo 4. Matrices y ecuaciones lineales

129

´ Algebra lineal

Soluci´ on: ⎛ 4 2 1 0 ⎜ −4 −6 1 3 ⎜ ⎝ 8 16 −3 −4 20 10 4 −3

⎞ ⎟ F1 +F2 →F2 ⎟ −→ ⎠



⎞ 4 2 1 0 ⎜ 0 −4 2 3 ⎟ +F3 →F3 ⎜ ⎟ −3F2−→ ⎝ 0 12 −5 −4 ⎠ 0 0 −1 −3

−2F1 +F3 →F3 −5F1 +F4 →F4

−→

−→



⎞ 4 2 1 0 ⎜ 0 −4 2 3 ⎟ 4 →F4 ⎜ ⎟ F3 +F −→ ⎝ 0 0 1 5 ⎠ 0 0 −1 −3



⎞ 4 2 1 0 ⎜ 0 −4 2 3 ⎟ ⎜ ⎟. ⎝ 0 0 1 5 ⎠ 0 0 0 2 Entonces podemos definir ⎛

⎞ 4 2 1 0 ⎜ 0 −4 2 3 ⎟ ⎟. U =⎜ ⎝ 0 0 1 5 ⎠ 0 0 0 2 Se deja al lector verificar que ⎛

1 0 0 ⎜ −1 1 0 L=⎜ ⎝ 2 −3 1 5 0 −1

⎞ 0 0 ⎟ ⎟. 0 ⎠ 1

Examinemos ahora c´ omo aplicar la factorizaci´ on LU de una matriz no singular A a la soluci´on de un sistema de ecuaciones lineales Ax = b. Supongamos que A es factorizable. Entonces el sistema puede expresarse de la forma LU x = b. Si definimos y := U x, entonces podemos resolver el sistema Ly = b. Una vez resuelto este para y, procedemos a resolver para x el sistema U x = y. ´ LU de una matriz 4.6. La factorizacion

130

´ Gutierrez-Robinson

4.6.4 Ejemplo. Resolver el siguiente sistema lineal, encontrando inicialmente la factorizaci´on LU de la matriz A de coeficientes. 4x + y + z + 2w = 1 −12x − y − 4z − 4w = −3 −4y + 5z − 2w = 0 20x + 3y + 6z + 7w = 5. Soluci´ on: La matriz de coeficientes es: ⎛

⎞ 4 1 1 2 ⎜ −12 −1 −4 −4 ⎟ ⎟. A=⎜ ⎝ 0 −4 5 −2 ⎠ 20 3 6 7 Se verifica que la factorizaci´on LU de A est´a dada por ⎛

⎞ 1 1 2 2 −1 2 ⎟ ⎟ 0 3 2 ⎠ 0 0 −1



⎞ 0 0 ⎟ ⎟. 0 ⎠ 1

4 ⎜ 0 U =⎜ ⎝ 0 0 y

1 0 0 ⎜ −3 1 0 L=⎜ ⎝ 0 −2 1 5 −1 0 Definimos ahora



⎞ 1 ⎜−3⎟ ⎟ b := ⎜ ⎝ 0 ⎠. 5

Al resolver el sistema Ly = b, se tiene que y = (1, 0, 0, 0). Entonces consideramos ahora el sistema U x = y, de donde resulta x = ( 14 , 0, 0, 0). Cap´ıtulo 4. Matrices y ecuaciones lineales

131

´ Algebra lineal

4.7.

Ejercicios

1. Encuentre en caso la matriz A = (aij ) ∈ Mat(4, R) que satisface la condici´ on dada. a) aij = i + j. b) aij = 0, si |i − j| > 1. c) aij = ij−1 . d ) aij = j i .  1, si |i − j| > 1 e) aij = −1, si |i − j| ≤ 1. 2. Sean A, B ∈ Mat(m × n, R) triangulares superiores. a) ¿Es A ± B triangular superior? b) ¿Es At triangular superior?     1 0 0 0 3. Considere las matrices A = yB= . 1 0 1 1 Demuestre que AB = 0 y, sin embargo, A, B = 0.       1 1 1 1 1 0 4. Sean A = ,B= y C= . 1 1 0 0 0 0 Demuestre que CA = CB y, sin embargo, A = B. 5. Sea A ∈ Mat(n, R). Demuestre que 12 (A + At ) es sim´etrica y 12 (A − At ) antisim´etrica. 6. Sea A ∈ Mat(n, R). Demuestre que existen una matriz sim´etrica B ∈ Mat(n, R) y una matriz antisim´etrica C ∈ Mat(n, R) tales que A = B + C. ¿Es esta descomposici´on u ´nica? 7. Sean A, B ∈ Mat(n, R). Se define el conmutador de A con B, notado [A, B] as´ı: [A, B] := AB − BA.     1 2 −1 0 Para A = yB= determine [A, B]. 0 1 1 3   1 0 8. Sea A = . Verifique que A2 = I2 . Note que A = ±In . 1 −1 4.7. Ejercicios

132

´ Gutierrez-Robinson

 9. Sean A =

1 0 1 −1



 yB=

1 0 1 1

 .

¿Es cierto que (A + B)2 = A2 + 2AB + B 2 ? 10. Una matriz no nula A ∈ Mat(n, R) se llama nilpotente si existe k ∈ N tal que Ak = 0. El ´ındice de nilpotencia de A se define como el n´ umero natural m´as peque˜ no k tal que Ak−1 = 0 y Ak = 0. Determine si la matriz ⎛

⎞ 0 1 6 A=⎝ 0 0 4 ⎠ 0 0 0 es nilpotente y en caso afirmativo encuentre su ´ındice de nilpotencia. 11. Sea J ∈ Mat(n, R) definida por ⎛ ⎜ ⎜ ⎜ J =⎜ ⎜ ⎝

1 0 0 ··· 1 1 0 ··· 0 1 1 ··· .. .. .. . . . 0 0 0 ···

⎞ 0 0 0 0 ⎟ ⎟ 0 0 ⎟ ⎟. .. .. ⎟ . . ⎠ 1 1

Determine todas las matrices X ∈ Mat(n, R) tales que XJ = JX y demuestre que cada una de las matrices X se puede escribir en la forma X = a0 In + a1 J + a2 J 2 + · · · + an−1 J n−1 con ai ∈ R apropiados. 12. Sea B la base est´andar para R2 y B  = (v1 = (1, 1), v2 = (−1, 0)) otra base. Sea T el operador identidad definido sobre R2 . Es decir, T (x, y) = (x, y), para todo (x, y) ∈ R2 . a) Determine

B  TB

b) Sea v = (2, 3). Use

B  TB

para calcular vB 

Cap´ıtulo 4. Matrices y ecuaciones lineales

133

´ Algebra lineal

13. Sea A ∈ Mat(4, R) definida por ⎛ 0 1 0 0 ⎜ 0 0 1 0 A=⎜ ⎝ 0 0 0 1 λ 0 λ1 λ 2 λ3

⎞ ⎟ ⎟ ⎠

Demuestre que A4 = λ0 I4 + λ1 A + λ2 A2 + λ3 A3 . 14. Demuestre que no existen matrices A, B ∈ Mat(2, R) tales que A2 = B 2 = −I2 y AB = −BA 15. Considere la funci´on F : [0, 2π] −→ Mat(2, R) definida por   cos θ sen θ F (θ) = . − sen θ cos θ Demuestre que F (θ1 + θ2 ) = F (θ1 ) + F (θ2 ) y F (θ)F (−θ) = I2 . 16. En cada caso se da una matriz A y un vector v = (x, y) ∈ R2 . Halle Av t y comp´ arelo gr´aficamente con v.   1 0 a) A = 0 0   0 0 b) A = 0 1   1 0 c) A = 0 −1   −1 0 d) A = 0 1   −1 0 e) A = 0 −1   0 1 f) A = 1 0   1 λ g) A = 0 1   1 0 h) A = λ 1   cos θ − sen θ i) A = . sen θ cos θ 4.7. Ejercicios

134

´ Gutierrez-Robinson

17. En cada caso se da una matriz A y un vector v = (x, y, z) ∈ R3 . arelo gr´aficamente con v. Halle Av t y comp´ ⎞ ⎛ λ1 0 0 a) A = ⎝ 0 λ2 0 ⎠ 0 0 λ3 ⎞ ⎛ 1 0 0 b) A = ⎝ 0 1 0 ⎠ 0 0 0 ⎛ ⎞ −1 0 0 c) A = ⎝ 0 1 0 ⎠ 0 0 1 ⎛ ⎞ 0 0 1 d) A = ⎝ 0 1 0 ⎠ 1 0 0 ⎛ ⎞ 1 0 α e) A = ⎝ 0 1 β ⎠ 0 0 1 ⎞ ⎛ 1 0 0 f ) A = ⎝ 0 cos θ − sen θ ⎠ 0 sen θ cos θ ⎛ ⎞ cos θ 0 sen θ 0 1 0 ⎠ g) A = ⎝ − sen θ 0 cos θ ⎛ ⎞ cos θ − sen θ 0 h) A = ⎝ sen θ cos θ 0 ⎠. 0 0 1 18. Sea A ∈ Mat(n, R). Demuestre: a) Si A es sim´etrica e invertible, entonces A−1 es sim´etrica. b) Si A es invertible, entonces AAt y At A tambi´en lo son y, adem´as, son sim´etricas. 19. Sea A ∈ Mat(n, R). Demuestre que si Am+1 = 0, entonces (In − A)−1 = In + A + · · · + Am . Cap´ıtulo 4. Matrices y ecuaciones lineales

135

´ Algebra lineal

20. Sea Jn la matriz de tama˜ no n × n cuyas entradas son todas iguales a uno. Demuestre que 1 )Jn . (In − Jn )−1 = In − ( n−1

21. Sea A ∈ Mat(2, K) dada por  A=

 a b . c d

Demuestre que A es invertible si y solo si λ := ad − bc = 0 y, adem´ as,   d −b −1 1 . A =λ −c a 22. Halle la factorizaci´on LU de la matriz ⎛ 1 1 1 2 ⎜ −1 −1 −4 0 A=⎜ ⎝ 0 −1 1 −2 2 3 6 7

⎞ ⎟ ⎟. ⎠

23. En cada caso halle la inversa de la matriz dada, si existe. ⎛ ⎞ −1 3 −4 1 ⎠ a) A = ⎝ 2 4 −4 2 −9 ⎛ ⎞ 1 0 0 0 ⎜ 1 2 0 0 ⎟ ⎟ b) A = ⎜ ⎝ 1 2 1 0 ⎠. 1 2 1 2 ⎞ 0 0 λ1 24. Sea B = ⎝ 0 λ2 0 ⎠, donde cada λj = 0, (j = 1, 2, 3). λ3 0 0 ⎛

Halle B −1 y exprese B como el producto de matrices elementales.   1 −2 −1 , halle A. 25. Si A = 0 1 4.7. Ejercicios

136

´ Gutierrez-Robinson

26. Determine los valores de λ ∈ R para no singular. ⎛ 1 2 A=⎝ 1 0 1 2

que la siguiente matriz A sea ⎞ λ 0 ⎠. 0

27. Suponga que A ∈ Mat(n, R) es una matriz diagonal. ¿Bajo qu´e condiciones es A invertible? Cuando lo sea, qu´e forma tiene su inversa? 28. Sea x ∈ Mat(n × 1, R) tal que xt x = 1. La matriz H ∈ Mat(n, R) definida por H := In − 2xxt se denomina matriz de Householder. Demuestre que a) H es una matriz sim´etrica. b) H −1 = H t . 29. En cada caso determine qu´e valores de λ hacen que los siguientes sistemas de ecuaciones lineales no tengan soluciones u ´nicas. a) λx + 3y − z = 1 x + 2y + z = 2 −λx + y + 2z = −1. b) λx + y + z = 1 x + λy + z = 1 −λx + y + λz = −2. 30. Sea A ∈ Mat(n, R) singular. Demuestre que existe 0 = B ∈ Mat(n, R) tal que AB = 0. 31. Sean K un cuerpo, A ∈ Mat(n, K) y 0 = b ∈ K n , fijos. Definimos f : K n −→ K n mediante f (x) = Ax + b. ¿Es f un endomorfismo de K n ? Cap´ıtulo 4. Matrices y ecuaciones lineales

137

´ Algebra lineal

32. Sean K un cuerpo, A ∈ Mat(n, K) y 0 = b ∈ K n , fijos. Demuestre que si el sistema de ecuaciones lineales Ax = b tiene soluci´ on u ´nica, entonces el sistema Ax = c tambi´en tiene soluci´ on u ´nica para todo 0 = c ∈ K n . 33. Sea M definida por

 M=

a b c d



con a, b, c, d ∈ R no todos nulos. a) Determine condiciones para a, b, c y d de tal forma que M 2 = 0. b) Demuestre que si existe k ∈ N, tal que M k = 0, entonces M no es invertible. c) Sea 0 = λ ∈ R. Demuestre que si M 2 = 0, entonces la matriz M − λI es invertible y calcule su inversa. 34. Sea A : R3 −→ R4 definida por A(x, y, z) = (x − y, y − z, z − x, 0). Determine: a) La matriz asociada a A con respecto a las bases can´ onicas. b) La matriz asociada a A con respecto a la base B = ((1, 1, 1), (0, 2, 1), (3, 1, −1)) de R3 y la base can´onica de R4 . c) Una base para el subespacio A(S), donde S es el subespacio on del sistema de ecuaciones de R3 que es soluci´ x=z y = 0. 35. Sea A ∈ Mat(n, R) con Am+1 = 0 para alg´ un m ∈ N. Demuestre que I − A es invertible y su inversa est´ a dada por I + A + · · · + Am . 36. Sean A1 , . . . , Am ∈ GL(n, K). Demuestre que −1 (A1 · · · Am )−1 = A−1 m · · · A1 .

4.7. Ejercicios

138

´ Gutierrez-Robinson

37. Sean A ∈ GL(n, K) y m ∈ N. Definimos A−m := (A−1 )m . Si   1 3 A= , 0 2 calcule a) A−2 b) A−3 c) (A2 )−1 d ) (A3 )−1 . 38. Sean A ∈ GL(n, K) y m ∈ N. Demuestre que (Am )−1 = (A−1 )m .

Cap´ıtulo 4. Matrices y ecuaciones lineales

Cap´ıtulo 5 El determinante Contenido 5.1. 5.2. 5.3. 5.4.

Grupo sim´ etrico y el signo . . . . . . . . La funci´ on determinante . . . . . . . . . Polinomio caracter´ıstico y auto-valores Ejercicios . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

139 146 164 170

En este cap´ıtulo definimos el determinante de una matriz cuadrada y mostramos la relaci´on que existe entre la regularidad de esta y su determinante. La definici´on del determinante la obtenemos utilizando el grupo sim´etrico de grado n, el cual denotamos con Sym(n).

5.1.

Grupo sim´ etrico y el signo

En esta secci´on, Ω denota siempre el conjunto {1, . . . , n}. 5.1.1 Definici´ on. Una biyecci´on σ : Ω −→ Ω se denomina una permutaci´ on de Ω. El conjunto de todas las permutaci´on de Ω se denota con Sym(n). Se verifica sin dificultades que |Sym(n)| = n!. Una representaci´on usual para una permutaci´on σ de Ω es la siguiente:   1 2 ··· n . (5.1) σ= σ(1) σ(2) · · · σ(n) Notamos con IΩ la funci´ on id´entica sobre Ω. 139

140

´ Gutierrez-Robinson

5.1.2 Ejemplos. Grupos sim´etricos de grado 2 y 3. 1. Si n = 2, entonces Sym(2) tiene dos elementos y estos son     1 2 1 2 σ1 = y σ2 = . 1 2 2 1 2. Si n = 3, entonces existen 6 biyecciones. Estas son       1 2 3 1 2 3 1 2 3 σ1 = , σ2 = , σ3 = . 1 2 3 1 3 2 3 2 1  σ4 =

 1 2 3 , 2 1 3

 σ5 =

 1 2 3 , 2 3 1

  1 2 3 σ6 = . 3 2 1

5.1.3 Definici´ on. Sean a1 , . . . , ak ∈ Ω con ai = aj para i = j. Una permutaci´on σ de la forma   a1 a2 · · · ak−1 ak , σ= a2 a3 · · · ak a 1 se denomina un k-ciclo. Esto es, σ(a1 ) = a2 , σ(a2 ) = a3 , . . . σ(ak−1 ) = ak , σ(ak ) = a1 y σ(x) = x, para todo x ∈ Ω \ {a1 , . . . , ak }. Este k-ciclo se simboliza con σ = (a1 , a2 , · · · , ak−1 , ak ). N´ otese que tambi´en σ = (a2 , a3 , · · · , ak , a1 ). Un 2-ciclo τ = (i, j), con i = j se denomina una transposici´ on. Esto es, una transposici´ on intercambia dos n´ umeros y deja fijo al resto. Si τ es una transposici´on, entonces se verifica que τ 2 = IΩ y τ −1 = τ . 5.1.4 Ejemplo. Usando ahora notaci´on de ciclos, tenemos: Sym(2) = {IΩ , (12)} y Sym(3) = {IΩ , (23), (13), (12), (123), (132)}. Usualmente, la funci´on id´entica IΩ se denota con (1). Cap´ıtulo 5. El determinante

141

´ Algebra lineal

Sym(n) adquiere la estructura de grupo cuando usamos la composici´on de funciones como operaci´ on binaria. Si σ ∈ Sym(n) y m ∈ N, entonces on de σ con s´ı mismo m-veces. escribimos σ m para denotar la composici´ 5.1.5 Ejemplo. La permutaci´on σ ∈ Sym(5) dada por   1 2 3 4 5 σ= 3 4 1 5 2 no es expresable como un ciclo, pero puede descomponerse como un producto de ciclos. En efecto, σ = (13)(245). 5.1.6 Definici´ on. Sean σ = (ai1 , . . . , aik ) y π = (bi1 , . . . , bim ) elementos de Sym(n). Decimos que σ y π son disjuntos, si {ai1 , . . . , aik } ∩ {bi1 , . . . , bim } = ∅. En el siguiente teorema se demuestra que toda permutaci´on de Sym(n) puede expresarse como un producto de ciclos disjuntos. 5.1.7 Teorema. Sea n ∈ N. Entonces: (a) Todo σ ∈ Sym(n) tiene una descomposici´on en ciclos de la forma σ = (a1 , σ(a1 ), . . . , σ n1 −1 (a1 )) · · · (ak , σ(ak ), . . . , σ nk −1 (ak )),  ) donde nj ∈ N, kj=1 nj = n y Ω = nj=1 {aj , σ(aj ) . . . , σ nj −1 (aj )}. (b) Se verifica, adem´ as, que (a1 , a2 . . . , ak ) = (a1 , ak )(a1 , ak−1 ) · · · (a1 , a2 ). Esto es, toda permutaci´on es un producto de transposiciones. ´ n. Demostracio umeros σ j−1 (a1 ), (a) Comenzamos con a1 = 1 y consideramos los n´ con j ∈ N. Dado que Ω es un conjunto finito, estos n´ umeros no son todos distintos. Es decir, existe n1 ∈ N tal que a1 , σ(a1 ), . . . , σ n1 −1 (a1 ) son distintos dos a dos y, adem´as, se verifica que σ n1 (a1 ) ∈ {a1 , σ(a1 ), . . . , σ n1 −1 (a1 )}. ´ 5.1. Grupo simetrico y el signo

142

´ Gutierrez-Robinson

Esto es, existe k con 0 ≤ k < n1 y σ n1 (a1 ) = σ k (a1 ). Entonces σ n1 −k (a1 ) = a1 . Por la elecci´on de n1 se sigue que k = 0 y se tiene que σ n1 −1 (a1 ) = a1 . Si n1 < n, elegimos a2 ∈ Ω \ {a1 , σ(a1 ), . . . , σ n1 −1 (a1 )}. Entonces {σ j (a1 ) | j ∈ N} ∩ {σ j (a2 ) | j ∈ N} = ∅ y tenemos un nuevo ciclo (a2 , σ(a2 ), . . . , σ n2 −1 (a2 )). Despu´es de un n´ umero finito de pasos se tiene la afirmaci´on. (b) Si xj ∈ Ω \ {a1 , . . . , ak }, entonces el ciclo (a1 , . . . , ak ) deja fijo a xj . Por otro lado, si j = k se verifica que (a1 , ak )(a1 , ak−1 ) · · · (a1 , a2 )(aj ) = a1 y si j < k, entonces se tiene que (a1 , ak )(a1 , ak−1 ) · · · (a1 , a2 )(aj ) = (a1 , ak ) · · · (a1 , aj+1 )(aj ) = aj+1 y se tiene la afirmaci´on.



5.1.8 Ejemplo. La permutaci´on   1 2 3 4 5 6 7 8 σ= ∈ Sym(8) 3 4 1 5 2 7 6 8 expresada como producto de transposiciones es σ = (13)(24)(25)(67). Es importante anotar que la descomposici´ on de una permutaci´on en transposiciones no es u ´nica. Por ejemplo, para la transposici´on anterior se tiene: σ = (13)(24)(25)(67) = (13)(45)(42)(67). 5.1.9 Teorema. Sea K un cuerpo. (a) Para n ≥ 2 existe un epimorfismo de grupos sig : (Sym(n), ◦) −→ ({−1, 1}, ·), llamado signo. Se verifica que sig(τ ) = −1, para toda transposici´ on τ ∈ Sym(n). (b) Si f : (Sym(n), ◦) −→ (K × , ·) es un homomorfismo de grupos, entonces Cap´ıtulo 5. El determinante

143

´ Algebra lineal

(1) Si Char(K) = 2, entonces f (σ) = 1 para todo σ ∈ Sym(n). (2) Si Char(K) = 2, entonces f = sig. ´ n. Demostracio (a) Sea T := {i, j} ⊆ Ω con i < j. Para σ ∈ Sym(n) definimos  1 si σ(i) < σ(j) ζσ (T ) := −1 si σ(i) > σ(j). Sea sig : Sym(n) −→ {−1, 1} definida de la siguiente manera: *

sig(σ) =

ζσ (T ).

T ⊆Ω |T |=2

Es claro que sig(σ) ∈ {−1, 1} para todo σ ∈ Sym(n). Para ρ ∈ Sym(n), T = {i, j} ⊆ Ω, definimos ρ(T ) = {ρ(i), ρ(j)} y determinamos los valores de ζρ (T ), ζσ (ρ(T )) y ζσρ (T ). Casos ρ(i) < ρ(j), σ(ρ(i)) < σ(ρ(j)) ρ(i) < ρ(j), σ(ρ(i)) > σ(ρ(j)) ρ(i) > ρ(j), σ(ρ(i)) < σ(ρ(j)) ρ(i) > ρ(j), σ(ρ(i)) > σ(ρ(j))

ζρ (T ) 1 1 -1 -1

ζσ (ρ(T )) 1 -1 -1 1

En todos los casos se cumple que ζσρ (T ) = ζρ (T )ζσ (ρ(T )). Con esto tenemos sig(σρ) =

*

ζσρ (T )

T ⊆Ω |T |=2

=

*

ζρ (T )ζσ (ρ(T ))

T

=

* T

ζρ (T )

*

ζσ (ρ(T ))

T

= sig(ρ) sig(σ). ´ 5.1. Grupo simetrico y el signo

ζσρ (T ) 1 -1 1 -1

144

´ Gutierrez-Robinson

Resta demostrar que sig(τ ) = −1 para toda transposici´ on τ . Sea inicialmente τ = (1, 2). Entonces  −1 si T = {1, 2} ζτ (T ) := 1 si T = {1, 2} Por lo tanto, sig(τ ) = −1. Sea ahora τ  una transposici´on cualquiera, digamos τ = (i, j). Definimos   1 2 3 ··· n π= ∈ Sym(n). (5.2) i j π(3) · · · π(n) Entonces se verifica que τ  = πτ π −1 . En efecto, πτ π −1 (i) = πτ (π −1 (i)) = πτ (1) = π(2) = j. πτ π −1 (j) = πτ (π −1 (j)) = πτ (2) = π(1) = i. Para k = i, j tenemos πτ π −1 (k) = πτ (π −1 (k)) = π(π −1 (k)) = k. Con esto tenemos que sig(τ  ) = sig(π) sig(τ ) sig(π −1 ) = −1. (b) Sea f : (Sym(n), ◦) −→ (K × , ·) un homomorfismo de grupos. Si τ es una transposici´on, entonces τ 2 = IΩ y se tiene que f (τ )2 = f (τ )f (τ ) = f (τ 2 ) = f (IΩ ) = 1. Por lo tanto, f (τ ) ∈ {−1, 1}. Sea τ  cualquier transposici´on y π la permutaci´ on definida en (5.2). Entonces f (τ  ) = f (πτ π −1 ) = f (π) f (τ ) f (π −1 ) = f (τ ). Esto demuestra que todas las transposiciones tiene la misma imagen bajo f , es decir, 1 o −1. Sea σ ∈ Sym(n) cualquiera. Entonces del teorema 5.1.7 se sigue que σ = τ1 · · · τk , donde cada τj es una transposici´on. De (a) se sigue que k * sig(σ) = sig(τj ) = (−1)k . j=1

Cap´ıtulo 5. El determinante

145

´ Algebra lineal

Por otro lado, f (σ) =

k *

 f (τj ) =

j=1

1 si f (τj ) = 1 k (−1) si f (τj ) = −1.

Diferenciamos ahora los dos casos posibles (1) Si Char(K) = 2, entonces −1 = 1 y se tiene que f (σ) = 1, para todo σ ∈ Sym(n). (2) Si Char(K) = 2, entonces f = sig.



El siguiente lema nos facilita el c´alculo del signo de una permutaci´ on. 5.1.10 Lema. Sean σ ∈ Sym(n) y σ = ε1 · · · εk su descomposici´on en ciclos, con εj = (aj , σ(aj ) . . . , σ nj −1 (aj )). Entonces sig(σ) = (−1)n−k . ´ n. Del teorema 5.1.7 se tiene que Demostracio (aj , σ(aj ) . . . , σ nj −1 (aj )) = (aj , σ nj −1 (aj )) · · · (aj , σ(aj )). Por lo tanto, Dado que n =

n

sig(εj ) = (−1)nj −1 .

j=1 nj ,

se tiene que

sig(σ) =

n *

sig(εj ) = (−1)n−k .



j=1

5.1.11 Definici´ on. Para n ≥ 2 definimos Alt(n) := ker(sig) y llamamos a Alt(n) el grupo alternante de grado n. 5.1.12 Lema. Sea n ∈ N, con n ≥ 2. Entonces |Sym(n) : Alt(n)| = 2. ´ n. Del primer teorema de isomorf´ıa para grupos se sigue Demostracio que Sym(n)/Alt(n) = Sym(n)/ker(sig) ∼ = Im(sig) = {−1, 1}.



Demostramos mas adelante que este conjunto juega un papel importante en la demostraci´on de propiedades del determinante. ´ 5.1. Grupo simetrico y el signo

146

´ Gutierrez-Robinson

5.1.13 Teorema. Sea n ≥ 2. Si σ ∈ Sym(n) con sig(σ) = −1, entonces Sym(n) = Alt(n) ∪ σAlt(n) y esta uni´on es disjunta. ´ n. Para σ ∈ Demostracio / Alt(n) se verifica que σAlt(n) = Sym(n) \ Alt(n) = Alt(n)σ.

5.2.



La funci´ on determinante

En esta secci´on R denota un anillo conmutativo con elemento identidad. 5.2.1 Definici´ on. Sea A = (aij ) ∈ Mat(n, R). Se define el determinante de A de la siguiente manera:  sig(σ)a1σ(1) · · · anσ(n) (5.3) det(A) = σ∈Sym(n)

 a11 a12 . Recordamos que a21 a22

 5.2.2 Ejemplo. Sea A =

Sym(2) = {IΩ , (12)}. Entonces de (5.3) se sigue que det(A) = sig(IΩ )a11 a22 + sig(12)a12 a21 = a11 a22 − a12 a21 ⎛ ⎞ a11 a12 a13 5.2.3 Ejemplo. Sea A = ⎝a21 a22 a23 ⎠. Recordamos que a31 a32 a33 Sym(3) = {(1), (123), (132), (23), (12), (13)}. Entonces de (5.3) se sigue que det(A) = sig(IΩ )a11 a22 a33 + sig(123)a12 a23 a31 + sig(132)a13 a21 a32 + sig(23)a11 a23 a32 + sig(12)a12 a21 a33 + sig(13)a13 a22 a31 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 . Cap´ıtulo 5. El determinante

147

´ Algebra lineal

La definici´on de determinante, para los casos n = 2 y n = 3, la podemos recordar usando los siguientes diagramas:

a11 a12 −

− − − a13 a11 a12

a21 a22 a23 a21 a22

a11 a12

a31 a32 a33 a31 a32

a21 a22 +

+

+

+

5.2.4 Ejemplo. Sea A = (aij ) una matriz triangular inferior. Es decir, aij = 0 para todo i < j. Entonces det(A) = a11 · · · ann . En particular, det(In ) = 1. En efecto, sea σ ∈ Sym(n). Entonces un producto de la forma a1σ(1) · · · anσ(n) es no nulo si y solo si σ(1) ≤ 1, σ(2) ≤ 2, . . . , σ(n) ≤ n. Esto ocurre si y solo si σ = IΩ , con lo cual se tiene la afirmaci´on. 5.2.5 Ejemplo. Determine los valores de λ ∈ R para que el determinante de la matriz ⎞ ⎛ λ−1 0 0 λ 1 ⎠ A=⎝ 0 0 1 λ−2 sea cero. Usando el diagrama anterior tenemos: det(A) = 0 ⇔ λ(λ − 1)(λ − 2) − (λ − 1) = 0 ⇔ (λ − 1)(λ2 − 2λ − 1) = 0 √ √ ⇔ λ ∈ {1, 1 + 2, 1 − 2}. 5.2.6 Teorema. Sea A = (aij ) ∈ Mat(n, R). Entonces det(A) = det(At ). ´ n. Suponemos que At = (bij ). Entonces bij = aji para Demostracio todo i, j ∈ {1, . . . , n}. De la ecuaci´on (5.3) se sigue:  sig(σ)b1σ(1) · · · bnσ(n) det(At ) = σ∈Sym(n)

=



sig(σ)aσ(1)1 · · · aσ(n)n

σ∈Sym(n)

´ determinante 5.2. La funcion

148

´ Gutierrez-Robinson

Dado que cada σ ∈ Sym(n) es una biyecci´on, para cada j ∈ {1, . . . , n} existe un u ´nico k ∈ {1, . . . , n} tal que σ(k) = j. Es decir, k = σ −1 (j). Por lo tanto, aσ(k)k = ajσ−1 (j) Entonces det(At ) =



sig(σ)a1σ−1 (1) · · · anσ−1 (n) .

σ∈Sym(n)

Dado que sig(σ)2 = 1, se verifica que sig(σ) = sig(σ)−1 = sig(σ −1 ). Entonces  det(At ) = sig(σ −1 )a1σ−1 (1) · · · anσ−1 (n) = det(A).  σ∈Sym(n)

Sea A ∈ Mat(n, R). Si f1 , . . . , fn son las filas de A, que consideramos como elementos de Rn , entonces escribimos: A = (f1 , . . . , fn ). Si c1 , . . . , cn denotan las columnas de A, entonces escribimos tambi´en A = (c1 , . . . , cn ). 5.2.7 Definici´ on. Sea A = (f1 , . . . , fn ) = (c1 , . . . , cn ) ∈ Mat(n, R). Definimos las funciones f, g : Rn × · · · × Rn −→ R de la siguiente manera: f (f1 , . . . , fn ) = g(c1 , . . . , cn ) = det(A). 5.2.8 Teorema. Sea A = (aij ) = (f1 , . . . , fn ) = (c1 , . . . , fn ) ∈ Mat(n, R). Entonces (a) Para todo a, b ∈ R, fi , fi ∈ Rn y todo i ∈ {1, . . . , n} se verifica que f (f1 , . . . , fi−1 , afi + bfi , fi+1 , . . . , fn ) = af (f1 , . . . , fi , . . . , fn ) + bf (f1 , . . . , fi−1 , fi , fi+1 , . . . , fn ). Si R es un cuerpo, entonces la funci´on fi −→ f (f1 , . . . , fi−1 , fi , fi+1 , . . . , fn ), con fj fija para todo j = i, es lineal. Cap´ıtulo 5. El determinante

149

´ Algebra lineal

(b) Si fi = fj , con i = j, entonces f (f1 . . . , fn ) = 0. (c) Las afirmaciones (a) y (b) se cumplen tambi´en para la funci´on g. ´ n. Demostracio (a) f (f1 , . . . , fi−1 , afi + bfi , fi+1 , . . . , fn ) =  sig(σ)a1σ(1) · · · (aaiσ(i) + baiσ(i) ) · · · anσ(n) = σ∈Sym(n)

= a



sig(σ)a1σ(1) · · · aiσ(i) · · · anσ(n) +

σ∈Sym(n)

b



sig(σ)a1σ(1) · · · aiσ(i) · · · anσ(n)

σ∈Sym(n)

= af (f1 , . . . , fi , . . . , fn ) + bf (f1 , . . . , fi−1 , fi , fi+1 , . . . , fn ). (b) Dado que Sym(n) = Alt(n) ∪ Alt(n)τ , para toda transposici´on τ = (i, j) se tiene:  sig(σ)a1σ(1) · · · anσ(n) det(A) = σ∈Sym(n)

=



sig(π)a1π(1) · · · anπ(n) + sig(πτ )a1πτ (1) · · · anπτ (n) .

π∈Alt(n)

Sabemos que sig(τ ) = −1 y sig(πτ ) = sig(π)sig(τ ) = (1)(−1) = −1. Entonces  det(A) = (a1π(1) · · · anπ(n) − a1πτ (1) · · · anπτ (n) ) π∈Alt(n)

=



(a1π(1) · · · aiπ(i) · · · ajπ(j) · · · anπ(n) −

π∈Alt(n)

a1π(1) · · · aiπ(j) · · · ajπ(i) · · · anπ(n) ). Dado que fi = fj , se tiene que aiπ(i) = ajπ(i) y aiπ(j) = ajπ(j) . Entonces det(A) = 0. (c) Se sigue de (a) y (b) y del teorema 5.2.6.



5.2.9 Ejemplo. Consideramos el espacio vectorial real R2 y sean dados los vectores v1 = (x1 , y1 ) y v2 = (x2 , y2 ). Entonces ´ determinante 5.2. La funcion

150

´ Gutierrez-Robinson

y

v2

v1 x

0

Entonces para j = 1, 2 se verifica que xj = rj cos αj , yj = rj sen αj y rj2 = x2j + yj2 . Por lo tanto, x1 x2 + y1 y2 = r1 r2 (cos α1 cos α2 + sen α1 sen α2 ) = r1 r2 cos(α2 − α1 ) = r1 r2 cos γ, donde γ es el ´angulo entre los vectores v1 y v2 . El a´rea A del paralelogramo generado por los vectores v1 y v2 est´a dado por A2 = r12 h2 = r12 r22 sen2 γ = r12 r22 (1 − cos2 γ) = (x21 + y12 )(x22 + y22 ) − (x1 x2 + y1 y2 )2 = (x1 y2 − x2 y1 )2 Por lo tanto,

  x1 y 1 . A = det x 2 y2

De manera similar, si consideramos v1 = (x1 , y1 , z1 ), v2 = (x2 , y2 , z2 ) y v3 = (x3 , y3 , z3 ) en R3 , que no est´an sobre un mismo plano, entonces estos determinan un paralelep´ıpedo, cuyo volumen V est´a dado por ⎛ ⎞ x 1 y 1 z1 V = det ⎝x2 y2 z2 ⎠ . x 3 y 3 z3 Cap´ıtulo 5. El determinante

151

´ Algebra lineal

5.2.10 Definici´ on. Una funci´on V : Rn × · · · × Rn −→ R se denomina una funci´ on de volumen sobre Rn si se verifican: (a) Para todo a, b ∈ R, fi , fi ∈ Rn y todo i ∈ {1, . . . , n} V (f1 , . . . , fi−1 , afi + bfi , fi+1 , . . . , fn ) = aV (f1 , . . . , fi , fi+1 , . . . , fn ) + bV (f1 , . . . , fi−1 , fi , fi+1 , . . . , fn ). (b) Si fi = fj , con i = j, entonces V (f1 , . . . , fn ) = 0. 5.2.11 Teorema. Sea V una funci´on de volumen sobre Rn . Entonces: (a) Para todo i = j y todo a ∈ R se cumple que V (f1 , . . . , fi + afj , . . . , fn ) = V (f1 , . . . , fi , . . . , fn ). (b) Para todo σ ∈ Sym(n) se verifica que V (fσ(1) , . . . , fσ(n) ) = sig(σ)V (f1 , . . . , fn ). (c) Sea fi = (ai1 , . . . , ain ) y ei = (0, . . . , 0, 1, 0 . . . , 0). Entonces V (f1 , . . . , fn ) = det(aij ) V (e1 , . . . , en ). ´ n. Demostracio (a) Sean i = j y a ∈ R. Entonces V (f1 , . . . , fi + afj , . . . , fn ) = V (f1 , . . . , fn ) + aV (f1 , . . . , fj , . . . , fj , . . . , fn )  !"  !" i

j

= V (f1 , . . . , fn ) + a · 0 = V (f1 , . . . , fn ). (b) Considera mos inicialmente σ = τ = (i, j) una transposici´on con ´ determinante 5.2. La funcion

152

´ Gutierrez-Robinson

i < j. Entonces V (f1 , . . . , fn ) = V (f1 , . . . , fi + fj , . . . , fj , . . . , fn )  ! " i

= V (f1 , . . . , fi + fj , . . . , fj − (fi + fj ), . . . , fn )  ! " i

= V (f1 , . . . , fi + fj , . . . , −fi , . . . , fn )  ! " i

= V (f1 , . . . , (fi + fj ) − fi , . . . , −fi , . . . , fn )  ! " i

= V (f1 , . . . , fj , . . . , −fi , . . . , fn )  !" i

= −V (f1 , . . . , fj , . . . , fi , . . . , fn )  !" i

= sig(τ )V (fτ (1) , . . . , fτ (i) , . . . , fτ (j) , . . . , fτ (n) ). Sea ahora σ ∈ Sym(n) cualquiera. Sabemos que σ = τ1 · · · τk , τj una transposici´on. Definimos ρ := τ2 · · · τk . Usando inducci´on sobre k se tiene: V (fσ(1) , . . . , fσ(n) ) = sig(τ1 ) V (fρ(1) , . . . , fρ(n) ) = sig(τ1 ) sig(ρ) V (f1 , . . . , fn ) = sig(τ1 ρ) V (f1 , . . . , fn ) = sig(σ) V (f1 , . . . , fn ). (c) Si fi =

n

j=1 aij ej ,

para i = 1, . . . , n, entonces

V (f1 , . . . , fn ) = V

n 

a1j1 ej1 , . . . ,

j1 =1

n 

 anjn ejn .

jn =1

Por lo tanto, V (f1 , . . . , fn ) =

n  j1 =1

···

n 

a1j1 · · · anjn V (ej1 , . . . , ejn ).

(5.4)

jn =1

Si en una n-tupla (j1 , . . . , jn ) aparece repetido un elemento del conjunto Ω = {1, . . . , n}, entonces se tiene que V (ej1 , . . . , ejn ) = 0. Cap´ıtulo 5. El determinante

153

´ Algebra lineal

Es decir, en (5.4) aparecen solo los sumandos con {ej1 , . . . , ejn } = un σ ∈ Sym(n). Usando 2. tenemos Ω; esto es, ji = σ(i) para alg´ V (f1 , . . . , fn ) =



a1σ(1) . . . anσ(n) V (eσ(1) , . . . , eσ(n) )

σ∈Sym(n)

=



sig(σ) a1σ(1) . . . anσ(n) V (e1 , . . . , en )

σ∈Sym(n)

= det(aij ) V (e1 , . . . , en ).



5.2.12 Corolario. Sean R un anillo y f1 , . . . , fn ∈ Rn . Entonces (a) Las funciones de volumen sobre Rn son de la forma V (f1 , . . . , fn ) = c det(A), con c ∈ R y A = (f1 , . . . , fn ). (b) Para todo i = j y todo a ∈ R se cumple que det(f1 , . . . , fi + afj , . . . , fn ) = det(f1 , . . . , fi , . . . , fn ). (c) Para todo σ ∈ Sym(n) se verifica que det(fσ(1) , . . . , fσ(n) ) = sig(σ) det(f1 , . . . , fn ). ´ n. Se sigue inmediatamente del teorema anterior. Demostracio



5.2.13 Teorema. Si A, B ∈ Mat(n, R), entonces det(AB) = det(A) det(B). ´ n. Sea A = (f1 , . . . , fn ). Fijemos B y consideramos la Demostracio funci´ on VB : Rn × · · · × Rn −→ R, definida por VB (f1 , . . . , fn ) := det(AB). on de volumen sobre Rn : Demostramos que VB es una funci´ ´ determinante 5.2. La funcion

154

´ Gutierrez-Robinson

(a) Sea A = (aij ). Para a, b ∈ R, usando el teorema 5.2.8 se tiene que ⎛ ⎞ f1 B ⎜ ⎟ .. ⎜ ⎟ . ⎜ ⎟   ⎜ VB (f1 , . . . , fi−1 , afi + bfi , fi+1 , . . . , fn ) = det ⎜(afi + bfi )B ⎟ ⎟. ⎜ ⎟ .. ⎝ ⎠ . fn B Pero



⎞ ⎞ ⎛ f1 B f1 B ⎜ ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ . ⎟ ⎜ ⎟ ⎟ ⎜ ⎜  ⎟  ⎟ ⎟ ⎟ ⎜ ⎜ det ⎜ ⎜(afi + bfi )B ⎟ = a det ⎜ fi B ⎟ + b det ⎜ fi B ⎟ . ⎜ ⎟ ⎜ .. ⎟ ⎜ .. ⎟ .. ⎝ ⎠ ⎝ . ⎠ ⎝ . ⎠ . fn B fn B fn B f1 B .. .





Por lo tanto, VB (f1 , . . . , fi−1 , afi + bfi , fi+1 , . . . , fn ) = a V (f1 , . . . , fi , . . . , fn )+ b V (f1 , . . . , fi , . . . , fn ).

(b) Supongamos que fi = fj , con i = j. Entonces ⎞ ⎛ f1 B ⎟ ⎜ VB (f1 , . . . , fn ) = det ⎝ ... ⎠ = 0. fn B Usando el corolario anterior, se tiene que existe cB ∈ R tal que VB (f1 , . . . , fn ) = cB det(A). Si A = In , entonces cB = cB det(In ) = det(In B) = det(B). En conclusi´on, se tiene que det(AB) = det(A) det(B).



5.2.14 Teorema. Sean B ∈ Mat(m, R), D ∈ Mat(n, R) y A la matriz bloque   B 0 A= ∈ Mat(m + n, R). 0 D Entonces det(A) = det(B) det(D). Cap´ıtulo 5. El determinante

155

´ Algebra lineal

´ n. Se deja como ejercicio. Demostracio 5.2.15 Ejemplo. Usando la teor´ıa det(A) si ⎛ 1 1 ⎜ 0 1 A=⎜ ⎝ 1 1 0 1



desarrollada hasta ahora, calcule 1 1 0 0

⎞ 0 0 ⎟ ⎟. 0 ⎠ 1

´ n. Efectuamos operaciones elementales sobre A para obtener Solucio una matriz triangular superior. ⎛ ⎞ ⎛ ⎞ 1 1 1 0 1 1 1 0 ⎜ 0 1 1 0 ⎟ −F1 +F3 →F3 ⎜ 0 1 1 0 ⎟ 4 →F4 ⎜ ⎟ ⎜ ⎟ −F2 +F −→ −→ ⎝ 1 1 0 0 ⎠ ⎝ 0 0 −1 0 ⎠ 0 1 0 1 0 1 0 1 ⎛

1 ⎜ 0 ⎜ ⎝ 0 0

⎞ 1 1 0 1 1 0 ⎟ 4 →F4 ⎟ −F3 +F −→ ⎠ 0 −1 0 0 −1 1



1 ⎜ 0 ⎜ ⎝ 0 0

⎞ 1 1 0 1 1 0 ⎟ ⎟. 0 −1 0 ⎠ 0 0 1

Usando el corolario 5.2.12, el ejemplo 5.2.4 y el teorema 5.2.6 se tiene que det(A) = −1. 5.2.16 Definici´ on. Sea A = (aij ) ∈ Mat(n, R). Para i, j ∈ {1, · · · , n} notemos con Aij la matriz que resulta al reemplazar en A la i-´esima fila por ej = (0, · · · , 0, 1, 0, · · · , 0). Es decir, ⎞ ⎛ a1j−1 a1j a1j+1 · · · a1n a11 · · · ⎟ ⎜ .. .. .. ⎟ ⎜ . . . ⎟ ⎜ ⎜ai−11 · · · ai−1j−1 ai−1j ai−1j+1 · · · ai−1n ⎟ ⎟ ⎜ ··· 0 1 0 ··· 0 ⎟ Aij := ⎜ ⎟ .←− fila i ⎜ 0 ⎜ai+11 · · · ai+1j−1 ai+1j ai+1j+1 · · · ai+1n ⎟ ⎟ ⎜ ⎟ ⎜ .. .. .. ⎠ ⎝ . . . an1

···

anj−1

anj anj+1 ↑ columna j

Definimos, adem´as: Cij := det(Aij ). ´ determinante 5.2. La funcion

···

ann

156

´ Gutierrez-Robinson

5.2.17 Observaci´ on. Sea A = (aij ) ∈ Mat(n, R). Sobre las filas de A aplicamos las transposiciones (i, i − 1), (i − 1, i − 2), · · · , (2, 1), luego cuando sobre las columnas de A efectuamos las transposiciones (j, j − 1), (j − 1, j − 2), · · · , (2, 1) y aplicando los teoremas 5.2.11 (b) y ⎛ 1 ⎜ a1j ⎜ ⎜ .. ⎜ . i−1+j−1 det ⎜ Cij = (−1) ⎜ aij ⎜ ⎜ .. ⎝ . anj Por lo tanto, si definimos ⎛ a11 · · · ⎜ .. ⎜ . ⎜ Mij := ⎜ ⎜ ai1 · · · ⎜ .. ⎝ . an1 · · ·

a1j

···

aij

···

anj

···

5.2.14, se tiene que 0··· a11 · · ·

0 a1j

··· ···

ai1 · · ·

aij

···

an1 · · ·

anj

···

⎞ 0 a1n ⎟ ⎟ .. ⎟ . ⎟ ⎟. ain ⎟ ⎟ .. ⎟ . ⎠ ann

⎞ a1n .. ⎟ . ⎟ ⎟ ain ⎟ ⎟ ∈ Mat(n − 1, R) .. ⎟ . ⎠ ann

se tiene que Cij = (−1)i+j det(Mij ). 5.2.18 Definici´ on. Sea A ∈ Mat(n, R). Definimos y notamos la matriz adjunta de A por adj(A) := (Cij )t . El siguiente teorema es conocido como el desarrollo del determinante de una matriz A a lo largo de la i-´esima fila, respectivamente, desarrollo del determinante de A a lo largo de la j-´esima columna. 5.2.19 Teorema. Sea A = (aij ) ∈ Mat(n, R). Entonces (a) A adj(A) = det(A)In . Es decir, n 

aij Ckj = δik det(A).

j=1

Cap´ıtulo 5. El determinante

157

´ Algebra lineal

Para i = k se verifica que det(A) =

n 

aij Cij .

j=1

Al c´ alculo del determinante de esta forma le llamamos desarrollo por cofactores a lo largo de la i-´esima fila. (b) adj(A) A = det(A)In . Es decir, n 

Cji ajk = δik det(A).

j=1

Para i = k se verifica que det(A) =

n 

aji Cji .

j=1

Al c´ alculo del determinante de esta forma le llamamos desarrollo por cofactores a lo largo de la i-´esima columna. (c) Si R es un cuerpo y det(A) = 0, entonces A−1 = det(A)−1 adj(A). ´ n. Demostracio (a) Usando el teorema 5.2.8 para i, k ∈ {1, . . . , n} ⎛ a11 · · · a1j ⎜ .. .. ⎜ . n n .   ⎜ 0 · · · 1 aij Ckj = aij det ⎜ ⎜ ⎜ .. .. j=1 j=1 ⎝ . . an1 · · · anj ⎛

a11 · · · ⎜ .. ⎜ . ⎜ = det ⎜ ⎜ ai1 · · · ⎜ .. ⎝ . an1 · · ·

a1j .. .

···

aij .. .

···

anj

···

= δik det(A). ´ determinante 5.2. La funcion

se tiene: ··· ··· ···

⎞ a1n .. ⎟ . ⎟ ⎟ 0 ⎟ ⎟← k .. ⎟ . ⎠ ann

⎞ a1n .. ⎟ . ⎟ ⎟ ain ⎟ ⎟← k .. ⎟ . ⎠ ann

158

´ Gutierrez-Robinson

Si k = i, entonces se tiene la demostraci´on de (a). (b) Se deja como ejercicio. (c) Se sigue de (a) y (b).



5.2.20 Ejemplo. Calculamos el determinante de la siguiente matriz. ⎛

⎞ 4 −4 2 1 ⎜ 1 1 0 3 ⎟ ⎟. A=⎜ ⎝ 2 0 3 4 ⎠ 0 −3 2 1 Aplicando el desarrollo por cofactores a lo largo de la segunda fila tenemos: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ −4 2 1 4 2 1 4 −4 2 det(A) = − det ⎝ 0 3 4⎠ + det ⎝2 3 4⎠ + 3 det ⎝2 0 3⎠ −3 2 1 0 2 1 0 −3 2 = 75. 5.2.21 Ejemplo. Sean K un cuerpo, n ≥ 2 y A la matriz considerada en el ejemplo 4.3.2. ⎛

a b b ··· ⎜b a b · · · ⎜ ⎜ A = ⎜b b a · · · ⎜ .. ⎝. b

b

b ···

⎞ b b⎟ ⎟ b⎟ ⎟ ∈ Mat(m × n, K). .. ⎟ .⎠ a

Se demostr´ o que A puede transformarse en la matriz ⎛

a + (n − 1)b 0 0 ··· ⎜ 0 a − b 0 ··· ⎜ ⎜ 0 0 a − b ··· ⎜ ⎜ .. ⎝ . 0

0

0

···

Por lo tanto, det(A) = (a + (n − 1)b)(a − n)n−1 . Cap´ıtulo 5. El determinante

0 0 0 .. . a−b

⎞ ⎟ ⎟ ⎟ ⎟. ⎟ ⎠

159

´ Algebra lineal

5.2.22 Ejemplo. (Determinante de Vandermonde1 ). Sea K un cuerpo y A ∈ Mat(n, K) dada por ⎛ ⎞ 1 a1 a21 · · · an−1 1 ⎜1 a2 a2 · · · an−1 ⎟ 2 2 ⎜ ⎟ A = ⎜. .. ⎟ . ⎝ .. . ⎠ 1 an a2n · · · Si a1 , . . . , an ∈ K, entonces det(A) =

*

an−1 n

(aj − ai ).

j>i

Soluci´ on. Notamos con f (a1 , . . . , an ) el determinante a calcular. Efectuando las operaciones elementales sobre las columnas, listadas a continuaci´ on: cn − a1 cn−1 → cn cn−1 − a1 cn−2 → cn−1 .. . c 3 − a1 c 2 → c3 c 2 − a1 c 1 → c2 . Entonces tenemos:



1 0 ⎜1 a2 − a1 ⎜ f (a1 , . . . , an ) = det ⎜ . ⎝ ..

0 (a2 − a1 )a2

··· ···

1 an − a1 (an − a1 )an · · · ⎛

a 2 − a1 ⎜ .. = det ⎝ .

(a2 − a1 )a2

···

an − a1 (an − a1 )an · · ·

⎞ 0 ⎟ (a2 − a1 )an−2 2 ⎟ ⎟ .. ⎠ . (an − a1 )an−2 n

⎞ (a2 − a1 )an−2 2 ⎟ .. ⎠ . (an − a1 )an−2 n

= (a2 − a1 ) · · · (an − a1 )fn−1 (a2 , . . . , an ). 1

Alexandre-Thioophile Vandermonde (1735-1796). Matem´ atico franc´es nacido en Par´ıs. Es considerado como el iniciador de la teor´ıa sobre los determinantes, public´ o trabajos sobre ecuaciones polinomiales. Fue un participante activo en la Revoluci´ on francesa, miembro de la comuna de Par´ıs. ´ determinante 5.2. La funcion

160

´ Gutierrez-Robinson

Usando inducci´on matem´ atica sobre n demostramos que * f (a1 , . . . , an ) = (aj − ai ). j>i

Si n = 2, entonces la afirmaci´on es inmediata. Suponemos que * (aj − ai ). f (a2 , . . . , an ) = j>i≥2

Entonces f (a1 , . . . , an ) = (a2 − a1 ) · · · (an − a1 )fn−1 (a2 , . . . , an ) * (aj − ai ) = (a2 − a1 ) · · · (an − a1 ) * = (aj − ai ).

j>i≥2



j>i

En particular, si ai = aj para i = j, entonces f (a1 , . . . , an ) = 0. Por lo tanto, el sistema (a, ai , . . . , an−1 ) es linealmente independiente. i 5.2.23 Teorema. Sean K un cuerpo. A ∈ Mat(n, K) es regular si y solo si det(A) = 0. ´ n. Si det(A) = 0, entonces la regularidad de A se sigue Demostracio del teorema 5.2.19. Rec´ıprocamente, si A es regular, entonces existe A−1 ∈ Mat(n, K) tal que AA−1 = In . En tal caso det(A) · det(A−1 ) = 1. Dado que K es un cuerpo, se tiene que det(A) = 0.



5.2.24 Teorema. (G. Cramer2 ). Sean K un cuerpo y A = (aij ) ∈ Mat(n, K), con det(A) = 0. Consideremos el sistema de ecuaciones (L)

n 

aij xj = bi ,

i = 1, . . . , n.

j=1 2

Gabriel Cramer (1704-1752). Matem´ atico suizo, profesor en la Universidad de Ginebra entre 1724 y 1727. En 1731 present´ o en la Academia de las Ciencias de Par´ıs, una memoria sobre las causas de la inclinaci´ on de las ´ orbitas de los planetas. Edit´ o las obras de los hermanos Bernouilli y el Comercium epistolarum de Leibniz. Cap´ıtulo 5. El determinante

161

´ Algebra lineal

Entonces (L) tiene una u ´nica soluci´on dada por x = (x1 , . . . , xn ), donde 1  xj = Akj bk det(A) n

k=1



=

1 det(A)

a11 ⎜ .. det ⎝ .

···

an1 · · ·

b1

···

bn · · ·

⎞ a1n .. ⎟ . . ⎠ ann

´ n. Del teorema 4.5.5 se sigue que (L) tiene una u Demostracio ´ nica soluci´ on. Por otro lado, por el teorema 5.2.19 se tiene que n 

aij Ckj = δik det(A).

j=1

Entonces, n  j=1

n n   1 bk aij Akj aij xj = det(A)

=

1 det(A)

k=1 n 

j=1

bk δik det(A)

k=1

= bi . Adem´ as,



Akj

a11 · · · ⎜ .. ⎜ . ⎜ =⎜ ⎜ ak1 · · · ⎜ .. ⎝ . an1 · · ·

0 ··· .. . 1 ··· .. .

0 ··· ↑ columna j

⎞ a1n .. ⎟ . ⎟ ⎟ akn ⎟ ⎟. .. ⎟ . ⎠ ann

´ determinante 5.2. La funcion

162

´ Gutierrez-Robinson

Entonces, 1  xj = Akj bk det(A) n

k=1



a11 · · · ⎜ .. ⎜ . n  ⎜ 1 = det ⎜ ⎜ak1 · · · det(A) ⎜ .. k=1 ⎝ . an1 · · ·



a11 · · · ⎜ .. ⎜ . n  ⎜ 1 = det ⎜ ⎜ak1 · · · det(A) ⎜ .. k=1 ⎝ . an1 · · ·



a11 · · · ⎜ .. ⎜ . ⎜ 1 det ⎜ = ⎜ak1 · · · det(A) ⎜ .. ⎝ . an1 · · ·

0 ··· .. . 1 ··· .. . 0 ···

0 .. .

···

bk · · · .. . 0

b1 .. .

···

bk .. .

···

bn · · ·

···

⎞ a1n .. ⎟ . ⎟ ⎟ akn ⎟ ⎟ bk .. ⎟ . ⎠ ann

⎞ a1n .. ⎟ . ⎟ ⎟ akn ⎟ ⎟ .. ⎟ . ⎠ ann

⎞ a1n .. ⎟ . ⎟ ⎟ akn ⎟ ⎟. .. ⎟ . ⎠ ann



Ejemplo. Resolver el siguiente sistema de ecuaciones lineales usando la regla de Cramer. x−y+z = 0 3x − y + z = 1

Soluci´ on. Es claro que

x+y+z ⎛ 1 A = ⎝3 1

= 2. ⎞ −1 1 −1 1⎠ 1 1

Cap´ıtulo 5. El determinante

⎛ ⎞ 0 y b = ⎝1⎠. Entonces 2

163

´ Algebra lineal



0 1 ⎝ x = det(A) det 1 2 ⎛ 1 1 y = det(A) det ⎝3 1 ⎛ 1 1 ⎝ z = det(A) det 3 1

⎞ −1 1 −1 1⎠ = 12 1 1 ⎞ 0 1 1 1⎠ = 1 2 1 ⎞ −1 0 −1 1⎠ = 12 . 1 2

Interpolaci´ on polinomial Suponemos que son dados n + 1 puntos en R2 , cuyas coordenadas son (x1 , y1 ), . . . , (xn+1 , yn+1 ). Un problema interesante es encontrar si existe una funci´on polin´omica de grado n que interpole estos datos. Es decir, encontrar una funci´on f : R −→ R de la forma f (x) = an xn + · · · + a1 x + a0 , cuyo gr´afico pase por los n + 1 puntos dados. Los n + 1 puntos pueden ser utilizados para formar un sistema de n + 1 ecuaciones lineales en las n + 1 variables an , . . . , a0 . Se puede demostrar que si los puntos satisfacen la hip´otesis xi = xj para todo i, j ∈ {1, . . . , n + 1}, entonces el polinomio interpolante siempre existe y es u ´nico. Consideramos el caso n = 2 y suponemos que est´an dados los puntos (x1 , y1 ), (x2 , y2 ), (x3 , y3 ) y que, adem´as, xi = xj para todo i, j ∈ {1, 2, 3}. La funci´on polin´omica buscada tiene la forma f (x) = a2 x2 + a1 x + a0 . Reemplazando las coordenadas de los puntos tenemos el sistema: a2 x21 + a1 x1 + a0 = y1 a2 x22 + a1 x2 + a0 = y2 a2 x23 + a1 x3 + a0 = y3 . La matriz de coeficientes de este sistema est´a dada por ´ determinante 5.2. La funcion

164

´ Gutierrez-Robinson



⎞ x21 x1 1 A = ⎝ x22 x2 1 ⎠ . x23 x3 1 El determinante de A no es m´as que el determinante de Vandermonde. Se verifica que det(A) = (x2 − x1 )(x3 − x1 )(x2 − x3 ). Dado que xi = xj para todo i, j ∈ {1, 2, 3}, este determinante no se anula; por lo tanto, A es invertible y el sistema tiene soluci´on u ´nica. 5.2.25 Ejemplo. Determine la funci´on polin´omica de grado dos que interpola los punto (1, 2), (−1, −1) y (2, 3). Soluci´ on. El sistema de ecuaciones que resulta es: a 2 + a1 + a0 = 2 a2 − a1 + a0 = −1 4a2 + 2a1 + a0 = 3. En tal caso la soluci´on es (− 16 , 32 , 23 ). As´ı, la funci´ on polin´omica de grado dos que interpola los puntos es: f (x) = − 16 x2 + 32 x + 23 .

5.3.

Polinomio caracter´ıstico y auto-valores

5.3.1 Definici´ on. Sean V un espacio vectorial sobre un cuerpo K y A ∈ EndK (V ). Decimos que λ ∈ K es un auto-valor o un valor propio de A si se verifica que ker(A − λI) = {0}. Es decir, si existe 0 = v ∈ V tal que A(v) = λv. Los elementos no nulos de ker(A − λI) se denominan auto-vectores o vectores propios de λ. Cap´ıtulo 5. El determinante

165

´ Algebra lineal

5.3.2 Definici´ on. Sea K un cuerpo. (a) Para A ∈ Mat(n, K) se define el polinomio caracter´ıstico de A, notado con fA de la siguiente manera: fA (x) := det(xIn − A). (b) Sean V un espacio vectorial sobre K, con dimK (V ) = n y A ∈ EndK (V ). Si B es una base para V , entonces se define el polinomio caracter´ıstico de A as´ı: fA (x) := det(xIn − AB ). Demostramos ahora que la definici´on de polinomio caracter´stico para un operador no depende de la escogencia de la base. En efecto, si C ∈ Mat(n, K) es invertible, entonces se tiene que fC −1 AC (x) = det(xIn − C −1 AC) = det(C −1 (xIn − A)C) = det(xIn − A) = fA (x). 5.3.3 Observaci´ on. Sea A = (aij ) ∈ Mat(n, K). Los coeficientes de los t´erminos xn y xn−1 en fA pueden determinarse f´acilmente a partir del producto (x − a11 ) · · · (x − ann ) = x − n

n 

 ajj xn−1 + · · ·

j=1

Adem´ as, fA (0) = det(−A) = (−1)n det(A). Por lo tanto, fA (x) = xn − Tr(A)xn−1 + · · · + (−1)n det(A). 5.3.4 Teorema. Sean V un espacio vectorial sobre K, con dimK (V ) = n y A ∈ EndK (V ). Entonces (a) λ ∈ K es un auto-valor de A si y solo si fA (λ) = 0. (b) Si K es un cuerpo algebraicamente cerrado, entonces existen autovalores para A. 5.3. Polinomio caracter´ıstico y auto-valores

166

´ Gutierrez-Robinson

(c) Si K es el cuerpo de los n´ umeros reales y n es impar, entonces existe por lo menos un auto-valor real para A. (d) A tiene a lo m´as n auto-valores diferentes. ´ n. Demostracio (a) Sea λ ∈ K. Entonces λ ∈ K es un auto-valor de A ⇔ ker(A − λI) = {0} ⇔ A − λI no es un monomorfismo ⇔ A − λI no es regular ⇔ det(A − λI) = 0 ⇔ fA (λ) = 0. (b) Recordemos que un cuerpo K es un cuerpo algebraicamente cerrado si todo polinomio no constante con coeficientes en K admite una ra´ız en K. Por lo tanto, si K es un cuerpo algebraicamente cerrado, entonces fA tiene una ra´ız en K. El resto se sigue de (a). (c) Es una consecuencia del teorema del valor medio para funciones continuas. En efecto, fA tiene grado impar y, adem´as, l´ım fA (x) = ±∞.

x→±∞

Por lo tanto, existe λ ∈ R tal que fA (λ) = 0. (d) Se sigue del hecho que grad(fA ) = n.



5.3.5 Ejemplos. Sea V un espacio vectorial sobre K. (a) Sea I ∈ End(V ) el operador identidad. Entonces para todo v ∈ V se verifica que I(v) = v. Por lo tanto, 1 es el u ´nico valor propio de I y todo 0 = v ∈ V es un vector propio de 1. (b) Supongamos que dimK (V ) = 2 y sea B = (v1 , v2 ) una base para V . Sea, adem´as, A ∈ EndK (V ) definido por A(v1 ) = v2 A(v2 ) = −v1 . Entonces fA (x) = x2 + 1 y se verifica que A no tiene auto-valores reales. Cap´ıtulo 5. El determinante

167

´ Algebra lineal

(c) Sean V = {f | f ∈ C ∞ (R)} y sea D ∈ EndR (V ) el operador diferencial. Es decir, D(f ) = f  para todo f ∈ V . Para todo λ ∈ R umero se verifica que D(eλx ) = λeλx . Esto demuestra que todo n´ real es un auto-valor de D. (d) Sea A ∈ Mat(3, R) dada por ⎛

⎞ 1 −1 −1 A = ⎝1 −1 0 ⎠ . 1 0 −1 El polinomio caracter´ıstico de A est´a dado por fA (x) = det(xI3 − A) = (x + 1)(x2 + 1). As´ı los valores propios de A son −1, i, −i. Los vectores propios correspondientes al valor propio −1 podemos obtenerlos de la siguiente manera: (x, y, z) es un auto-vector de − 1 ⇔ (A + I)(x, y, z)t = 0 ⎛ ⎞⎛ ⎞ 2 −1 −1 x 0 ⎠⎝y ⎠ = 0 ⇔ ⎝1 0 1 0 0 z  2x − y − z = 0 ⇔ x = 0. El conjunto soluci´ on de este sistema de ecuaciones es: {(x, y, z) ∈ R3 | x = 0 ∧ y = −z}. Es decir el conjunto soluci´ on es: {(0, −z, z) | z ∈ R}. 5.3.6 Teorema. (Cayley-Hamilton) Sean V un espacio vectorial sobre K, con dimK (V ) = n y A ∈ EndK (V ). Entonces fA (A) = 0. ´ n. Sean B una base para V y T := AB ∈ Mat(n, K). Demostracio Usando el teorema 5.2.19 (a) para todo x ∈ K se sigue que (xIn − T ) adj(xIn − T ) = det(xIn − T )In = fA (x)In . 5.3. Polinomio caracter´ıstico y auto-valores

168

´ Gutierrez-Robinson

Cada entrada en la matriz adj(xIn −T ) es un polinomio de grado menor o igual a n−1. Por lo tanto, existen matrices C0 , C1 , . . . , Cn−1 ∈ Mat(n, K) tales que (5.5) adj(xIn − T ) = C0 + C1 x + · · · + Cn−1 xn−1 . n j Sea fA = j=0 aj x , con an = 1. Entonces reemplazando en (5.5) tenemos: (xIn − T )(C0 + C1 x + · · · + Cn−1 xn−1 ) =

n 

 aj xj I n .

j=0

Comparando coeficientes se sigue que a0 In = −T C0 a 1 I n = C0 − T C 1 .. . an−1 In = Cn−2 − T Cn−1 In = Cn−1 . Esto demuestra que fA (T ) =

n 

aj T j

j=0

=

n 

T j (aj In )

j=0

= −T C0 + T (C0 − T C1 ) + · · · + T n−1 (Cn−2 − T Cn−1 ) + T n Cn−1 = 0. Por lo tanto, tambi´en se verifica que fA (A) = 0.



5.3.7 Definici´ on. Sean V un espacio vectorial sobre el cuerpo K, con dimK (V ) = n y A ∈ EndK (V ). La multiplicidad de una auto-valor λ de A se define como la multiplicidad de λ como ra´ız del polinomio fA . 5.3.8 Teorema. Sean V un espacio vectorial sobre K, con dimK (V ) = n y A ∈ EndK (V ). Entonces, + (a) Si fA se puede factorizar en la forma fA = nj=0 (x − aj ), con aj ∈ K, entonces det(A) = a1 · · · an y Tr(A) = a1 + · · · + an . Cap´ıtulo 5. El determinante

169

´ Algebra lineal

(b) Si λ es un valor propio de A con multiplicidad k, entonces dimK ker(λIn − A) ≤ k. ´ n. Demostracio (a) Note que n *

(x − aj ) = fA = xn − Tr(A)xn−1 + · · · + (−1)n det(A)

j=0

Entonces con la comparaci´on de coeficientes se tiene el resultado. (b) Sea B = (v1 , . . . , vn ) una base para V , de tal forma que B  = (v1 , . . . , vm ) con m ≤ n sea una base para ker(λIn − A). La matriz correspondiente a AB  tiene la forma   λIn C , 0 D con C y D adecuadas. Utilizando el teorema sobre determinantes de matrices por bloques tenemos que   (x − λ)Im −C fA = det = (x − λ)m fD , 0 xIn−m − D con lo cual se demuestra que λ es una ra´ız de multiplicidad por lo menos m. Es decir, m ≤ k.  5.3.9 Ejemplo. Sean K un cuerpo de caracter´ıstica cero, n ∈ N y V = {f ∈ K[x] | grad(f ) ≤ n}. Sea, adem´as, D ∈ EndR (V ) el operador diferencial. Con respecto a la base B = (1, x, . . . , xn ) de V se tiene que la representaci´ on matricial de D esta dada por ⎞ ⎛ 0 1 0 ··· 0 ⎜0 0 2 · · · 0 ⎟ ⎟ ⎜ ⎜ .. ⎟ . DB = ⎜ ... .⎟ ⎟ ⎜ ⎝ 0 0 0 · · · n⎠ 0 0 0 ··· 0 Por lo tanto, el polinomio caracter´ıstico de fD es xn+1 y se sigue que 0 es el u ´nico auto-valor de D. Dado que K es de caracter´ıstica cero, se sigue que ker(D) = {k | k ∈ K}. Es decir, dimK ker(D) = 1. 5.3. Polinomio caracter´ıstico y auto-valores

170

5.4.

´ Gutierrez-Robinson

Ejercicios

1. Si consideramos como operaci´ on en Sym(n) la composici´on usual de funciones, demuestre que dos ciclos disjuntos conmutan. 2. Sea π ∈ Sym(n). Demuestre que sig(π) = sig(π −1 ). 3. Sean A ∈ Mat(n, R) y λ ∈ R. Demuestre que det(λA) = λn det(A). 4. Sean A, B ∈ Mat(4, R). Si det(A) = −3 y det(B) = −1, determine: a) det(3A) b) det(3At ) c) det((2B)t ) d ) det(A−1 ) e) det(A2 ) f ) det((A−1 )t ) g) det(2A−1 B t ). 5. En un plano cartesiano considere los puntos P (x1 , y1 ) y Q(x2 , y2 ). Demuestre que el a´rea A del paralelogramo determinado por los −→ −→ segmentos dirigidos 0P y 0Q est´a dado por   x 1 y1 A = det . x 2 y2 6. Demuestre que si A ∈ Mat(n, R) es una matriz ortogonal, entonces det(A) ∈ {−1, 1}. 7. Demuestre que si A ∈ Mat(n, R) es una matriz nilpotente con ´ındice de nilpotencia m, entonces det(A) = 0. 8. ¿Qu´e puede decirse del determinante de una matriz anti-sim´etrica? 9. Calcule el determinante de la matriz: ⎛ 0 0 ··· ⎜ 0 0 ··· ⎜ A=⎜ . . ⎝ .. .. 1 0 ···

⎞ 0 1 1 0 ⎟ ⎟ .. .. ⎟ . . . ⎠ 0 0

Cap´ıtulo 5. El determinante

171

´ Algebra lineal

10. Sea A ∈ Mat(n, R). Demuestre que det(adj(A)) = det(A)n−1 . 11. Sea A ∈ Mat(3, R) dada por ⎛

⎞ a 3 b3 c 3 A = ⎝ a b c ⎠. 1 1 1

Usando propiedades del determinante, exprese det(A) como producto de cuatro factores lineales. 12. Sean A, B, C ∈ Mat(2, R) dadas por       a b α β b a−c A= , B= y C= . 0 c 0 γ β α−γ Demuestre que AB = BA si y solo si det(C) = 0. 13. Sean A, B ∈ Mat(3, R) ⎛ 1 a A=⎝ 1 b 1 c

dadas por ⎞ ⎞ ⎛ bc 1 a a2 ac ⎠ y B = ⎝ 1 b b2 ⎠ . 1 c c2 ab

Usando propiedades del determinante demuestre que det(A) = det(B). 14. Halle una funci´on polin´omica de grado 3 que interpole los puntos (−1, 0), (1, 1), (0, 2) y (2, −3). 15. Sea V un espacio vectorial complejo y A ∈ End(V ). Si λ2 es un valor propio no negativo de A2 , demuestre que por lo menos λ o −λ es un valor propio de A. Sugerencia: A2 − λ2 I = (A + λI)(A − λI). 16. Sean A, B ∈ Mat(n, K), con A regular. Demuestre que AB y BA tienen el mismo conjunto de auto-valores. 17. Sea A un endomorfismo de R3 , con vectores propios v1 = (0, 1, 1), v2 = (1, −1, 0) y v3 = (1, 0, −1). Determine la matriz asociada a A, teniendo en cuenta que su primera columna es el vector (1, 2, 3). 18. Sean A ∈ Mat(n, K), con K = R o K = C y λ un auto-valor de A con auto-vector v. Demuestre que 5.4. Ejercicios

172

´ Gutierrez-Robinson

a) αλ es un auto-valor de αA con auto-vector v. b) λ − μ) es un auto-valor de (A − μI) con auto-vector v. c) λk es un auto-valor de Ak con auto-vector v. d ) Si f es un polinomio, entonces f (λ) es un auto-valor de f (A) con auto-vector v. e) Si A es invertible, entonces λ = 0 y λ−1 es un auto-valor de A−1 con auto-vector v. 19. En cada caso determine los auto-valores y los correspondientes auto-vectores de la matriz dada.   1 2 a) 2 −3   1 0 b) 1 1   1 1 c) 1 1   cos θ − sen θ d) sen θ cos θ ⎛ ⎞ 1 0 0 e) ⎝ −3 1 0 ⎠. 4 −7 1 20. Diremos que A ∈ Mat(n, K) con K = R o K = C es diagonalizable, si existe una matriz no singular P tal que P −1 AP es una matriz diagonal. Demuestre que a) A es diagonalizable si y solo si A tiene n auto-vectores linealmente independientes. b) Si todos los auto-valores de A tienen multiplicidad uno, entonces es diagonalizable. c) A auto-valores distintos de A est´an asociados auto-vectores linealmente independientes. Es decir, si v1 , . . . , vk son autovectores de A correspondientemente asociados a los autovalores λ1 , . . . , λk y estos son todos distintos, entonces el conjunto {v1 , . . . , vk } es linealmente independiente.

Cap´ıtulo 5. El determinante

Cap´ıtulo 6 Espacios normados y espacios euclidianos Contenido 6.1. Normas y algunos conceptos topol´ ogicos . . 173 6.2. Espacios euclidianos . . . . . . . . . . . . . . . 183 6.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . 194

6.1.

Normas y algunos conceptos topol´ ogicos

A lo largo de este cap´ıtulo consideramos espacios vectoriales sobre los cuerpos R o C. En general K denota el cuerpo de los n´ umeros reales o el cuerpo de los n´ umeros complejos. En el caso complejo es de gran importancia la funci´on conjugaci´ on compleja σ : C −→ C definida por z −→ z¯, donde para z = a + bi, con a, b ∈ R, el correspondiente complejo conjugado σ(z) est´a dado por z¯ = a − bi. Es claro que la conjugaci´on compleja es un automorfismo de C que satisface, adem´as, σ 2 = IdC y σ |R = IdR . Para z = a + bi ∈ C, con a, b ∈ R, notamos con Re(z) = a = 12 (z + z¯) 173

174

´ Gutierrez-Robinson

y lo llamamos la parte real de z. De manera an´aloga, notamos con Im(z) = b = 12 (z − z¯) y lo llamamos la parte imaginaria de z. El valor absoluto de z notado con |z| se define de la siguiente manera |z| =

, √ a2 + b2 = z z¯.

Es claro que z ∈ R ⇔ Re(z) = z ⇔ Im(z) = 0 ⇔ z = z¯. 6.1.1 Definici´ on. Sea V un espacio vectorial sobre K. Una norma sobre V es una funci´on  ·  : V −→ R con las siguientes propiedades: para todo v, v1 , v2 ∈ V y todo k ∈ K (N 1) v ≥ 0 y v = 0 si y solo si v = 0. (N 2) kv = |k| v. (N 3) v1 + v2  ≤ v1  + v2 . (Desigualdad triangular). Si existe una norma sobre V , entonces se dice que V es un espacio normado. 6.1.2 Ejemplos. (a) Sea V = K. Entonces el valor absoluto |·| define una norma sobre V . (b) Sea V un espacio vectorial sobre K de dimensi´ on finita n. Sea, adem´ as,  B = (v1 , . . . , vn ) una base para V . Para v ∈ V , se tiene que v = nj=1 xj vj . Definimos v1 :=

n 

|xj |.

j=1

Se verifica que  · 1 es una norma sobre V . Cap´ıtulo 6. Espacios normados y espacios euclidianos

175

´ Algebra lineal

(c) Sean V = K n y 1 ≤ p < ∞. Para v = (v1 , . . . , vn ) definimos vp :=

n 

|vj |

p

1

p

.

j=1

Se verifica que  · p es una norma sobre V . En efecto, las propiedades (N 1) y (N 2) se siguen inmediatamente de la definici´on de  · p . La desigualdad triangular es consecuencia de la desigualdad de Minkowski: n 

|vj + wj |

p

1

p



j=1

n 

|vj |

p

1

p

+

n 

j=1

|wj |

p

1

p

.

j=1

Cuando p = 2 obtenemos la norma euclidiana sobre Rn . (d) Sea V = K n . Para v = (v1 , . . . , vn ) definimos v∞ := m´ax |vj |. 1≤j≤n

F´acilmente ocurre que (N 1) y (N 2) se verifican. Adem´as, v1 + v2 ∞ = ≤ =

m´ax |vj + wj |

1≤j≤n

m´ ax (|vj | + |wj |)

1≤j≤n

ax |wj | m´ax |vj | + m´

1≤j≤n

1≤j≤n

= v1 ∞ + v2 ∞ . (e) Sea V = C 0 ([a, b], R) y para f ∈ V definimos: f ∞ := sup |f (t)|. t∈[a,b]

Se verifica que  · ∞ es una norma sobre V . (f ) Sea V = C 0 ([a, b], R) y para f ∈ V definimos: # f 1 :=

b

|f (t)|dt.

a

Se deja como ejercicio verificar que  · 1 es una norma sobre V . ´ 6.1. Normas y algunos conceptos topologicos

176

´ Gutierrez-Robinson

6.1.3 Definici´ on. Sea M un conjunto no vac´ıo. Se dice que la funci´on d : M × M −→ M define una m´ etrica sobre M o que (M, d) es un espacio m´ etrico si se verifican las siguientes propiedades: para todo m1 , m2 , m3 ∈ M (M 1) d(m1 , m2 ) ≥ 0. (M 2) d(m1 , m2 ) = 0 si y solo si m1 = m2 (M 3) d(m1 , m2 ) = d(m2 , m1 ) (M 4) d(m1 , m3 ) ≤ d(m1 , m2 ) + d(m2 , m3 ). 6.1.4 Lema. Sean V un espacio vectorial sobre un cuerpo K y  ·  una norma sobre V . Para v1 , v2 ∈ V , definimos d(v1 , v2 ) := v1 − v2 . Entonces d define una m´etrica sobre V . ´ n. Las afirmaciones M 1, M 2 y M 3 se siguen inmediaDemostracio tamente de la definici´on. Adem´as, d(v1 , v3 ) = v1 − v3  = v1 − v2 + v2 − v3  ≤ v1 − v2  + v2 − v3  = d(v1 , v3 ) + d(v1 , v3 ). Con lo cual se tiene la afirmaci´on.  El resultado anterior nos permite introducir sobre un espacio normado V los conceptos de convergencia, sucesi´on de Cauchy y espacio de Banach, entre otros. 6.1.5 Definici´ on. Sean V un espacio vectorial sobre un cuerpo K y  ·  una norma sobre V . (a) Una sucesi´on {vj }j∈N ⊆ V converge a v ∈ V , con respecto a la norma  · , si l´ımj→∞ vj − v = 0. En este caso escribimos: l´ım vj = v

j→∞

y v se llama punto l´ımite de la sucesi´ on. Cap´ıtulo 6. Espacios normados y espacios euclidianos

177

´ Algebra lineal

(b) Un subconjunto W de V se llama cerrado si l´ımj→∞ wj = w, con wj ∈ W , implica que w ∈ W . Un subconjunto W de V se llama abierto si V \ W es cerrado. Equivalentemente, si W es abierto y w ∈ W , entonces existe  > 0 tal que {v ∈ V | v − w < } ⊆ W. (c) Una sucesi´ on {vj }j∈N se llama una sucesi´ on de Cauchy si para todo  > 0, existe un n´ umero natural n, que depende de , tal que vj − vk  < , para todo j, k ≥ n. (d) Decimos que V es completo, si toda sucesi´on de Cauchy {vj }j∈N ⊆ V converge a un elemento de V . Un espacio normado completo se llama un espacio de Banach. 6.1.6 Lema. Sea V un espacio normado, con norma  · . Entonces (a) Para todo v, w ∈ V se verifica que v + w ≥ v − w (b) Si {vj }j∈N es una sucesi´on convergente con l´ımj→∞ vj = v; entonces l´ımj→∞ vj  = v. Es decir, l´ım vj  =  l´ım vj .

j→∞

j→∞

´ n. Demostracio (a) Sean v, w ∈ V . Entonces v = v + w − w ≤ v + w +  − w = v + w + w. (b) Note que para todo j ∈ N vj  = (vj − v) + v ≤ vj − v + v. Adem´ as, vj  = v + (vj − v) ≥ v − vj − v. En resumen, tenemos: |vj  − v| ≤ vj − v. Dado que l´ımj→∞ vj − v = 0, se sigue que l´ımj→∞ vj  = v.  ´ 6.1. Normas y algunos conceptos topologicos

178

´ Gutierrez-Robinson

6.1.7 Definici´ on. Sea V un espacio vectorial de dimensi´ on finita sobre  K y sean  ·  y  ·  normas sobre V . Se dice que estas son normas equivalentes si existen n´ umeros reales positivos a y b tales que para todo v ∈ V se verifica, av ≤ v ≤ bv. 6.1.8 Definici´ on. Sean (V,  · ) y (W,  ·  ) espacios vectoriales sobre un cuerpo K, normados y A ∈ HomK (V, W ). (a) A se llama acotado si existe una constante positiva M tal que ∀v ∈ V

A(v) ≤ M v.

(b) A se llama continuo en v0 ∈ V si para todo  > 0, existe δ > 0 tal que ∀v ∈ V ( v − v0  ≤ δ ⇒ A(v) − A(v0 ) ≤  ). Se dice que A es continuo si lo es en cada elemento de V . 6.1.9 Teorema. Sean (V,  · ) y (W,  ·  ) espacios vectoriales sobre un cuerpo K, normados y A ∈ HomK (V, W ). Entonces A es continuo si y solo si A es acotado. ´ n. Supongamos que A es continuo. Entonces en partiDemostracio cular lo es en 0. Por lo tanto, para  = 1 existe δ > 0 tal que Si v − 0 = v < δ, entonces A(v) = A(v) − A(0) ≤ 1. Sea 0 = v ∈ V cualquiera. Entonces - δ - v v - = δ. Por lo tanto,  δ v A(v)

Esto demuestra que

- - $ %- δ - δ = - v A(v)- = -A v v - ≤ 1. A(v) ≤ δ −1 v.

es decir, A es acotado. Cap´ıtulo 6. Espacios normados y espacios euclidianos

179

´ Algebra lineal

Rec´ıprocamente, suponemos que A es acotado. Entonces existe una constante positiva M tal que ∀v ∈ V

A(v) ≤ M v.

Sea v0 ∈ V cualquiera y sea  > 0. Entonces para todo v ∈ V se verifica que A(v) − A(v0 ) = A(v − v0 ) ≤ M v − v0 . Tomando δ := M se demuestra que A es continua en v0 y se tiene la conclusi´ on.  6.1.10 Teorema. Sea V un espacio vectorial de dimensi´ on finita sobre K. Entonces cualquier par de normas definidas sobre V son equivalentes. ´ n. Sean  ·  y  ·  normas sobre V . Demostracio (a) Sea  B = (v1 , . . . , vn ) una base para V . Para v ∈ V se tiene que v = nj=1 xj vj y n  |xj |. v1 = j=1

Sabemos que ´esta es una norma sobre V . Definimos, adem´as: c := m´ ax vj . 1≤j≤n

Entonces se sigue que n n n - -   v = xj v j - ≤ |xj |vj  ≤ c |xj | = c v1 . j=1

j=1

j=1

Es decir, para todo v ∈ V se tiene que v ≤ c v1 . Buscamos ahora una desigualdad del tipo v ≥ d v1 , con d positivo y que sea v´alida para todo v ∈ V . Consideramos la funci´ on f : K n −→ R definida por n - xj v j - . f (x1 , . . . , xn ) := j=1

´ 6.1. Normas y algunos conceptos topologicos

180

´ Gutierrez-Robinson

Se n funci´on es continua. En efecto: para v = nverifica que esta j=1 yj vj , por el lema anterior, se verifica que j=1 xj vj y w = n n  - - - - - - xj v j - − yj v j -  |f (x1 , . . . , xn ) − f (y1 , . . . , yn )| =  j=1

j=1

n n -  xj v j − yj v j ≤ j=1

j=1

n - (xj − yj )vj = -



j=1 n 

|xj − yj |vj 

j=1 n 

≤ c

|xj − yj |

j=1

= c (x1 , . . . , xn ) − (y1 , . . . yn )1 . El conjunto n    |xj | = 1 M := (x1 , . . . , xn ) ∈ K n | j=1

es cerrado y acotado en K n , por lo tanto; M es un conjunto compacto. Dado que M ⊆ Dom(f ) se sigue que f tiene un valor m´ınimo sobre M , digamos d. Sea n - zj vj - > 0. d = f (z1 , . . . , zn ) = j=1

Sea ahora 0 = v =

n

w :=

j=1 xj vj

1 v 1 v

=

∈ V . Definimos: n 

xj v 1 vj

j=1

=

n 

yj v j .

j=1

Entonces tenemos que w1 = 1 y, por lo tanto, (y1 , . . . , yn ) ∈ M . Esto demuestra que n - yj v j - = d ≤ f (y1 , . . . , yn ) = -

v v 1 .

j=1

Cap´ıtulo 6. Espacios normados y espacios euclidianos

181

´ Algebra lineal

Es decir, d v1 ≤ v. (b) Consideramos ahora el caso general. Sean  ·  y  ·  normas sobre V . De (a) se sigue que existen cj > 0 y dj > 0 tales que para todo v ∈ V se verifican

y

d1 v1 ≤ v ≤ c1 v1

(6.1)

d2 v1 ≤ v ≤ c2 v1 .

(6.2)

Con esto se sigue que d2 c1

≤ v ≤ d2 v1 ≤ v ≤ c2 v1 ≤

c2 d2

v.



6.1.11 Teorema. Sean V , W espacios vectoriales sobre K normados y A ∈ HomK (V, W ). Si dimK V < ∞, entonces A es continuo. ´ n. Sea B = (v1 , . . . , vn ) una base para V . Consideramos Demostracio nuevamente la norma  · 1 definida en el teorema 6.1.10. Sea, adem´as: M := m´ ax A(vj ). 1≤j≤n

Entonces para v ∈ V , digamos v =



j=1 xj vj ,

se verifica que

n n - -  A(v) = xj A(vj )- ≤ |xj | A(vj ) ≤ M v1 . j=1

j=1

Dado que V tiene dimensi´on finita, del teorema 6.1.10 se sigue que existe una constante b > 0 tal que v1 ≤ b v para todo v ∈ V . Entonces; A(v) ≤ M b v para todo v ∈ V. Esto demuestra que A es acotado, por lo tanto, continuo.



6.1.12 Lema. Sean (V, ·) un espacio vectorial normado de dimensi´on finita sobre un cuerpo K y B = (v1 , . . . , vn ) una base para V . Sea, adem´ as: n  xjk vj , k = 1, 2, . . . wk = j=1

con xjk ∈ K, una sucesi´on de elementos de V . Entonces: ´ 6.1. Normas y algunos conceptos topologicos

182

´ Gutierrez-Robinson

(a) Existe l´ımk→∞ wk si y solo si existe aj := l´ımk→∞ xjk para todo j ∈ N. En ese caso n  l´ım wk = aj v j . k→∞

j=1

(b) La sucesi´on {wk }k∈N es una sucesi´on de Cauchy si y solo si {xjk }k∈N es una sucesi´on de Cauchy para todo j = 1, . . . , n. ´ n. Demostracio (a) Dado que V es de dimensi´ on finita sobre K, del teorema anterior se tiene que dos normas cualesquiera son equivalentes. Por lo tanto, es suficiente demostrar la convergencia con respecto a la norma n  · 1 . Si w = j=1 zj vj , entonces wk − w1 =

n 

|xjk − zj |.

j=1

Entonces, l´ım wk = w ⇔ l´ım wk − w1 = 0

k→∞

k→∞

⇔ l´ım |xjk − zj | = 0, para todo j = 1, . . . , n k→∞

⇔ l´ım xjk = zj , para todo j = 1, . . . , n. k→∞

(b) Similar como en (a).



6.1.13 Teorema. Sea V un espacio vectorial normado. (a) Si dimK V < ∞, entonces V es un espacio de Banach. (b) Si W es un subespacio de V completo, entonces W es cerrado en V. (c) Si W es un subespacio de V y dimK W < ∞, entonces W es cerrado en V . ´ n. Demostracio (a) Sea B = (v1 , . . . , vn ) una base para V y sea adem´ as wk =

n 

xjk vj ,

k = 1, 2, . . .

j=1

Cap´ıtulo 6. Espacios normados y espacios euclidianos

183

´ Algebra lineal

una sucesi´on de Cauchy en V . Usando el lema 6.1.12 (a), se tiene que {xjk }k∈N es una sucesi´on de Cauchy en K, para todo j = 1, . . . , n. Entonces existe xj ∈ K tal que l´ımk→∞ xjk = xj , para todo j = 1, . . . , n. Definamis w :=

n 

xj v j .

j=1

Usando nuevamente el lema 6.1.12 (a) se verifica que l´ımk→∞ wk = w, demostrando as´ı que V es completo. (b) Sea {wk }k∈N una sucesi´on de elementos de W tal que l´ımk→∞ wk = v. Demostramos que v ∈ W . Note que l´ım wk = v ⇔ ∀ > 0 ∃n ∈ N tal que wk − v ≤ 2 , ∀k ≥ n.

k→∞

Entonces para todo j, k ≥ n tenemos wk − wj  = (wk − v) − (wj − v) ≤ wk − v + wj − v ≤  Esto demuestra que {wk }k∈N es una sucesi´on de Cauchy en W . Dado que W es completo, se sigue que v ∈ W . 

(c) Se sigue de (a) y (b).

6.2.

Espacios euclidianos

6.2.1 Definici´ on. Sea V un espacio vectorial sobre K. Una funci´on ϕ : V × V −→ K se denomina una forma sesquilineal, si para todo k ∈ K y todo v, v1 , v2 ∈ V se verifican: (SL1) ϕ(v1 + v2 , v) = ϕ(v1 , v) + ϕ(v2 , v). (SL2) ϕ(kv1 , v2 ) = kϕ(v1 , v2 ). (SL3) ϕ(v, v1 + v2 ) = ϕ(v, v1 ) + ϕ(v, v2 ). ¯ (SL4) ϕ(v1 , kv2 ) = kϕ(v 1 , v2 ). 6.2. Espacios euclidianos

184

´ Gutierrez-Robinson

En el caso K = R se tiene que k = k¯ y entonces decimos simplemente que ϕ es una forma bilineal. Si decimos que ϕ es no-degenerada, se verifican: (1) Si ϕ(x, y) = 0 para todo y ∈ V , entonces x = 0. (2) Si ϕ(x, y) = 0 para todo x ∈ V , entonces y = 0. 6.2.2 Ejemplo. Sean V = K n y k ∈ K fijo. Para x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ) en V definimos n 

ϕ(x, y) :=

kxj yj .

(6.3)

j=1

Entonces ϕ es una forma sesquilineal sobre V , la cual es no-degenerada si y solo si k = 0. Si tomamos k = 1 y m < n, entonces ϕ(x, y) :=

m 

x j yj .

(6.4)

j=1

define sobre V una forma sesquilineal degenerada. 6.2.3 Definici´ on. Sea ϕ : V × V −→ K una forma sesquilineal sobre el espacio vectorial V , la cual satisface ϕ(x, y) = ϕ(y, x) para todo x, y ∈ V. (a) Si K = R, entonces ϕ se denomina una forma bilineal sim´ etrica. (b) Si K = C, entonces ϕ se denomina una forma herm´ıtica. Para este tipo de formas es usual escribir (x|y) en lugar de ϕ(x, y). 6.2.4 Ejemplo. Sean V = K n . Para x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ) en V definimos n  x j yj . (x|y) := j=1

Entonces seg´ un si K es el cuerpo de los n´ umeros reales o el cuerpo complejo, se tiene que (·|·) es una forma bilineal sim´etrica o una forma herm´ıtica. Es claro que esta forma es no-degenerada. Por ejemplo, se verifica que (x|x) > 0 para todo x = 0. Cap´ıtulo 6. Espacios normados y espacios euclidianos

185

´ Algebra lineal

6.2.5 Definici´ on. Sea ϕ : V × V −→ K una forma bilineal sim´etrica o una forma herm´ıtica. (a) Se dice que ϕ es semi-definida positiva si ϕ(x, x) ≥ 0, para todo x∈V. (b) Diremos que ϕ es definida positiva si ϕ(x, x) > 0, para todo 0 = x ∈ V . (c) Si ϕ es una forma semi-definida positiva sobre V , entonces decimos que ϕ es un producto interior o un producto escalar sobre V . (d) Si K = R, entonces la pareja (V, ϕ) se denomina un espacio euclidiano. (d) Si K = C, entonces la pareja (V, ϕ) se denomina un espacio unitario. 6.2.6 Ejemplos. (a) Sea V = K n y para v = (x1 , . . . , xn ) y w = (y1 , . . . , yn ) en V definimos (v|w) :=

n 

x j yj .

j=1

Entonces (·|·) define un producto interior sobre V . Si v = 0, entonces (v|v) > 0; por lo tanto, este es definido positivo. (b) Sea V = C 0 ([a, b], R) y para f, g ∈ V definimos # b (f |g) := f (t)g(t)dt. a

Entonces (·|·) define un producto interior sobre V . (c) Sean V = R4 y c una constante. Para x = (x1 , x2 , x3 , x4 ), y = (y1 , y2 , y3 , y4 ) en V definimos (x|y) = x1 y1 + x2 y2 + x3 y3 − c2 x4 y4 . Se verifica que (·|·) es un producto interior sobre V . Este describe la geometr´ıa del espacio de Minkowski, que soporta la cinem´atica de la teor´ıa especial de la relatividad. Note que 0 = v := (c, 0, 0, 1) satisface (v|v) = 0. 6.2. Espacios euclidianos

186

´ Gutierrez-Robinson

6.2.7 Teorema. (Desigualdad de Schwarz). Sean V un espacio vectorial sobre K y ϕ : V × V −→ K, (v, w) −→ (v|w) una forma bilineal sim´etrica o una forma herm´ıtica, semi-definida positiva. Entonces (a) Para todo v, w ∈ V se verifica |(v|w)|2 ≤ (v|v) (w|w). (b) Si, adem´as, ϕ es definida positivo, entonces |(v|w)|2 = (v|v) (w|w) si y solo si v y w son linealmente dependientes. ´ n. Demostracio (a) Sean v, w ∈ V y a, b ∈ K cualesquiera. Entonces: 0 ≤ (av + bw|av + bw) = a¯ a(v|v) + a¯b(v|w) + b¯ a(w|v) + b¯b(w|w) = a¯ a(v|v) + 2Re(a¯b(v|w)) + b¯b(w|w). Diferenciamos algunos casos: (1) (v|v) = (w|w) = 0. Entonces tomemos a = −1 y b = (v|w), con lo cual 0 ≤ 2Re(a¯b(v|w)) = −2|(v|w)|2 ≤ 0, de tal manera que |(v|w)| = 0 y, por lo tanto, la afirmaci´on. (2) (v|v) > 0. En ese caso, definimos a := −(v|w) y b := (v|v). Entonces 0 ≤ |(v|w)|2 (v|v) − 2|(v|w)|2 (v|v) + (v|v)2 (w|w) = −|(v|w)|2 (v|v) + (v|v)2 (w|w), con lo cual se tiene la afirmaci´on. (3) (w|w) > 0. Se procede de la misma manera. (b) Suponga que v y w son linealmente dependientes. Entonces existe b ∈ K tal que v = bw. Por lo tanto, (v|v) = bb(w|w) = |b|2 (w|w). Entonces |(v|w)|2 = |b(w|w)|2 = |b|2 (w|w)2 = (v|v)(w|w). Cap´ıtulo 6. Espacios normados y espacios euclidianos

187

´ Algebra lineal

Rec´ıprocamente, supongamos que |(v|w)|2 = (v|v)(w|w). Si w = 0, entonces con claridad v y w son linealmente dependientes. Si w = (v|w) se 0, entonces dado que (· | ·) es definido positivo, con a := (w|w) tiene que (v + aw|v + aw) =

(v|v)(w|w) − |(v|w)|2 = 0. (w|w)

Entonces v + aw = 0 y se tiene la dependencia lineal.



6.2.8 Teorema. Sean V un espacio vectorial sobre K y (·|·) un producto interior definido positivo sobre V . Entonces: (a) Para v ∈ V , la funci´on v −→ v :=

, (v|v)

define una norma sobre V . Adem´ as, para esta se verifica v + w = v + w ⇔ (v = bw ∨ w = bv, con b ≥ 0). (b) Para todo v, w ∈ V se verifica la igualdad del paralelogramo v − w2 + v + w2 = 2(v2 + w2 ). ´ n. Demostracio (a) Para todo v ∈ V se verifica claramente que v ≥ 0. Adem´as, v = 0 si y solo si v = 0. Si k ∈ K, entonces kv =

. , , ¯ (kv|kv) = k k(v|v) = |k| (v|v) = |k|v.

Resta demostrar la desigualdad triangular: v + w2 ≤ (v + w|v + w) = (v|v) + 2Re((v|w)) + (w|w) ≤ v2 + 2|(v|w)| + w2 ≤ v2 + 2v w + w2 ≤ (v + w)2 . 6.2. Espacios euclidianos

188

´ Gutierrez-Robinson

La igualdad se verifica si y solo si Re((v|w)) = v w. Usando la desigualdad de Schwarz, se sigue que v = bw, con b ∈ K y |b|(w|w) = |(bw|w)| = |(v|w)| = Re((v|w)) = Re(b(w|w)). Si w = 0, entonces se tiene que Re(b) = |b| y as´ı b ∈ R. Es decir, 0 ≤ b ∈ R. Para w = 0 se verifica inmediatamente que v = 0. (b) Usando la definici´on de la norma tenemos v − w2 + v + w2 ≤ (v − w|v − w) + (v + w|v + w) = 2(v|v) + 2(w|w) ≤ 2(v2 + w2 ).



6.2.9 Definici´ on. Sean V un espacio vectorial sobre K y (·|·) un producto interior definido sobre V . Si V es completo , con respecto a la norma definida por su producto interior v := (v|v), entonces V se denomina un espacio de Hilbert. Del teorema 6.1.13 se sigue que todo espacio vectorial de dimensi´on finita con producto interior definido positivo es un espacio de Hilbert. 6.2.10 Definici´ on. Sea V un espacio vectorial sobre K con producto interior (·|·) definido positivo. (a) Sean v, w ∈ V . Decimos que v y w son ortogonales, notado v ⊥ w, si (v|w) = 0. Dado que (v|w) = (w|v), se sigue que si v ⊥ w, entonces w ⊥ v. (b) Sea M ⊆ V . Definimos el complemento ortogonal de M , notado con M ⊥ , de la siguiente manera: M ⊥ := {v ∈ V | (v|m) = 0, ∀ m ∈ M }. (c) Si U y W son subespacios de V , entonces V se llama la suma ortogonal de U y W , notado V = U ⊥ W , si se verifican: a) V = U + W b) Si u ∈ U y w ∈ W , entonces v ⊥ w. (d) En general, si U1 , . . . , Un ≤ V , diremos que V = U1 ⊥ · · · ⊥ Un si y solo si se verifican Cap´ıtulo 6. Espacios normados y espacios euclidianos

189

´ Algebra lineal

(1) V =

n

j=1 Uj

(2) Para vi ∈ Ui y vj ∈ Uj , con i = j se tiene que vi ⊥ vj . 6.2.11 Ejemplos. (a) Sean V = K n y vj := (0, . . . , 0, 1, 0, . . . , 0), con 1 ≤ j ≤ n. Para v = (x1 , . . . , xn ) y w = (y1 , . . . , yn ) en V definimos n  (v|w) := x j yj . j=1

Entonces se verifica que V = v1  ⊥ · · · ⊥ vn . (b) Sea V = C 0 ([0, 2π], R) y definimos # (f |g) :=



f (t)g(t)dt. 0

Se puede verificar que (sen(jt)|cos(kt)) = 0, para j, k = 0, 1 . . . (sen(jt)|sen(kt)) = δjk π ⎧ para j = k ⎨ 0, π, para j = k > 0 (cos(jt)|cos(kt)) = ⎩ 2pi, para j = k = 0. Entonces {cos(nx), sen(nx) | n = 0, 1, . . .} es un conjunto de funciones ortogonales (dos a dos). 6.2.12 Lema. Sea V un espacio vectorial sobre K con producto interior (·|·) definido positivo y sean v1 , . . . , vn ∈ V , con vj = 0 y vi ⊥ vj , para i = j. Entonces el sistema B = (v1 , . . . , vn ) es linealmente independiente.  ´ n. Suponemos que nj=1 aj vj = 0 con aj ∈ K. Entonces Demostracio 0 = (0|vi ) =

n  j=1

Por lo tanto, ai = 0.

n   a j v j | vi = aj (vj |vi ) = ai (vi |vi ) .  ! " j=1

 6.2. Espacios euclidianos

=0

190

´ Gutierrez-Robinson

6.2.13 Teorema. (Ortonormalizaci´ on de Gerhard Schmidt). Sea V un espacio vectorial sobre K con producto interior (·|·) definido positivo y sea B = (v1 , . . . , vm ) un sistema linealmente independiente. Entonces existen w1 , . . . , wm ∈ V wj =

m 

ajk vk

j = 1, . . . , m

k=1

tales que ajj = 0 y (wj |wk ) = δjk . Para 1 ≤ k ≤ m se verifica, adem´as, que v1 , . . . , vm  = w1 , . . . , wm . ´ n. Procedemos por inducci´on sobre m. Demostracio Si m = 1, entonces definimos a11 := v11 y w1 := vv11 . Note que se verifican a11 = 0 y (w1 |w1 ) = 1. Suponemos que (v1 , . . . , vm , vm+1 ) es un sistema linealmente independiente. Por hip´otesis de inducci´on existen escalares aij , 1 ≤ i ≤ j ≤ m con aii = 0 de tal forma que los vectores determinados w1 , . . . , wm son ortogonales, es decir, (wj |wk ) = δjk . Definimos m  (vm+1 |wj )wj . w 'm+1 := vm+1 − j=1

Entonces tenemos (w 'm+1 |wk ) = (vm+1 |wk ) −

m  j=1

(vm+1 |wj ) (wj |wk )  ! " δjk

= (vm+1 |wk ) − (vm+1 |wk ) = 0, para todo k = 1, . . . , m. / v1 , . . . , vm  = w1 , . . . , wm , se sigue que w 'm+1 = 0. Dado que vm+1 ∈ As´ı podemos definir w 'm+1 wm+1 := w 'm+1 ,  y termina el proceso.



6.2.14 Ejemplos. (a) Sea V = R3 con el producto interior usual, definido en 6.2.6 (a). Dados v1 = (1, −1, 1), v2 = (−2, 3, −1) y v3 = (1, 2, −4). Entonces los siguientes vectores satisfacen el teorema de Cap´ıtulo 6. Espacios normados y espacios euclidianos

191

´ Algebra lineal

Schmidt: w1 = w2 = w3 =

√1 (1, −1, 1) 3 √1 (0, 1, 1) 2 √1 (2, 1, −1). 6

(b) Sea V = C 0 ([−1, 1], R) con el producto interior definido en 6.2.6 (b). Dados v1 = 1, v2 = x y v3 = x2 . Entonces los siguientes vectores w1 , w2 y w3 satisfacen el teorema de Schmidt: w1 =

√1 2

Para calcular w2 , suponemos que w2 = a + bx. Dado que debe verificarse que (w1 |w2 ) = 0, se tiene que #

1 −1

√1 (a 2

+ bt)dt = 0.

De donde se sigue que a = 0. Por otro lado, debe verificarse que (w2 |w2 ) = 1. Es decir, #

1 −1

. se obtiene que b =

3 2.

b2 t2 dt = 1.

En conclusi´on . w2 =

3 2 x.

Para obtener w3 , suponemos que w3 = a + bx + cx2 . Se deja como ejercicio verificar que . √ w3 = 58 − 3 8 5 x2 . 6.2.15 Teorema. Sea V un espacio vectorial con producto interior (·|·) definido positivo. (a) Si la dimensi´on de V sobre K es finita, entonces existe una base ortonormal para V . Es decir, existe una base B de V , digamos B = (v1 , . . . , vn ) con (vi |vj ) = δij , para todo i, j = 1, . . . , n. 6.2. Espacios euclidianos

192

´ Gutierrez-Robinson

(b) Sea B = (v1 , . . . , vn ) una base para V y sea v ∈ V . Entonces v=

n 

(v|vj )vj

(6.5)

j=1

y (v|v) =

n 

|(v|vj )|2

(6.6)

j=1

Los escalares (v|vj ) de (6.5) se denominan coeficientes de Fourier de v con respecto a la base B y la igualdad (6.6) se denomina identidad de Parseval. ´ n. Demostracio (a) Se sigue inmediatamente del teorema de Schmidt.  (b) Sea v = nj=1 xj vj , con xj ∈ K. Entonces (v|vk ) =

n  j=1

xj (vj |vk ) = xk .  ! " δjk

Por otro lado, (v|v) =

n  n  j=1 k=1

=

n 

xj xk (vj |vk )  ! " δjk

|xj |2

j=1

=

n 

|(v|vj )|2 .



j=1

6.2.16 Teorema. Sean V y W espacios de Hilbert de dimensi´on n sobre K. Entonces existe un isomorfismo A : V −→ W , con la propiedad (A(v)|A(w)) = (v|w), para todo v, w ∈ V . Tal funci´on se denomina una isometr´ıa. Cap´ıtulo 6. Espacios normados y espacios euclidianos

193

´ Algebra lineal

´ n. Sea B = (v1 , . . . , vn ) y B  = (w1 , . . . , wn ) bases ortoDemostracio normales de V y W , respectivamente. Si para cada j = 1, . . . , n definimos A(vj ) := wj , entonces se verifica que A es un homomorfismo. (Ver lema 3.1.5). Se deja como ejercicio verificar que es una isometr´ıa.  6.2.17 Teorema. Sean V un espacio de Hilbert de dimensi´on finita n y U, W ≤ V . Entonces (a) V = U ⊥ U ⊥ . En particular se cumple que dimK U ⊥ = n − dimK U. (b) (U ⊥ )⊥ = U . (c) (U + W )⊥ = U ⊥ ∩ W ⊥

y

(U ∩ W )⊥ = U ⊥ + W ⊥ .

´ n. Demostracio (a) Sea B = (v1 , . . . , vm ) una base para U y extend´amosla a una base B  = (v1 , . . . , vm , vm+1 , . . . , vn ) de V . Existe una base ortonormal (w1 , . . . , wn ) de V con la propiedad w1 , . . . , wm  = v1 , . . . , vm  = U. Entonces V = w1 , . . . , wm  + wm+1 , . . . , wn  ⊆ U + U ⊥ . Esto demuestra que V = U + U ⊥ . Es claro que U ⊥ U ⊥ . (b) Por definici´on de complemento ortogonal se tiene que (U ⊥ )⊥ = {v ∈ V | (v|w) = 0, ∀ w ∈ U ⊥ }. Evidentemente U ⊆ (U ⊥ )⊥ . Usando (a), tenemos: dimK (U ⊥ )⊥ = n − dimK U ⊥ = n − (n − dimK U ) = dimK U. Con lo cual se tiene la afirmaci´on. 6.2. Espacios euclidianos

194

´ Gutierrez-Robinson

(c) Demostramos que (U + W )⊥ = U ⊥ ∩ W ⊥ : Sea v = (U + W )⊥ . Dado que U ≤ U + W , se tiene que (v|u) = 0, para todo u ∈ U . Es decir, v ∈ U ⊥ . De manera similar se demuestra que v ∈ W ⊥ . Esto demuestra que (U + W )⊥ ⊆ U ⊥ ∩ W ⊥ . Rec´ıprocamente, sea v ∈ U ⊥ ∩ W ⊥ y u + w ∈ U + W . Entonces (v|u + w) = (v|u) + (v|w) = 0, Con ello se tiene que v ∈ (U + W )⊥ y se demuestra que U ⊥ ∩ W ⊥ ⊆ (U + W )⊥ . Demostramos ahora que (U ∩ W )⊥ = U ⊥ + W ⊥ : Note inicialmente que (U ⊥ + W ⊥ )⊥ = (U ⊥ )⊥ ∩ (W ⊥ )⊥ = U ∩ W. Entonces U ⊥ + W ⊥ = (U ∩ W )⊥ .

6.3.



Ejercicios

1. Considere el conjunto Bp := {v ∈ R2 | vp ≤ 1}. Grafique en un mismo plano al conjunto Bp para p = 1, p = 2 y p = ∞. 2. Sea V = C 0 ([1, e], R). Es decir, V es el espacio vectorial de todas las funciones reales continuas definidas sobre [1, e]. Definimos # e ln(x)f (x)g(x)dx. (f |g) := 1

a) Demuestre que esta f´ ormula define un producto interior sobre V. √ b) Si f (x) = x, calcule f . c) Halle una funci´ on polin´omica g(x) = ax + b que sea ortogonal a f (x) = 1. 3. Sea V = C 0 ([−1, 1], R) y definimos sobre V # 1 f (x)g(x)dx. (f |g) := −1

Cap´ıtulo 6. Espacios normados y espacios euclidianos

195

´ Algebra lineal

a) Demuestre que esta f´ ormula define un producto interior sobre V. b) Si f1 (x) = 1, f2 (x) = x y f3 (x) = 1 + x, determine el ´anguloque forman cada par de ellas. 4. Encuentre en cada caso una base ortonormal para el espacio vectorial dado. a) V = (1, 1, 1), (1, 0, 1), (3, 2, 3) ≤ R3 . b) W = (1, 1, 1), (−1, 1, −1), (1, 0, 1) ≤ R3 . 5. Sea V = C 0 ([0, π], R) con producto interior (·|·) dado por # π (f |g) := f (x)g(x)dx. 0

Sean fn (x) = cos(nx), con n = 0, 1, . . . , k. Sean, adem´as, g0 (x) :=

√1 , π

gn (x) =

√2 π

cos(nx).

Demuestre que {g0 , g1 , . . . , gk } es un conjunto ortonormal y, adem´ as, f0 , f1 , . . . , fk  = g0 , g1 , . . . , gk . 6. Sea V el espacio de todas las funciones polin´omicas reales con producto interior # 1 (f |g) := f (x)g(x)dx. 0

Sean, adem´as, B1 = {1, t, t2 } y B2 = {1,



3(2t − 1),



5(6t2 − 6t + 1)}.

Demuestre que a) B2 es un conjunto ortonormal. b) B1  = B2 . 7. Sea V un espacio vectorial con producto interior, de dimensi´on finita n sobre un cuerpo K, y sea U un subespacio de V . Demuestre que v ∈ V es ortogonal a todo elemento de U si y solo si es ortogonal a cada elemento de una base de U . 6.3. Ejercicios

196

´ Gutierrez-Robinson

8. Sean V un espacio vectorial con producto interior, de dimensi´on finita n sobre un cuerpo K, y sea U un subespacio de V . Demuestre que si B = (v1 , . . . , vk ) es una base para U , entonces siempre es posible encontrar {vk+1 , . . . , vn } tales que B  = (v1 , . . . , vk , vk+1 , . . . , vn ) es una base ortonormal de V . 9. Determine el complemento ortogonal del conjunto M = {(1, 2, 3), (0, −1, −2)} ⊆ R3 . 10. Sea A ∈ Mat(n, R). Decimos que A es ortogonal, si AAt = At A = In . Determine los valores de a, b ∈ R para que la siguiente matriz A sea ortogonal:   a+b b−a A= . a−b a+b 11. Sea A ∈ Mat(n, R) ortogonal. Demuestre que a) det(A) ∈ {1, −1}. b) Si det(A) = 1, entonces cada entrada de A es igual a su cofactor. c) Si det(A) = −1, entonces cada entrada de A es igual al inverso aditivo de su cofactor. 12. Sea 0 = x ∈ Rn . Definimos A := In −

t 2 (x|x) x x.

Demuestre que A es ortogonal y sim´etrica. 13. Sean V un espacio vectorial con producto interior, de dimensi´on 3 sobre un cuerpo K, y sea B = (v1 , v2 , v3 ) una base ortonormal para V . Demuestre que B  = ( 13 (2v1 + 2v2 − v3 ), 13 (2v1 − v2 + 2v3 ), 13 (−v1 + 2v2 + 2v3 )) es una base ortonormal de V . Cap´ıtulo 6. Espacios normados y espacios euclidianos

197

´ Algebra lineal

14. Sea Sn (R) el espacio vectorial de todas la matrices de tama˜ no n, sim´etricas, con entradas en R. Demuestre que (A|B) := Tr(AB) define un producto interior sobre Sn (R) y determine el complemento ortogonal del conjunto de todas las matrices diagonales.

6.3. Ejercicios

.

Bibliograf´ıa [1] F. Jr. Aires, Teor´ıa y problemas de matrices, Mc Graw-Hill, 1970. [2] T. M. Apostol, Calculus, Volumen 1, Editorial Reverte, 1988. [3] S. Bosch, Lineare Algebra. Springer-Lehrbuch, German Edition, 2009. ´ [4] F. E. Hohn, Algebra de matrices, Mexico: Editorial Trillas, 1970. [5] W. H. Greub, Linear Algebra, Springer Verlag, 1967. [6] A. I. Maltzev, Fundamentos de ´ algebra lineal, Siglo XXI Editores, S. A., 1970. [7] G. Restrepo, Introducci´ on al a ´lgebra lineal. Centro Editorial Universidad del Valle, 1995. [8] S. Roman, Advanced linear Algebra, Graduate Texts in Mathematics, Springer Verlag, 3rd edition, 2007. [9] L. Smith, Linear Algebra, Undergraduate Texts in Mathematics. Springer Verlag, 1998. [10] W. Willems and B. Huppert, Lineare Algebra, Teubner, 2006.

199

.

´Indice de nombres S. Banach A. L. Cuachy A. Cayley G. Cramer J. W. Dedekind J. B. Fourier W. Hamilton D. Hilbert H. Minkowski E. W. Parseval I. S. Reed H. A. Schwarz G. Schmidt G. Solomon E. Steinitz A. T. Vandermonde

201

176, 177 176, 177 167 161 27 192 167 188 175 192 33 186 190 33 42 159

.

´Indice alfab´etico K-M´ odulo, 18 ´ K-Algebra, 67, 72 ´ Algebra, 67, 72 Anillo, 5 con elemento identidad, 5 conmutativo, 5 Automorfismo, 56, 74 entre K-´algebras, 93 Base, 36 ortonormal, 192 Base can´onica de K n , 37 Base est´ andar de K n , 37 C´ odigo de Reed - Solomon, 33 C´odigo ISBN-10, 23 C´odigo ISBN-13, 23 C´ odigo lineal binario, 24 Campo, 4 Coeficientes de Fourier, 192 Complemento ortogonal, 189 Conjunto linealmente dependiente, 29 linealmente independiente, 29 Conjunto abierto, 177 Conjunto cerrado, 177 Cuerpo, 4 Caracter´ıstica, 6 cuerpo primo, 7

Determinante, 139 Ecuaci´ on lineal, 8 coeficientes, 8 conjunto soluci´on, 8 soluci´on, 8 Endomorfismo, 56 Epimorfismo, 56 Escalares, 17, 18 Espacio cociente, 46 Espacio de Banach, 177 Espacio de Hilbert, 188 Espacio m´etrico, 177 Espacio normado, 174 completo, 177 Espacio vectorial, 17 dimensi´ on, 44 finitamente generado, 28 subespacio, 20 subespacio propio, 20 euclidiano, 185 sistema de generadores, 28 unitario, 185 Forma bilineal, 184 Forma sesquilineal, 184 no-degenerada, 184 Funci´on de volumen, 151 Funci´on lineal, 55 acotada, 178 203

204

´ Gutierrez-Robinson

continua, 178 idempotente, 116 proyecci´on, 116 traza, 112 Funciones polin´ omicas, 22 Funciones reales continuas, 21 Grupo, 1 abeliano, 2 orden de un, 2 sim´etrico, 2 Grupo lineal general, 73, 94 Homomorfismo, 55 entre K-´algebras, 93 idempotente, 116 imagen, 56 inversa, 74 invertible, 74 n´ ucleo, 56 proyecci´on, 116 rango, 77 regular, 74 singular, 74

Norma, 174 Normas equivalentes, 178

Identidad de Dedekind, 26 Identidad de Parseval, 192 Igualdad del paralelogramo, 187 Isometr´ıa, 193 Isomorfismo, 56 entre K-´algebras, 93 Leyes de cancelaci´on, 4 M´etrica, 177 M´odulo, 18 Matriz, 85 conmutador, 131 de Householder, 135 elemental, 97 factorizaci´ on LU, 127

nilpotente, 132 columnas, 87 cuadrada, 87 filas, 87 inversa, 94 invertible, 94 nula, 87 ortogonal, 196 regular, 94 singular, 94 tipo, 87 transpuesta, 109 traza, 111 triangular diagonal, 87 triangular inferior, 87 triangular superior, 87 Matriz adjunta, 156 Matriz id´entica, 87 Monomorfismo, 56

Palabra de c´odigo, 23 peso, 23 soporte, 24 Permutaci´on, 139 k-ciclo, 140 transposici´on, 140 Polinomio interpolante, 163 Producto escalar, 185 Producto interior, 185 definido positivo, 185 semi-definido positivo, 185 Proyecci´on, 57, 116 Regla de Cramer, 161 Ret´ıculo, 26 completo, 26 Semigrupo, 2

´INDICE ALFABETICO ´

205

´ Algebra lineal

Sistema, 29 linealmente dependiente, 29 linealmente independiente, 29 Sistema de ecuaciones lineales, 9, 121 equivalentes, 10 homog´eneo, 9 soluci´ on trivial, 9 conjunto soluci´on, 121 homogeneo, 121 no homog´eneo, 121 soluci´ on, 121 Subespacio generado, 28 Subespacio vectorial, 20 G-invariante, 118 trivial, 20 complemento, 40, 113 Sucesi´ on convergente, 177 punto l´ımite, 177 Sucesi´ on de Cauchy, 177 Suma directa, 113 externa, 114 interna, 114 Suma ortogonal, 189 Transformaciones elementales, 11 Transformaciones lineales, 55 Unidades matriciales, 87 Vector componentes, 36 coordenadas, 36 Vectores, 18 Vectores ortogonales, 189

´INDICE ALFABETICO ´

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF