Dulio Pacco - Algebra lineare Applicazioni Lineari Vol.2
Short Description
APPUNTI DI ALGEBRA LINEARE - Applicazioni Lineari Vol.2 Teoria ed esercizi svolti APPLICAZIONI LINEARI Definizioni...
Description
PAOLO DULIO WALTER PACCO APPUNTI DI ALGEBRA LINEARE
APPLICAZIONI LINEARI TEORIA ED ESERCIZI SVOLTI
2
Indice 1 APPLICAZIONI LINEARI ` . . . . . . . . . . . . . . 1.1 DEFINIZIONI E PRIME PROPRIETA 1.1.1 Nucleo ed immagine . . . . . . . . . . . . . . . . . . . . . 1.1.2 Composizione di applicazioni lineari . . . . . . . . . . . . 1.1.3 Teorema fondamentale delle applicazioni lineari . . . . . . 1.1.4 Spazi isomorfi . . . . . . . . . . . . . . . . . . . . . . . . . Isomorfismo canonico . . . . . . . . . . . . . . . . . . . . 1.2 MATRICI ASSOCIATE . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Il Teorema dimensionale . . . . . . . . . . . . . . . . . . . 1.2.2 Matrici associate alla composizione di applicazioni lineari 1.2.3 Rappresentazione canonica indotta . . . . . . . . . . . . . 1.2.4 Cambi di base . . . . . . . . . . . . . . . . . . . . . . . . 1.3 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ` 2 SIMILITUDINE E DIAGONALIZZABILITA 2.1 SIMILITUDINE . . . . . . . . . . . . . . . . . . . . . . . ´ . . . . . . . . . . . . . . . . . . 2.2 DIAGONALIZZABILITA 2.2.1 Definizioni e prime propriet`a . . . . . . . . . . . . 2.2.2 Alcune propriet`a del Polinomio caratteristico . . . 2.3 AUTOVALORI ED AUTOVETTORI . . . . . . . . . . . 2.3.1 Calcolo degli autovalori . . . . . . . . . . . . . . . 2.3.2 Autospazi di un endomorfismo . . . . . . . . . . . 2.3.3 Molteplicit`a algebrica e molteplicit`a geometrica . . 2.4 ENDOMORFISMI SIMMETRICI . . . . . . . . . . . . . 2.4.1 Il Teorema Spettrale nel piano . . . . . . . . . . . 2.4.2 Classificazione delle matrici ortogonali di ordine 2 Significato geometrico . . . . . . . . . . . . . . . . 2.4.3 Endomorfismi simmetrici in dimensione superiore . Generalizzazione del prodotto scalare. . . . . . . . Generalizzazione delle matrici ortogonali. . . . . . 2.4.4 Ortonormalizzazione di Gram-Schmidt . . . . . . . Il Teorema Spettrale generalizzato. . . . . . . . . . 2.4.5 Matrici di proiezione . . . . . . . . . . . . . . . . . 2.5 Lo studio della similitudine . . . . . . . . . . . . . . . . . 2.6 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
5 5 7 9 11 12 13 15 16 19 20 22 24
. . . . . . . . . . . . . . . . . . . .
29 29 31 31 32 34 36 38 40 44 47 50 51 52 53 54 55 57 62 64 66
4
INDICE 3 SOLUZIONI DEGLI ESERCIZI 73 3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 73 3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 92
Capitolo 1
APPLICAZIONI LINEARI Lo studio degli spazi vettoriali si amplia in maniera naturale quando vengono considerate le applicazioni lineari. Esse sono particolari funzioni, definite tra due spazi vettoriali, la cui importanza `e quella di conservare le operazioni tipiche presenti in queste strutture.
1.1
` DEFINIZIONI E PRIME PROPRIETA
Siano V e W due spazi vettoriali qualsiasi, definiti sullo stesso campo K. Una funzione f : V −→ W `e un’applicazione lineare se e solo f verifica le seguenti propriet`a. (i) Per ogni u, v ∈ V: f (u + v) = f (u) + f (v). (ii) Per ogni a ∈ K e per ogni u ∈ V: f (au) = af (u). Pertanto una applicazione lineare conserva le operazioni di somma di vettori e di prodotto tra uno scalare ed un vettore. Teorema 1.1. Le condizioni (i) e (ii) che definiscono una applicazione lineare sono equivalenti all’unica condizione (i0 ) Per ogni a, b ∈ K e per ogni u, v ∈ V: f (au + bv) = af (u) + bf (v). -Dimostrazione.
Se valgono (i) e (ii), si ha (1 )
(2 )
f (au + bv) = f (au) + f (bv) = af (u) + bf (v). L’uguaglianza (1 ) deriva dalla propriet`a (i) e l’uguaglianza (2 ) dalla (ii). Viceversa, se vale la (i0 ), automaticamente `e vera pure la (i), ponendo a = b = 1 e la (ii), ponendo b = 0. ¥ Un’applicazione lineare f : V → W viene anche chiamata omomorfismo di spazi vettoriali, di dominio V e codominio W. L’insieme di tali omomorfismi `e indicato con Hom(V, W). Osservazioni ed esempi. 1. Il campo K che viene utilizzato nella costruzione di uno spazio vettoriale viene anche detto campo base dello spazio.
6
APPLICAZIONI LINEARI 2. La propriet`a (ii) giustifica il fatto che gli spazi V e W debbano necessariamente essere definiti sullo stesso campo K. Altrimenti l’operazione di prodotto per uno scalare al secondo membro della (ii) non sarebbe nemmeno definita. 3. Prescindendo dalla struttura di spazio vettoriale, possiamo considerare una applicazione lineare semplicemente come funzione tra due insiemi. Allora possiamo trasferire ad una applicazione lineare f : V → W, senza alterarle, alcune definizioni valide per generiche funzioni tra insiemi. Per esempio, f `e una applicazione lineare iniettiva se f (v) = f (v0 ) implica v = v0 . Invece f `e una applicazione lineare suriettiva se per ogni w ∈ W esiste v ∈ V tale che f (v) = w. Si ha una applicazione lineare biunivoca quando `e contemporaneamente iniettiva e suriettiva. 4. Applicazioni lineari invertibili, ovvero contemporaneamente iniettive e suriettive, si chiamano isomorfismi, e il loro insieme viene indicato da Iso(V, W). Nel caso in cui dominio e codominio coincidano, gli omomorfismi prendono il nome di endomorfismi e gli isomorfismi quello di automorfismi. I loro insiemi sono individuati, rispettivamente, dai simboli End(V) e Aut(V). 5. Studiamo la linearit`a dell’applicazione: f:
R2 −→ R2 [x, y]t 7−→ [x − y, x + y]t .
Dobbiamo verificare se f conserva la somma di vettori e il prodotto tra un vettore ed uno scalare del campo base R. Consideriamo u, v ∈ R2 , con u = [a, b]t e v = [a0 , b0 ]t e h, k ∈ R. Per il Teorema 1.1 basta verificare che f (hu + kv) = hf (u) + kf (v). Poich´e hu + kv = h[a, b]t + k[a0 , b0 ]t = [ha + ka0 , hb + kb0 ]t , abbiamo: def
f (hu + kv) = f ([ha + ka0 , hb + kb0 ]t ) =
= [(ha + ka0 ) − (hb + kb0 ), (ha + ka0 ) + (hb + kb0 )]t = = [h(a − b) + k(a0 − b0 ), h(a + b) + k(a0 + b0 )]t = = [h(a − b), h(a + b)]t + [k(a0 − b0 ), k(a0 + b0 )]t = = h[a − b, a + b]t + k[a0 − b0 , a0 + b0 ]t = hf ([a, b]t ) + kf ([a0 , b0 ]t ) = = hf (u) + kf (v) Quindi f `e lineare. 6. Forme lineari. Sia W uno spazio vettoriale sul campo K. Una forma lineare su W `e un’applicazione lineare f ∈ Hom(W, K), dove il campo K `e visto come spazio vettoriale su se stesso. Per esempio, `e facile verificare che l’applicazione f : R2 → R definita da: f : · R¸2 −→ R x 7−→ x + y y
` 1.1 DEFINIZIONI E PRIME PROPRIETA `e lineare. Infatti, per ogni a, b ∈ R e per ogni v = [x, y]t e v0 = [x0 , y 0 ]t in R2 si ha:
µ · ¸ · 0 ¸¶ x x a +b = y y0 µ· ¸¶ ax + bx0 =f = ay + by 0
f (av + bv0 ) = f
= ax + bx0 + ay + by 0 = a(x + y) + b(x0 + y 0 ) = µ· ¸¶ µ· 0 ¸¶ x x = af + bf = y y0 = af (v) + bf (v0 ).
Quindi f `e una forma lineare. 7. Consideriamo l’applicazione det : Mn (K) → K, che associa ad ogni matrice di Mn (K) il proprio determinante1 . In questo caso, pur essendo ancora vero che il codominio `e il campo base dello spazio vettoriale al dominio, non si ha una forma lineare, in quanto il determinante, in generale, non conserva il prodotto di un vettore per uno scalare. Infatti, se a ∈ K, con an 6= 1, ed A ∈ Mn (K), risulta det(aA) = an det A 6= a det A. 8. Consideriamo ora un importante esempio di applicazione lineare. Sia A una matrice ad elementi reali avente m righe ed n colonne. Allora la corrispondenza f : Rn → Rm definita da f (x) = Ax per ogni x ∈ Rn `e una applicazione lineare. Infatti, per ogni coppia di vettori x, y ∈ R, e per ogni scelta degli scalari a, b ∈ R, sfruttando le propriet`a delle matrici abbiamo
f (ax + by) = A(ax + by) = A(ax) + A(by) = aAx + bAy = af (x) + bf (y), e quindi, per il Teorema 1.1, f `e una applicazione lineare.
1.1.1
Nucleo ed immagine
Consideriamo l’applicazione f ∈ Hom(V, W). Il nucleo di f , indicato con ker f , `e l’insieme dei vettori di V che hanno come immagine il vettore nullo di W, cio`e ker f = {v ∈ V| f (v) = 0W } . L’immagine di f , indicata con Imf `e l’insieme dei vettori di W che vengono ottenuti applicando f ai vettori di V, cio`e 1 Indichiamo con Mn (K) l’insieme delle matrici quadrate, di ordine n, i cui elementi appartengono al campo K.
7
8
APPLICAZIONI LINEARI
Imf = {w ∈ W| ∃v ∈ V : f (v) = w} . Un modo pi` u compatto per definire i due insiemi `e il seguente. Il nucleo `e l’insieme f −1 (0W ), mentre l’immagine `e f (V). Ovviamente ker f ⊆ V e Imf ⊆ W. Il teorema seguente mette in evidenza che nucleo ed immagine non sono semplici sottoinsiemi, ma hanno una loro propria struttura di spazio vettoriale2 . Teorema 1.2. Sia f : V → W una applicazione lineare. Allora ker f ≤ V, ed Imf ≤ W. -Dimostrazione. Siano u, v ∈ ker f . Ci`o significa che f (u) = f (v) = 0. Per ogni a, b appartenenti al campo base K, abbiamo: (1 )
f (au + bv) = af (u) + bf (v) = a0 + b0 = 0. Quindi au + bv ∈ ker f , che `e un sottospazio. L’uguaglianza (1 ) `e conseguenza della linearit`a di f . Allo stesso modo ragioniamo per l’immagine. Se w, w0 ∈ Imf , esistono almeno due vettori v, v0 ∈ V tali che f (v) = w e f (v0 ) = w0 . Ora, per ogni a, b ∈ K: (2 )
aw + bw0 = af (v) + bf (v0 ) = f (av + bv0 ). Ma av + bv0 ∈ V, quindi aw + bw0 ∈ Imf , che `e sottospazio di W. Anche in questo caso l’uguaglianza (2 ) `e conseguenza della linearit`a della f . ¥ L’iniettivit`a di un’applicazione `e caratterizzata dal seguente risultato. Teorema 1.3. Sia f ∈ Hom(V, W). Condizione necessaria e sufficiente affinch´e f sia iniettiva `e che ker f = {0}. -Dimostrazione. La condizione `e necessaria. Supponiamo che f sia iniettiva. Ogni vettore di W ammette al pi` u un’unica controimmagine. Se v ∈ ker f , allora f (v) = 0. Ma anche f (0) = 0, cio`e f (v) = f (0). Per l’unicit`a della controimmagine, v = 0 e ker f = {0}. La condizione `e sufficiente. Supponiamo ker f = {0}. Siano v, v0 ∈ V tali che f (v) = f (v0 ) = w. Abbiamo: 0 = w − w = f (v) − f (v0 ) = f (v − v0 ). Ci`o significa che v − v0 ∈ ker f . Ma ker f = {0}, quindi v − v0 = 0, cio`e v = v0 . Questo significa che, se esiste una controimmagine di un vettore di W, questa `e unica, ovvero che f `e iniettiva. Osservazioni ed esempi. 1. Possiamo visualizzare qualitativamente l’azione di una applicazione lineare f : V → W con il seguente grafico 2 Utiliziamo il simbolo ⊆ per indicare l’inclusione insiemistica, mentre la scrittura X ≤ V indica che X `e un sottospazio vettoriale di V.
` 1.1 DEFINIZIONI E PRIME PROPRIETA
9
f V
W
ker f Im f 0V
0W
Figura 1.1: rappresentazione qualitativa dell’azione di una applicazione lineare f : V → W.
2. Applicazioni lineari singolari. Un’applicazione lineare f : V → W si dice singolare se il suo nucleo non `e il sottospazio banale di V, cio`e se ker f 6= {0}. In questo caso esiste almeno un vettore v 6= 0 in V tale che f (v) = 0. Sappiamo che ker f = 0 `e una condizione necessaria e sufficiente affinch´e f sia iniettiva. Quindi un’applicazione singolare non pu`o essere un isomorfismo, non essendo iniettiva.
1.1.2
Composizione di applicazioni lineari
Consideriamo due applicazioni lineari f e g. Se f ∈ Hom(U, V) e g ∈ Hom(V, W), cio`e se il codominio di f coincide con il dominio di g, possiamo allora considerare la composizione g ◦ f ∈ Hom(U, W) delle due applicazioni lineari. Teorema 1.4. La composizione di applicazioni lineari `e ancora una applicazione lineare. -Dimostrazione. Se f ∈ Hom(U, V) e g ∈ Hom(V, W), per ogni a, b, x, y ∈ K e per ogni u, u0 ∈ U e v, v0 ∈ V si ha: f (au + bu0 ) = af (u) + bf (u0 ),
(1.1.1)
g(xv + yv0 ) = xg(v) + yg(v0 ).
(1.1.2)
Allora, per ogni h, k ∈ K e per ogni u, u0 ∈ U otteniamo: ¡ ¢ (1 ) ¡ ¢ (2 ) (g ◦ f )(hu + ku0 ) = g f (hu + ku0 ) = g hf (u) + kf (u0 ) = = hg(f (u)) + kg(f (u0 )) = h · (g ◦ f )(u) + k · (g ◦ f )(u0 ), dove le uguaglianze (1 ) e (2 ) sono vere, rispettivamente, per la (1.1.1) e la (1.1.2). Quindi, dalla definizione di linearit`a, la composizione g ◦ f `e lineare, cio`e g ◦ f ∈ Hom(U, W). ¥ Teorema 1.5. Siano f ∈ Hom(U, V) e g ∈ Hom(V, W). Se f e g sono iniettive, allora g ◦ f `e iniettiva -Dimostrazione. Supponiamo che esistano u, u0 ∈ U tali che g ◦ f (u) = g ◦ f (u0 ), cio`e g(f (w)) = g(f (w0 )). Ma g `e iniettiva, quindi le controimmagini sono uniche. Ci`o significa che f (u) = f (u0 ). Poich´e anche f `e iniettiva, risulta u = u0 . Pertanto g ◦ f `e iniettiva. ¥
10
APPLICAZIONI LINEARI Teorema 1.6. Siano f ∈ Hom(U, V) e g ∈ Hom(V, W). Se f e g sono suriettive, allora g ◦ f `e suriettiva -Dimostrazione. Sia w ∈ W. Siccome g `e suriettiva, esiste (almeno) un vettore v ∈ V tale che g(v) = w. Ma anche f `e suriettiva, quindi esiste un u ∈ U tale che f (u) = v. Di conseguenza `e vera la seguente uguaglianza: g ◦ f (u) = g(f (u)) = g(v) = w. Ogni vettore di W ammette almeno una controimmagine, tramite l’applicazione g ◦ f , nello spazio U, per cui g ◦ f `e suriettiva. ¥ Teorema 1.7. Siano f ∈ Hom(U, V) e g ∈ Hom(V, W). Se g ◦ f `e iniettiva allora f `e iniettiva. -Dimostrazione. Supponiamo che f non sia iniettiva. Esistono allora due vettori distinti u, u0 ∈ U, tali che f (u) = f (u0 ). Di conseguenza: (g ◦ f )(u) = g(f (u)) = g(f (u0 )) = (g ◦ f )(u0 ). Ma ci`o `e impossibile per l’iniettivit`a di g ◦ f . Pertanto deve essere u = u0 ed f deve essere iniettiva. ¥ Teorema 1.8. Siano f ∈ Hom(U, V) e g ∈ Hom(V, W). Se g ◦ f `e suriettiva allora g `e suriettiva. -Dimostrazione. Una funzione `e suriettiva se ogni elemento del codominio ammette almeno una controimmagine. Se g ◦ f `e suriettiva, per ogni w ∈ W esiste almeno un u ∈ U tale che (g ◦ f )(u) = g(f (u)) = w. Se poniamo f (u) = v ∈ V, abbiamo g(v) = g(f (u)) = w, ovvero ogni vettore di W ha almeno una controimmagine, tramite g, in V. Quindi g `e suriettiva. ¥ Osservazioni ed esempi. 1. La composizione di applicazioni lineari `e generalizzabile ad un numero finito qualsiasi di applicazioni, con le dovute considerazioni sui domini e codomini. Queste non sono ovviamente necessarie nel momento in cui si parla di endomorfismi, per i quali domini e codomini coincidono. 2. Siano f ∈ Hom(U, V) e g ∈ Hom(V, W). Se g ◦ f `e iniettiva il Teorema 1.7 garantisce che f `e iniettiva, ma non fornisce alcuna informazione sulla iniettivit`a di g. Analogamente, se g ◦ f `e suriettiva, il Teorema 1.8 garantisce che g `e suriettiva, ma non fornisce alcuna informazione sulla suriettivit`a di f .
` 1.1 DEFINIZIONI E PRIME PROPRIETA
1.1.3
11
Teorema fondamentale delle applicazioni lineari
Un importante risultato nell’analisi di un’applicazione lineare `e descritto nel teorema seguente, noto come Teorema fondamentale delle applicazioni lineari. Teorema 1.9. Se V e W sono spazi vettoriali sullo stesso campo K, e B = {v1 , . . . , vn } `e una base di V, fissati n vettori di W, ad esempio w1 , . . . , wn , esiste un’unica applicazione lineare f ∈ Hom(V, W) tale che f (vi ) = wi ,
i = 1, . . . , n.
(1.1.3)
-Dimostrazione. Consideriamo un generico vettore v di V. Esso si scrive in modo unico come combinazione lineare dei vettori di B, cio`e esistono a1 , ..., an ∈ K tali che v = a1 v1 + · · · + an vn . Consideriamo allora la funzione f : V → W definita come segue f (v) = f (a1 v1 + · · · + an vn ) = a1 f (v1 ) + · · · + an f (vn ) =
(1.1.4)
= a1 w1 + · · · + an wn ∈ W.
Essa, ovviamente, verifica le condizioni (1.1.3). Inoltre, tale funzione `e una applicazione n n X X lineare. Infatti, se v1 , v2 ∈ V, con v1 = ai vi , v2 = bi vi , e h, k ∈ K, allora: i=1
i=1
à à n ! à n !! X X f (hv1 + kv2 ) = f h ai vi + k bi vi ) = i=1
µ =f
n P
i=1
=
n P
i=1
hai vi +
n P i=1
¶ kbi vi
(hai + kbi )f (vi ) =
i=1
=
n P i=1
hai f (vi ) + µ
= hf
n P
i=1
n P i=1
=f
n P
n P
+ kf
(hai + kbi )vi
(hai + kbi )wi =
i=1
kbi f (vi ) = h µ
¶
n P
i=1
=
i=1
µ
¶ ai vi
µ
n P
i=1
n P i=1
hai wi +
¶
µ
ai f (vi ) + k
n P i=1
n P
i=1
kbi wi =
¶ bi f (vi ) =
¶ bi vi
= hf (v1 ) + kf (v2 ).
Pertanto `e possibile costruire una applicazione lineare f : V → W a partire dall’immagine di una base fissata di V. Tale applicazione `e unica. Supponiamo infatti che esista una seconda applicazione lineare g : V → W che verifica le condizioni (1.1.3), cio`e tale che g(vi ) = wi , i = 1, . . . , n. Allora, preso un vettore v = a1 v1 + · · · + an vn , per la linearit`a di g si ha g(v) = g(a1 v1 + · · · + an vn ) = a1 g(v1 ) + ... + an g(vn ) = = a1 f (v1 ) + ... + an f (vn ) = f (a1 v1 + · · · + an vn ) = f (v),
12
APPLICAZIONI LINEARI e quindi f = g.
¥
Osservazioni ed esempi. 1. Si noti che nel Teorema 1.9 non si impone alcuna condizione sui vettori wi . Essi potrebbero essere sia dipendenti che indipendenti, ed in questo caso non `e comunque detto che l’insieme {w1 , . . . , wn } sia una base. In effetti non ci sono nemmeno condizioni sulla dimensione dello spazio codominio W. I due spazi V e W potrebbero essere molto diversi tra loro, cos`ı come, invece, potrebbero addirittura coincidere. 2. Il significato del Teorema 1.9 consiste nel fatto che, per definire una particolare applicazione lineare f : V → W, basta fissare le immagini dei vettori di una base qualsiasi. Ovviamente, una volta fatto ci`o, f va poi estesa per linearit`a a tutto il dominio V. Estendere linearmente f a tutto lo spazio V significa ricostruire l’azione di f su un qualsiasi vettore di V tramite le (1.1.3). Questo avviene mediante la formula (1.1.4).
1.1.4
Spazi isomorfi
Nello studio degli spazi vettoriali sono stati introdotti i fondamentali concetti di base e dimensione. In particolare, fissata una base B di uno spazio vettoriale V, `e possibile associare ad ogni vettore v ∈ V, in maniera unica, una n-pla di coefficienti del campo K su cui `e costruito V. Con le applicazioni lineari vediamo che `e possibile mettere in comunicazione spazi di natura anche molto diversa tra loro. Ci chiediamo allora se la propriet`a di avere la stessa dimensione pu`o in qualche maniera essere letta da una applicazione lineare. La risposta a questa domanda `e fornita dal seguente importante teorema. Teorema 1.10. Due spazi vettoriali V e W, di dimensione finita, sono isomorfi se e solo se hanno la stessa dimensione. -Dimostrazione. La condizione `e necessaria. Poniamo infatti dim V = m e dim W = n, e supponiamo che esista un isomorfismo f : V → W. Allora f `e iniettivo, quindi la dimensione dell’immagine coincide con quella del dominio, cio`e dim(Imf ) = dim f (W) = m. Ma Imf ≤ W, quindi m ≤ n. (1.1.5) Lo stesso discorso si pu`o fare per f −1 , che `e ancora un isomorfismo, ottenendo m ≥ n.
(1.1.6)
Da (1.1.5) e (1.1.6) segue che V e W hanno la stessa dimensione. Il viceversa `e leggermente pi` u complesso. Se dim V = dim W = n, i due spazi hanno basi aventi lo stesso numero di vettori. Sia B = {v1 , . . . , vn } una base di V e C = {w1 , . . . , wn } una base di W. Possiamo costruire un’applicazione lineare
` 1.1 DEFINIZIONI E PRIME PROPRIETA
13
f : V → W sfruttando il Teorema 1.9. Definiamo innanzitutto f sulla base B ponendo f (vi ) = wi , i = 1, . . . , n. Estendiamo poi l’azione di f a tutto lo spazio V. Se n X v= ai vi , abbiamo allora i=1
f (v) = f
à n X
! ai vi
=
i=1
n X
ai f (vi ) =
i=1
n X
ai wi .
i=1
Verifichiamo ora che l’applicazione f `e un isomorfismo. Per vedere se `e iniettiva studiamo la struttura di ker f . Se v ∈ ker f , allora f (v) = 0. Siccome B `e una base, esistono n X a1 , ..., an ∈ K tali che v = ai vi , e quindi i=1
f (v) = f
à n X
! ai vi
=
i=1
n X
ai f (vi ) =
i=1
n X ai wi = 0. i=1
La precedente uguaglianza `e vera se e solo se ai = 0 per ogni i = 1, . . . , n, perch´e i vettori wi sono indipendenti. Ma ci`o significa che v = 0, quindi che ker f = {0}. Di conseguenza l’applicazione lineare f `e iniettiva. Controlliamo ora la suriettivit`a. Se w ∈ W, con n n X X w= bi wi , il vettore bi vi di V `e una sua controimmagine. Infatti: i=1
i=1
à f (v) = f
n X i=1
! bi vi
=
n X i=1
bi f (vi ) =
n X
bi wi = w.
i=1
Concludendo, f `e un’applicazione lineare iniettiva e suriettiva, quindi un isomorfismo. ¥ L’importanza del Teorema 1.10 `e data dal fatto che, a meno di isomorfismi, quando lavoriamo su uno spazio vettoriale qualsiasi, di dimensione n assegnata, possiamo sempre riferirci ad uno di essi. Isomorfismo canonico Il Teorema 1.10 mette in evidenza che tra due spazi vettoriali aventi la stessa dimensione esiste sempre un isomorfismo. Naturalmente `e possibile che ne esista pi` u di uno. Tra i vari isomorfismi che possiamo trovare ne abbiamo uno, detto isomorfismo canonico che riveste particolare importanza. Nel teorema seguente descriviamo esplicitamente questo isomorfismo. Teorema 1.11. Sia BV = {v1 , . . . , vn } una base di uno spazio vettoriale V sul campo K. Sia cV : V → Kn la corrispondenza definita da a1 n X v= ai vi 7−→ ... . i=1 an Allora cV `e un isomorfismo.
14
APPLICAZIONI LINEARI -Dimostrazione. Siano x, y ∈ V due generici vettori, le cui componenti, rispetto alla base B fissata, siano date da x1 y1 x 7−→ ... e y − 7 → ... . xn
yn
Per ogni scelta degli scalari a, b ∈ K, abbiamo ax + by = a(x1 v1 + ... + xn vn ) + b(y1 v1 + ... + yn vn ) = (ax1 + by1 )v1 + ... + (axn + byn )vn . Applicando cV risulta quindi
ax1 + by1 .. cV (ax + by) = = a . axn + byn
x1 .. + b . xn
y1 .. = ac (x) + bc (y), V V . yn
per cui cV `e una applicazione lineare. Se cV (v) `e la n-pla identicamente nulla, allora v = 0v1 + ... + 0vn = 0V , per cui ker cV = 0V e quindi cV `e iniettiva. Consideriamo ora una qualsiasi n-pla in Kn a1 a = ... . an Il vettore v = a1 v1 + ... + an vn appartiene ovviamente a V, e risulta cV (v) = a. Pertanto l’applicazione lineare considerata `e anche suriettiva, e quindi `e un isomorfismo. ¥ Osservazioni ed esempi. 1. Il Teorema 1.10 ci dice che, a meno di isomorfismi, esiste un solo spazio vettoriale di una data dimesione n, su un dato campo K. Il Teorema 1.11 ci dice che questo spazio `e identificabile canonicamente con lo spazio Kn formato da tutte le n-ple di elementi di K. 2. Possiamo costruire spazi vettoriali aventi la stessa dimensione, ma non isomorfi, solo assumendo campi base distinti. Infatti, in questo caso, non `e neppure possibile definire tra essi alcuna applicazione lineare (cfr. Osservazione 2 a pagina 6). 3. Direttamente dalla definizione, si deduce che l’immagine di un vettore vi ∈ BV , tramite cV , coincide con la n-pla avente tutte le componenti uguali a 0, salvo la componente i-ma uguale a 1. Di conseguenza, cV trasforma la base B nella base canonica di Kn . 4. In riferimento alla precedente osservazione precisiamo che i valori 0, 1 sono da intendersi come gli elementi neutri delle due operazioni, + e ·, che rendono l’insieme K un campo. In particolare, 0 `e l’elemento neutro del gruppo abeliano (K, +), mentre 1 `e l’elemento neutro del gruppo abeliano (K \ {0}, ·).
1.2 MATRICI ASSOCIATE
1.2
15
MATRICI ASSOCIATE
Nell’Osservazione 8 a pagina 7 abbiamo visto che `e possibile definire una applicazione lineare a partire da una matrice. Vogliamo ora invertire questa considerazione, mettendo in evidenza come sia possibile associare matrici di tipo (m, n) ad una data applicazione lineare definita tra due spazi vettoriali V e W (su uno stesso campo K), di dimensioni n ed m rispettivamente. L’idea ha origine dal Teorema 1.9, che garantisce la costruzione di una applicazione lineare f : V → W, nel momento in cui ne risulti definita l’azione su una base B = {v1 , . . . , vn } di V. Poich´e i vettori f (v1 ), . . . , f (vn ) appartengono a W, `e possibile associare ad ognuno di essi una m-pla di coordinate rispetto ad una base B0 = {w1 , . . . , wm } definita in W. Queste coordinate possono essere ordinate in vettori colonne di Km : x11 x1n f (v1 ) = ... , . . . , f (vn ) = ... . xm1
xmn
Le n distinte m-ple cos`ı ottenute possono essere pensate come le colonne di una matrice 0 AB e la matrice che si associa in modo univoco (fissate le basi B B (f ) di tipo (m, n). Essa ` e B0 in V e W) all’applicazione f . Riassumiamo questo fatto nella seguente definizione. Definizione 1.12. Le matrici rappresentative di una data applicazione lineare f : V → W hanno come colonne i coefficienti che consentono di esprimere le immagini dei vettori di una base di V come combinazione lineare dei vettori di una base di W. Ogni tale matrice fornisce un modo per calcolare l’azione dell’applicazione f su tutti i vettori del dominio V. Se x ∈ V, detta X la colonna delle componenti di x rispetto alla base B, le componenti del vettore f (x), rispetto alla base B 0 , sono fornite dal prodotto 0 0 AB B (f )X. Nel0 caso in cui f sia un endomorfismo di V, e B = B, possiamo indicare B la matrice AB (f ) semplicemente con AB (f ). Facciamo comunque notare che, quando si considera un endomorfismo, non `e detto che si debba necessariamente assumere la stessa base nel dominio e nel codominio. Osservazioni ed esempi. 1. Consideriamo l’applicazione lineare di End(R3 ) definita da: x a1 x + a2 y + a3 z f y = b1 x + b2 y + b3 z , z c1 x + c2 y + c3 z
e fissiamo come base di riferimento la base canonica C, sia nel dominio che nel codominio. Indichiamo semplicemente con A la matrice ACC (f ) ∈ M3 (R) (quando non si vuole enfatizzare la dipendenza dalle basi `e speso utilizzata questa notazione semplificata). L’endomorfismo f ∈ End(R3 ) manda vettori di R3 in vettori di R3 secondo la regola: x a1 x + a2 y + a3 z 7 → b1 x + b2 y + b3 z = Y, X= y − z c1 x + c2 y + c3 z
16
APPLICAZIONI LINEARI e la sua azione si manifesta su un vettore v ∈ R3 mediante il prodotto a sinistra della matrice A, cio`e AX = Y. Quindi, le colonne di A corrispondono ai a1 A = b1 c1
coefficienti di x, y, z, rispettivamente, cio`e a2 a3 b2 b3 . c2 c3
2. Consideriamo l’applicazione lineare d : R3 [t] −→ R3 [t], dove R3 [t] `e lo spazio vettoriale dei polinomi a coefficienti reali di grado ≤ 3 e d `e l’operatore di derivazione3 . Se p(t) = a0 t3 + a1 t2 + a2 t + a3 , abbiamo cio`e d(p(t)) = 3a0 t2 + 2a1 t + a2 . Assumiamo B = {1, t, t2 , t3 } come base, sia nel dominio che nel codominio. Vogliamo allora determinare la matrice AB (d) associata alla derivazione. Occorre individuare l’immagine, tramite d, dei vettori della base B, e scrivere tali immagini come combinazione lineare dei vettori della stessa base. Abbiamo allora d(1) = 0 = 0 · 1 + 0t + 0t2 + 0t3 d(t) = 1 = 1 · 1 + 0t + 0t2 + 0t3 (1.2.1) 2 ) = 2t = 0 · 1 + 2t + 0t2 + 0t3 d(t d(t3 ) = 3t2 = 0 · 1 + 0t + 3t2 + 0t3 Allora la matrice associata a d `e la trasposta della matrice dei coefficienti del sistema (1.2.1), ossia: 0 1 0 0 0 0 2 0 AB (d) = 0 0 0 3 . 0 0 0 0
1.2.1
Il Teorema dimensionale
La matrice associata ad un’applicazione lineare fornisce importanti informazioni sulle propriet`a dell’applicazione stessa. Queste sono riassunte nel seguente risultato, noto come Teorema dimensionale. Esso esprime una relazione tra le dimensioni del nucleo e dell’immagine di ogni applicazione lineare. 3 Lo spazio vettoriale dei polinomi a coefficienti reali di grado ≤ n viene anche indicato con P oln (R)[x], o, pi` u semplicemente, con P oln (x)
1.2 MATRICI ASSOCIATE
17
Teorema 1.13. Sia f ∈ Hom(V, W) e sia dim V = n. Vale allora la seguente uguaglianza: n = dim(ker f ) + dim(Imf ). (1.2.2) -Dimostrazione. Fissiamo in V e W le basi B e B 0 rispettivamente. Preso un generico vettore x ∈ V, sia X la colonna delle componenti di x rispetto alla base B, cio`e x1 .. X = . . xn 0
Posto AB B (f ) = A, rappresentiamo A come accostamento di n vettori colonna, ossia A = [C1 | . . . |Cn ], con Ci ∈ Kdim W , per ogni i ∈ {1, . . . , n}. Sia [f (x)] l’elemento di Kdim W le cui componenti sono i coefficienti che esprimono f (x) come combinazione lineare dei vettori della base B0 . Allora [f (x)] si ottiene moltiplicando X a sinistra per la matrice A, ossia x1 .. [f (x)] = AX = [C1 | . . . |Cn ] . (1.2.3) xn = x1 C1 + · · · + xn Cn . La precedente `e una combinazione lineare delle colonne della matrice A, aventi come coefficienti gli scalari xi ∈ K. Ma, al variare di x ∈ V, la (1.2.3) rappresenta pure tutti i possibili vettori di Imf . Quindi le colonne di A sono un insieme generatore di Imf . Sappiamo poi che il rango r di A `e il massimo numero di colonne (e di righe) di A linearmente indipendenti4 . Quindi r rappresenta pure la dimensione dello spazio immagine, cio`e dim(Imf ) = r. Inoltre, il nucleo di f `e l’insieme delle soluzioni del sistema omogeneo Ax = 0. Quindi, per il Teorema di Rouch´e-Capelli, dim(ker f ) = n − r = n − dim Imf , da cui si ricava la tesi. ¥ L’equazione (1.2.2) `e detta Equazione Dimensionale. Sfruttando l’equazione dimensionale ricaviamo che tra spazi aventi la stessa dimensione i concetti di iniettivit`a e suriettivit`a coincidono. Teorema 1.14. Siano V e W due spazi vettoriali tali che dim V = dim W. Allora una applicazione lineare f : V → W `e iniettiva se e solo se `e suriettiva. -Dimostrazione. Supponiamo f iniettiva. Allora ker f = 0, per cui dim(ker f ) = 0, e dalla (1.2.2) ricaviamo dim(Imf ) = dim V. Ma dim V = dim W, per cui f `e suriettiva. Supponiamo ora che f sia suriettiva. Allora dim(Imf ) = dim W, ed essendo dim W = dim V risulta dim(Imf ) = dim V. Dalla (1.2.2) ricaviamo quindi dim(ker f ) = 0, e dal Teorema 1.3 abbiamo che f `e iniettiva. ¥ 4
Il rango, o caratteristica, di una matrice A viene spesso indicato con il simbolo rkA.
18
APPLICAZIONI LINEARI
Osservazioni ed esempi. 1. Si noti che nel Teorema 1.13 non viene fatta alcuna ipotesi sulla dimensione dello spazio W, cos`ı come sulle basi di dominio e codominio. 2. Consideriamo il seguente endomorfismo di R3 : f:
R3 −→ R3 (x, y, z) 7−→ (x, y, 0).
Esso viene anche chiamato proiezione canonica (sul piano xy). L’immagine di f `e Imf = {(x, y, 0)| x, y ∈ R}, cio`e il piano xy, che ha dimensione 2. Il nucleo `e formato da tutti i vettori dell’asse z, cio`e ker f = {(0, 0, z)| z ∈ R}, e ha dimensione 1. L’equazione dimensionale `e soddisfatta, essendo 3 = dim(ker f ) + dim(Imf ). 3. Studiamo l’equazione dimensionale in riferimento alla seguente applicazione lineare f : R2 → R3 : f (x, y) = (2x − y, x + y, y). Fissiamo come basi di R2 ed R3 le rispettive basi canoniche, ed indichiamo semplicemente con Af la matrice associata ad f rispetto a queste basi. Essa appartiene a M3,2 (R), ed `e tale che · ¸ 2x − y x Af · = x + y , y y ovvero 2 −1 Af = 1 1 . 0 1 ` facile verificare che rkAf = 2. Questo significa che dim Imf = 2. Non solo. E Le colonne di Af sono un sistema di generatori di Imf , ed essendo in questo caso indipendenti, ne sono anche una base. Applichiamo l’equazione dimensionale: n = dim ker f + dim Imf. Sappiamo che n = 2 e dim Imf = rkAf = 2. Allora dim ker f = 0. Quindi, in particolare, f `e un’applicazione iniettiva. 4. Consideriamo l’applicazione f : R3 → R3 associata alla matrice −2 1 0 Af = −2 1 0 . 4 −2 3 Il rango di Af `e la dimensione di Imf . La matrice Af `e singolare, ma il minore del secondo ordine individuato dalle ultime due righe e colonne `e 6= 0. Quindi rkAf = 2. Le colonne di Af sono un sistema di generatori per Imf , ma quelle che contribuiscono a formare il minore ne costituiscono pure una base, in quanto formano un sottoinsieme indipendente massimale di un insieme generatore.
1.2 MATRICI ASSOCIATE
19
Dall’Equazione dimensionale ricaviamo poi che il nucleo ha dimensione 1. Per determinare esplicitamente ker f , bisogna risolvere il sistema omogeneo Af X = 0, cio`e
−2 1 0 x 0 −2 1 0 y = 0 . 4 −2 3 z 0 Svolgendo i calcoli ricaviamo y = 2x, z = 0. Pertanto risulta ker f = {[x, 2x, 0]t ∈ R3 , x ∈ R}, ed una sua base `e rappresentata, per esempio, dal singolo vettore
1 v = 2 . 0 5. Consideriamo un endomorfismo singolare f ∈ End(V) (cfr. Osservazione 2 a pag. 9). Poich´e f `e singolare, esiste un vettore x ∈ V, con x 6= 0, tale che f (x) = 0. Sia AB ∈ Mn (K) la matrice associata ad f , rispetto alla base B. Indichiamo con X la colonna delle componenti del vettore x rispetto alla stessa base B, abbiamo AB X = 0. Ma la precedente rappresenta un sistema lineare omogeneo quadrato d’ordine n, che ammette l’autosoluzione x. Quindi il rango della matrice dei coefficienti `e minore dell’ordine della matrice, cio`e det A = 0. Di conseguenza la matrice A `e singolare, il che giustifica il nome di queste applicazioni lineari.
1.2.2
Matrici associate alla composizione di applicazioni lineari
Quando si considera la composizione di due o pi` u applicazioni lineari si ha il problema di determinare la matrice rappresentativa della risultante a partire dalle matrici associate alle singole componenti. In questo paragrafo vogliamo occuparci di questo argomento, dimostrando innanzitutto un risultato che giustifica la definizione di prodotto righe per colonne tra due matrici conformabili. Teorema 1.15. Si considerino due applicazioni lineari f : U → V e g : V → W, e siano B, B0 , B 00 basi fissate arbitrariamente in U, V, W rispettivamente. Allora risulta 00
00
0
B B AB B (g ◦ f ) = AB0 (g)AB (f ).
(1.2.4)
-Dimostrazione. Consideriamo un generico vettore x ∈ U. Indichiamo con X la colonna delle componenti di x rispetto alla base B, e con X 0 la colonna delle componenti di f (x) rispetto alla base B0 . Possiamo allora scrivere 00
00
0
0 B B g ◦ f (x) = g(f (x)) = AB B0 X = AB0 AB X.
20
APPLICAZIONI LINEARI 00
00 Ma, utilizzando la matrice AB B associata a g ◦ f rispetto alle basi B e B abbiamo anche 00
g ◦ f (x) = AB B X, e, confrontando le due scritture ottenute, si ricava la (1.2.4).
¥
Teorema 1.16. Sia f : V → V un endomorfismo, e sia B una base di V. Allora f `e un isomorfismo se e solo se det AB (f ) 6= 0. -Dimostrazione. Dal Teorema 1.14 sappiamo che f `e un isomorfismo se e solo se f `e suriettiva, cio`e se e solo se Imf = V. Questo avviene se e solo se le colonne di AB (f ) sono tutte indipendenti, cio`e se e solo se det AB (f ) 6= 0. ¥ Sfruttando i precedenti teoremi possiamo dimostrare il seguente risultato. Teorema 1.17. Sia f : V → V un isomorfismo, e sia B una base di V. Allora si ha AB (f −1 ) = AB (f )−1 .
(1.2.5)
-Dimostrazione. Sappiamo che la matrice AB (f ) `e unica, e, per il Teorema 1.16 essa `e invertibile. Inoltre, essendo f ◦ f −1 = id, e AB (id) = In , per il Teorema 1.15, abbiamo In = AB (id) = AB (f ◦ f −1 ) = AB (f )AB (f −1 ), da cui si ricava la (1.2.5).
¥
Osservazioni ed esempi. 1. Consideriamo due spazi vettoriali V e W, con basi fissate B e B 0 rispettivamente. Siano poi f : V → W una applicazione lineare, x un vettore di V, ed X la colonna delle componenti di x rispetto a B. Spesso, per snellire la trattazione, anzich´e dire che le componenti del vettore f (x), rispetto alla base B 0 , sono fornite dal prodotto 0 AB B (f )X, si scrive semplicemente 0
f (x) = AB B (f )x.
(1.2.6)
2. Dal Teorema 1.15 si ricava immediatamente che, se consideriamo due endomorfismi f, g ∈ End(V), cui sono associate, rispetto alla base B di V, le matrici AB (f ) e AB (g) rispettivamente, allora AB (g ◦ f ) = AB (g) · AB (f ).
1.2.3
Rappresentazione canonica indotta
Sfruttando il Teorema 1.11 possiamo sviluppare lo studio delle applicazioni lineari lavorando semplicemente su quelle definite tra spazi canonici. Vediamo esplicitamente come avviene questo trasferimento. Siano V e W due spazi vettoriali, di dimensioni n ed m rispettivamente, definiti sullo stesso campo K. Mediante gli isomorfismi canonici cV e cW possiamo rappresentare V e
1.2 MATRICI ASSOCIATE
21
W in Kn e Km rispettivamente. Sia poi f : V → W una generica applicazione lineare. L’azione di f `e allora equivalente a quella dell’applicazione lineare F : Kn → Km ottenuta dalla composizione tra c−1 V , f e cW , come illustrato nei diagrammi seguenti: V cV ↓ Kn
f
−→ W ↓ cW F
−→
V c−1 V ↑
⇒
Km
f
−→ W ↓ cW F
Kn 99K
Km
In particolare, procedendo in questa maniera, veniamo a rappresentare la base B di V come base canonica C dello spazio Kn , e la base B0 di W come base canonica C 0 di Km (cfr. Osservazione 3 a pagina 14). Di conseguenza, dalla Definizione 1.12, si deduce che ACB (cV ) 0 `e la matrice identica In di ordine n, mentre ACB0 (cW ) `e la matrice identica Im di ordine 0 C0 m. Quindi, la matrice AB B (f ) viene a coincidere con la matrice AC (F ), come illustrato nel diagramma seguente, che traduce quelli precedenti in termini di matrici associate: 0
V In ↑
AB B (f )
−→
W ↓ Im
0
Kn
AC C (F )
−→
Km
Osservazioni ed esempi. 1. La rappresentazione canonica indotta mette anche in evidenza che le propriet`a di una applicazione lineare sono indipendenti dalle basi che si fissano nel dominio e nel codominio. Infatti, pur di rimpiazzare f con F , si pu`o sempre pensare di lavorare con le basi canoniche. 2. Riprendiamo l’Esempio 2 riportato a pagina 16. La matrice AB (d) che si `e determinata coincide con quella che rappresenta, rispetto alla base canonica, l’applicazione D indotta dalla derivazione d sullo spazio canonico R4 isomorfo ad R3 [t]. Possiamo quindi studiare l’azione della derivazione d lavorando direttamente sullo spazio canonico. Ad esempio, consideriamo il polinomio q(t) = 2t3 − 5t + 1, appartenente ad R3 [t], le cui componenti rispetto alla base ordinata B = {1, t, t2 , t3 } sono:
1 −5 0 . 2 Allora l’azione di d su q(t) equivale all’azione di D sulla quaterna delle sue coordinate, descritta dal prodotto:
1 0 −5 0 AC (D) · 0 = 0 2 0
1 0 0 0
0 2 0 0
0 1 −5 0 3 0 0 2
−5 0 = 6 . 0
22
APPLICAZIONI LINEARI Il risultato rappresenta, in R4 , il vettore delle componenti dell’immagine di q(t). Questo significa che la derivata di q(t) `e il polinomio che ha come coefficienti, rispetto alla base B, le componenti del vettore ottenuto. Quindi risulta d(q(t)) = −5 · 1 + 0t + 6t2 + 0t3 = −5 + 6t2 , il che conferma la nota regola di derivazione.
1.2.4
Cambi di base
Vogliamo ora esaminare una particolare classe di endomorfismi, detti cambi di base. Essi si ottengono quando si considera l’applicazione lineare identica id ∈ End(V) di uno spazio vettoriale V, assumendo per`o due basi diverse, B e B 0 , sul dominio e sul codominio. La 0 matrice AB e detta matrice del cambio di base, e permette di trasformare la n-pla delle B (id) ` componenti di un generico vettore v ∈ V, rispetto alla base B, nella n-pla delle componenti ` importante notare dello stesso vettore id(v) = v, calcolate per`o rispetto alla base B0 . E 0 B che le colonne di AB (id) sono le componenti dei vettori della base di partenza B calcolate rispetto alla base di arrivo B0 . Il seguente teorema illustra come costruire esplicitamente questa matrice. Teorema 1.18. Sia V uno spazio vettoriale di dimensione n sul campo K, e siano B e B 0 due basi di V. Allora la matrice di cambio base `e data da 0
0 −1 AB B (id) = [B ] [B],
(1.2.7)
essendo [B] e [B 0 ] le matrici aventi come colonne, rispettivamente, le n-ple formate dalle componenti dei vettori delle basi B e B0 rispetto ad una opportuna base C fissata in V. -Dimostrazione. Dalla Definizione 1.12 abbiamo immediatamente ACB (id) = [B] ed = [B 0 ]. Pertanto, l’azione del cambio base pu`o essere descritta con il seguente diagramma
ACB0 (id)
0
V [B] ↓ V
AB B (id)
−→
AC C (id)
−→
V ↓ [B0 ] V
0
0 −1 C C Per i teoremi 1.15 e 1.17 abbiamo AB B (id) = [B ] AC (id)[B]. La matrice AC (id) ha come colonne i coefficienti che esprimono le immagini dei vettori di C (tramite l’identit` a) come combinazioni lineari degli stessi vettori. Pertanto ACC (id) `e la matrice identica, e quindi si ricava la (1.2.7). ¥
Osservazioni ed esempi. 1. Spesso, negli esercizi, i vettori di una data base B vengono assegnati fornendo esplicitamente le loro componenti. Questo significa che, nello spazio vettoriale in cui si sta lavorando, `e stata precedentemente fissata una base C, e le componenti dei vettori di B sono i coefficienti che consentono di esprimere ognuno di essi come combinazione
1.2 MATRICI ASSOCIATE
23
lineare dei vettori di C. Nel caso in cui si stia lavorando in uno spazio canonico (situazione a cui ci si pu`o sempre ricondurre grazie al Teorema 1.11) e vengano assegnate le componenti dei vettori di una base B senza fare riferimento ad alcuna altra base, si sottointende che la base di riferimento C `e la base canonica. 2. Supponiamo di assegnare, nello spazio R2 , le due basi date da ½· B1 =
2 1
¸ · ¸¾ ½· ¸ · ¸¾ 1 1 2 , , B2 = , . 0 1 1
In questa maniera abbiamo tacitamente fornito le componenti dei vettori di B1 e B2 rispetto alla base canonica (cfr. Osservazione 1), che in R2 `e data da ½· C=
1 0
¸ · ¸¾ 0 , . 1
3. Consideriamo ancora le due basi dell’Esempio precedente, e scriviamo la matrice di cambio base da B1 a B2 . La matrice · ¸ 2 1 [B1 ] = 1 0 `e quella del cambio di base da B1 a C. Analogamente, · ¸ 1 2 B2 = 1 1 `e la matrice del cambio di base da B2 a C. Abbiamo poi · −1
[B2 ]
−1 2 1 −1
=
¸
Dal Teorema 1.18 ricaviamo pertanto che la matrice cercata `e: · ¸· ¸ · ¸ −1 2 2 1 0 −1 −1 [B2 ] [B1 ] = = . 1 −1 1 0 1 1 4. Consideriamo una applicazione lineare f : Kn → Km , e supponiamo che vengano esplicitamente assegnate le basi B e B 0 negli spazi canonici Kn e Km rispettivamente. 0 Volendo costruire la matrice AB B (f ) applicando direttamente la Definizione 1.12 dovremmo calcolare, per ogni vettore di B, la sua immagine tramite f e poi trovare i coefficienti che esprimono tale immagine come combinazione lineare dei vettori di B0 . Possiamo tuttavia procedere in maniera diversa, componendo l’applicazione lineare con i cambi base da B e B 0 alle basi canoniche C e C 0 di Kn e Km rispettivamente. Si ottiene in questa maniera il seguente diagramma 0
Kn [B] ↓
AB B (f )
−→
Km ↓ [B 0 ]
0
Kn
AC C (f )
−→
Km
24
APPLICAZIONI LINEARI Pertanto, sfruttando anche i teoremi 1.4 e 1.17, ricaviamo che la matrice associata all’applicazione lineare f : Kn → Km , rispetto alle basi B e B0 , `e data da 0
0
0 −1 C AB B (f ) = [B ] AC (f )[B].
(1.2.8)
5. Si faccia attenzione a non confondere il diagramma riportato nella precedente osservazione con quello descritto nel Paragrafo 1.2.3, nel quale le frecce verticali corrispondono a matrici identiche. Queste rappresentano infatti le matrici associate agli isomorfismi canonici, mentre invece, nel diagramma precedente, le frecce verticali corrispondono alle matrici di cambio base associate alle applicazioni lineari identiche degli spazi canonici considerati. 6. Poich´e le basi B e B0 possono variare arbitrariamente in Kn e Km , la formula (1.2.8) 0 C0 e nota in fornisce un legame tra le varie matrici AB B (f ) e la matrice AC (f ). Se invece ` n m partenza l’azione di una applicazione lineare f : K → K su determinate basi B e B0 , e si vuole risalire alla sua azione sulle basi canoniche, basta invertire l’equazione (1.2.8), e si ottiene 0
0
−1 ACC (f ) = [B0 ]AB B (f )[B] .
1.3
ESERCIZI
1.3.1. Studiare la linearit` a dell’applicazione: f:
R3 −→ R [x, y, z]t 7−→ x − y + 2z.
1.3.2. Verificare se l’applicazione: f : R2 :−→ R2 [x, y]t 7−→ [x − y, x + y]t `e lineare. 1.3.3. Siano f : R2 → R e g : R → R2 le applicazioni lineari cos`ı definite: f ([x, y]t ) = x + y + 1; g(x) = [x, −2x]t . Stabilire se g ◦ f `e lineare. 1.3.4. Sia f : Mn (R) → Mn (R) l’applicazione definita da: f (A) = 2A, per ogni A ∈ Mn (R). Stabilire se f `e lineare.
(1.2.9)
1.3 ESERCIZI
25
1.3.5. Stabilire se `e lineare l’applicazione f : Mn (R) → Mn (R) definita da f (A) = A + 2In , con A ∈ Mn (R). 1.3.6. Si consideri l’endomorfismo di R3 f ([x, y, z]t ) = [2x + 2y, x − ty, x − y − z]t , t ∈ R. Stabilire per quali valori del parametro t l’applicazione f `e un automorfismo. 1.3.7. Si consideri l’applicazione lineare f : R2 → R3 cos`ı definita: f ([x, y]t ) = [2x − y, x + y, y]t . Stabilire se f `e iniettiva e suriettiva. 1.3.8. Stabilire per quali valori del parametro reale t l’applicazione lineare f : R2 → R2 , definita da: f ([x, y]t ) = [x + ty, (t − 1)x + 2y]t `e iniettiva. 1.3.9. Verificare che l’applicazione lineare f : R2 → R3 definita da f ([x, y]t ) = [x + y, x − y, x]t `e iniettiva. 1.3.10. Stabilire se l’endomorfismo di R3 definito da f ([x, y, z]t ) = [2x+2y, x−y, x−y−z]t `e un automorfismo. 1.3.11. Si consideri l’applicazione lineare f : R2 → R3 definita da: f (e1 ) = e1 + e2 + e3 f (e2 ) = −e1 + 2e3 . Si determini la matrice associata ad f e si stabilisca se f `e un’applicazione iniettiva. 1.3.12. Sia f : R2 → R3 l’applicazione lineare data da · ¸ x−y x f = 2x − 2y . y 3x − 3y
1. Determinare la matrice che rappresenta f rispetto alle basi ½· B1 =
¸ · ¸¾ 3 0 , , 1 2
0 2 1 B2 = 0 , 1 , −1 . 1 0 3
2. Scrivere, rispetto alla base B2 , l’immagine del vettore · vB1 =
1 2
¸ .
26
APPLICAZIONI LINEARI 1.3.13. Sia f l’endomorfismo di R3 associato alla matrice t 2 t+1 At = 2 t t + 3 . 1 2 4 Determinare il valore del parametro t affinch´e f sia un automorfismo. Posto t = −2, determinare base e dimensione di Imf . Posto t = 3, determinare base e dimensione di ker f . 1.3.14. Sia f : R3 → R3 l’applicazione lineare associata alla matrice −2 1 0 A = −2 1 0 . 4 −2 3 Determinare una base per Imf . Dopo aver verificato che l’insieme © ª W = [x, y, 0]t , x, y ∈ R `e sottospazio di R3 , determinare una base per W + Imf . 1.3.15. Dato in R4 l’endomorfismo ft rappresentato dalla matrice t 0 1 1 1 t 1 −1 At = 1 0 2 0 , 1 0 0 −2 verificare che dim(ker f ) = 2 solo per t = 0. 1.3.16. Sia f l’endomorfismo di R3 definito da: f (e1 ) = te1 + 2e2 + e3 f (e2 ) = 2e1 + +te2 + 2e3 f (e3 ) = (t + 1)e1 + (t + 3)e2 + 4e3 . Stabilire per quali valori di t ∈ R f `e un automorfismo e determinare negli altri casi la dimensione ed una base per ker f . 1.3.17. Sia f l’applicazione lineare associata alla 1 2 1 A = 2 −1 1 5 0 3
matrice 0 1 . 2
Determinare una base per Imf ed una per ker f . 1.3.18. Sia f : R3 → R3 l’applicazione lineare data da x − y + 2z x f y = 2x + 3y − 4z . x − 6y + 10z z Determinare nucleo ed immagine di f , la loro dimensione ed una loro base.
1.3 ESERCIZI
27
1.3.19. Sia f : R3 → R2 l’applicazione lineare data da · ¸ x x + y − 3z f y = , ax + (2 − a)y + (a − 4)z z essendo a un parametro reale. 1. Determinare, al variare di a in R, il nucleo, l’immagine, le loro dimensioni ed una loro base. 2. Scrivere, per a = 1, la matrice che rappresenta f rispetto alle basi date da 0 2 1 B1 = 0 , 1 −1 , 1 0 4
½· B2 =
3 5
¸ · ¸¾ 2 , . 6
1.3.20. Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia P ol3 (R)[x] lo spazio dei polinomi di grado n ≤ 3 in x, a coefficienti reali. Sia f : M2 (R) → P ol3 (R)[x] la seguente applicazione lineare µ· f
a b c d
¸¶ = (a − c + 2d)x3 + (−b + 2d)x2 + (a + b − c)x + a + b − 2c + 2d,
con a, b, c, d ∈ R. 1. Determinare la dimensione di Imf , e scrivere una sua base. 2. Determinare la dimensione di kerf , e scrivere una sua base. 1.3.21. Sia P ol3 (R)[x] lo spazio dei polinomi di grado n ≤ 3 in x, a coefficienti reali. Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia f : P ol3 (R)[x] → M2 (R) la seguente applicazione lineare · ¸ a + b − c 2a + b − 3c − d f (ax3 + bx2 + cx + d) = , a − 2c − d 3a + 2b − 4c − d con a, b, c, d ∈ R. 1. Determinare la dimensione di Imf , e scrivere una sua base. 2. Determinare la dimensione di kerf , e scrivere una sua base.
28
APPLICAZIONI LINEARI
Capitolo 2
SIMILITUDINE E ` DIAGONALIZZABILITA Consideriamo un’applicazione lineare f ∈ End(V). Fissata una base B di V, abbiamo visto che `e possibile associare in modo univoco ad f una matrice AB (f ), mediante la quale `e completamente descritto il comportamento dell’endomorfismo. Ovviamente se si cambia base cambia anche la matrice associata: se al posto di B consideriamo una base C, la matrice AC (f ) sar`a diversa dalla AB (f ). Entrambe per`o rappresentano lo stesso endomorfismo. Deve quindi esistere una relazione di qualche tipo che lega le due matrici. Questa relazione si chiama similitudine. Nel paragrafo seguente diamo la definizione e le prime propriet`a.
2.1
SIMILITUDINE
La similitudine `e un concetto che riguarda esclusivamente le matrici quadrate. Se A, B ∈ Mn (K), si dice che A `e simile a B, e si scrive A ∼ B se esiste una matrice P invertibile, detta matrice di passaggio, tale che P −1 AP = B. Teorema 2.1. In Mn (K) la similitudine `e una relazione di equivalenza. -Dimostrazione. sitiva.
Verifichiamo la validit` a delle propriet`a riflessiva, simmetrica e tran-
(i) Propriet` a riflessiva. Ogni matrice A ∈ Mn (K) `e simile a se stessa. prendere P uguale ad In (matrice identica di ordine n), e si ottiene
Basta
In−1 AIn = A. (ii) Propriet` a simmetrica. Se A `e simile a B allora B `e simile ad A. Infatti, se A ∼ B, esiste P ∈ Mn (K), invertibile, tale che P −1 AP = B. Moltiplicando entrambi i membri di questa uguaglianza a sinistra per P e a destra per P −1 otteniamo P (P −1 AP )P −1 = P BP −1 , da cui A = P BP −1 = (P −1 )−1 B(P −1 ).
(2.1.1)
` SIMILITUDINE E DIAGONALIZZABILITA
30
La (2.1.1) dice che B `e simile ad A, mediante la matrice di passaggio P −1 . (iii) Propriet` a transitiva. Se A `e simile a B e B `e simile a C, allora A `e simile a C. Infatti, se A ∼ B, esiste una matrice P invertibile tale che P −1 AP = B.
(2.1.2)
Analogamente, se B ∼ C, esiste una matrice invertibile Q tale che Q−1 BQ = C.
(2.1.3)
Sostituendo la (2.1.2) nella (2.1.3) si ottiene: Q−1 (P −1 AP )Q = C, da cui: (Q−1 P −1 )A(P Q) = C, (P Q)−1 A(P Q) = C.
(2.1.4)
La relazione (2.1.4) esprime il fatto che A ∼ C, tramite la matrice di passaggio P Q.
¥
Una prima propriet`a posseduta da due matrici simili `e descritta nel teorema seguente. Teorema 2.2. Matrici simili hanno lo stesso determinante. -Dimostrazione. Se A ∼ B, dalla definizione di similitudine abbiamo P −1 AP = B per qualche matrice P invertibile. Utilizzando il Teorema di Binet ricaviamo allora det B = det(P −1 AP ) = det(P −1 ) · det A · det P = (det P )−1 · det A · det P = det A. ¥ Osservazioni ed esempi.
1. Facciamo notare una particolarit`a nella definizione di similitudine di matrici. Dicendo che A `e simile a B se esiste ... si d`a una sorta di direzionalit`a alla definizione, ` che rende anche sensato il controllo della propriet`a simmetrica dell’equivalenza. E diverso dire A e B sono simili se esiste .... Qui non viene stabilito a priori, nella scrittura P −1 AP = B, qual’`e la posizione di A e quale quella di B. In questo caso la propriet`a simmetrica sarebbe implicita. 2. Il Teorema 2.2 fornisce una condizione solo necessaria per la similitudine. Se due matrici sono simili allora hanno lo stesso determinante, ma non `e vero il viceversa. Esistono altre condizioni necessarie che caratterizzano la similitudine. L’analisi di queste condizioni, e lo studio della similitudine stessa, richiedono l’introduzione di concetti legati alla diagonalizzabilit`a che saranno sviluppati nel prossimo paragrafo.
´ 2.2 DIAGONALIZZABILITA
2.2
´ DIAGONALIZZABILITA
Nel Paragrafo 1.1.4 abbiamo visto che, a meno di trasferire le considerazioni sulla applicazione lineare indotta, `e sempre possibile pensare di lavorare sugli spazi canonici. Non `e pertanto restrittivo sostituire lo studio degli endomorfismi di uno spazio vettoriale V, di dimensione n, sul campo K, con lo studio degli endomorfismi di Kn . In particolare, ci concentriamo sullo studio delle applicazioni lineari f : Rn → Rn . Facciamo comunque notare che tutti i risultati possono essere estesi (con le ovvie modifiche dovute al cambio di campo) ad endomorfismi di Kn .
2.2.1
Definizioni e prime propriet` a
Sia f : Rn → Rn una applicazione lineare. Se consideriamo due basi B1 e B2 di Rn , e definiamo le componenti dei loro vettori rispetto alla base canonica C, sappiamo (cfr. Osservazione 6 a pagina 24) che si ha −1 C 2 AB B1 (f ) = [B2 ] AC (f )[B1 ],
formula valida anche per spazi diversi in partenza ed in arrivo. Se fissiamo in Rn una base B e prendiamo B1 = B2 = B, abbiamo −1 C AB B (f ) = [B] AC (f )[B].
Questo significa che le matrici che rappresentano f rispetto ad una qualsiasi base sono tutte simili tra loro. Se esiste una base B rispetto alla quale AB e diagonale, allora f si dice endomorfismo B (f ) ` diagonalizzabile o anche endomorfismo semplice. Se A `e la matrice che rappresenta un endomorfismo diagonalizzabile f rispetto ad una qualsiasi base di Rn , diciamo che A `e una matrice diagonalizzabile. Ogni tale matrice `e pertanto simile ad una matrice diagonale, cio`e esiste una matrice invertibile P tale che: P −1 AP = diag(λ1 , . . . , λn ). Si chiama polinomio caratteristico di una matrice M il polinomio χM (λ) = det(M − λIn ) = λn + a1 λn−1 + · · · + an−1 λ + an . La matrice M − λIn si chiama matrice caratteristica associata ad M . L’equazione χM (λ) = 0 `e detta equazione caratteristica associata ad M . L’insieme delle radici del polinomio caratteristico, `e chiamato spettro di M , e indicato con SpecM = {λ1 , . . . , λn }.
31
` SIMILITUDINE E DIAGONALIZZABILITA
32
2.2.2
Alcune propriet` a del Polinomio caratteristico
Nel Teorema 2.2 abbiamo visto una prima semplice propriet`a necessaria per la similitudine. Il seguente teorema ne mette in evidenza una seconda. Teorema 2.3. Due matrici simili A e B hanno lo stesso polinomio caratteristico. -Dimostrazione. Sia B ∼ A, e P una matrice invertibile tale che P −1 BP = A. Utilizzando il Teorema di Binet ricaviamo allora −1 AP − tI ) = χB (t) = det(B − tIn ) = det(P £ −1 ¡ −1 ¢¤ £n ¤ = det P AP − t P P = det P −1 (A − tIn )P = = det(P −1 ) · det(A − tIn ) · det P = det(A − tIn ) · det(P −1 ) · det P = = det(A − tIn ) · (det P )−1 · det P = det(A − tIn ) = χA (t).
¥ In base al teorema precedente possiamo definire il concetto di polinomio caratteristico di una applicazione lineare f . Esso `e il polinomio caratteristico di una sua qualsiasi matrice associata. Analogamente si possono trasferire su f le nozioni di equazione caratteristica e Spettro, identificandole con quelle di una sua qualsiasi matrice associata. Teorema 2.4. Se M ∈ Mn (R), allora χM (λ) = χM t (λ). -Dimostrazione.
Il risultato si ottiene facilmente attraverso i seguenti passaggi t χM (λ) = det(M λIn ) = ¢det(M − ¡ − ¡ λItn ) = t ¢ t t = det ¡M − (λIn¢) = det M − λIn = = det M t − λIn = χM t (λ).
¥ Teorema 2.5. Sia SpecM = {λ1 , . . . , λn }. Allora risulta det M =
n Y λi .
(2.2.1)
i=1
-Dimostrazione. Sappiamo che il polinomio caratteristico di M ammette n radici (gli autovalori di M ), quindi si pu`o scomporre nel prodotto di n fattori lineari, non necessariamente distinti: χM (λ) = det(M − λI) = (λ1 − λ)(λ2 − λ) · · · (λn − λ). Sostituendo, nella precedente equazione, al posto di λ il valore 0 si ottiene: χM (0) = det(M ) =
n Y
λi .
i=1
¥
´ 2.2 DIAGONALIZZABILITA
33
Teorema 2.6. Sia SpecM = {λ1 , . . . , λn }. Allora risulta TrM =
n X
λi .
(2.2.2)
i=1
-Dimostrazione.
Consideriamo la matrice caratteristica M − λI a11 − λ a12 a13 ··· a1n a21 a22 − λ a23 ··· a2n a31 a a − λ · · · a 32 33 3n ··· ··· ··· ··· ··· an1 an2 an3 · · · ann − λ
Calcoliamo il polinomio caratteristico χM (λ) = det(M − λI) applicando il teorema di Laplace sulla prima riga χM (λ) = (a11 − λ)A11 + g1 (λ) dove A11 `e il complemento algebrico di a11 − λ, e g1 (λ) `e un polinomio di grado inferiore ad n − 1. Lavorando analogamente sul minore complementare di a11 − λ abbiamo a22 − λ a23 ··· a2n a32 a33 − λ · · · a3n = (a22 − λ)A22 + f1 (λ) A11 = det ··· ··· ··· ··· an2 an3 · · · ann − λ dove A22 `e il complemento algebrico di a22 − λ, ed f1 (λ) `e un polinomio di grado inferiore ad n − 2. Quindi otteniamo χM (λ) = (a11 − λ)(a22 − λ)A22 + g2 (λ) dove g2 (λ) = (a11 − λ)f1 (λ) + g1 (λ) `e ancora un polinomio di grado inferiore ad n − 1. Ripetendo il ragionamento arriviamo a scrivere χM (λ) = (a11 − λ)(a22 − λ) · ... · (ann − λ) + gn (λ) con gn (λ) polinomio di grado inferiore ad n − 1. Sviluppando le parentesi abbiamo χM (λ) = (−1)n λn + (−1)n−1
n X
aii λn−1 + p(λ)
i=1
essendo p(λ) un polinomio di grado inferiore ad n − 1. Per il teorema fondamentale dell’algebra, abbiamo anche
χM (λ) = (λ1 − λ)(λ2 − λ) · ... · (λn − λ) = (−1)n λn + (−1)n−1
n X
λi λn−1 + q(λ)
i=1
con q(λ) polinomio di grado inferiore ad n − 1. Per il principio di identit` a dei polinomi le due scritture di χM (λ) sono equivalenti se e solo se i coefficienti delle potenze di uguale
` SIMILITUDINE E DIAGONALIZZABILITA
34
esponente sono uguali. In particolare devono quindi essere uguali i coefficienti di λn−1 e quindi (−1)n−1
n X
aii = (−1)n−1
i=1
da cui si ricava la tesi, essendo
n X
n X
λi ,
i=1
aii = TrM .
¥
i=1
Osservazioni ed esempi. 1. Il Teorema 2.3 non `e invertibile, cio`e, non `e detto che due matrici aventi lo stesso polinomio caratteristico siano simili tra loro. 2. Determiniamo χM (λ) e SpecM per la matrice 1 0 0 M = 1 2 0 . 1 −1 0 Sappiamo che χM (λ) = det(M − λI3 ). Quindi
1 0 0 1 0 0 χM (λ) = det(M − λI3 ) = det 1 2 0 − λ 0 1 0 0 0 1 ¯ ¯ 1 −1 0 ¯ 1−λ ¯ 0 0 ¯ ¯ 2 − λ 0 ¯¯ = −λ(1 − λ)(2 − λ). = ¯¯ 1 ¯ 1 −1 −λ ¯ χM (λ) = 0 ⇒ λ = 0, 1, 2
⇒
SpecM = {0, 1, 2}
3. In base al Teorema 2.5, una matrice singolare ammette sempre almeno un autovalore nullo. 4. Il Teorema 2.6 mette in evidenza che la somma degli autovalori di una matrice coincide con la sua traccia. Questo non implica che i singoli autovalori coincidano con gli elementi della diagonale principale.
2.3
AUTOVALORI ED AUTOVETTORI
Un numero λ ∈ R si dice autovalore di un endomorfismo f : Rn → Rn se esiste un vettore v ∈ Rn non nullo tale che f (v) = λv. Il vettore v si chiama autovettore e λ `e l’autovalore ad esso associato. L’insieme di tutti gli autovettori associati a λ, assieme al vettore nullo, si indica con Eλ (f ) e viene chiamato autospazio di f associato all’autovalore λ. Il concetto di autovettore si rivela fondamentale per il problema della diagonalizzazione. Vale infatti il seguente teorema.
2.3 AUTOVALORI ED AUTOVETTORI
35
Teorema 2.7. Un endomorfismo f : Rn → Rn `e diagonalizzabile se e solo se esiste una base di autovettori. -Dimostrazione. Supponiamo innanzitutto che f sia diagonalizzabile. Allora esiste una base B rispetto alla quale AB e diagonale. Sia B = {v1 , ..., vn }, e siano λ1 , ..., λn B (f ) ` gli elementi sulla diagonale di AB (f ), cio` e B λ1 0 · · · 0 λ2 · · · AB .. . . B (f ) = .. . . . 0 0 ···
0 0 .. .
λn
Poich´e le colonne di AB B (f ) sono i coefficienti che consentono di scrivere le immagini dei vettori di B in funzione della stessa base B, abbiamo f (v1 ) = λ1 v1 f (v2 ) = λ2 v2 ... f (vn ) = λn vn , il che implica che B `e una base di autovettori. Supponiamo ora che esista una base B = {v1 , ..., vn } in cui ogni elemento `e un autovettore di f . Allora esistono λ1 , ..., λn ∈ R tali che f (vi ) = λi vi per ogni i ∈ {1, ..., n}, e quindi λ1 0 · · · 0 λ2 · · · AB .. . . B (f ) = .. . . . 0 0 ··· Pertanto f `e diagonalizzabile.
0 0 .. .
λn ¥
Ricaviamo in particolare che la matrice rappresentativa di un endomorfismo diagonalizzabile rispetto ad una base di autovettori `e una matrice diagonale, avente come elementi principali gli autovalori. Osservazioni ed esempi. 1. Consideriamo una matrice generica A ∈ Mn (R). Questa si pu`o sempre vedere come la matrice associata ad un endomorfismo f ∈ End(Rn ) rispetto ad una base fissata. Allora autovalori ed autovettori di A sono gli autovalori e gli autovettori di f . ` importante notare che, quando si parla di autovettori, si fa riferimento a vettori 2. E distinti dal vettore nullo.
` SIMILITUDINE E DIAGONALIZZABILITA
36
2.3.1
Calcolo degli autovalori
Dalla definizione di autovalore non appare immediatamente evidente il metodo con cui si possono effettivamente calcolare questi numeri. Esso viene fornito nel teorema seguente. Teorema 2.8. Gli autovalori di una matrice A ∈ Mn (R) si calcolano come radici del polinomio caratteristico della matrice stessa: χA (t) = det(A − tIn ). -Dimostrazione. Se λ `e un autovalore di A, esiste un vettore non nullo (un autovettore) v ∈ Rn tale che Av = λv. Portando tutto al primo membro nella precedente uguaglianza, abbiamo Av − λv = 0, ovvero (A − λIn )v = 0.
(2.3.1)
La (2.3.1) si pu`o rivedere come un sistema lineare omogeneo di n equazioni in n incognite. La matrice dei coefficienti `e A − λIn , ovvero la matrice caratteristica di A. Lo scalare λ `e un autovalore se e solo se esiste un (auto)vettore non nullo v 6= 0, soluzione di (2.3.1), cio`e se e solo se il sistema ammette autosoluzioni. Condizione necessaria e sufficiente affinch´e un sistema del tipo (2.3.1) abbia autosoluzioni `e che la matrice dei coefficienti abbia rango inferiore al numero delle incognite. Questo, nel caso considerato, avviene se e solo se det(A − λIn ) = 0. Quindi lo scalare λ `e autovalore di A se e solo se `e soluzione dell’equazione χA (t) = det(A − tIn ) = 0, che `e l’equazione caratteristica di A.
¥
Osservazioni ed esempi. 1. Essendo gli autovalori di una matrice ottenibili come radici del suo polinomio caratteristico, matrici simili hanno gli stessi autovalori, ovvero lo stesso spettro: SpecA = SpecB.
(2.3.2)
Dai teoremi 2.5 e 2.6 ricaviamo pertanto che matrici simili hanno stesso determinante (questa propriet`a `e gi`a stata ottenuta per altra via nell’Osservazione (2.2) a pagina 30) e medesima traccia, ossia: TrA = TrB, det A = det B.
(2.3.3)
` bene insistere sul fatto che le condizioni (2.3.2) e (2.3.3) sono condizioni solo E necessarie, non sufficienti, per la similitudine, cos`ı come gi`a osservato per il Teorema 2.3 (cfr. Osservazione 1 a pag. 34). Cio`e, se A `e simile a B, allora le (2.3.2) e (2.3.3) sono vere. Se sono vere nulla si pu`o dire sulla similitudine di A e B. 2. Autovalori di una matrice diagonale. Consideriamo una matrice diagonale A = diag(a1 , . . . , an ). In questo caso, essendo A−tIn = diag(a1 , . . . , an )−diag(t, . . . , t) = diag(a1 − t, . . . , an − t), e ricordando che il determinante di una matrice diagonale
2.3 AUTOVALORI ED AUTOVETTORI
37
`e il prodotto degli elementi principali, abbiamo χA (t) = (a1 − t)(a2 − t) · · · (an − t). Le radici del polinomio caratteristico sono allora proprio gli elementi principali di A. Quanto detto vale anche per le matrici triangolari, arrivando alle stesse conclusioni: gli autovalori di una matrice triangolare sono i suoi elementi principali. 3. Determiniamo una matrice avente il polinomio p(t) = t3 − 3t2 − t + 3 come polinomio caratteristico. Notiamo, innanzitutto, che p(t) `e scomponibile nel prodotto di fattori lineari: p(t) = (t − 3)(t + 1)(t − 1). Quindi ha tre radici reali distinte λ1 = 3, λ2 = 1 e λ3 = −1. Questi sono autovalori di una matrice che ammette p(t) come polinomio caratteristico. Per esempio, possiamo considerare una qualsiasi matrice triangolare avente λ1 , λ2 , λ3 come elementi principali, cio`e 1 a b A = 0 −1 c 0 0 3 per ogni a, b, c ∈ R. Ma avremmo anche potuto scegliere una matrice triangolare inferiore con gli stessi elementi principali, o ancora pi` u semplicemente la matrice diag(1, −1, 3). 4. Determiniamo tutti gli autovalori della matrice A ∈ M2 (R) sapendo che valgono le seguenti uguaglianze: det(A − 5I2 ) = 0, det(A + I2 ) = 0.
(2.3.4)
Non sappiamo come `e fatta A, ma le due uguaglianze precedenti ci permettono di individuare comunque i suoi autovalori. Questi sono le soluzioni dell’equazione caratteristica, ovvero sono gli scalari λ che soddisfano l’uguaglianza det(A − tI2 ) = 0. Ponendo nella precedente t = 5 e t = −1 otteniamo proprio le (2.3.4), quindi 5 e −1 sono due autovalori. Per`o il polinomio caratteristico di A ha grado due, perch´e A ∈ M2 (R) e non pu`o avere pi` u di due radici. Allora 5, −1 sono tutti gli autovalori di A e SpecA = {5, −1}. 5. Determiniamo χA (t) per la matrice
1 0 0 A = 1 2 0 . 1 −1 0
Sappiamo che χA (t) = det(A − tI3 ). Quindi 1 0 χA (t) = det(A − tI3 ) = det 1 2 1 −1 ¯ ¯ 1−t 0 ¯ 2−t = ¯¯ 1 ¯ 1 −1
1 0 0 0 0 − t 0 1 0 = 0 0 1 0 ¯ ¯ 0 ¯ 0 ¯¯ = −t(1 − t)(2 − t). −t ¯
` SIMILITUDINE E DIAGONALIZZABILITA
38
Alla stessa conclusione si poteva giungere osservando che A `e una matrice triangolare, quindi i suoi autovalori sono gli elementi principali. Conoscendo gli autovalori conosciamo le radici del polinomio caratteristico, e quindi una sua scomposizione in fattori: χA (t) = −t(1 − t)(2 − t).
2.3.2
Autospazi di un endomorfismo
Sia f un endomorfismo dello spazio Rn , e sia λ ∈ Specf un suo autovalore. L’insieme di tutti gli autovettori associati a λ, assieme al vettore nullo, si indica con Eλ (f ) (o semplicemente Eλ se non ci sono pericoli di fraintendimenti) e viene chiamato autospazio di f associato all’autovalore λ, ossia: Eλ (f ) = {v ∈ Rn | f (v) = λv}. A livello di matrici associate, la definizione di autospazio si traduce come segue. Se A `e una matrice di Mn (R), e λ un suo autovalore, chiamiamo autospazio relativo a λ l’insieme: Eλ = {v ∈ Rn | Av = λv}.
Il nome autospazio `e giustificato dal seguente risultato. Teorema 2.9. Sia λ un autovalore di un endomorfismo f : Rn → Rn , e sia Eλ = {v ∈ Rn , f (v) = λv}. Allora Eλ `e un sottospazio di Rn . -Dimostrazione.
Possiamo dimostrare il teorema in due maniere distinte.
• Primo metodo. Per ogni coppia di vettori v, w ∈ Eλ , e per ogni a, b ∈ R, dalla linearit`a di f abbiamo f (av + bw) = af (v) + bf (w) = aλv + bλw = λ(av + bw). Quindi av + bw ∈ Eλ , per cui tale sottoinsieme di Rn `e chiuso rispetto alle combinazioni lineari di suoi elementi. Di conseguenza Eλ `e un sottospazio di Rn . • Secondo metodo. Sia i : Rn → Rn l’endomorfismo identico, tale cio`e che i(v) = v per ogni v ∈ Rn . Allora Eλ `e l’insieme delle soluzioni del sistema (AB B (f ) − λI)x = 0, essendo B una qualsiasi base di V. Quindi Eλ `e il nucleo dell’endomorfismo f − λi, per cui `e un sottospazio di V. Il Teorema 2.9 mette in evidenza che l’insieme di tutti gli autovettori associati ad uno stesso autovalore `e in realt`a uno spazio vettoriale. Ci si pu`o chiedere a questo punto se c’`e invece qualche propriet`a posseduta da autovettori associati ad autovalori distinti. A questo proposito abbiamo il seguente teorema. Teorema 2.10. Autovettori associati ad autovalori distinti di un endomorfismo f : Rn → Rn sono tra loro linearmente indipendenti. -Dimostrazione. Siano λ1 , λ2 , ..., λh , λh+1 gli autovalori di f , e sia vi un autovettore associato all’autovalore λi , i ∈ {1, 2, ..., h + 1}. Procedendo per induzione, assumiamo
2.3 AUTOVALORI ED AUTOVETTORI
39
che i vettori v1 , v2 , ..., vh siano indipendenti, e supponiamo invece che v1 , v2 , ..., vh , vh+1 siano linearmente dipendenti. Questo significa che vh+1 dipende da v1 , v2 , ..., vh , per cui esistono scalari c1 , c2 , ..., ch tali che vh+1 =
h X
ci vi .
(2.3.5)
i=1
Applicando f abbiamo f (vh+1 ) = λh+1 vh+1 , essendo vh+1 un autovettore associato all’autovalore λh+1 . Dalla (2.3.5) abbiamo allora f (vh+1 ) = λh+1
h X
ci vi .
(2.3.6)
i=1
Ma, per la linearit`a di f , e per il fatto che i vi sono autovettori associati a λi , dalla (2.3.5) abbiamo anche f (vh+1 ) =
h X
f (ci vi ) =
i=1
h X
ci λi vi .
(2.3.7)
i=1
confrontando le formule (2.3.6) e (2.3.7) risulta h X (λh+1 − λi )ci vi = 0. i=1
Poich´e λh+1 6= λi , dall’ipotesi di induzione ricaviamo ci = 0 per ogni i ∈ {1, 2, ..., h}, e quindi, per la (2.3.5), risulta vh+1 = 0, il che `e assurdo. Pertanto vh+1 `e indipendente da v1 , v2 , ..., vh . ¥ Osservazioni ed esempi. 1. Gli autovalori di un endomorfismo f sono gli scalari λ per i quali il nucleo di f − λi non si riduce al solo vettore nullo. Di conseguenza la dimensione di un qualsiasi autospazio Eλ `e sempre almeno uguale ad 1. 2. Determiniamo gli autospazi associati all’endomorfismo f : R3 → R3 rappresentato, rispetto ad una data base, dalla matrice dell’Esempio 5 a pagina 37. Gli autovalori sono λ = 0, 1, 2. Per λ = 0 bisogna determinare il nucleo di f , per cui risulta
1 0 0 x 0 1 2 0 y = 0 → x = y = 0 ∀z. 1 −1 0 z 0 Pertanto, all’autovalore λ = 0 resta associato il solo autovettore 0 v0 = 0 , 1
` SIMILITUDINE E DIAGONALIZZABILITA
40
al quale corrisponde l’autospazio E0 = {zv0 , z ∈ R}. Per λ = 1 bisogna determinare il nucleo di f − i, e quindi
0 0 0 0 x 1 1 0 y = 0 → y = −x z = 2x. 1 −1 −1 z 0 Pertanto, all’autovalore λ = 1 resta associato il solo autovettore
1 v1 = −1 , 2 al quale corrisponde l’autospazio E1 = {xv1 , x ∈ R}. Per λ = 2 calcoliamo invece il nucleo di f − 2i
−1 0 0 x 0 1 0 0 y = 0 → x = 0 y = −2z. 1 −1 −2 z 0 Pertanto, all’autovalore λ = 2 resta associato il solo autovettore
0 v2 = −2 , 1 al quale corrisponde l’autospazio E2 = {zv2 , z ∈ R}.
2.3.3
Molteplicit` a algebrica e molteplicit` a geometrica
La molteplicit` a algebrica ma (λ) di un autovalore λ indica quante volte l’autovalore `e soluzione dell’equazione caratteristica χ(λ) = 0. La molteplicit` a geometrica mg (λ) di λ `e la dimensione dell’autospazio Eλ associato all’autovalore. Nella dimostrazione del Teorema 2.9 (secondo metodo) abbiamo visto che i vettori di Eλ sono tutti e soli i vettori del nucleo dell’applicazione f di matrice M − λIn (vedi anche l’Esempio 2 a pagina 39). La dimensione del nucleo si pu`o calcolare usando l’equazione dimensionale dim(ker f ) = n − dim(Imf ). Ma la dimensione di Imf `e il rango della matrice associata ad f , quindi dim(ker f ) = n − rk(M − λIn ). Concludendo, la molteplicit`a geometrica dell’autovalore λ `e data da mg (λ) = n − rk(M − λIn ).
(2.3.8)
La molteplicit`a algebrica e la molteplicit`a geometrica sono legate dalla relazione descritta nel seguente teorema. Teorema 2.11. Sia λ0 un autovalore di un endomorfismo f : Rn → Rn . Allora vale la disuguaglianza ma (λ0 ) ≥ mg (λ0 ).
2.3 AUTOVALORI ED AUTOVETTORI
41
-Dimostrazione. Se ma (λ0 ) = n il risultato `e immediato. Supponiamo che sia ma (λ0 ) < n, e consideriamo una base B0 = {v1 , ...vk } dell’autospazio Eλ0 associato a λ0 . Possiamo sempre estendere B0 ad una base B di tutto lo spazio aggiungendo n − k vettori indipendenti. Abbiamo allora B = {v1 , ..., vk , w1 , ..., wn−k }. La matrice AB B (f ) pu`o essere rappresentata nella maniera seguente
λ0 · · · .. . . . . 0 ··· AB B (f ) = 0
0 .. .
A
λ0 B
,
dove il blocco in alto a sinistra `e una matrice diagonale di tipo (k, k). Calcolando il polinomio caratteristico otteniamo k k P (λ) = det(AB B (f ) − λI(n,n) ) = (λ0 − λ) · det(B − λI(n−k,n−k) ) = (λ0 − λ) · q(λ),
essendo I(n,n) la matrice identica di ordine n, I(n−k,n−k) la matrice identica di ordine n−k, e q(λ) un polinomio di grado n − k. Pertanto, l’equazione caratteristica P (λ) = 0 ammette la soluzione λ = λ0 contata almeno k volte (esattamente k se q(λ0 ) 6= 0), cio`e ma (λ0 ) ≥ k = dimEλ0 = mg (λ0 ). ¥ Nel caso in cui risulti ma (λ0 ) = mg (λ0 ), allora λ0 si dice autovalore regolare. Il concetto di regolarit`a `e molto importante per la diagonalizzazione. Vale infatti il seguente teorema. Teorema 2.12. Un endomorfismo f : Rn → Rn `e diagonalizzabile se e solo se f ha tutti gli autovalori reali e, per ogni autovalore, la molteplicit` a algebrica `e uguale alla molteplicit` a geometrica. -Dimostrazione. Supponiamo innanzitutto che f sia diagonalizzabile. Allora esiste una base B = {v1¡, ..., vn } di autovettori. Sia λ0 un qualsiasi autovalore. Abbiamo allora ¢ mg (λ0 ) = n − rk AB (f ) − λ I . Poich´ e B `e una base di autovettori, la matrice AB e 0 B B (f ) ` diagonale, e sulla diagonale compaiono tutti e soli gli autovalori, con le rispettive molteplicit`a. Quindi gli autovalori sono reali e λ0 compare sulla diagonale esattamente ma (λ0 ) volte. Ogni colonna di AB B (f ) in cui compare λ0 corrisponde ad un autovettore di Eλ0 , e tali autovettori sono tra loro indipendenti. Quindi la dimensione di Eλ0 (che `e il massimo numero di vettori indipendenti estraibili da Eλ0 ) deve essere almeno uguale a ma (λ0 ), cio`e dim(Eλ0 ) ≥ ma (λ0 ). Ma dim(Eλ0 ) = mg (λ0 ), e quindi mg (λ0 ) ≥ ma (λ0 ). Dal Teorema 2.11 ricaviamo allora mg (λ0 ) = ma (λ0 ). Per la genericit`a con cui `e stato scelto λ0 segue la tesi. Supponiamo ora che tutti gli autovalori siano reali e che, per ogni autovalore, la molteplicit`a algebrica sia uguale alla molteplicit`a geometrica. Indichiamo con λ1 , ..., λh gli autovalori distinti di f , a con Eλ1 , ..., Eλh i corrispondenti autospazi. Abbiamo allora
` SIMILITUDINE E DIAGONALIZZABILITA
42
h X
dimEλi =
h X
i=1
mg (λi ) =
i=1
h X
ma (λi ).
i=1
P Per il teorema fondamentale dell’algebra abbiamo hi=1 ma (λi ) = gradoP (λ) = n, e quindi la somma delle dimensioni degli autospazi `e uguale ad n. Quindi, unendo le basi di tutti gli autospazi si ottiene un insieme di n vettori linearmente indipendenti, cio`e una base di Rn . Esiste pertanto una base di autovettori, per cui f `e diagonalizzabile. ¥ Osservazioni ed esempi. 1. Una condizione di regolarit` a per gli autovalori. Se un endomorfismo f : Rn → Rn ammette n autovalori distinti, allora questi sono automaticamente regolari. Infatti, per il Teorema 2.10, abbiamo n autospazi distinti, la cui dimensione deve essere necessariamente uguale ad 1. Di conseguenza, la molteplicit`a algebrica di ogni autovalore coincide con la sua molteplicit`a geometrica. 2. Sia r una retta passante per l’origine di R2 , e sia f : R2 → R2 la simmetria assiale rispetto alla retta r. Allora f `e diagonalizzabile. Infatti, se r `e un qualsiasi vettore appartenente alla retta r, risulta f (r) = r, mentre, se r⊥ `e un qualsiasi vettore appartenente alla retta r⊥ , perpendicolare nell’origine ad r, allora f (r⊥ ) = −r⊥ . y
v r
⊥
r r O
x f(v)
Figura 2.1: autospazi di una simmetria assiale. Pertanto f ammette autovalori reali distinti λ = ±1, e quindi `e diagonalizzabile. In particolare, la retta vettoriale r `e l’autospazio associato all’autovalore λ = 1, mentre la retta vettoriale r⊥ `e l’autospazio associato all’autovalore λ = −1. 3. Possiamo riassumere i principali risultati ottenuti in questo paragrafo nel seguente teorema. Teorema 2.13. Consideriamo un endomorfismo f : Rn → Rn di spettro Specf = {λ1 , . . . , λr }, e sia A la matrice associata ad f rispetto ad una base qualsiasi. Sono equivalenti le seguenti condizioni:
2.3 AUTOVALORI ED AUTOVETTORI
43
(i) L’endomorfismo f determina una base formata da autovettori. (ii) La matrice A `e diagonalizzabile. (iii) Gli autovalori λi di f sono tutti regolari. (iv) Lo spazio Rn `e somma diretta dei suoi autospazi, ovvero: n
R =
r M
Eλi (f )
i=1
L’equivalenza delle condizioni (i) e (ii) corrisponde al Teorema 2.7. L’equivalenza delle condizioni (ii) e (iii) corrisponde invece al Teorema 2.12. La condizione (iv) equivale a dire che l’unione delle basi di tutti gli autospazi fornisce un insieme di n vettori, i quali, per il Teorema 2.10, sono linearmente indipendenti, e quindi formano una base di Rn . Ci`o equivale a dire che f `e diagonalizzabile, cio`e la condizione (i). 4. Dalla condizione (iv) del Teorema 2.13 (o direttamente dal Teorema 2.10), abbiamo in particolare che l’intersezione di autospazi distinti si riduce al solo vettore nullo. 5. Calcoliamo autovalori ed autovettori della matrice
0 6 0 A= 1 0 1 1 0 1 e studiamo la sua diagonalizzabilit`a . Determiniamo innanzitutto il polinomio caratteristico e, da questo, gli autovalori. ¯ ¯ −t 6 0 ¯ ¯ 1 χA (t) = det(A − tI3 ) = ¯ 1 −t ¯ 1 0 1−t
¯ ¯ ¯ ¯ = t(t − 3)(t + 2). ¯ ¯
Pertanto, SpecA = {0, 3, −2}. Gli autovalori sono distinti, quindi regolari (cfr. Osservazione 1 a pagina 42), per cui A `e diagonalizzabile. Calcoliamo gli autovettori. Per λ = 0 abbiamo Av = 0v ovvero
La soluzione `e
6y = 0 x+z =0 x + z = 0. 1 a 0 −1
` SIMILITUDINE E DIAGONALIZZABILITA
44
per ogni a 6= 0. Procedendo analogamente, in corrispondenza di λ = −2 e λ = 3 troviamo −3 2 b 1 , c 1 , 1 1 con b, c ∈ R diversi da zero. Ogni matrice P , avente come colonne i vettori ottenuti assumendo a, b, c 6= 0 nelle precedenti soluzioni, pu`o essere considerata la matrice di passaggio che permette di diagonalizzare la matrice A. Si ha cio`e P −1 AP = diag(0, −2, 3). Si pu`o ottenere una matrice di passaggio P anche cambiando l’ordine in cui gli autovettori compaiono come colonne di P . Questo si ribalta sull’analogo cambio dell’ordine con cui gli autovalori compaiono sulla diagonale di P −1 AP . 6. Determiniamo lo spettro dell’endomorfismo di R3 definito da f ([x, y, z]t ) = [x + y, x + z, y + z]t . Abbiamo visto che gli autovalori di un endomorfismo f non sono altro che quelli della sua matrice rappresentativa Af . Dobbiamo solo determinare Af e ricavarne il polinomio caratteristico. Siccome 1 1 0 Af = 1 0 1 , 0 1 1 otteniamo χA (t) = χf (t) = det(A − tI3 ) = (1 − t)(t − 2)(t + 1). Quindi Specf = {2, 1, −1}. Notiamo che f `e certamente diagonalizzabile, perch´e ha autovalori distinti, quindi regolari.
2.4
ENDOMORFISMI SIMMETRICI
Riferendoci all’Osservazione 2 di pagina 42, vogliamo ora studiare pi` u dettagliatamente il problema della diagonalizzazione di una simmetria assiale f : R2 → R2 , andando innanzitutto a vedere come sono fatte la matrici ACC (f ) associate a tali endomorfismi1 . Consideriamo il vettore v = [α, β]t , e sia f (v) = [α0 , β 0 ]t . Se poniamo · ¸ a11 a12 C AC (f ) = a21 a22 abbiamo allora 1
Ci `e sembrato utile presentare l’argomento in questa maniera, anche se non `e ancora stata trattata la Geometria Analitica. Pensiamo di poter ritenere note le principali formule valide nel piano xy, ampiamente considerate nella scuola media superiore. Comunque, per avere una descrizione precisa delle nozioni utilizzate in questo paragrafo, rinviamo al volume APPUNTI DI GEOMETRIA: GEOMETRIA ANALITICA.
2.4 ENDOMORFISMI SIMMETRICI
·
a11 a12 a21 a22
¸·
45
α β
¸
· =
α0 β0
¸ .
Possiamo determinare α0 e β 0 in funzione di α e β osservando innanzitutto, che v − f (v) deve essere parallelo ad r⊥ . y
v r
⊥
r -f(v)
r O
x f(v)
Figura 2.2: rappresentazione qualitativa dell’azione di una simmetria assiale in R2 . Pertanto si ha β0 − β 1 =− . α0 − α m Inoltre il punto medio del segmento che congiunge gli estremi di v e di f (v) appartiene α + α0 ad r, il che si traduce analiticamente sostituendo, nell’equazione di r, al posto di 2 0 β+β xe al posto di y. Abbiamo pertanto 2 α + α0 β + β0 =m . 2 2 Otteniamo quindi il sistema di due equazioni, nelle due incognite α0 e β 0 , dato da 0 1 β −β α0 − α = − m 0 0 β + β = mα + α . 2 2 Risolvendo si ottiene 0 α = β0 =
1−m2 α 1+m2 2m α 1+m2
+ −
2m β 1+m2 1−m2 β 1+m2
⇒
ACC (f ) =
1−m2 1+m2
2m 1+m2
2m 1+m2
2 − 1−m 1+m2
.
(2.4.1)
In particolare ricaviamo che la simmetria rispetto ad una qualsiasi retta passante per l’origine `e rappresentata da una matrice simmetrica (2, 2), cio`e una matrice A tale che
` SIMILITUDINE E DIAGONALIZZABILITA
46
At = A. Come conseguenza si pone in maniera naturale il seguente problema. Sia A una generica matrice simmetrica di ordine 2, che non sia del tipo (2.4.1). Allora A non rappresenta alcuna simmetria assiale rispetto a rette passanti per l’origine. Possiamo per`o ancora dire che l’endomorfismo associato a questa matrice `e diagonalizzabile? La risposta `e affermativa, come precisato nel seguente teorema. Teorema 2.14. Ogni matrice simmetrica A di tipo (2, 2) ha autovalori reali, ed `e sempre diagonalizzabile. -Dimostrazione. ordine 2 ·
a b A= b c
Calcoliamo gli autovalori di una generica matrice simmetrica A di
¸ ⇒
χA (λ) = (a − λ)(c − λ) − b2 = λ2 − (a + c)λ + ac − b2 .
Risolvendo l’equazione caratteristica χA (λ) = 0 otteniamo le seguenti soluzioni p (a − c)2 + 4b2 λ= . (2.4.2) 2 Osserviamo che, per ogni scelta di a, b, c, abbiamo 4 ≥ 0, e quindi A ammette sempre autovalori reali. Se a 6= c gli autovalori sono distinti e quindi A (o l’endomorfismo da essa rappresentato) `e diagonalizzabile. Se a = c e b = 0 abbiamo l’autovalore doppio λ = c. Ma in questo caso risulta a+c±
·
¸ c 0 A= 0 c
·
⇒
¸ 0 0 A − cI = . 0 0
Di conseguenza, la molteplicit`a geometrica di λ = c, risulta n − rk(A − cI) = 2 − 0 = 2, e coincide con la molteplicit`a algebrica. Quindi anche in questo caso A `e diagonalizzabile.¥ Osservazioni ed esempi. 1. Supponiamo che una retta r formi l’angolo γ con l’asse x. Allora m = tan γ, da cui si ha (
2m 1+m2 1−m2 1+m2
= sin 2γ = cos 2γ.
Quindi possiamo anche scrivere la (2.4.1) nella maniera seguente ½
α0 = (cos 2γ)α + (sin 2γ)β β 0 = (sin 2γ)α − (cos 2γ)β
·
⇒
ACC (f )
¸ cos 2γ sin 2γ = . sin 2γ − cos 2γ
(2.4.3)
2.4 ENDOMORFISMI SIMMETRICI
47
2. Il caso a = c e b = 0, descritto nella dimostrazione del Teorema 2.14 rappresenta una situazione degenere, nella quale ogni vettore `e un autovettore. 3. Determiniamo l’equazione della simmetria piana rispetto alla retta r : y = −2x. In questo caso m = −2, e quindi ACC (f )
· 3 −5 = − 45
− 45
¸
3 5
Le equazioni della simmetria cercata sono allora date da ( x0 = − 53 x − 45 y y 0 = − 45 x + 35 y. 4. Un endomorfismo che, rispetto ad una data base, viene rappresentato da una matrice simmetrica prende il nome di endomorfismo simmetrico. Come abbiamo visto, le simmetrie assiali del piano R2 sono esempi di endomorfismi simmetrici. ¥
2.4.1
Il Teorema Spettrale nel piano
Abbiamo visto che gli autovalori associati alla simmetria rispetto ad una retta r passante per l’origine sono sempre λ = 1 e λ = −1. Inoltre, i rispettivi autospazi sono rappresentati da r e da r⊥ . Possiamo allora chiederci cosa possiamo dire relativamente agli autospazi associati ad un generico endomorfismo simmetrico (cfr. Osservazione 4 precedente). Per studiare il problema `e utile introdurre la nozione di prodotto scalare in R2 . Dati due vettori di R2 , u = [u1 , u2 ]t e v = [v1 , v2 ]t . Il loro prodotto scalare `e definito nella maniera seguente · t
hu, vi = u · v = [u1 , u2 ] ·
v1 v2
¸ = u1 v1 + u2 v2 .
(2.4.4)
In particolare possiamo considerare il prodotto scalare tra un vettore u ∈ R2 e se stesso. Si ha in tal caso un numero reale non negativo (positivo se u 6= 0). La radice quadrata di questo numero prende il nome di norma del vettore u, e si indica con il simbolo kuk. Abbiamo pertanto kuk =
p
hu, ui =
√ ut · u.
(2.4.5)
Supponiamo che entrambi i vettori siano non nulli. Essi vengono detti vettori ortogonali se hu, vi = 0.
(2.4.6)
L’importanza della nozione di ortogonalit`a `e quantificata nel teorema seguente, noto come Teorema Spettrale.
` SIMILITUDINE E DIAGONALIZZABILITA
48
Teorema 2.15. Sia f : R2 → R2 un endomorfismo simmetrico. Allora f ha autovalori reali, `e diagonalizzabile, e scompone R2 come somma diretta di autospazi ortogonali R2 = Eλ1 ⊕ Eλ2 . -Dimostrazione. Poich´e f `e un endomorfismo simmetrico, esso `e rappresentato da una matrice reale simmetrica A, di tipo (2, 2). Sia essa data da · ¸ a b A= . b c Per il Teorema 2.14, f ha autovalori reali ed `e diagonalizzabile. Per il Teorema 2.13, f scompone R2 come somma diretta di autospazi. Resta da dimostrare che gli autospazi sono tra loro ortogonali. A questo proposito determiniamo esplicitamente gli autospazi associati all’endomorfismo. Siano λ1 , λ2 gli autovalori di A (cfr. Formula (2.4.2)). Per λ1 abbiamo · ¸· ¸ · ¸ a − λ1 b x 0 = b c − λ1 y 0 ⇒ (a − λ1 )x + by = 0 ⇒ y =
λ1 −a b x
Quindi, l’autospazio associato a λ1 `e dato da ½ · ¸ ¾ 1 Eλ1 = x λ1 −a , x ∈ R b
ed una sua base, per esempio, `e data da ½· Bλ1 =
b λ1 − a
¸¾ .
Procedendo in maniera analoga troviamo che l’autospazio associato a λ2 ammette una base data da ½· ¸¾ b Bλ2 = . λ2 − a Indichiamo con v1 e v2 i vettori che formano, rispettivamente, la base Bλ1 e Bλ2 . Abbiamo allora hv1 , v2 i = b2 + (λ1 − a)(λ2 − a) = a2 + b2 + λ1 λ2 − a(λ1 + λ2 ). Dai teoremi 2.5 ed 2.6 otteniamo λ1 + λ2 = a + c λ1 λ2 = ac − b2 , e quindi hv1 , v2 i = a2 + b2 + ac − b2 − a(a + c) = 0. Pertanto v1 `e ortogonale a v2 .
¥
Il Teorema 2.15 mette in evidenza che, come gi`a visto per le simmetrie rispetto a rette passanti per l’origine, anche gli endomorfismi rappresentati da una generica matrice simmetrica (2, 2) ammettono autospazi ortogonali. L’interpretazione geometrica di questi
2.4 ENDOMORFISMI SIMMETRICI
49
endomorfismi `e pertanto identica a quella delle simmetrie assiali, come viene anche chiarito nell’Osservazione 1 seguente. Osservazioni ed esempi. 1. Possiamo dare alla formula (2.4.6) un preciso significato geometrico. Se m1 = xy11 ed m2 = xy22 (x1 , x2 6= 0) sono i coefficienti angolari delle rette parallele a v e w, otteniamo hv, wi = 0
⇔
1 + m1 m2 = 0.
(2.4.7)
Pertanto, l’annullarsi del prodotto scalare hv, wi esprime la nota condizione di ortogonalit`a tra le rette che contengono i vettori v e w. Questo resta chiaramente vero anche quando v = [a, 0] e w = [0, b], con a, b numeri reali qualsiasi. In particolare, la formula (2.4.6) `e valida anche quando v `e il vettore nullo. In tal caso ogni vettore w ∈ R2 `e ortogonale a v. 2. Matrici ortogonali. Dal Teorema 2.15 si deduce in particolare che ogni matrice simmetrica A, di tipo (2, 2), pu`o essere diagonalizzata mediante una matrice di passaggio P le cui due colonne sono ortogonali tra loro. Tra le varie scelte di P possiamo selezionare quella avente per colonne vettori di lunghezza unitaria, cio`e versori . Per fare questo basta dividere ogni colonna per la lunghezza del vettore corrispondente. Si ottiene cos`ı una matrice di passaggio M , le cui colonne, oltre ad essere ortogonali tra loro, hanno anche lunghezza unitaria. Una tale matrice si dice matrice ortogonale. Possiamo allora esprimere il Teorema 2.15 dicendo che una matrice simmetrica A di tipo (2, 2) `e sempre diagonalizzabile con una matrice di passaggio ortogonale, cio`e che A `e ortogonalmente simile ad una matrice diagonale. 3. Matrici simmetriche e prodotto scalare. Sia A una matrice simmetrica di tipo (2, 2) data da · ¸ a b A= . b c Siano v = [v1 , v2 ]t e w = [w1 , w2 ]t due vettori di R2 . Abbiamo allora · ¸· ¸ · ¸ a b v1 av1 + bv2 Av = = , b c v2 bv1 + cv2
· ¸· ¸ · ¸ a b w1 aw1 + bw2 Aw = = . b c w2 bw1 + cw2
Pertanto risulta
hAv, wi = (av1 + bv2 )w1 + (bv1 + cv2 )w2 = = v1 (aw1 + bw2 ) + v2 (bw1 + cw2 ) = hv, Awi.
(2.4.8)
` SIMILITUDINE E DIAGONALIZZABILITA
50
4. Sfruttando la formula (2.4.8) possiamo dimostrare che gli autovettori di una matrice simmetrica A di tipo (2, 2) sono ortogonali tra loro, in maniera diversa da quella considerata nella dimostrazione del Teorema 2.15. Siano infatti λ1 , λ2 gli autovalori distinti di A, e v1 , v2 i due autovettori ad essi rispettivamente associati. Abbiamo allora λ1 hv1 , v2 i = hλ1 v1 , v2 i = hAv1 , v2 i = hv1 , Av2 i = hv1 , λ2 v2 i = λ2 hv1 , v2 i. Pertanto (λ1 − λ2 )hv1 , v2 i = 0, ed essendo λ1 6= λ2 , ricaviamo hv1 , v2 i = 0. 5. Sia C = {i, j} la base canonica di R2 . La formula (2.4.5) non `e altro che il Teorema di Pitagora applicato al triangolo rettangolo avente u = [u1 , u2 ]t come ipotenusa e i vettori u1 i ed u2 j come cateti. Pertanto, geometricamente, la norma di un vettore coincide con la sua lunghezza.
2.4.2
Classificazione delle matrici ortogonali di ordine 2
Cerchiamo di classificare le matrici ortogonali di ordine 2 partendo dal fatto che le loro due colonne devono essere ortogonali tra loro e di norma unitaria (cfr. Osservazione 2 a pagina 49). Indichiamo con v1 = [x1 , y1 ]t il versore le cui componenti costituiscono la prima colonna, e con v2 = [x2 , y2 ]t quello le cui componenti costituiscono la seconda colonna. Se v1 forma un angolo ϕ (percorso in senso antiorario) con l’asse x, deve essere x1 = kv1 k cos ϕ = cos ϕ, y1 = kv1 k sin ϕ = sin ϕ. Poich´e v2 `e ortogonale a v1 , l’angolo formato da v2 con l’asse x `e uguale a 3 2 π + ϕ. Risulta pertanto ¡ ¢ x2 = kv2 k cos¡ π2 + ϕ¢ = − sin ϕ, y2 = kv2 k sin π2 + ϕ = cos ϕ,
π 2
+ ϕ, oppure
nel primo caso, e ¡ ¢ x2 = kv2 k cos¡ 32 π + ϕ¢ = sin ϕ, y2 = kv2 k sin 32 π + ϕ = − cos ϕ, nel secondo caso. Le corrispondenti matrici risultano · ¸ cos ϕ − sin ϕ M1 = , sin ϕ cos ϕ · ¸ cos ϕ sin ϕ M−1 = , sin ϕ − cos ϕ
(2.4.9) (2.4.10)
con ϕ variabile in [0, 2π]. Esse hanno determinante uguale ad 1 e −1 rispettivamente. Ci`o fornisce una classificazione completa delle matrici ortogonali del secondo ordine.
2.4 ENDOMORFISMI SIMMETRICI Una delle principali propriet`a delle matrici ortogonali `e data dal fatto che M −1 = come si pu`o facilmente verificare direttamente. In particolare, se A `e una matrice simmetrica, il fatto che essa sia ortogonalmente simile ad una matrice diagonale D si esprime attraverso la formula M t AM = D, molto utile negli esercizi.
M t,
Significato geometrico Consideriamo una matrice ortogonale di tipo (2.4.9), il cui determinante `e uguale ad 1, e sia f : R2 → R2 l’applicazione lineare rappresentata da ACC (f ) = M1 rispetto alla base canonica. Abbiamo allora µ· ¸¶ · ¸ · ¸ x x x cos ϕ − y sin ϕ C f = AC (f ) = . y y x sin ϕ + y cos ϕ Osserviamo che v ° µ· ¸¶° u* µ· ¸¶t µ· ¸¶+ u ° ° x x x °f °=t f ,f = ° ° y y y °· ¸° p p ° x ° 2 2 2 2 ° = (x cos ϕ − y sin ϕ) + (x sin ϕ + y cos ϕ) = x + y = ° ° y °. L’applicazione lineare f conserva pertanto le lunghezze dei vettori, e quindi rappresenta una rotazione (in senso antiorario) intorno all’origine. Consideriamo ora una matrice di tipo (2.4.10), avente determinante uguale a −1, e sia f : R2 → R2 l’applicazione lineare avente ACC (f ) = M−1 come matrice associata rispetto alla base canonica. Confrontando con la matrice (2.4.3) deduciamo che f rappresenta la simmetria assiale rispetto alla retta che passa per l’origine e che forma un angolo uguale ϕ a con l’asse x. 2 Osservazioni ed esempi. 1. Le matrici ortogonali con determinante uguale ad 1 vengono anche dette matrici ortogonali speciali. Il prodotto di due tali matrici `e ancora una matrice ortogonale speciale, ma possiamo ottenere una matrice ortogonale speciale anche moltiplicando due matrici di tipo (2.4.10). Geometricamente questo corrisponde a costruire una rotazione mediante prodotto di simmetrie assiali rispetto a due rette secanti. 2. Determiniamo la matrice corrispondente al cambio di base descritto da una rotazione π oraria di nello spazio vettoriale canonico R2 . 2 π Se applichiamo la rotazione oraria di alla base canonica di R2 , otteniamo la base 2 formata da [0, −1]t ed [1, 0]t Assumiamo quindi ½· B1 = C =
1 0
¸ · ¸¾ ½· ¸ · ¸¾ 0 0 1 , , B2 = , . 1 −1 0
51
` SIMILITUDINE E DIAGONALIZZABILITA
52 y 6 1 6
y 6 -
o
x
1
1
o
x
? −1
Figura 2.3: rotazione oraria della base canonica.
Dalla formula (1.2.7) si ricava che la matrice richiesta risulta · −1
[B2 ]
−1
[B1 ] = [B2 ]
−1
I = [B2 ]
=
0 −1 1 0
¸ .
π Questa coincide con la matrice (2.4.9) per ϕ = , che, come si `e visto, esprime una 2 rotazione antioraria intorno all’origine. Ci`o mette in evidenza che una rotazione in senso orario di una base, secondo un certo angolo ϕ, si traduce nella rotazione in senso antiorario, dello stesso angolo ϕ, sui singoli vettori del piano. Per esempio, se applichiamo la matrice di cambio base precedentemente ottenuta al vettore v = [−2, 4]t , abbiamo (Fig. 2.4) · w=
0 −1 1 0
¸·
−2 4
¸
· =
−4 −2
¸ .
y 6 v M ) w
o
x
Figura 2.4: rotazione antioraria di v su w. Il vettore w viene in effetti ottenuto applicando al vettore v attraverso una rotazione π di angolo ϕ = in senso antiorario. 2
2.4.3
Endomorfismi simmetrici in dimensione superiore
Con il Teorema 2.15 abbiamo una completa descrizione del comportamento di un endomorfismo f : R2 → R2 dal punto di vista della diagonalizzazione. Ci possiamo ora chiedere che
2.4 ENDOMORFISMI SIMMETRICI
53
cosa succede se saliamo con la dimensione, cio`e se consideriamo endomorfismi simmetrici f : Rn → Rn . Essi sono rappresentati da matrici simmetriche di ordine n. Senza entrare nei dettagli della trattazione, possiamo dire che tutti i risultati ottenuti per n = 2 si estendono in generale. Vediamo brevemente le questioni principali. Generalizzazione del prodotto scalare. La nozione di prodotto scalare si pu`o estendere ad Rn con n > 2, nella maniera seguente. Siano u, v ∈ Rn , con: u1 v1 u = ... , v = ... . un
vn
Allora, il prodotto scalare tra u e v `e definito dalla seguente formula, che generalizza la (2.4.4) t
hu, vi = u · v =
n X
ui vi = u1 v1 + u2 v2 + · · · + un vn .
(2.4.11)
i=1
In questa estensione il prodotto scalare conserva le principali caratteristiche gi`a possedute per n = 2. Abbiamo in particolare le seguenti propriet`a • Il prodotto scalare `e distributivo rispetto alla somma, cio`e, dati a, b, c ∈ Rn , risulta ha, b + ci = ha, bi + ha, ci. • I vettori u, v si dicono vettori normali o vettori ortogonali, se e solo se hu, vi = 0. • Il prodotto scalare di un vettore x ∈ Rn con se stesso si dice norma del vettore, e si indica con kxk. Abbiamo allora v u n √ uX t x2i . kxk = x · x = t (2.4.12) i=1
• Un insieme di vettori si dice sistema ortonormale se ogni coppia di vettori dell’insieme `e ortogonale, ed ogni vettore ha norma unitaria. Osservazioni ed esempi. 1. Il significato geometrico dell’annullamento del prodotto scalare `e identico a quello descritto per n = 2, cio`e, nel piano determinato dai due vettori, le rette che li contengono sono perpendicolari. 2. La norma di un vettore estende ad Rn il concetto di lunghezza. Se la norma `e uguale ad 1 il vettore prende ancora il nome di versore. 3. In R3 si pu`o scrivere u = xu i + yu j + zu k, e v = xv i + yv j + zv k, essendo i, j, k la base canonica. La formula (2.4.11) fornisce allora hu, vi = xu xv + yu yv + zu zv .
` SIMILITUDINE E DIAGONALIZZABILITA
54
4. Siano U e V due sottospazi di Rn . Se hu, vi = 0 per ogni u ∈ U e per ogni v ∈ V, allora U e V si dicono sottospazi ortogonali.
Generalizzazione delle matrici ortogonali. Nell’insieme Mn (R) delle matrici quadrate di ordine n, diciamo che una matrice M `e una matrice ortogonale, se vale una delle seguenti propriet`a: • M M t = In , • M t M = In . In particolare, l’inversa di una matrice ortogonale coincide con la sua trasposta. Generalizzando la classificazione ottenuta per n = 2 si pu`o dimostrare che una matrice di tipo (n, n) `e ortogonale se e solo se le righe o le colonne formano un sistema di vettori ortonormale. Le applicazioni lineari f : Rn → Rn descritte da matrici ortogonali vengono dette trasformazioni ortogonali. In tal caso, per ogni x ∈ Rn , possiamo scrivere f (x) = M x, e quindi abbiamo kf (x)k = (M x)t · M x = xt M t · M x = xt In x = xt · x = kxk. Pertanto, le applicazioni lineari aventi matrice associata ortogonale conservano sempre la norma. Di conseguenza possiamo dare a queste applicazioni lineari significati geometrici analoghi a quelli visti per n = 2, anche se le propriet`a coinvolte sono pi` u delicate da trattare. Osservazioni ed esempi. 1. Non `e necessario richiedere contemporaneamente la validit` a di entrambe le condizioni (i) e (ii). Una segue dall’altra. 2. Per il Teorema di Binet abbiamo det(M M t ) = det M det M t = (det M )2 = 1. ⇒ det M = ±1. Quindi, le matrici ortogonali si dividono in due insiemi, quelle di determinante +1 e quelle di determinante −1. Questi insiemi vengono indicati, rispettivamente, con On+ (R) e On− (R), mentre la loro unione, ovvero l’insieme di tutte le matrici ortogonali di un dato ordine, `e On (R). 3. Si noti che matrici con determinante ±1 non `e detto che siano ortogonali. 4. Le matrici appartenenti ad On+ (R) vengono dette matrici ortogonali speciali, come nel caso n = 2.
2.4 ENDOMORFISMI SIMMETRICI
2.4.4
55
Ortonormalizzazione di Gram-Schmidt
vi per kvi k ogni i = 1, ..., n `e sempre possibile pensare che la base sia formata da versori. Non `e detto per`o che questi formino un sistema ortonormale. Infatti, presi due qualsiasi vettori vi , vj ∈ B, il loro prodotto scalare `e in generale diverso da zero. Tuttavia, esiste un procedimento canonico che, a partire dai vettori di B, consente di costruire una base ortonormale, costituita cio`e da vettori di norma unitaria e ortogonali a due a due. Essi sono i vettori w1 , ..., wn ottenuti nella maniera seguente Sia B = {v1 , ..., vn } una base di Rn . Sostituendo eventualmente vi con vi0 =
v1 , kv1 k v2 − hv2 , w1 iw1 w2 = , kv2 − hv2 , w1 iw1 k v3 − [hv3 , w1 iw1 + hv3 , w2 iw2 ] w3 = , kv3 − [hv3 , w1 iw1 + hv3 , w2 iw2 ]k w1 =
(2.4.13)
... wn =
vn − [hvn , w1 iw1 + hvn , w2 iw2 + ... + hvn , wn−1 iwn−1 ] . kvn − [hvn , w1 iw1 + hvn , w2 iw2 + ... + hvn , wn−1 iwn−1 ]k
` immediato osservare che questi vettori sono tutti versori. Il fatto che siano a due a due E ortogonali deriva invece dalla distributivit`a del prodotto scalare rispetto alla somma. Osservazioni ed esempi. 1. Il procedimento descritto dalle formule (2.4.13) prende il nome di ortonormalizzazione di Gram-Schmidt. 2. Verifichiamo, a titolo di esempio, che i vettori w1 , w2 costruiti con le (2.4.13) sono tra loro ortogonali. Abbiamo infatti À v2 − hv2 , w1 iw1 v1 , = hw1 , w2 i = kv1 k kv2 − hv2 ,Dw1 iw1 k E D E v1 v1 v , v , 2 1 kv1 k kv1 k hv1 , v2 i = − . kv1 kkv2 − hv2 , w1 iw1 k kv1 kkv2 − hv2 , w1 iw1 k ¿
Osserviamo che ¿ À¿ À ¿ À v1 v1 v1 hv2 , v1 i v2 , v1 , = v2 , kv1 k = kkv1 k = hv2 , v1 i , kv1 k kv1 k kv1 k kv1 k e quindi hw1 , w2 i = 0. In maniera analoga si verifica che hwi , wj i = 0 per ogni i, j ∈ {1, ..., n}, i 6= j.
` SIMILITUDINE E DIAGONALIZZABILITA
56
3. Consideriamo la base B di R3 formata dai seguenti vettori
1 v1 = −1 , 2
−1 v2 = 3 , 2
1 v3 = 1 . 1
I vettori v1 e v2 sono ortogonali, essendo hv1 , v2 i = 0, mentre invece abbiamo hv1 , v3 i = 2 e hv2 , v3 i = 4. Quindi B non `e una base ortonormale. Procediamo allora con il metodo di ortonormalizzazione di Gram-Schmidt per costruire una base ortonormale. Abbiamo allora
√1 6
v1 w1 = = − √16 kv1 k √2 6
,
v2 − hv2 , w1 iw1 v2 − 0 w2 = = = kv2 − hv2 , w1 iw1 k kv2 k
− √114 √3 14
,
√2 14
v3 − 31 v1 − 72 v2 v3 − [hv3 , w1 iw1 + hv3 , w2 iw2 ] w3 = = = 1 2 kv3 − [hv3 , w1 iw1 + hv3 , w2 iw2 ]k kkv3 − 3 v1 − 7 v2 kk
√4 21 √2 21
.
√1 21
L’insieme {w1 , w2 , w3 } `e una base ortonormale. 4. Si noti che, per ogni i ∈ {1, ..., n} i vettori wi dipendono linearmente dai vettori v1 , ..., vi . Possiamo cio`e scrivere wi = αi1 v1 + αi2 v2 + ... + αii vi , dove gli αij , i, j ∈ {1, ..., n}, sono i numeri reali descritti dai coefficienti dei vettori v1 , v2 , ..., vn nelle (2.4.13). 5. Sia f : Rn → Rn un endomorfismo, e sia Eλ l’autospazio associato ad un autovalore λ. Se dim Eλ = h, allora esiste una base {v1 , v2 , ..., vh } di Eλ formata da h autovettori di f . Tale base in generale non `e ortonormale, ma, mediante il procedimento di ortonormalizzazione di Gram-Schmidt, si ottiene una nuova base {w1 , w2 , ..., wh } di Eλ , nella quale i vettori sono a due a due ortogonali, e ovviamente restano autovettori di f . ¥
2.4 ENDOMORFISMI SIMMETRICI
57
Il Teorema Spettrale generalizzato. Sia A = At una matrice simmetrica reale, di ordine n. Generalizzando il Teorema 2.14 si pu`o dimostrare che A possiede autovalori tutti reali (non necessariamente distinti), per ognuno dei quali la molteplicit`a algebrica coincide con la molteplicit`a geometrica. Pertanto ` inoltre possibile estendere la formula ottenuta nell’Osservazione 3 A `e diagonalizzabile. E a pagina 49, cio`e vale la seguente propriet`a hAv, wi = hv, Awi.
(2.4.14)
Questo consente di dimostrare che gli autospazi di una generica matrice simmetrica sono sottospazi a due a due ortogonali (cfr. Osservazione 4 a pag. 54). Teorema 2.16. Gli autospazi associati ad autovalori distinti di una matrice reale simmetrica A sono ortogonali tra loro. -Dimostrazione. Consideriamo gli autospazi Eλi ed Eλj associati a due autovalori λi e λj , tra loro distinti. Siano v, w due qualsiasi autovettori tali che v ∈ Eλi e w ∈ Eλj . Abbiamo allora λi hv, wi = hλi v, wi = hAv, wi. Per la (2.4.14) abbiamo hAv, wi = hv, Awi, e quindi possiamo scrivere λi hv, wi = hv, Awi = hv, λj wi = λj hv, wi. Pertanto risulta (λi − λj )hv, wi = 0, ed essendo λi 6= λj , ricaviamo che hv, wi = 0. Ci`o implica che ogni vettore di un autospazio `e ortogonale a tutti i vettori di ogni altro ¥ autospazio, cio`e che gli autospazi sono a due a due ortogonali. Possiamo riassumere queste considerazioni nel teorema seguente, che generalizza il Teorema 2.15 al caso di un endomorfismo simmetrico di Rn . Teorema 2.17. Sia f : Rn → Rn un endomorfismo simmetrico. Allora f ha autovalori reali, `e diagonalizzabile e scompone Rn come somma diretta di autospazi a due a due ortogonali Rn = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλh . Esiste inoltre una base ortonormale di Rn interamente costituita da autovettori. -Dimostrazione. Poich´e f `e un endomorfismo simmetrico, esso `e rappresentato da una matrice reale simmetrica A, di tipo (n, n). Quindi f ha autovalori tutti reali ed `e diagonalizzabile. Per il Teorema 2.13, f scompone Rn come somma diretta di autospazi Rn = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλh . Gli autospazi sono a due a due ortogonali per il Teorema 2.16. Applicando poi il procedimento descritto nel Paragrafo 2.4.4 possiamo trasformare la base di ogni autospazio Eλi in una base ortonormale, che, per l’Osservazione 5 a pagina 56, resta una base di autovettori. Pertanto, dopo questo procedimento, la matrice di passaggio che diagonalizza la matrice A
` SIMILITUDINE E DIAGONALIZZABILITA
58
diventa una matrice ortogonale M , e le sue colonne rappresentano una base ortonormale di Rn . ¥ Osservazioni ed esempi. 1. Diagonalizzazione di simmetrie piane. Sia f : R3 → R3 l’endomorfismo dato da x x f y = y . z −z
In questo caso l’endomorfismo rappresenta geometricamente la simmetria rispetto al piano xy. z
v
O x
y
f(v)
Figura 2.5: simmetria rispetto al piano xy. ` facile vedere che ogni vettore w appartenente al piano xy viene mutato in se stesE so, cio`e f (w) = w, e quindi f ammette l’autovalore λ = 1. Questo autovalore deve avere molteplicit`a algebrica almeno 2, in quanto l’autospazio associato `e il piano xy, e quindi la molteplicit`a geometrica di λ = 1, cio`e la dimensione di E1 , `e uguale a 2. Osserviamo poi che ogni vettore r appartenente all’asse z viene trasformato nel vettore opposto, cio`e f (r) = −r, e quindi f ammette anche l’autovalore λ = −1. Poich´e la somma delle molteplicit`a algebriche degli autovalori deve essere uguale alla dimensione dell’intero spazio, se ne deduce che la molteplicit`a algebrica dell’autovalore λ = 1 `e proprio uguale a 2, mentre quella dell’autovalore λ = −1 `e uguale a 1. Di conseguenza, per ogni autovalore la molteplicit`a algebrica coincide con la molteplicit`a geometrica, e quindi f `e effettivamente diagonalizzabile. 2. Costruzione della matrice ortogonale di passaggio. Data una matrice simmetrica A esiste sempre una matrice ortogonale M tale che M t AM = D, essendo D la matrice diagonale avente per elementi principali gli autovalori. Si potrebbe pensare che per costruire M sia sufficiente normalizzare i singoli autovettori di A. Tuttavia, se consideriamo la dimostrazione del Teorema 2.17, ci rendiamo conto che in questa
2.4 ENDOMORFISMI SIMMETRICI
59
maniera si ottiene solamente la matrice P avente come colonne le basi dei singoli autospazi, prima che a queste venga applicato il procedimento di ortonormalizzazione di Gram-Schmidt. Pertanto, in generale, la matrice P non `e ortogonale, in quanto non `e detto che le singole basi degli autospazi siano gi`a basi ortonormali. Per ottenere M bisogna quindi applicare le formule (2.4.13) all’insieme degli autovettori associati ad ogni singolo autovalore. Pu`o comunque capitare che la matrice P coincida gi`a con la matrice M (si veda l’Esempio 3 successivo). Questo avviene sicuramente se tutti gli autovalori sono semplici. In tal caso infatti ad ogni autovalore corrisponde un autospazio di dimensione 1, e quindi il Teorema 2.16 garantisce che la matrice M viene ottenuta semplicemente normalizzando gli autovettori. 3. Consideriamo la seguente matrice
0 0 1 A = 0 1 0 . 1 0 0 Essendo det[A − λI] = (1 − λ)(λ2 − 1), abbiamo un autovalore semplice λ = −1 ed un autovalore doppio λ = 1. Per λ = 1 risulta −1 0 1 a 0 0 0 0 b = 0 → a = c ∀b. 1 0 −1 c 0 Pertanto, all’autovalore λ = 1 restano associati i due autovettori indipendenti dati da
1 v1 = 0 , 1
0 v2 = 1 , 0
ai quali corrisponde l’autospazio E1 = {av1 + bv2 |a, b ∈ R}. Per λ = −1 risulta 1 0 1 a 0 0 0 0 b = 0 → a = −c b = 0. 1 0 1 c 0 Pertanto, all’autovalore λ = −1 resta associato il solo autovettore
−1 v3 = 0 , 1 al quale corrisponde l’autospazio E3 = {av3 |a ∈ R}.
` SIMILITUDINE E DIAGONALIZZABILITA
60
Si noti che i vettori v1 , v2 , v3 sono gi`a a due a due ortogonali. Pertanto, la base ortonormale di autovettori si ottiene semplicemente normalizzando v1 , v2 , v3 , e quindi `e data da
√
2 2
b1 = √0 , v
√ − 22 b3 = √0 . v
b2 = v2 , v
2 2
2 2
Otteniamo allora
√
2 2
M t AM = 0√ − 22
√ 1 0 0 0 − 22 1 √0 = 0 1 0 . 2 0 0 −1 0 2
√2 0 1 2 0 0 1 0 √0 √ 2 2 1 0 0 √
0 1 0
2 2 0 2
2
4. Determiniamo una base ortonormale di autovettori per l’endomorfismo simmetrico f : R3 → R3 rappresentato dalla seguente matrice 0 1 1 A = 1 0 0 . 1 1 0 Essendo det[A − λI] = (2 − λ)(λ + 1)2 , abbiamo un autovalore semplice λ = 2 ed un autovalore doppio λ = −1. Per λ = 2 risulta −2 1 1 a 0 1 −2 1 b = 0 → a = b = c. 1 1 −2 c 0 Pertanto, all’autovalore λ = 2 resta associato il solo autovettore
1 v1 = 1 , 1 al quale corrisponde l’autospazio E1 = {av1 |a ∈ R}. Per λ = −1 risulta invece 1 1 1 a 0 1 1 1 b = 0 → a = −b = −c. 1 1 1 c 0 Pertanto, all’autovalore λ = −1 restano associati i due autovettori indipendenti dati da −1 v2 = 1 , 0
−1 v3 = 0 , 1
2.4 ENDOMORFISMI SIMMETRICI
61
ai quali corrisponde l’autospazio E2 = {av1 + bv2 |a, b ∈ R}. Si noti che v1 `e ortogonale sia a v2 che a v3 , ma i vettori v2 , v3 non sono ortogonali tra loro. Pertanto in questo caso, per ottenere la matrice ortogonale M che diagonalizza A, dobbiamo prima ortonormalizzare la base v2 , v3 di E2 . Applicando le formule (2.4.13) otteniamo v2 −→
v2 = kv2 k
√ −√ 22 2 2
,
v3 −→
0
v3 − hv3 , w1 iw1 = kv3 − hv3 , w1 iw1 k
q
− 12 32 q 1 3 2q 2
.
3 2
Aggiungendo a questi due versori quello ottenuto normalizzando v1 ricaviamo la base ortonormale cercata. 5. Le considerazioni svolte possono essere estese anche ad endomorfismi f definiti su spazi non canonici, nel caso in cui questi siano rappresentati, rispetto ad una data base, da una matrice simmetrica. Il significato `e determinato da quanto si `e visto nel Paragrafo 1.1.4. Per esempio, sia V = P ol3 (x) lo spazio dei polinomi in x di grado n ≤ 3 a coefficienti reali, e sia f : P ol3 (x) → P ol3 (x) l’applicazione lineare data da: f (ax3 + bx2 + cx + d) = ax3 + cx2 + bx + d. Stabiliamo se f ´e diagonalizzabile. Sia cV : P ol3 (x) → R4 l’isomorfismo canonico dato da a b cV (ax3 + bx2 + cx + d) = c . d 4 Sia F = c−1 V f cV l’applicazione canonica indotta da f sullo spazio canonico R . La matrice che rappresenta F rispetto alla base canonica ´e
1 0 C AC (F ) = 0 0
0 0 1 0
0 1 0 0
0 0 . 0 1
La matrice ACC (F ) ´e simmetrica. Ci´o implica che F , e quindi anche f , ´e diagonalizzabile.
` SIMILITUDINE E DIAGONALIZZABILITA
62
2.4.5
Matrici di proiezione
Un caso particolare di matrici simmetriche di ordine n `e fornito dalle cosiddette matrici di proiezione (cfr. Esercizio 2.6.22). Esse permettono di ricavare immediatamente le componenti della proiezione ortogonale di un vettore su un sottospazio. Sia Wk un sottospazio di Rn avente dimensione k. Indichiamo con x1 , ..., xk una sua base, e sia v ∈ Rn un vettore tale che v ∈ / Wk .
R 6n−k 7
v
- xk x1
R x2
Wk
Figura 2.6: base del sottospazio Wk di Rn . Vogliamo determinare le proiezioni del vettore v sullo spazio vettoriale Wk e sullo spazio b `e la proiezione di v su Wk , allora, per il ad esso ortogonale, isomorfo ad Rn−k . Se v b `e ortogonale a Wk . Teorema di Pitagora, v − v
... 6...... ... ... v . 7... b v−v .. .. .. .. ... .. s.. b v
Wk
Figura 2.7: proiezione di un vettore su un sottospazio di Rn . Consideriamo la matrice A = [x1 |x2 |...|xk ] le cui colonne sono formate dai vettori della b `e ortogonale a Wk , abbiamo base di Wk . Essa `e una matrice di tipo (n, k). Poich´e v − v b . Poich´e v b ∈ Wk , esistono c1 , ..., ck ∈ R tali b )(n,1) = 0(k,1) , e quindi At v = At v At(k,n) (v − v b = c1 x1 + ... + ck xk = Ac, essendo c = [c1 , ..., ck ]t . Quindi abbiamo At v = At Ac, che v da cui si ricava c = (At A)−1 At v = Rv. La matrice R = (At A)−1 At si dice matrice pseudoinversa di Moore-Penrose di A. Dalla precedente uguaglianza otteniamo b = Ac = A(At A)−1 At v = ARv, v
(2.4.15)
2.4 ENDOMORFISMI SIMMETRICI
63
Quindi PA = AR `e la matrice che, applicata a v, fornisce la sua proiezione su Wk , cio`e la matrice di proiezione sul sottospazio Wk generato dalle colonne di A. Per determinare la matrice PA⊥ , cio`e la matrice di proiezione sul sottospazio ortogonale a b , per cui Wk , basta osservare che deve essere PA⊥ v = v − v b = v − ARv = (I − AR)v, PA⊥ v = v − v
(2.4.16)
essendo I la matrice identica. Osservazioni ed esempi.
1. La matrice R esiste sicuramente. Questo deriva dal fatto che A ha rango massimo, essendo le sue colonne formate da vettori di una base, e quindi la matrice At A `e non singolare. 2. Consideriamo il caso particolare in cui il sottospazio W abbia dimensione 1. La matrice A di partenza ha allora una sola colonna, corrispondente alle componenti di un qualsiasi vettore di W. Per esempio, consideriamo in R4 il sottospazio generato dal vettore e1 = [1, 0, 0, 0]t della base canonica. Ovviamente la proiezione di un vettore v su questa retta fornisce il vettore che si ottiene moltiplicando e1 per la prima componente di v. Ritroviamo questo risultato usando il metodo generale. La matrice A risulta
1 0 A= 0 . 0 Abbiamo quindi
1 £ ¤ 0 At A = 1 0 0 0 0 = [1]. 0 Di conseguenza (At A)−1 = [1], da cui R = At , e PA = AR = A · At . Pertanto otteniamo
` SIMILITUDINE E DIAGONALIZZABILITA
64
1 0 £ ¤ PA = AR = A · At = 0 1 0 0 0 = 0
1 0 = 0 0
2.5
0 0 0 0
0 0 0 0
0 0 0 0
x1 x1 x2 0 ⇒ PA v = PA x3 = 0 x4 0
.
Lo studio della similitudine
Vediamo come applicare i risultati sulla diagonalizzabilit`a allo studio della similitudine. Date due matrici A, B ∈ Mn (R), vogliamo cio`e stabilire se esse sono simili. Conviene verificare innanzitutto che sussistono le condizioni necessarie alla similitudine. Sappiamo infatti che matrici simili hanno lo stesso determinante, la stessa traccia, lo stesso polinomio caratteristico e lo stesso spettro. Possiamo quindi calcolare gli autovalori di A e B. Se SpecA 6= SpecB le due matrici non possono essere simili. In questo caso abbiamo terminato l’analisi. Se invece SpecA = SpecB le due matrici potrebbero essere simili (ma non `e automaticamente vero che lo siano, trattandosi solo di una condizione solo necessaria). Occorre, a questo punto, esaminare la diagonalizzabilit`a delle matrici interessate. Si possono verificare tre casi. (i). Entrambe le matrici sono diagonalizzabili. Allora sono simili fra loro. Infatti, se A e B sono diagonalizzabili, sono entrambi simili a matrici diagonali: A ∼ diag(a1 , . . . , an ) B ∼ diag(b1 , . . . , bn ). Ma gli elementi principali delle due matrici diagonali coincidono con i loro autovalori, e matrici simili hanno gli stessi autovalori. Allora, a meno dell’ordinamento, ai = bi , per ogni i = 1, . . . , n. Ci`o significa che A ∼ diag(a1 , . . . , an ) ∼ B e, per la propriet`a transitiva della similitudine A ∼ B. (ii). Una delle due matrici, ad esempio A, `e diagonalizzabile, l’altra no. Le due matrici non sono simili. Se lo fossero avremmo A∼B e anche A ∼ diag(a1 , . . . , an ).
2.5 Lo studio della similitudine
65
Sempre per la transitivit`a della relazione di similitudine: B ∼ diag(a1 , . . . , an ). Ma ci`o significa che anche B `e diagonalizzabile, contro le ipotesi. Di conseguenza A B. (iii). Entrambe le matrici non sono diagonalizzabili. In questo caso `e necessario tentare di costruire direttamente, facendo i conti, una matrice P , invertibile, tale che P −1 AP = B. Se una tale matrice esiste allora A e B sono matrici simili tra loro. Osservazioni ed esempi.
1. Due matrici diagonali aventi lo stesso spettro risultano anche simili, poich`e coincidono a meno dell’ordinamento degli elementi della diagonale principale. 2. Stabiliamo se le matrici
1 0 0 1 −1 0 A = 0 2 0 , B = 0 2 1 0 0 2 0 0 2 sono simili tra loro. Notiamo intanto che A `e diagonale e B triangolare, per cui gli autovalori corrispondono per entrambe ai loro elementi principali e i due spettri coincidono. La matrice A `e gi`a diagonale, quindi ovviamente diagonalizzabile. Dobbiamo esaminare la matrice B. L’autovalore λ = 1 `e semplice, quindi regolare. Occorre studiare λ = 2, che ha molteplicit`a algebrica 2 (`e un autovalore doppio). La molteplicit`a geometrica `e mg (2) = n − rk(B − 2I3 ). Abbiamo
1 − 2 −1 0 2−2 1 = n − rk(B − 2I3 ) = 3 − rk 0 0 0 2−2 −1 −1 0 0 1 = = 3 − rk 0 0 0 0 = 3 − 2 = 1. Quindi ma (2) = 2 6= mg (2) = 1. Le due molteplicit`a sono diverse, l’autovalore λ = 2 per B non `e regolare e quindi B non pu`o essere diagonalizzabile. Ma allora A e B non sono simili tra loro. In particolare A e B non possono rappresentare lo stesso endomorfismo rispetto a basi diverse.
` SIMILITUDINE E DIAGONALIZZABILITA
66
2.6
ESERCIZI
2.6.1. Sia A ∈ M2 (R). Determinarne gli autovalori, sapendo che det(A − 2I) = 0, det(A − I) = 0. 2.6.2. Sia A ∈ M2 (R). Determinarne gli autovalori, sapendo che det(A − 2I) = 1, det(A − I) = −2. 2.6.3. Sia A ∈ M2 (R) non singolare. Determinare gli autovalori della matrice sapendo che det(I − A) = 0 e che det((A−1 (2I − A))) = 0. 2.6.4. Sia A ∈ M2 (R). Determinarne gli autovalori, sapendo che det(I − A) = 4 e det(4I − A) = 1. 2.6.5. Sia f un endomorfismo dello spazio vettoriale V, tale che f 2 + f = 0. Dimostrare che Specf ⊆ {0, −1}. 2.6.6. Si consideri la matrice
0 6 0 A = 1 0 1 . 1 0 1
Determinarne autovalori e autovettori e stabilire se A `e diagonalizzabile. 2.6.7. Mostrare che la matrice
1 0 −2 A= 3 2 0 0 2 6
`e diagonalizzabile. In caso affermativo determinare una matrice B diagonale simile ad A e la relativa matrice di passaggio P . 2.6.8. Sia A la seguente matrice
−5 0 6 A = k 1 −3 , −9 0 10 essendo k un parametro reale. 1. Determinare lo spettro di A 2. Stabilire i valori di k per i quali A `e diagonalizzabile. 3. Determinare, quando `e possibile, una matrice P tale che P −1 AP sia una matrice diagonale. 2.6.9. Sia A la seguente matrice
1 0 5 A = k − 1 k −5 , −1 0 7 essendo k un parametro reale.
2.6 ESERCIZI
67
1. Determinare, al variare di k in R, lo spettro di A. 2. Studiare, al variare di k in R, la diagonalizzabilit` a della matrice. 2.6.10. Sia A la seguente matrice
3 0 1 A = −4 a −2 , 2 0 2 essendo a un parametro reale. 1. Determinare lo spettro di A 2. Stabilire i valori del parametro a per i quali A `e diagonalizzabile. 2.6.11. Stabilire se la matrice reale
0 A= 1 − 54
1 1 0 1 1 0
`e diagonalizzabile in R. 2.6.12. Sia A ∈ M2 (R) una matrice tale che det(A) = det(2I − A) = 0. Stabilire se A `e diagonalizzabile. 2.6.13. Determinare i valori del parametro h ∈ R in modo che la matrice h 0 0 A = −1 2 h 1 0 0 sia diagonalizzabile. 2.6.14. Determinare tutti i valori del parametro h ∈ R tali che la matrice 1 0 0 A = 2h 0 0 h 2h 1 sia diagonalizzabile 2.6.15. Si considerino le matrici 1 0 −1 A = 1 −1 h , 0 0 1
h −1 0 B = −1 1 h . 0 0 1
` possibile che A e B rappresentino lo stesso endomorfismo (rispetto a basi diverse)? E
` SIMILITUDINE E DIAGONALIZZABILITA
68 2.6.16. Si consideri la matrice
1 0 h A = 0 1 0 , 1 0 1 con h parametro reale. Stabilire se A `e diagonalizzabile per ogni valore di h e se esiste un valore di h tale che A sia ortogonalmente simile ad una matrice diagonale D. 2.6.17. Si consideri la matrice
h 1 0 0 0 . A= 0 h+1 h 1 Stabilire se esiste un valore del parametro reale h tale che A sia simile ad una matrice reale simmetrica B avente come polinomio caratteristico χB (t) = t3 − 2t2 + t. 2.6.18. Dimostrare che ogni matrice simile ad una matrice A nilpotente (tale cio`e che Am = O per qualche intero m ∈ N) `e a sua volta nilpotente. 2.6.19. Dimostrare che se P = aU , con U matrice ortogonale, e D `e diagonale, la matrice P DP −1 `e simmetrica. 2.6.20. In R3 , si considerino il vettore v = [3, −1, 2]t , ed il sottospazio U generato dai vettori x1 = [1, 4, 1]t ed x2 = [2, −1, 1]t . Determinare la proiezione di v su U e la lunghezza della proiezione di v su U⊥ . 2.6.21. Sia A ∈ M2 (R) una matrice avente autovalori 0, 1 corrispondenti, rispettivamente, agli autovettori x1 = [1, 1]t e x2 = [−1, 1]t . Determinare A. 2.6.22. Dimostrare che una matrice di proiezione `e simmetrica. 2.6.23. Si considerino le matrici A, B ∈ Mn (R). Siano λA e λB autovalori di A e B, rispettivamente, entrambi associati all’autovettore x. Dimostrare che x `e un autovettore sia di AB che di BA, associato all’autovalore λA λB . 2.6.24. Si considerino le matrici 0 0 0 A = 0 2 0 , h 1 2
1 0 1 B = 0 2 0 . 1 0 1
Verificare che A non `e diagonalizzabile per alcun valore del parametro h ∈ R, e che non `e mai simile a B. 2.6.25. Si consideri la matrice h h−1 1 1 2 . A= 0 0 0 2
Determinare gli h ∈ R tali che A non sia diagonalizzabile.
2.6 ESERCIZI
69
2.6.26. Si considerino le matrici 1 h 0 A = 0 0 h , 0 0 −1
1 0 0 B = 0 0 0 . 0 0 −1
Verificare che A e B sono simili per ogni h ∈ R e stabilire se esistono valori di h per i quali siano ortogonalmente simili. 2.6.27. Sia A ∈ M2 (R) tale che (A + I)2 = 2(A + I). Stabilire se A `e diagonalizzabile. 2.6.28. Sia f l’endomorfismo di R3 definito da f ([x, y, z]t ) = [x + y, x + z, y + z]t . Stabilire se f `e diagonalizzabile e calcolarne autovalori e autovettori. 2.6.29. Si consideri l’endomorfismo f : R3 → R3 dato da x 4x − 4z f y = 5x − y − 5z x−z z 1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f . 2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno di essi. 3. Stabilire se esiste una base di R3 rispetto alla quale f `e rappresentato dalla matrice seguente
3 2 15 A= 0 0 6 0 0 −1 2.6.30. Si stabilisca se le matrici 1 0 0 A= 0 2 0 0 0 2
1 −1 0 B= 0 2 1 0 0 2
rappresentano lo stesso endomorfismo in R3 , rispetto a basi opportune. 2.6.31. Si consideri l’endomorfismo f : R3 → nica, dalla seguente matrice 3 C AC (f ) = 2 0
R3 rappresentato, rispetto alla base cano 0 −2 1 −2 0 1
1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .
` SIMILITUDINE E DIAGONALIZZABILITA
70
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno di essi. 3. Stabilire se ACC (f ) `e simile alla matrice data da
1 0 0 A = 1 1 0 . 2 1 3 2.6.32. Sia A ∈ Mn (R) una matrice avente un unico autovalore t0 . Dimostrare che A `e diagonalizzabile se e solo se A = t0 In . 2.6.33. Si consideri l’endomorfismo fh : R3 → R3 rappresentato dalla matrice h 0 h Ah = −1 1 h h ∈ R. 0 0 1 Si stabilisca per quali valori di h fh non `e un automorfismo e per quali i suoi autovalori sono semplici. Si dica se, per h = 1, `e possibile esprimere R3 come somma diretta di autospazi. Determinarli in caso affermativo. 2.6.34. Siano dati i vettori v1 = [6, −2, 0]t , v2 = [0, 1, 1]t , v3 = [2, 4, −4]t , w1 = [1, −1, 0]t , w2 = [0, 2, 2]t , w3 = [1, 1, 0]t di R3 , con h ∈ R. Vedere se esiste un endomorfismo f di R3 tale che f (vi ) = wi per i = 1, 2, 3. Stabilire inoltre quali dei vi sono autovettori di f . 2.6.35. Sia f 6= 0 un endomorfismo nilpotente di V. Dimostrare che Spec f = {0}. 2.6.36. Due matrici A e B di ordine 3 hanno autovettori r = [1, 0, 1]t , s = [1, 1, 1]t e t = [0, 0, 1]t . Verificare che tutte le matrici A, B, AB e BA sono diagonalizzabili. 2.6.37. Una matrice reale A di tipo (2, 2) soddisfa le condizioni det(det(A)I − A) = 0,
det(− det(A)I − A) = 0.
Calcolare gli autovalori di A e stabilire se `e diagonalizzabile. 2.6.38. Verificare che ogni matrice quadrata di ordine 2 tale che A2 + I = O `e diagonalizzabile nel campo complesso. 2.6.39. Determinare i valori di h ∈ R tali che le due matrici 1 0 0 1 3 0 B= 0 5 0 A = 0 2 3 , 0 3 2 0 0 −h siano simili. 2.6.40. Determinare tutte le matrici che ammettono x1 = [1, 1]t e x2 = [1, −1]t come autovettori.
2.6 ESERCIZI 2.6.41. Stabilire se le seguenti matrici sono simili: 1 0 1 1 1 −1 A= 0 1 2 B = 0 1 1 . 0 0 3 0 0 3 2.6.42. Mostrare che le seguenti matrici sono simili · ¸ · ¸ 1 2 1 0 A= , B= 0 1 1 1 e calcolare una matrice di passaggio.
71
72
` SIMILITUDINE E DIAGONALIZZABILITA
Capitolo 3
SOLUZIONI DEGLI ESERCIZI 3.1
ESERCIZI CAPITOLO 1 - SOLUZIONI
1.3.1 Studiare la linearit`a dell’applicazione: f:
R3 −→ R [x, y, z]t 7−→ x − y + 2z.
Svolgimento. Dobbiamo verificare se f conserva la somma di vettori e il pro` dotto di scalari. Consideriamo u, v ∈ R3 , con u = [x, y, z]t e v[x0 , y 0 , z 0 ]t e h, k ∈ R. E equivalente verificare che f (hu + kv) = hf (u) + kf (v). Poich´e hu + kv = h[x, y, z]t + [x0 , y 0 , z 0 ]t = [hx + kx0 , hy + ky 0 , hz + kz 0 ]t , abbiamo: f (hu + kv) = f ([hx + kx0 , hy + ky 0 , hz + kz 0 ]t ) = = (hx + kx0 ) − (hy + ky 0 ) + 2(hz + kz 0 ) = = hx + kx0 − hy − ky 0 + 2hz + 2kz 0 = = (hx − hy + 2hz) + (kx0 − ky 0 + 2kz 0 ) = = h(x − y + 2z) + k(x0 − y 0 + 2z 0 ) = hf ([x, y, z]t ) + kf ([x0 , y 0 , z 0 ]t ) = = hf (u) + kf (v). Quindi f `e lineare.
¥
1.3.2 Verificare se l’applicazione: f : R2 :−→ R2 [x, y]t 7−→ [x − y, x + y]t `e lineare. Svolgimento. Dobbiamo verificare se f conserva la somma di vettori e il pro` dotto di scalari. Consideriamo u, v ∈ R2 , con u = [a, b]t e v = [a0 , b0 ]t e h, k ∈ R. E equivalente verificare che f (hu + kv) = hf (u) + kf (v).
74
SOLUZIONI DEGLI ESERCIZI Poich´e hu + kv = h[a, b]t + k[a0 , b0 ]t = [ha + ka0 , hb + kb0 ]t , abbiamo: def
f (hu + kv) = f ([ha + ka0 , hb + kb0 ]t ) =
= [(ha + ka0 ) − (hb + kb0 ), (ha + ka0 ) + (hb + kb0 )]t = = [h(a − b) + k(a0 − b0 ), h(a + b) + k(a0 + b0 )]t = = [h(a − b), h(a + b)) + (k(a0 − b0 ), k(a0 + b0 )]t = = h[a − b, a + b]t + k[a0 − b0 , a0 + b0 ]t = hf [a, b]t + kf [a0 , b0 ]t = = hf (u) + kf (v) Quindi f `e lineare.
¥
1.3.3 Siano f : R2 → R e g : R → R2 le applicazioni lineari cos`ı definite: f ([x, y]t ) = x + y + 1; g(x) = [x, −2x]t . Stabilire se g ◦ f `e lineare. Svolgimento. Dobbiamo verificare se g ◦ f conserva la somma di vettori e il prodotto di vettori con scalari. Controlliamo prima quest’ultimo. Posto x = [x, y]t e a ∈ R, dobbiamo controllare se g ◦ f (ax) = a(g ◦ f (x)). Dalla definizione, l’applicazione f manda il vettore x = [x, y]t in x + y + 1 ∈ R. Quindi, facendo agire su quest’ultimo l’applicazione g, otteniamo il vettore di R2 di componenti [x + y + 1, −2(x + y + 1)]t , che rappresenta l’immagine di x tramite g ◦ f . Eseguendo i calcoli, abbiamo: g ◦ f (ax)
= g ◦ f ([ax, ay]t ) = g(ax + ay + 1) = = [ax + ay + 1, −2(ax + ay + 1)]t ;
a(g ◦ f (x)) = a(g(f ([x, y]t )) = a(g(x + y + 1)) = = a[x + y + 1, −2(x + y + 1)]t = [ax + ay + a, −2(ax + ay + a)]t . Quindi g ◦ f (ax) 6= a(g ◦ f (x)). Basta questo per poter dire che g ◦ f non `e lineare.
¥
1.3.4 Sia f : Mn (R) → Mn (R) l’applicazione definita da: f (A) = 2A, per ogni A ∈ Mn (R). Stabilire se f `e lineare. Svolgimento. La funzione f manda ogni matrice di Mn (R) nel prodotto della matrice stessa con la costante 2. Verifichiamo che f conserva somma di vettori e prodotto di scalari. Possiamo farlo in un colpo solo, verificando che f (aA + bB) = af (A) + bf (B), per ogni A, B ∈ Mn (R) e per ogni coppia di scalari a, b ∈ R. Abbiamo: f (aA + bB) = 2(aA + bB) = 2(aA) + 2(bB) = = a(2A) + b(2B) = af (A) + bf (B).
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI Quindi la f `e lineare.
75 ¥
1.3.5 Stabilire se `e lineare l’applicazione f : Mn (R) → Mn (R) definita da f (A) = A+2In , con A ∈ Mn (R). Svolgimento. Un’applicazione f `e lineare se conserva la somma di vettori e il prodotto per scalari. Verifichiamo, in questo caso, se viene conservata la somma. Dobbiamo, in particolare, vedere se f (A + B) = f (A) + f (B), al variare di A, B ∈ Mn (R). Dalla definizione di f otteniamo: f (A + B) = (A + B) + 2In = A + B + 2In . Invece, sempre dalla definizione, si ha: f (A) + f (B) = (A + 2In ) + (B + 2In ) = A + B + 4In . Quindi f (A + B) 6= f (A) + f (B). Gi`a questo basterebbe per poter dire che f non `e lineare. Verifichiamo comunque che f non conserva nemmeno il prodotto per scalari. Infatti, al variare di A ∈ Mn (R) e di a ∈ R: f (aA)
= aA + 2In ,
a(f (A)) = a(A + 2In )) = aA + 2aIn . Quindi, tranne per il caso a = 1, f (aA) 6= a(f (A)).
¥
1.3.6 Si consideri l’endomorfismo di R3 f ([x, y, z]t ) = [2x + 2y, x − ty, x − y − z]t , t ∈ R. Stabilire per quali valori del parametro t l’applicazione f `e un automorfismo. Svolgimento. Un endomorfismo `e un automorfismo se e solo se `e invertibile. Lo studio dell’invertibilit`a di un’applicazione lineare si scarica su quello dell’invertibilit` a della sua matrice. Quindi, in questo caso, l’unica difficolt`a risiede nella costruzione della matrice associata ad f . Supponiamo che la matrice associata ad f sia a11 a12 a13 A = a21 a22 a23 . a31 a32 a33 Allora l’immagine di un vettore x ovvero a11 t f (x) = f ([x, y, z] ) = a21 a31
= [x, y, z]t si ottiene moltiplicandolo a sinistra per A, a12 a13 x a11 x + a12 y + a13 z a22 a23 y = a21 x + a22 y + a23 z . a32 a33 z a31 x + a32 y + a33 z
Quindi f ([x, y, z]t ) = [a11 x + a12 y + a13 z, a21 x + a22 y + a23 z, a31 x + a32 y + a33 z]t .
76
SOLUZIONI DEGLI ESERCIZI Nel nostro caso, quindi, la matrice associata ad f `e: 2 2 0 A = 1 −t 0 . 1 −1 −1 La A `e invertibile se e solo se `e non singolare. Il suo determinante `e det A = 2t + 2, che si annulla solo quando t = −1. Pertanto f `e un automorfismo se e solo se t 6= −1. ¥ 1.3.7 Si consideri l’applicazione lineare f : R2 → R3 cos`ı definita: f ([x, y]t ) = [2x − y, x + y, y]t . Stabilire se f `e iniettiva e suriettiva. Svolgimento. Un’applicazione f : U → V `e iniettiva se e solo se ker f = {0} ed `e suriettiva se e solo se Imf = V. La prima condizione `e equivalente a dire che dim(Imf ) = 0, mentre la seconda equivale a dim(Imf ) = dim V. Per avere informazioni sulle dimensioni di Imf e ker f possiamo usare l’Equazione Dimensionale, ma abbiamo bisogno della matrice A associata all’applicazione (rispetto a due qualsiasi basi), in quanto il suo rango ci fornisce la dimensione di Imf (e le sue colonne rappresentano un insieme generatore per Imf ). In questo caso abbiamo: 2 −1 A = 1 1 . 0 1 Il rango di A `e 2: per esempio il minore determinato dalle ultime due righe `e 6= 0. Quindi dim(Imf ) = 2. Dall’Equazione Dimensionale, otteniamo: n = dim(ker f ) + dim(Imf ) ⇒ 2 = dim(ker f ) + 2 ⇔ dim(ker f ) = 0. Dal fatto che dim(Imf ) = 2, mentre la dimensione del codominio `e 3, deduciamo che f non `e suriettiva. Invece, da dim(Imf ) = 0, si deduce che ker f = {0}, quindi che f `e iniettiva. ¥ 1.3.8 Stabilire per quali valori del parametro reale t l’applicazione lineare f : R2 → R2 , definita da: f ([x, y]t ) = [x + ty, (t − 1)x + 2y]t `e iniettiva. Svolgimento. Un’applicazione f `e iniettiva se e solo se ker f = {0}, ovvero se e solo se dim(ker f ) = 0. Dall’Equazione Dimensionale n = dim(ker f ) + dim(Imf ), segue: dim(ker f ) = 2 − dim(Imf ). Quindi f `e iniettiva se e solo se dim(Imf ) = 2. Ma la dimensione dell’immagine di un’applicazione non `e nient’altro che il rango della matrice ad essa associata. Le sue righe
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI sono i coefficienti delle componenti dell’immagine di un generico vettore nella definizione di f . Quindi la matrice associata `e: · ¸ 1 t . A= t−1 2 Siccome det A = −(t2 − t − 2) = 0 ⇔ t = 2 o t = −1, ne consegue che per t 6= 2 e t 6= 1 il rango di A `e 2 e f `e iniettiva. ¥ 1.3.9 Verificare che l’applicazione lineare f : R2 → R3 definita da f ([x, y]t ) = [x + y, x − y, x]t `e iniettiva. Svolgimento.
La matrice associata `e: 1 1 A = 1 −1 . 1 0
Il rango di A coincide con la dimensione dell’immagine. Quindi rkA = dim(Imf ) = 2. Usando l’Equazione Dimensionale, abbiamo: 2 = dim(ker f ) + dim(Imf ) = dim(ker f ) + 2. Quindi dim(ker f ) = 0 e questo pu`o accadere se e solo se ker f = {0}. Quindi f `e un’applicazione iniettiva. ¥ 1.3.10 Stabilire se l’endomorfismo di R3 definito da f ([x, y, z]t ) = [2x+2y, x−y, x−y −z]t `e un automorfismo. Svolgimento. Un automorfismo `e caratterizzato dal fatto che la matrice associata A `e invertibile. In questo caso abbiamo 2 2 0 A = 1 −1 0 . 1 −1 −1 La A `e invertibile se e solo se `e non singolare, ovvero se e solo se det A 6= 0. Sviluppando rispetto all’ultima colonna, abbiamo: ¯ ¯ ¯ ¯ ¯ 2 2 0 ¯¯ ¯ ¯ ¯ ¯ 1 −1 0 ¯ = −1 ¯ 2 2 ¯ = −1(−2 − 2) = 4 6= 0. ¯ 1 −1 ¯ ¯ ¯ ¯ 1 −1 −1 ¯ Quindi esiste A−1 e f `e un automorfismo. Ci`o significa che esiste f −1 , pure lei lineare, cui `e associata la matrice A−1 . ¥ 1.3.11 Si consideri l’applicazione lineare f : R2 → R3 definita da: f (e1 ) = e1 + e2 + e3 f (e2 ) = −e1 + 2e3 . Si determini la matrice associata ad f e si stabilisca se f `e un’applicazione iniettiva.
77
78
SOLUZIONI DEGLI ESERCIZI Svolgimento. L’applicazione f viene descritta, in questo caso, definendo le immagini dei vettori della base canonica del dominio in funzione dei vettori della base canonica del codominio. Supponiamo che la matrice associata ad f sia la seguente: a11 a12 A = a21 a22 a31 a32 L’immagine del primo vettore della base canonica di R2 , a11 a12 1 Ae1 = a21 a22 = a31 a32 0
ossia di e1 = [1, 0]t `e: a11 a21 . a31
Quindi l’immagine di e1 non `e altro che la prima colonna della matrice A. Analogamente l’immagine di e2 `e la seconda colonna di A. Se esprimiamo questa immagine mettendo in evidenza i vettori della base canonica di R3 , ovvero del codominio, otteniamo: a11 1 0 0 a21 = a11 0 + a21 1 + a31 0 = a11 e1 + a21 e2 + a31 e3 . a31 0 0 1 Quindi i coefficienti dei termini della base canonica del codominio, negli sviluppi delle immagini degli elementi della base del dominio, non sono altro che i termini delle colonne della matrice associata ad f . Nel nostro caso abbiamo: 1 −1 A = 1 0 . 1 2 il rango di A `e rkA = 2, quindi, essendo dim(Imf ) = rkA, dall’Equazione Dimensionale: 2 = dim(ker f ) + dim(Imf ) = = dim(ker f ) + rkA = = dim(ker f ) + 2 ⇔ dim(ker f ) = 0. Ma dim(ker f ) = 0 ⇔ ker f = {0} e quindi f `e un’applicazione iniettiva. 1.3.12 Sia f : R2 → R3 l’applicazione lineare data da · ¸ x−y x f = 2x − 2y . y 3x − 3y 1. Determinare la matrice che rappresenta f rispetto alle basi ½· B1 =
¸ · ¸¾ 0 3 , , 2 1
0 2 1 B2 = 0 , 1 , −1 . 1 0 3
¥
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI
79
2. Scrivere, rispetto alla base B2 , l’immagine del vettore · vB1 =
1 2
¸ .
Svolgimento. 1. Osserviamo innanzitutto che gli insiemi B1 e B2 sono effettivamente basi di R2 ed R3 rispettivamente, in quanto · det[B1 ] = det
3 0 1 2
¸ = 6 6= 0,
1 0 2 det[B2 ] = det 0 1 −1 = 1 6= 0. 1 0 3
La matrice che rappresenta f rispetto alle basi date risulta −1 C 2 AB B1 (f ) = [B2 ] AC (f )[B1 ],
essendo ACC (f ) la matrice che rappresenta f rispetto alle basi canoniche di R2 ed R3 . Abbiamo allora
3 0 −2 [B2 ]−1 = −1 1 1 , −1 0 1 e quindi
1 −1 ACC (f ) = 2 −2 3 −3
¸ 3 0 −2 −6 6 1 −1 · 3 0 2 −1 1 1 2 −2 AB = 8 −8 . B1 (f ) = 1 2 −1 0 1 3 −3 4 −4 2 2. Applicando la matrice AB B1 (f ) al vettore v, scritto rispetto alla base B1 , risulta −6 6 1 6 2 8 −8 = −8 . vB2 = AB B1 (f )vB1 = −4 4 −4 2
¥ 1.3.13 Sia f l’endomorfismo di R3 associato alla matrice t 2 t+1 At = 2 t t + 3 . 1 2 4 Determinare il valore del parametro t affinch´e f sia un automorfismo. Posto t = −2, determinare base e dimensione di Imf . Posto t = 3, determinare base e dimensione di ker f .
80
SOLUZIONI DEGLI ESERCIZI Svolgimento. Un endomorfismo `e un automorfismo se e solo se `e invertibile. A livello di matrici associate ci`o significa che deve essere invertibile la sua matrice At . E questo accade se e solo se At `e non singolare, ovvero se e solo se det At 6= 0. Sviluppando rispetto alla prima riga, abbiamo: ¯ ¯ ¯ t 2 t+1 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 2 t t + 3 ¯ = t ¯ t t + 3 ¯ − 2 ¯ 2 t + 3 ¯ + (t + 1) ¯ 2 t ¯ = ¯ ¯ ¯ 2 ¯ ¯ ¯ ¯ 4 1 4 1 2 ¯ ¯ 1 2 4 ¯ = t(4t − 2t − 6) − 2(8 − t − 3) + (t + 1)(4 − t) = = 2t2 − 6t − 10 + 2t + 4t − t2 + 4 − t = t2 − t − 6. Quindi det At = 0 ⇔ t = 3 oppure t = −2. Pertanto f `e un automorfismo se e solo se t 6= 3 e t 6= −2. Poniamo ora t = −2. La matrice associata diventa: −2 2 −1 A−2 = 2 −2 1 . 1 2 4 Il minore del secondo ordine determinato dalle ultime due righe e dalle prime due colonne `e 6= 0. Siccome det A−2 = 0 ne consegue che rkA−2 = 2. Ma il rango della matrice associata ad un’applicazione lineare f rappresenta la dimensione dell’immagine di f . Quindi dim(Imf ) = 2 e una base per Imf `e fornita dalle colonne di A−2 che contribuiscono a formare il minore con cui si `e determinato il rango di rkA−2 , in questo caso le prime due. Quindi l’insieme 2 −2 2 , −2 1 2 `e una base di Imf . Poniamo ora t = 3. La matrice associata diventa: 3 2 4 A3 = 2 3 6 . 1 2 4 Anche in questo caso rkA3 = 2. Infatti, per quanto visto prima det A3 = 0, mentre il 6 0. Quindi minore del secondo ordine, determinato dalle prime due righe e colonne, `e = dim(Imf ) = 2. Ricordando l’Equazione Dimensionale: n = dim(Imf ) + dim(ker f ), dove n `e la dimensione dello spazio dominio dell’applicazione f (in questo caso n = 3), abbiamo: 3 = 2 + dim(ker f ), ossia dim(ker f ) = 1. Per determinare una base cerchiamo di esprimere il generico vettore di ker f . Se x = [x, y, z]t ∈ ker f , per definizione di nucleo, f (x) = 0. In questo caso, l’immagine di x tramite f si ottiene moltiplicando il vettore x a sinistra per la matrice A3 . Dall’equazione matriciale A3 x = 0 otteniamo: 3 2 4 x 3x + 2y + 4z 0 2 3 6 y = 2x + 3y + 6z = 0 . 1 2 4 z x + 2y + 4z 0
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI Uguagliando termine a termine nella precedente equazione, si ha: 3x + 2y + 4z = 0 2x + 3y + 6z = 0 x + 2y + 4z = 0 che ammette la terna (0, −2t, t) come soluzione, al variare di t ∈ R. Ci`o significa che il generico vettore di ker f si scrive come: 0 0 x = −2t = t −2 = tv. t 1 Questa `e la conferma che dim(ker f ) = 1, e il vettore v individua una base per il nucleo di f . ¥ 1.3.14 Sia f : R3 → R3 l’applicazione lineare −2 A = −2 4
associata alla matrice 1 0 1 0 . −2 3
Determinare una base per Imf . Dopo aver verificato che l’insieme © ª W = [x, y, 0]t | x, y ∈ R `e sottospazio di R3 , determinare una base per W + Imf . Svolgimento. Sappiamo che le colonne della matrice associata ad un’applicazione f sono generatori di Imf . Cerchiamo di individuare quante, fra esse, sono indipendenti. Determiniamo il rango di A. Siccome le prime due colonne della matrice sono proporzionali (la prima si ottiene dalla seconda moltiplicandola per −2) evidentemente det A = 0. Quindi rkA ≤ 2. Il minore individuato dalle ultime due righe e dalle ultime due colonne, ossia ¯ ¯ ¯ 1 0 ¯ ¯ ¯ ¯ −2 3 ¯ = 3 − 0 = 3 6= 0 `e non nullo, quindi rkA = 2. Non solo abbiamo scoperto che dim(Imf ) = 2, ma ne abbiamo anche determinato una base, in quanto le colonne di A, generatori di Imf , che contribuiscono a formare il minore di cui sopra, sono indipendenti. Quindi una base di Imf `e: 1 0 1 0 . , B= −2 3 Per verificare che W `e un sottospazio consideriamo la sua chiusura lineare. Siano w1 = [x1 , y1 , 0]t e w2 = [x2 , y2 , 0]t due vettori di W. Sono entrambi caratterizzati dall’avere l’ultima componente nulla. Al variare di a, b ∈ R consideriamo la combinazione lineare aw1 + bw2 : x1 x2 ax1 + bx2 aw1 + bw2 = a y1 + b y1 = ay1 + by2 . 0 0 0
81
82
SOLUZIONI DEGLI ESERCIZI Quindi anche aw1 + bw2 ha l’ultima componente nulla. Ci`o significa che `e un vettore di W, che W `e linearmente chiuso, ovvero che `e un sottospazio. Per determinare una base di W basta esaminare un suo generico vettore: x 1 0 w = y = x 0 + y 1 = xw1 + yw2 . 0 0 0 I vettori w1 e w2 non solo generano W, ma, essendo evidentemente indipendenti, ne formano anche una base. A questo punto abbiamo determinato una base di Imf e una di W. Tutti e soli i vettori della somma W + Imf si scrivono come combinazioni lineari dei a individuando, nell’unione delle vettori delle due basi. Una base per W + Imf si trover` due basi, quelli indipendenti. Per fare questo consideriamo la matrice aventi i vettori in questione come colonne: 1 0 1 0 0 0 1 B= 1 −2 −3 0 0 e studiamone il rango. Certamente il minore del secondo ordine individuato dalle ultime due righe e dalle prime due colonne `e non nullo (l’abbiamo visto esaminando la base di Imf ). Usiamo il Teorema di Kr¨onecker, orlando dapprima questo minore con la terza colonna. Sviluppando rispetto alla seconda colonna, otteniamo: ¯ ¯ ¯ ¯ 1 ¯ 0 1 ¯¯ ¯ ¯ 1 1 ¯ ¯ ¯ = 3(−1) = −3 6= 0. ¯ 1 ¯ 0 0 ¯ = −(−3) ¯ ¯ ¯ 1 0 ¯ −2 −3 0 ¯ Quindi rkB = 3, le tre prime colonne sono indipendenti e formano una base di W + Imf . ¥ 1.3.15 Dato in R4 l’endomorfismo ft rappresentato dalla matrice t 0 1 1 1 t 1 −1 At = 1 0 2 0 , 1 0 0 −2 verificare che dim(ker f ) = 2 solo per t = 0. Svolgimento.
Possiamo usare l’Equazione Dimensionale n = dim(ker f ) + dim(Imf ),
sapendo che n = dim R4 = 4. Quindi dim(ker f ) = n − dim(Imf ) = = 4 − dim(Imf ) = 2 ⇔ dim(Imf ) = 2. Sappiamo anche che dim(Imf ) = rkAt , quindi non ci rimane che verificare quali siano le condizioni sul parametro t affinch´e la matrice associata ad f abbia rango 2. La At `e
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI quadrata del quarto colonna poi rispetto ¯ ¯ t 0 1 ¯ ¯ 1 t 1 ¯ ¯ 1 0 2 ¯ ¯ 1 0 0
ordine. Sviluppiamo il suo determinante prima rispetto alla seconda alla terza riga: ¯ ¯ ¯ 1 ¯¯ ¯ t 1 1 ¯ ¯ ¯ ¯ −1 ¯ = t ¯¯ 1 2 0 ¯¯ = ¯ 0 ¯ ¯ 1 0 −2 ¯ −2 ¯ ¯ ¯ ¯¶ µ ¯ ¯ 1 1 ¯ ¯ t 1 ¯ ¯ ¯ ¯ ¯ = = t 1¯ − 2¯ 2 0 ¯ 1 2 ¯ = t((0 − 2) − 2(2t − 1)) = t(−2 − 4t + 2) = −4t2 .
Siccome ci interessano condizioni affinch´e rkAt = 2, certamente deve essere det At = 0, altrimenti avremmo rkAt = 4. Ma det At = 0 se e solo se t = 0. vediamo cosa succede per t = 0. La matrice A0 diventa: 0 0 1 1 1 0 1 −1 A0 = 1 0 2 0 . 1 0 0 −2 Esiste almeno un minore non nullo del secondo ordine. Per esempio quello determinato dalle prime due righe e dalle ultime due colonne. Usiamo il Teorema di Kr¨onecker, orlando questo minore in tutti i modi possibili. Questi sarebbero quattro, potendo lavorare su due ulteriori righe e due ulteriori colonne. Ma una delle colonne `e formata da zeri (la seconda), quindi possiamo trascurarla. Orlando con la prima colonna e terza riga e sviluppando rispetto alla prima riga, otteniamo: ¯ ¯ ¯ 0 1 1 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 1 1 −1 ¯ = −1 ¯ 1 −1 ¯ + 1 ¯ 1 1 ¯ = ¯ ¯ 1 0 ¯ ¯ ¯ 1 2 ¯ ¯ 1 2 0 ¯ = −(0 + 1) + (2 − 1) = −1 + 1 = 0. Orlando con la prima colonna e la quarta riga e sviluppando rispetto alla prima riga, abbiamo: ¯ ¯ ¯ 0 1 1 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 1 2 0 ¯ = −1 ¯ 1 0 ¯ + 1 ¯ 1 2 ¯ = ¯ ¯ 1 −2 ¯ ¯ 1 0 ¯ ¯ ¯ 1 0 −2 ¯ = −(−2 − 0) + (0 − 2) = +2 − 2 = 0. Tutti i minori del terzo ordine ottenuti orlando quello di partenza sono nulli. Il Teorema di Kr¨onecker garantisce che non dobbiamo controllarne altri per poter affermare che rkA0 = 2. Quindi dim(ker f ) = 2 se e solo se t = 0. ¥ 1.3.16 Sia f l’endomorfismo di R3 definito da: f (e1 ) = te1 + 2e2 + e3 f (e2 ) = 2e1 + +te2 + 2e3 f (e3 ) = (t + 1)e1 + (t + 3)e2 + 4e3 .
83
84
SOLUZIONI DEGLI ESERCIZI Stabilire per quali valori di t ∈ R f `e un automorfismo e determinare negli altri casi la dimensione ed una base per ker f . Svolgimento. I coefficienti dei vettori della base canonica che compaiono ai secondi membri delle precedenti equazioni formano le colonne della matrice A associata ad f . Essa `e quindi data da t 2 t+1 A = 2 t t + 3 . 1 2 4 L’applicazione f `e un automorfismo se e solo se `e invertibile la matrice associata A, e questo avviene se e solo se det A 6= 0. Siccome det A = t2 − t − 6 = 0 se e solo se t = −2 o t = 3, abbiamo che f `e un automorfismo con t 6= −2 e t 6= 3. Sia ora t = −2. La matrice associata diventa: −2 2 −1 A = 2 −2 1 . 1 2 4 In questo caso rkA = 2 (esistono minori del secondo ordine non nulli, mentre siamo nel caso in cui det A = 0). Quindi dim(Imf ) = rkA = 2. Dall’Equazione Dimensionale abbiamo: dim(ker f ) = n − dim(Imf ) = 3 − 2 = 1. Per la determinazione di una base del nucleo, troviamo l’immagine di un generico vettore tramite la f e imponiamo che appartenga a ker f . Se x = [x, y, z]t ∈ ker f , allora f (x) = 0:
−2 2 −1 x 0 2 −2 1 y = 0 . f (x) = Ax = 1 2 4 z 0 Sviluppando i calcoli ed uguagliando termine a termine otteniamo il sistema −2x + 2y − z = 0 2x − 2y + z = 0 x + 2y + 4z = 0 che ammette la terna (10y, 7y, −6y) come soluzione. Quindi i vettori del nucleo sono tutti e soli quelli della forma: 10y 10 7y = y 7 = yu. −6y −6 Il vettore u `e una base di ker f . Se t = 3 si ragiona nello stesso modo. La matrice associata ad f diventa: 3 2 4 A = 2 3 6 . 1 2 4 Siccome rkA = 2 abbiamo che dim(Imf ) = 2. Sempre dall’Equazione Dimensionale otteniamo: dim(ker f ) = 3 − dim(Imf ) = 3 − 2 = 1.
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI
85
Per determinare una base del nucleo, come prima, imponiamo al generico vettore x di appartenere a ker f . Ponendo Ax = 0, e sviluppando i calcoli, arriviamo al sistema: 3x + 2y + 4z = 0 2x + 3y + 6z = 0 x + 2y + 4z = 0 che ammette la terna (0, −2z, z) come soluzione. Il generico vettore di ker f ha la forma: 0 0 −2z = z −2 = zv, z 1 e {v} `e una base del nucleo.
¥
1.3.17 Sia f l’applicazione lineare associata alla matrice 1 2 1 0 A = 2 −1 1 1 . 5 0 3 2 Determinare una base per Imf ed una per ker f . Svolgimento. Le colonne della matrice associata ad f formano un insieme generatore per Imf . Dobbiamo estrarre da questo una base. Il rango della matrice A ci indica quanti, fra le colonne, sono vettori indipendenti e, siccome il rango viene calcolato tramite un minore non nullo, ci dice anche quali sono questi vettori: quelli che contribuiscono a formare il minore in questione. Si osservi che il minore del secondo ordine individuato dalle prime due righe e colonne `e 6= 0. Proviamo ad orlarlo nei due soli modi possibili, usando il Teorema di Kr¨onecker. Se usiamo la terza colonna e sviluppiamo rispetto all’ultima riga, abbiamo: ¯ ¯ ¯ ¯ ¯ ¯ 1 2 1 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 2 −1 1 ¯ = 5 ¯ 2 1 ¯ + 3 ¯ 1 2 ¯ = ¯ ¯ −1 1 ¯ ¯ ¯ 2 −1 ¯ ¯ 5 0 3 ¯ = 5(2 + 1) + 3(−1 − 4) = 15 − 15 = 0. Usando la quarta colonna e sviluppando rispetto alla prima riga, abbiamo: ¯ ¯ ¯ ¯ 1 2 0 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ 2 −1 1 ¯ = 1 ¯ −1 1 ¯ − 2 ¯ 2 1 ¯ = ¯ 5 2 ¯ ¯ ¯ ¯ 0 2 ¯ ¯ 5 0 2 ¯ = (−2 − 0) − 2(4 − 5) = −2 + 2 = 0. Quindi tutti i minori del terzo, ottenuti da quello di partenza d’ordine 2, sono nulli. Non occorre esaminarne altri, in quanto Kr¨onecker garantisce che rkA = 2. Le colonne che costituiscono il minore sono allora indipendenti e formano una base di Imf : 2 1 B = 2 −1 , 5 0
86
SOLUZIONI DEGLI ESERCIZI e dim(Imf ) = 2. Per quanto riguarda il nucleo di f , determiniamo la forma generale di un vettore ad esso appartenente. Se x = [x, y, z, t]t ∈ ker f , deve essere f (x) = 0. Ma l’immagine di un vettore nell’applicazione f si ottiene moltiplicandolo a sinistra per A. Sviluppando i conti, otteniamo: x 1 2 1 0 x + 2y + z 0 y = 0 2x − y + z + t = Ax = 2 −1 1 1 z 5 0 3 2 5x + 3z + 2t 0 t da cui, uguagliando termine a termine fra i due membri: x + 2y + z = 0 2x − y + z + t = 0 5x + 3z + 2t = 0. Il precedente sistema ammette come soluzione la quaterna (3y−t, y, −5y+t, t), che fornisce il generico vettore di ker f . Tutti e soli i vettori di ker f sono quelli della forma: 3y − t 3y −t y = y + 0 = x= −5y + t −5y t t 0 t
3 −1 1 0 = y −5 + t 1 0 1
=
= yv1 + tv2 . Quindi i vettori v1 e v2 generano ker f . Siccome sono indipendenti (la matrice che li ha come righe o colonne ha rango 2) sono una base di ker f , da cui segue che dim(ker f ) = 2. Un metodo alternativo per determinare la dimensione del nucleo `e quello di utilizzare l’Equazione Dimensionale. Abbiamo precedentemente verificato che dim(Imf ) = 2, quindi da n = dim(ker f ) + dim(Imf ), con n = 4 abbiamo 4 = dim(ker f ) + 2 ⇔ dim(ker f ) = 2. Ovviamente in questo modo possiamo determinare la dimensione del nucleo, ma non una sua base. ¥ 1.3.18 Sia f : R3 → R3 l’applicazione lineare data da x − y + 2z x f y = 2x + 3y − 4z . x − 6y + 10z z
Determinare nucleo ed immagine di f , la loro dimensione ed una loro base.
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI Svolgimento. noniche, `e data da
87
La matrice associata all’applicazione lineare rispetto alle basi ca
1 −1 2 ACC (f ) = 2 3 −4 . 1 6 10 Il determinante `e nullo, mentre il minore ottenuto intersecando le prime due righe con le prime due colonne `e non nullo. Quindi la matrice ha rango 2 e ci`o fornisce la dimensione di Imf . Una base di tale sottospazio `e formata dalle prime due colonne della matrice ACC (f ). Dall’equazione dimensionale 3 = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) = 1. Per ottenere una base del nucleo risolviamo il sistema omogeneo associato alla matrice ACC (f ), cio`e x − y + 2z = 0 2x + 3y − 4z = 0 x − 6y + 10z = 0. Si ottiene 2 x = − z, 5
8 y= z 5
⇒
* −2 + ker f = 8 5 ¥
1.3.19 Sia f : R3 → R2 l’applicazione lineare data da · ¸ x x + y − 3z f y = , ax + (2 − a)y + (a − 4)z z essendo a un parametro reale. 1. Determinare, al variare di a in R, il nucleo, l’immagine, le loro dimensioni ed una loro base. 2. Scrivere, per a = 1, la matrice che rappresenta f rispetto alle basi date da 0 2 1 B1 = 0 , 1 −1 , 1 0 4
½· B2 =
3 5
¸ · ¸¾ 2 , . 6
Svolgimento. (1) La matrice ACC (f ) associata ad f rispetto alle basi canoniche di R3 ed R2 `e data da ¸ · 1 1 −3 C AC (f ) = a 2−a a−4
88
SOLUZIONI DEGLI ESERCIZI La dimensione di Imf corrisponde al rango di tale matrice. Come si verifica facilmente, esso `e 1 se a = 1 mentre `e uguale a 2 per a 6= 1. In entrambi i casi una base dell’immagine di f si ricava considerando colonne indipendenti della matrice. Per esempio abbiamo ½· BImf = ½· BImf =
1 1
¸¾ per a = 1,
¸¾ ¸ · 1 , 2−a
1 a
per a 6= 1.
Dall’equazione dimensionale ricaviamo anche che la dimensione del nucleo `e 2 per a = 1, ed 1 per a 6= 1. Per determinare esplicitamente ker f nel caso a = 1 risolviamo il sistema seguente ½
x + y − 3z = 0 , x + y − 3z = 0
le cui ∞2 soluzioni descrivono il piano di equazione x + y − 3z = 0. Pertanto, in tale caso, una base di ker f si ricava considerando due vettori linearmente indipendenti appartenenti a tale piano, per esempio
Bker f
3 1 = −1 , 0 . 0 1
Per determinare ker f se a 6= 1 dobbiamo risolvere il sistema seguente ½
x + y = 3z ax + (2 − a)y = (4 − a)z.
Abbiamo allora le ∞1 soluzioni date da ·
¸ 3z 1 det (4 − a)z 2 − a · ¸ x= =z 1 1 det a 2−a¸ · 1 3z det a (4 − a)z · ¸ = 2z. y= 1 1 det a 2−a Pertanto, in tale caso, una base di ker f `e data da
Bker f
1 = 2 . 1
(2) Indichiamo con [B1 ] la matrice di passaggio dalla base B1 alla base canonica di R3 , e con [B2 ] la matrice di passaggio dalla base B2 alla base canonica di R2 . Abbiamo allora
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI
−1
[B2 ]
1 = 8
·
6 −2 −5 3
89
¸ ,
e quindi, la matrice richiesta risulta −1 C 2 AB B1 (f ) = [B2 ] AC (f )[B1 ] = · ¸· ¸ 1 0 2 −1 1 6 −2 1 1 −3 0 1 −1 = = 1 1 −3 8 −5 3 1 0 4 − 13 8
1 2
− 11 2
1
− 19 2
¥
1.3.20 Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia P ol3 (R)[x] lo spazio dei polinomi di grado n ≤ 3 in x, a coefficienti reali. Sia f : M2 (R) → P ol3 (R)[x] la seguente applicazione lineare µ· f
a b c d
¸¶ = (a − c + 2d)x3 + (−b + 2d)x2 + (a + b − c)x + a + b − 2c + 2d,
con a, b, c, d ∈ R. 1. Determinare la dimensione di Imf , e scrivere una sua base. 2. Determinare la dimensione di kerf , e scrivere una sua base. Svolgimento. 1. La dimensione dell’immagine di una applicazione lineare `e la caratteristica di una qualsiasi matrice che la rappresenta rispetto a due basi B1 e B2 scelte nello spazio di partenza e di arrivo, rispettivamente. Assumiamo B2 = {E11 , E12 , E21 , E22 } come base di M2 (R), essendo E11 , E12 , E21 , E22 le matrici canoniche fondamentali, cio`e ·
E11
¸ · ¸ · ¸ · ¸ 1 0 0 1 0 0 0 0 = , E12 = , E21 = , E22 = . 0 0 0 0 1 0 0 1
Assumiamo poi B1 = {x3 , x2 , x, 1} come base di P ol3 (R)[x]. Abbiamo allora 1 0 −1 2 0 −1 0 2 2 . AB B1 (f ) = 1 1 −1 0 1 1 −2 2 Osserviamo che R3 = R1 − R2 , cio`e la terza riga `e uguale alla differenza tra le prime 2 due. Pertanto la caratteristica di AB e al massimo 3. Considerando la sottomatrice B1 (f ) ` M = {R1 , R2 , R4 } ∩ {C1 , C2 , C3 }, ottenuta intersecando la prima, seconda e quarta riga con la prima, seconda e terza colonna, abbiamo det M = 1 6= 0, e quindi la caratteristica 2 di AB e esattamente 3, per cui dim(Imf ) = 3. B1 (f ) ` L’immagine `e quindi generata dai polinomi corrispondenti alle colonne C1 , C2 , C3 di 2 AB e B1 (f ), cio`
90
SOLUZIONI DEGLI ESERCIZI
q(x) = x3 + x + 1, r(x) = −x2 + x + 1 s(x) = −x3 − x − 2. Pertanto una base di Imf `e B = {q(x), r(x), s(x)}, ed Imf = {p(x) ∈ P ol3 (R)[x] : p(x) = αq(x) + βr(x) + γs(x), α, β, γ ∈ R}. 2. Dall’equazione dimensionale n = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) = 4−dim(Imf ) = 1. Per determinare una base del nucleo, consideriamo il sistema omogeneo 2 AB B1 (f )x = 0 a − c + 2d = 0 −b + 2d = 0 a+b−c=0 a + b − 2c + 2d = 0 Dalle considerazioni precedentemente svolte possiamo ridurre il sistema a quello formato dalla prima, seconda e quarta equazione, lasciando a, b, c come incognite principali ed assumendo d come parametro. Abbiamo quindi
0 0 2d 2 ⇒ 2d = d 2 d 1
a − c = −2d −b = −2d a + b − 2c = −2d
= dv
Pertanto ker f `e generato dalla matrice corrispondente a v nella proiezione canonica inversa, data da · ¸ 0 2 A= . 2 1 Abbiamo quindi ker f = {dA : d ∈ R}. ¥ 1.3.21 Sia P ol3 (R)[x] lo spazio dei polinomi di grado n ≤ 3 in x, a coefficienti reali. Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia f : P ol3 (R)[x] → M2 (R) la seguente applicazione lineare · 3
2
f (ax + bx + cx + d) =
a + b − c 2a + b − 3c − d a − 2c − d 3a + 2b − 4c − d
con a, b, c, d ∈ R. 1. Determinare la dimensione di Imf , e scrivere una sua base. 2. Determinare la dimensione di kerf , e scrivere una sua base. Svolgimento.
¸ ,
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI 1. La dimensione dell’immagine di una applicazione lineare `e la caratteristica di una qualsiasi matrice che la rappresenta rispetto a due basi B1 e B2 scelte nello spazio di partenza e di arrivo, rispettivamente. Assumiamo B1 = {x3 , x2 , x, 1} come base di P ol3 (R)[x], e B2 = {E11 , E12 , E21 , E22 } come base di M2 (R), essendo E11 , E12 , E21 , E22 le matrici canoniche fondamentali, cio`e ¸ · ¸ · ¸ · ¸ · 1 0 0 1 0 0 0 0 E11 = , E12 = , E21 = , E22 = . 0 0 0 0 1 0 0 1 Abbiamo allora 1 2 2 AB B1 (f ) = 1 3
1 1 0 2
−1 0 −3 −1 . −2 −1 −4 −1
Considerando la sottomatrice M = {R1 , R2 } ∩ {C1 , C2 }, ottenuta intersecando la prima e la seconda riga con la prima e seconda colonna, abbiamo det M = −1 6= 0, e quindi la 2 2 caratteristica di AB e almeno 2. Orlando M in AB B1 (f ) ` B1 (f ) abbiamo le quattro matrici M1 = {R1 , R2 , R3 } ∩ {C1 , C2 , C3 }, M2 = {R1 , R2 , R3 } ∩ {C1 , C2 , C4 }, M3 = {R1 , R2 , R4 } ∩ ` facile vedere che queste matrici {C1 , C2 , C3 } ed M4 = {R1 , R2 , R4 } ∩ {C1 , C2 , C4 }. E 2 hanno tutte determinante nullo. Di conseguenza la caratteristica di AB e 2, per cui B1 (f ) ` dim(Imf ) = 2. L’immagine `e quindi generata dalle matrici corrispondenti alle prime due colonne di 2 AB B1 (f ), date da · ¸ · ¸ 1 2 1 1 A= , B= . 1 3 0 2 Pertanto una base di Imf `e B = {A, B}, ed Imf = {M ∈ M2 (R) : M = αA + βB, α, β ∈ R}. 2. Dall’equazione dimensionale n = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) = 4−dim(Imf ) = 2. Per determinare una base del nucleo, consideriamo il sistema omogeneo 2 AB B1 (f )x = 0 a+b−c=0 2a + b − 3c − d = 0 a − 2c − d = 0 3a + 2b − 4c − d = 0 Dalle considerazioni precedentemente svolte possiamo ridurre il sistema a quello formato dalle prime due equazioni, lasciando a, b come incognite principali ed assumendo c, d come parametri. Abbiamo quindi 2c + d 2 1 ½ −c − d a = 2c + d = c −1 + d −1 = cv1 + dv2 ⇒ b = −c − d c 1 0 d 0 1 Pertanto ker f `e generato dai polinomi corrispondenti a v1 e v2 nella proiezione canonica inversa, dati da p(x) = 2x3 − x2 + x e q(x) = x3 − x2 + 1, rispettivamente. Abbiamo quindi
91
92
SOLUZIONI DEGLI ESERCIZI
ker f = {cp(x) + dq(x) : c, d ∈ R}. ¥
3.2
ESERCIZI CAPITOLO 2 - SOLUZIONI
2.6.1 Sia A ∈ M2 (R). Determinarne gli autovalori, sapendo che det(A − 2I) = 0, det(A − I) = 0. Svolgimento. Le radici del polinomio caratteristico χ(t) = det(A − tI) = 0 sono autovalori. Per ipotesi, questa equazione `e soddisfatta proprio da t1 = 2 e t2 = 1. Essi sono pertanto gli autovalori di A. ¥ 2.6.2 Sia A ∈ M2 (R). Determinarne gli autovalori, sapendo che det(A − 2I) = 1, det(A − I) = −2. Svolgimento. Essendo A una matrice di ordine 2, il suo polinomio caratteristico `e χ(t) = det(A − tI) = t2 + pt + q. Le ipotesi dicono che χ(2) = 1 e χ(1) = −2, ovvero ½ 4 + 2p + q = 1 1 + p + q = −2, da cui p = 0 e √ q = −3. Quindi il polinomio caratteristico di A `e χ(t) = t2 − 3, e le sue radici, t1,2 = ± 3, sono gli autovalori cercati. ¥ 2.6.3 Sia A ∈ M2 (R) non singolare. Determinare gli autovalori della matrice sapendo che det(I − A) = 0 e che det((A−1 (2I − A))) = 0. Svolgimento. Da det(I − A) = 0, segue che λ1 = 1 `e un autovalore. Poich´e 1 det(A−1 ) = 6= 0, per il Teorema di Binet abbiamo: det(A) det((A−1 (2I − A))) = det(A−1 ) · det(2I − A) = 0, ovvero det(2I − A) = 0. Quindi anche λ2 = 2 `e un autovalore.
¥
2.6.4 Sia A ∈ M2 (R). Determinarne gli autovalori, sapendo che det(I − A) = 4 e det(4I − A) = 1. Svolgimento. Essendo A una matrice di ordine 2, il suo polinomio caratteristico ha grado 2, ed `e della forma χ(t) = det(tI − A) = t2 + pt + q. Le ipotesi dicono che χ(1) = 4 e χ(4) = 1, ovvero ½ 16 + 4p + q = 1 1 + p + q = 4, da cui p = −6 e q = 9. Quindi il polinomio caratteristico di A `e χ(t) = t2 − 6t + 9, e la sua radice, t1,2 = 3, di molteplicit`a 2, `e l’autovalore cercato. ¥
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
93
2.6.5 Sia f un endomorfismo dello spazio vettoriale V, tale che f 2 + f = 0. Dimostrare che Specf ⊆ {0, −1}. Svolgimento. Sia λ un autovalore di f . Detto v un suo autovettore, si ha f (v) = λv. Per l’ipotesi su f abbiamo allora: 0 = (f 2 + f )(v) = f 2 (v) + f (v) = λ2 v + λv = (λ2 + λ)v. Essendo v 6= 0, dalla precedente catena di uguaglianze segue λ2 + λ = 0. Pertanto λ ∈ {0, −1}. ¥ 2.6.6 Si consideri la matrice
0 6 0 A = 1 0 1 . 1 0 1
Determinarne autovalori e autovettori e stabilire se A `e diagonalizzabile. Svolgimento. Il polinomio caratteristico di A `e χ(t) = det(A − tI) = t(−t2 + t + 6), le cui radici t1 = 0, t2 = −2 e t3 = 3 sono gli autovalori cercati. Siccome sono distinti, A `e diagonalizzabile. Gli autovettori corrispondenti si determinano derivano dall’equazione AX = tX, dove X = [x, y, z]t . Per t1 = 0, AX = λX diventa 0 6 0 x x 1 0 1 · y = 0 · y , 1 0 1 z z che porta al sistema
ovvero
6y = 0 x+z =0 x+z =0 ½
y=0 x = −z.
1 L’autovettore corrispondente a t1 = 0 `e dunque a 0 , con a 6= 0. Quest’ultima −1 condizione `e essenziale, perch´e un autovettore, per definizione, non pu`o essere nullo. Con −3 2 conti analoghi, per t2 = −2 troviamo b 1 , con b 6= 0 e, per t3 = 3, c 1 , con c 6= 0. 1 1 Una verifica alternativa si pu`o fare ricordando che condizione necessaria e sufficiente per la diagonalizzabilit`a `e avere autovettori indipendenti. Infatti la matrice che ha come colonne i tre autovettori appena trovati ha il determinante diverso da zero, quindi gli autovettori sono linearmente indipendenti. ¥ 2.6.7 Mostrare che la matrice
1 0 −2 A= 3 2 0 0 2 6
94
SOLUZIONI DEGLI ESERCIZI `e diagonalizzabile. In caso affermativo determinare una matrice B diagonale simile ad A e la relativa matrice di passaggio P . Svolgimento. Poich´e χ(t) = −t3 + 9t2 − 20t, si ha t1 = 0, t2 = 4 e t3 = 5 (radici del polinomio χ(t)). Essendo distinti, sono regolari, quindi A `e diagonalizzabile. Le matrici di passaggio hanno come colonne gli autovettori di A. Gli autovettori corrispondenti a t1 , 2 2 1 3 t2 e t3 sono a −3 , b −1 e c 1 , rispettivamente, con a 6= 0, b 6= 0 e c 6= 0. 1 1 2 Una matrice di passaggio `e quindi la seguente: 2 2 1 3 P = −3 −1 1 . 1 1 2 ¥ 2.6.8 Sia A la seguente matrice
−5 0 6 A = k 1 −3 , −9 0 10 essendo k un parametro reale. 1. Determinare lo spettro di A 2. Stabilire i valori di k per i quali A `e diagonalizzabile. 3. Determinare, quando `e possibile, una matrice P tale che P −1 AP sia una matrice diagonale. Svolgimento. (1) Calcoliamo il polinomio caratteristico di A −5 − λ 0 6 k 1−λ −3 = (1 − λ)2 (4 − λ) det(A − λI) = det −9 0 10 − λ ½ det(A − λI) = 0 ⇔ λ =
1 soluzione doppia 4 soluzione semplice
Pertanto abbiamo SpecA = {1, 1, 4}. (2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a degli autovalori. L’autovalore λ = 4 `e semplice, quindi `e regolare per ogni k. Per studiare la regolarit`a di λ = 1, calcoliamo la caratteristica di A − 1 · I −6 0 6 A − 1 · I = k 0 −3 −9 0 9
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
95
La terza riga `e multipla della prima (R3 = 32 R2 ) per ogni k. Se k 6= 3 la caratteristica di A − 1 · I `e uguale a 2, quindi mg (1) = n − r(A − 1 · I) = 3 − 2 = 1 6= ma (1), cio`e la molteplicit`a geometrica mg di 1 `e diversa dalla molteplicit`a algebrica ma di tale autovalore, che, quindi, non `e regolare. Per k = 3 abbiamo invece caratteristica 1, e quindi mg (1) = ma (1) = 2, per cui l’autovalore `e regolare. Di conseguenza, la matrice A ammette autovalori tutti regolari solo per k = 3, e quindi `e diagonalizzabile solo per tale valore del parametro. (3) Una matrice P che diagonalizza A esiste solo per k = 3. In corrispondenza di questo valore del parametro, calcoliamo gli autospazi associati ai due autovalori. −6x + 6z = 0 3x − 3z = 0 λ=1 ⇒ −9x + 9z = 0 Abbiamo pertanto la soluzione x = z, ∀y, e quindi * + 1 0 x E1 = y , x, y ∈ R = 0 , 1 x 1 0
autospazio associato a λ = 1
−9x + 6z = 0 3x − 3y − 3z = 0 λ=4 ⇒ −9x + 6z = 0 Abbiamo pertanto la soluzione x = −2y, z = −3y, e quindi * −2 + −2y E4 = y , y ∈ R = 1 −3y −3
autospazio associato a λ = 4.
Una matrice P che diagonalizza A ha come colonne le basi degli autospazi. 1 0 2 Per esempio P = 0 1 −1 1 0 3 ¥ 2.6.9 Sia A la seguente matrice 1 0 5 A = k − 1 k −5 , −1 0 7
essendo k un parametro reale.
96
SOLUZIONI DEGLI ESERCIZI 1. Determinare, al variare di k in R, lo spettro di A. 2. Studiare, al variare di k in R, la diagonalizzabilit`a della matrice. Svolgimento. (1) Calcoliamo il polinomio caratteristico di A
1−λ 0 5 det(A − λI) = det k − 1 k − λ −5 = (k − λ)(λ − 6)(λ − 2) −1 0 7−λ k 6 det(A − λI) = 0 ⇔ λ = 2 Pertanto abbiamo SpecA = {k, 2, 6}. (2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a degli autovalori. Se k 6= 2, 6 i tre autovalori sono semplici, quindi regolari, ed A `e diagonalizzabile. Se k = 2 abbiamo
−1 0 5 A − 2 · I = 1 0 −5 −1 0 5 La seconda riga `e l’opposta della prima mentre la terza `e uguale alla prima riga. Il rango di A − 2 · I `e quindi uguale ad 1, e di conseguenza la molteplicit`a geometrica di λ = 2 `e mg (2) = 3 − r(A − 2 · I) = 2, uguale alla molteplicit`a algebrica ma di tale autovalore, che, pertanto, `e regolare. Di conseguenza, la matrice `e diagonalizzabile anche per k = 2. Sia ora k = 6. Abbiamo allora
−5 0 5 A − 6 · I = 5 0 −5 −1 0 1 Anche in questo caso il rango `e uguale ad 1, quindi mg (6) = 3 − r(A − 6 · I) = 2, uguale alla molteplicit`a algebrica ma di tale autovalore, che, pertanto, `e regolare. Di conseguenza, la matrice `e diagonalizzabile anche per k = 6. Riassumendo, la matrice `e diagonalizzabile per ogni valore del parametro. ¥ 2.6.10 Sia A la seguente matrice
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
3 0 1 A = −4 a −2 , 2 0 2 essendo a un parametro reale. 1. Determinare lo spettro di A 2. Stabilire i valori del parametro a per i quali A `e diagonalizzabile. Svolgimento. (1) Calcoliamo il polinomio caratteristico di A 3−λ 0 1 det(A − λI) = det −4 a − λ −2 = (a − λ)(λ − 4)(λ − 1) 2 0 2−λ a 1 det(A − λI) = 0 ⇔ λ = 4 Pertanto abbiamo SpecA = {a, 1, 4}. (2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a degli autovalori. Se a 6= 1, 4 i tre autovalori sono semplici, quindi regolari, ed A `e diagonalizzabile. Se a = 1 abbiamo 2 0 1 A − 1 · I = −4 0 −2 2 0 1 La terza colonna `e multipla della prima (C3 = 12 C2 ), mentre la seconda `e nulla. Quindi, il rango di A − 1 · I `e uguale ad 1, e di conseguenza la molteplicit`a geometrica di 1 `e mg (1) = 3 − r(A − 1 · I) = 2, uguale alla molteplicit`a algebrica ma di tale autovalore, che, quindi, `e regolare. Pertanto, la matrice `e diagonalizzabile anche per a = 1. Sia ora a = 4. Abbiamo allora −1 0 1 A − 4 · I = −4 0 −2 2 0 −2 In questo caso il rango `e uguale a 2, quindi mg (4) = 3 − r(A − 4 · I) = 1,
97
98
SOLUZIONI DEGLI ESERCIZI diversa dalla molteplicit`a algebrica ma di tale autovalore, che, quindi, non `e regolare. Pertanto, la matrice non `e diagonalizzabile per a = 4. Riassumendo, la matrice `e diagonalizzabile per ogni valore di a diverso da 4. ¥ 2.6.11 Stabilire se la matrice reale
0 1 A= − 54
1 1 0 1 1 0
`e diagonalizzabile in R. Svolgimento. Calcoliamo gli autovalori di A. Dall’equazione det(A − tI) = t3 − 34 t + 14 = 0, otteniamo t1 = −1 e t2,3 = 12 . Quest’ultimo `e un autovalore doppio. Quindi A `e diagonalizzabile se e solo se 1 2 `e regolare. In questo caso ci`o significa che 1 rk(A − 2 I) = 3 − 2 = 1. Siccome 1 − µ ¶ 1 2 rk A − I = rk 1 2 −5 4
1 −1 2 1
1 1 = 2, − 12
l’autovalore t = 12 non `e regolare e A non `e diagonalizzabile.
¥
2.6.12 Sia A ∈ M2 (R) una matrice tale che det(A) = det(2I − A) = 0. Stabilire se A `e diagonalizzabile. Svolgimento. Poich´e det(A) = 0, λ = 0 `e autovalore di A. Inoltre, da det(A − 2I) = 0, segue che anche λ = 2 `e un autovalore. Siccome A `e una matrice di ordine 2, e possiede due autovalori distinti, tali autovalori risultano semplici e regolari. Quest’ultima `e una condizione necessaria e sufficiente per la diagonalizzabilit`a. ¥ 2.6.13 Determinare i valori del parametro h ∈ R h 0 A = −1 2 1 0
in modo che la matrice 0 h 0
sia diagonalizzabile. Svolgimento.
Determiniamo gli autovalori di A. Dall’equazione det(A − tI) = −t(h − t)(2 − t) = 0,
otteniamo t1 = 0, t2 = 2 e t3 = h. Per h 6= 0, 2, gli autovalori sono distinti, quindi regolari e la matrice `e diagonalizzabile. Nei casi h = 0, oppure h = 2, t1 o t2 sono doppi. Per la diagonalizzabilit`a occorre dunque stabilire la regolarit`a di t1 o t2 , ovvero se rk(A − t1,2 I) = 1.
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI Sia h = 0. Il rango di A−0I `e 2, quindi t = 0 non `e regolare e A non `e diagonalizzabile. Sia h = 2. Il rango di A − 2I `e 1, quindi t = 2 `e regolare e A `e diagonalizzabile. Concludendo, la matrice A `e diagonalizzabile se e solo se h 6= 0. ¥ 2.6.14 Determinare tutti i valori del parametro h ∈ R tali che la matrice 1 0 0 A = 2h 0 0 h 2h 1 sia diagonalizzabile Svolgimento. La matrice A `e triangolare inferiore, quindi i suoi autovalori sono i termini principali, λ1 = 0 e λ2,3 = 1. Per la diagonalizzabilit`a dobbiamo verificare se l’autovalore doppio λ = 1 `e regolare. Questo significa che rk(A − 1 · I) = n − ma (1) = 3 − 2 = 1. Siccome 0 0 0 A − I = 2h −1 0 , h 2h 0 ¯ ¯ ¯ 2h −1 ¯ ¯ = 0, ovvero 4h2 + h = 0. Dunque A `e abbiamo rk(A − I) = 1 se e solo se ¯¯ h 2h ¯ diagonalizzabile se e solo se h = 0 oppure h = − 14 . ¥ 2.6.15 Si considerino le matrici 1 0 −1 A = 1 −1 h , 0 0 1
h −1 0 B = −1 1 h . 0 0 1
` possibile che A e B rappresentino lo stesso endomorfismo (rispetto a basi diverse)? E Svolgimento. Due matrici rappresentano lo stesso endomorfismo se e solo se sono simili. Detti χA (t) = −t3 + t2 + t − 1 e χB (t) = −t3 + (h + 2)t2 − 2ht + h − 1 i polinomi caratteristici di A e B, rispettivamente, affinch´e le due matrici siano simili `e necessario che χA (t) = χB (t). Per il principio d’identit` a dei polinomi, i coefficienti di t di χA (t) e χB (t) devono essere ordinatamente proporzionali. Il rango della matrice · ¸ −1 1 1 −1 C= , −1 h + 2 −2h h − 1 le cui righe sono i coefficienti dei due polinomi, deve essere 1. Il minore costruito con le prime due colonne `e nullo se e solo se h = −1. Per` o questo valore non annulla il minore determinato dalla prima e dall’ultima colonna quindi rk(C) = 2 per ogni valore di h. Le matrici A e B, non essendo mai simili, non possono in alcun caso rappresentare lo stesso endomorfismo. ¥ 2.6.16 Si consideri la matrice
1 0 h A = 0 1 0 , 1 0 1
99
100
SOLUZIONI DEGLI ESERCIZI con h parametro reale. Stabilire se A `e diagonalizzabile per ogni valore di h e se esiste un valore di h tale che A sia ortogonalmente simile ad una matrice diagonale D. 2 Svolgimento. Il polinomio caratteristico √ di A `e χ(t) = (1 − t)(t − 2t + 1 − h). Gli autovalori sono quindi t1 = 1 e t2,3 = 1 ± h. Essendo questi ultimi dipendenti dal parametro h, non `e vero che A `e diagonalizzabile per ogni h. Ad esempio, per h = 0, l’autovalore t = 1 `e triplo, quindi A `e diagonalizzabile se e solo se t = 1 `e regolare, ovvero se rk(A − I) = 0. Ma rk(A − I) = 1. Osserviamo che, per h = 1, la A `e reale e simmetrica, quindi ortogonalmente simile ad una matrice diagonale reale. Non `e detto, per`o, che non esistano altri valori di h che soddisfino le richieste del problema, magari con D complessa. Se A `e diagonalizzabile tramite una matrice di passaggio ortogonale U , significa che esiste una matrice diagonale D tale che A = U t DU . Trasponendo entrambi i membri di quest’ultima uguaglianza, otteniamo ¡ ¢t At = U t Dt U t = U t DU = A.
Quindi, coincidendo con la sua trasposta, A `e simmetrica. Questo accade se e solo se h = 1, che rappresenta quindi l’unico valore che risolve il problema. Si noti che non abbiamo potuto usare le propriet`a delle matrici reali e simmetriche, perch´e nelle ipotesi non viene specificato se la matrice D `e reale o meno. Si `e invece dovuto verificare direttamente che, come conseguenza della diagonalizzabilit`a con matrice di passaggio ortogonale, la A `e simmetrica. ¥ 2.6.17 Si consideri la matrice
h 1 0 0 0 . A= 0 h+1 h 1 Stabilire se esiste un valore del parametro reale h tale che A sia simile ad una matrice reale simmetrica B avente come polinomio caratteristico χB (t) = t3 − 2t2 + t. Svolgimento. Il polinomio caratteristico di B `e χB (t) = t3 − 2t2 + t = t(t2 − 2t + 1) = 0, perci`o gli autovalori sono t1 = 0, t2,3 = 1. Osserviamo che B `e reale e simmetrica, quindi diagonalizzabile. In altre parole, rispetto alla relazione di similitudine, la classe [B] `e formata da tutte e sole le matrici simili a diag(0, 1, 1). Il polinomio caratteristico di A `e χA (t) = det(A − tI) = −t(1 − t)(h − t), e i suoi autovalori sono t1 = 0, t2 = 1 e t3 = h. Quindi `e necessario che h = 1. Se vogliamo che A sia diagonalizzabile, t = 1 dev’essere regolare, ovvero 0 1 0 rk(A − I) = rk 0 −1 0 = 1. 2 1 0 Siccome rk(A − I) = 2, la A non `e diagonalizzabile per h = 1, quindi nemmeno in questo caso pu`o essere simile a B. ¥ 2.6.18 Dimostrare che ogni matrice simile ad una matrice A nilpotente (tale cio`e che Am = O per qualche intero m ∈ N) `e a sua volta nilpotente. Svolgimento.
Supponiamo che B sia simile ad A. Allora esiste una matrice
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
101
invertibile P tale che B = P −1 AP . Quindi B m = (P −1 AP )(P −1 AP ) · · · P −1 AP | {z } m volte
= P −1 A(P P −1 )A · · · (P P −1 )AP = P −1 Am P = P −1 OP = O. Quindi anche B `e nilpotente.
¥
2.6.19 Dimostrare che se P = aU , con U matrice ortogonale, e D `e diagonale, la matrice P DP −1 `e simmetrica. ¡ ¢t Svolgimento. Abbiamo P DP −1 = aU Da−1 U t = U DU t . Essendo U DU t = U DU t , si ha quanto sopra affermato. ¥ 2.6.20 In R3 , si considerino il vettore v = [3, −1, 2]t , ed il sottospazio U generato dai vettori x1 = [1, 4, 1]t ed x2 = [2, −1, 1]t . Determinare la proiezione di v su U e la lunghezza della proiezione di v su U⊥ . Svolgimento. Indichiamo con U la matrice associata al sottospazio U , le cui colonne sono date dai vettori x1 ed x2 . La proiezione di v su U si ottiene moltiplicando il vettore, a sinistra, per la matrice di proiezione PU = U R, essendo R la matrice pseudoinversa di Moore-Penrose di U . Abbiamo quindi t PU = U R = U (U t U )−1 U · ¸ 1 2 ¸ · 1 4 1 18 −1 4 −1 = U tU = 2 −1 1 −1 6 1¸ 1 · 1 6 1 (U t U )−1 = 107 1 18· · ¸· ¸ ¸ 1 1 6 1 1 4 1 8 23 7 t −1 t R = (U U ) U = = 2 −1 1 107 37 −14 19 107 1 18 · ¸ 1 2 82 −5 45 1 1 8 23 7 4 −1 −5 106 9 PU = U R = = 37 −14 19 107 107 1 1 45 9 26 341 82 −5 45 3 107 1 . −5 106 9 −1 = − 103 PU v = 107 107 178 2 45 9 26 107
La lunghezza della proiezione di v su U ⊥ si pu`o ottenere moltiplicando il vettore, a sinistra, per la matrice I − PU . Abbiamo quindi
20 25 5 −45 3 − 107 1 4 5 1 −9 −1 = − 107 (I − PU )v = 107 36 −45 −9 81 2 107 s k(I − PU )vk =
400 + 16 + 1296 4 =√ (107)2 107
102
SOLUZIONI DEGLI ESERCIZI Si noti che v e le sue proiezioni sui sottospazi ortogonali devono verificare il teorema di Pitagora. In effetti abbiamo 16 k(I−PU )vk2 +kPU vk2 = + 107
õ
341 107
¶2
µ +
103 107
¶2
µ +
178 107
¶2 ! =
16 1498 + = 14 = kvk2 . 107 107 ¥
2.6.21 Sia A ∈ M2 (R) una matrice avente autovalori 0, 1 corrispondenti, rispettivamente, agli autovettori x1 = [1, 1]t e x2 = [−1, 1]t . Determinare A. Svolgimento.
Consideriamo la matrice generica · ¸ x y A= . z t
Per ipotesi Axi = λi xi , (i = 1, 2). Procedendo in maniera diretta abbiamo · ¸ · ¸ · ¸ · ¸ · ¸ · ¸ x y 1 0 x y −1 −1 · = , · = , z t 1 0 z t 1 1 da cui
x+y =0 z+t=0 −x + y = −1 −z + t = 1.
1 Risolvendo il sistema otteniamo x = t = 1 2 e y = z = − 2 . In alternativa, si noti che A = P DP −1 , dove P `e la matrice degli autovettori,e D `e la matrice diagonale degli autovalori, per cui ¸ · 1 −1 . P = 1 1 Si ricava
1 A= 2
·
1 −1 −1 1
¸ .
Si noti che A `e simmetrica, in accordo con l’Esercizio 2.6.19.
¥
2.6.22 Dimostrare che una matrice di proiezione `e simmetrica. Svolgimento. Si consideri un sottospazio W di Rn , e sia A la matrice avente come colonne i vettori di una base di W. Sia PA la corrispondente matrice di proiezione. Come `e noto, date due matrici conformabili X, Y risulta (XY )t = Y t X t . Inoltre, se Q `e una matrice quadrata, vale la formula (Qt )−1 = (Q−1 )t . Abbiamo allora PAt = (A(At A)−1 At )t = ¡ ¢t = (At )t (At A)−1 At = ¡ ¢−1 t = A (At A)t A = t −1 t = A(A A) A = PA , per cui PA `e una matrice simmetrica.
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
103
2.6.23 Si considerino le matrici A, B ∈ Mn (R). Siano λA e λB autovalori di A e B, rispettivamente, entrambi associati all’autovettore x. Dimostrare che x `e un autovettore sia di AB che di BA, associato all’autovalore λA λB . Svolgimento. Essendo (x, λA ) e (x, λB ) due coppie autovalore-autovettore per le matrici A e B, rispettivamente, abbiamo Ax = λA x e Bx = λB x. Dobbiamo verificare la validit`a di due uguaglianze analoghe per le matrici AB e BA, ovvero (AB)x = λA λB x (BA)x = λA λB x.
(3.2.1)
Da Ax = λA x, moltiplicando entrambi i membri per λB , otteniamo λB (Ax) = λB (λA x), ovvero A(λB x) = λA λB x. (3.2.2) Essendo Bx = λB x, sostituendo nel primo membro di (3.2.2), otteniamo la prima delle (3.2.1). ¥ 2.6.24 Si considerino le matrici
0 0 0 A = 0 2 0 , h 1 2
1 0 1 B = 0 2 0 . 1 0 1
Verificare che A non `e diagonalizzabile per alcun valore del parametro h ∈ R, e che non `e mai simile a B. Svolgimento. La matrice A `e triangolare inferiore. I suoi autovalori coincidono quindi con i termini principali: λ1 = 0 e λ2,3 = 2. Essendo quest’ultimo un autovalore doppio, la A `e diagonalizzabile se e solo se λ = 1 `e regolare (λ = 0 `e semplice, quindi automaticamente regolare). Nella matrice −2 0 0 A − 2I = 0 0 0 , −h 1 0 ¯ ¯ ¯ −2 0 ¯ ¯ 6= 0, indipendentemente dal valore di h. Quindi rk(A−2I) = abbiamo il minore ¯¯ −h 1 ¯ 2 > 1 e λ = 2 non `e regolare. La matrice A non `e mai diagonalizzabile. Invece B `e reale simmetrica, dunque diagonalizzabile. Non `e pertanto possibile che le due matrici siano simili. ¥ 2.6.25 Si consideri la matrice
h h−1 1 1 2 . A= 0 0 0 2 Determinare gli h ∈ R tali che A non sia diagonalizzabile. Svolgimento. Gli autovalori di A coincidono con i suoi termini principali, in quanto A `e triangolare superiore, e sono λ1 = 1, λ2 = 2 e λ3 = h. Se h 6= 1, 2, i
104
SOLUZIONI DEGLI ESERCIZI tre autovalori sono distinti, quindi regolari, e la A `e diagonalizzabile. Poniamo h = 1. L’autovalore λ = 1, doppio, `e regolare se e solo se rk(A − I) = 1. Siccome questo `e proprio ci`o che accade, anche per h = 1 la A `e diagonalizzabile. Per h = 2, il rango di 0 1 1 A − 2I = 0 −1 2 0 0 0 `e 2, quindi λ = 2 `e un autovalore doppio non regolare. Pertanto A non `e diagonalizzabile solo per h = 2. ¥ 2.6.26 Si considerino le matrici 1 h 0 A = 0 0 h , 0 0 −1
1 0 0 B = 0 0 0 . 0 0 −1
Verificare che A e B sono simili per ogni h ∈ R e stabilire se esistono valori di h per i quali siano ortogonalmente simili. Svolgimento. La matrice A `e triangolare superiore, mentre B `e diagonale, entrambe con gli stessi termini principali, che coincidono con i loro autovalori λ1 = −1, λ2 = 0, e λ3 = 1. Essendo distinti, sono regolari. Quindi A e B, entrambe diagonalizzabili con stessi autovalori, sono simili, il tutto indipendentemente dalla scelta del valore di h. La B `e una matrice diagonale e reale. Affinch´e la A sia ortogonalmente simile a B, dev’essere reale simmetrica. Questo avviene se e solo se h = 0. ¥ 2.6.27 Sia A ∈ M2 (R) tale che (A + I)2 = 2(A + I). Stabilire se A `e diagonalizzabile. Svolgimento.
Per ipotesi (A + I)2 − 2(A + I) = O, quindi (A + I)(A + I − 2I),
ovvero (A + I)(A − I) = O.
(3.2.3)
Per il Teorema di Binet, det(A + I) · det(A − I) = 0. Possono verificarsi tre casi. (i) Se det(A + I) = 0 e det(A − I) 6= 0, esiste la matrice (A − I)−1 . Moltiplicando entrambi i membri della (3.2.3) a destra, otteniamo A + I = O, ovvero A = −I. Perci`o A, essendo scalare, `e diagonale, quindi diagonalizzabile. (ii) Se det(A + I) 6= 0 e det(A − I) = 0, esiste la matrice (A + I)−1 . Moltiplicando la (3.2.3) a sinistra, in entrambi i membri, otteniamo A − I = O, cio`e A = I. Come nel punto (i), A `e diagonalizzabile. (iii) Se det(A + I) = det(A − I) = 0, i numeri λ = ±1 sono gli autovalori di A ed essendo distinti sono regolari. Quindi A `e diagonalizzabile. ¥ 2.6.28 Sia f l’endomorfismo di R3 definito da f ([x, y, z]t ) = [x + y, x + z, y + z]t . Stabilire se f `e diagonalizzabile e calcolarne autovalori e autovettori.
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI Svolgimento.
105
La matrice associata ad f `e:
1 1 0 A = 1 0 1 . 0 1 1 Il polinomio caratteristico `e χf (t) = χA (t) = det(A−tI) = (1−t)(t−2)(t+1) = 0 se e solo se t = −1, 1, 2. Gli autovalori sono semplici, quindi regolari ed f `e diagonalizzabile. Gli autovettori associati a t = −1, t = 1 e t = 2 sono le autosoluzioni dei sistemi AX = tX, con t = −1, 1, 2 e X = [x, y, z]t . Ovvero dei tre sistemi: x x x + y = −x x + z = −y A y = −1 y ⇒ z z y + z = −z,
x x x+y =x x+z =y A y =1 y ⇒ z z y + z = z,
x x x + y = 2x x + z = 2y A y =2 y ⇒ z z y + z = 2z,
le cui soluzioni sono, rispettivamente:
1 a 1 , 1
−1 b 0 , 1
1 c −2 1
con a, b, c ∈ R \ {0}.
¥
2.6.29 Si consideri l’endomorfismo f : R3 → R3 dato da
x 4x − 4z f y = 5x − y − 5z x−z z 1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f . 2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno di essi. 3. Stabilire se esiste una base di R3 rispetto alla quale f `e rappresentato dalla matrice seguente
3 2 15 A= 0 0 6 0 0 −1
106
SOLUZIONI DEGLI ESERCIZI Svolgimento. 1. Determiniamo innanzitutto la matrice caratteristica M = ACC (f ) − λI3 associata all’endomorfismo f 4 0 −4 4−λ 0 −4 −1 − λ −5 . ACC (f ) = 5 −1 −5 ⇒ M = 5 1 0 −1 1 0 −1 − λ Sappiamo che il polinomio caratteristico di f `e χ(λ) = det M . Quindi 4−λ 0 −4 −1 − λ −5 = χ(λ) = det M = det 5 1 0 −1 − λ 2 = (4 − λ)(−1 − λ) + 4(−1 − λ) = (−1 − λ)(λ2 − 3λ) = λ(−1 − λ)(λ − 3).
Lo spettro di f si ottiene determinando le radici del polinomio caratteristico, e quindi semplice 0 −1 semplice χ(λ) = 0 ⇒ λ = ⇒ Specf = {0, −1, 3}. 3 semplice 2. In corrispondenza dell’autovalore λ = 0 abbiamo 4 0 −4 x 0 4x − 4z = 0 5 −1 −5 y = 0 ⇒ 5x − y − 5z = 0 1 0 −1 z 0 x−z =0 λ=0
→
½ ⇒
x=z y = 0.
Pertanto, l’autospazio associato all’autovalore λ = 0 risulta x E0 = ker f = 0 , x ∈ R . x In particolare, dimE0 = 1, ed una base di E0 `e data da 1 B1 = 0 . 1 Per λ = −1 abbiamo 5 0 −4 x 0 5x − 4z = 0 5 0 −5 y = 0 ⇒ 5x − 5z = 0 1 0 0 z 0 x=0 λ = −1
→
Pertanto, l’autospazio associato all’autovalore λ = −1 risulta
⇒ x = z = 0, ∀y.
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
E−1
0 = y , y∈R . 0
In particolare, dimE−1 = 1, ed una sua base `e data da 0 B2 = 1 . 0 Per λ = 3 risulta 1 0 −4 x 0 x − 4z = 0 15 5 −4 −5 y = 0 5x − 4y − 5z = 0 ⇒ x = 4z, y = z. λ=3 → ⇒ 4 1 0 −4 z 0 x − 4z = 0
Pertanto, l’autospazio associato all’autovalore λ = 3 risulta 4z , z∈R . z E3 = 15 4 z In particolare, dimE3 = 1, ed una sua base `e data da 16 B3 = 15 . 4 3. Determiniamo innanzitutto gli autovalori della matrice A. Poich´e A `e una matrice triangolare i suoi autovalori sono gli elementi della diagonale principale, e quindi SpecA = Specf = {0, −1, 3}. Poich´e esistono tre autovalori distinti (cio`e di molteplicit`a algebrica 1), sia la matrice A che la matrice ACC (f ) sono diagonalizzabili, e la matrice diagonale D `e la stessa. Quindi A `e simile ad ACC (f ), e quindi esiste una base rispetto alla quale l’endomorfismo `e rappresentato dalla matrice A. In particolare, dalla transitivit`a della relazione di similitudine tra matrici, si ricava che, se P `e la matrice di passaggio da ACC (f ) a D, e Q `e la matrice di passaggio da A a D, la base rispetto alla quale f `e rappresentato ¥ dalla matrice A `e formata dalle colonne della matrice P Q−1 . 2.6.30 Si stabilisca se le matrici 1 0 0 A= 0 2 0 0 0 2
1 −1 0 B= 0 2 1 0 0 2
rappresentano lo stesso endomorfismo in R3 , rispetto a basi opportune. Svolgimento. Due matrici rappresentano lo stesso endomorfismo rispetto a basi diverse se e solo se sono simili. Siccome A e B sono entrambe triangolari, hanno come autovalori i termini principali, ovvero, per entrambe, lo spettro `e {1, 2}. Poich´e A `e addirittura diagonale, B `e simile ad A se e solo se `e diagonalizzabile. L’autovalore 2 `e
107
108
SOLUZIONI DEGLI ESERCIZI doppio. Siccome rk(B − 2I) = 2, si ha mg (2) + ma (2) = 4, quindi 2 non `e regolare per B. Non essendo diagonalizzabile, non pu`o essere simile ad A. ¥ 2.6.31 Si consideri l’endomorfismo f : R3 → R3 rappresentato, rispetto alla base canonica, dalla seguente matrice
3 0 −2 ACC (f ) = 2 1 −2 0 0 1 1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f . 2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno di essi. 3. Stabilire se ACC (f ) `e simile alla matrice data da 1 0 0 A = 1 1 0 . 2 1 3
Svolgimento. 1. Determiniamo innanzitutto la matrice caratteristica M = ACC (f ) − λI3 associata all’endomorfismo f
3−λ 0 −2 1 − λ −2 . M = 2 0 0 1−λ Sappiamo che il polinomio caratteristico di f `e χ(λ) = det M . Quindi
3−λ 0 −2 1 − λ −2 = (3 − λ)(1 − λ)2 = −λ3 + 5λ2 − 7λ + 3. χ(λ) = det M = det 2 0 0 1−λ Lo spettro di f si ottiene determinando le radici del polinomio caratteristico, e quindi ½ 3 semplice ⇒ Specf = {1, 1, 3}. χ(λ) = 0 ⇒ λ = 1 doppio 2. In corrispondenza dell’autovalore λ = 3 abbiamo 0 0 −2 x 0 −2z = 0 2 −2 −2 y = 0 ⇒ 2x − 2y − 2z = 0 0 0 −2 z 0 −2z = 0 λ=3
→
Pertanto, l’autospazio associato all’autovalore λ = 3 risulta
½ ⇒
z=0 y = x.
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
109
x E3 = x , x ∈ R . 0 In particolare, dimE3 = 1, ed una base di E3 `e data da 1 B1 = 1 . 0 Analogamente, per λ = 1 abbiamo λ=1
→
2 0 −2 x 0 2 0 −2 y = 0 0 0 0 z 0
⇒
2x − 2z = 0 2x − 2z = 0 0=0
⇒
x = z, ∀y.
Pertanto, l’autospazio associato all’autovalore λ = 1 risulta x E1 = y , x, y ∈ R . x In particolare, dimE1 = 2, ed una base di E1 `e data da 0 1 B2 = 0 , 1 . 1 0 3. Poich´e A `e una matrice triangolare i suoi autovalori sono gli elementi della diagonale principale, e quindi SpecA = Specf = {1, 1, 3}. Controlliamo la molteplicit`a geometrica dell’autovalore doppio. Abbiamo allora 0 0 0 λ=1 → A − 1 · I3 = 1 0 0 . 2 1 2 La caratteristica di A − 1 · I3 `e 2, per cui la molteplicit`a geometrica di λ = 1 `e 3 − 2 = 1 < ma (1). Quindi A non `e diagonalizzabile. Invece l’endomorfismo f `e diagonalizzabile, poich´e ogni suo autovalore ha molteplicit`a algebrica uguale alla molteplicit`a geometrica. Di conseguenza le matrici ACC (f ) ed A non sono simili. Infatti, se A fosse simile alla matrice ACC (f ), allora, per la transitivit`a della relazione di similitudine, anche A dovrebbe essere diagonalizzabile. ¥ 2.6.32 Sia A ∈ Mn (R) una matrice avente un unico autovalore t0 . Dimostrare che A `e diagonalizzabile se e solo se A = t0 In . Svolgimento. I Metodo La matrice A `e diagonalizzabile se e solo se esiste una matrice P tale che P −1 AP = t0 In . Moltiplicando a sinistra per P e a destra per P −1 entrambi i membri della precedente uguaglianza, abbiamo A = P (t0 In )P −1 = t0 P In P −1 = t0 In .
110
SOLUZIONI DEGLI ESERCIZI II Metodo Indichiamo con f l’automorfismo di V associato alla matrice A. Essendo Spec(f ) = {t0 } esiste un solo autospazio Vt0 (f ). Allora f `e diagonalizzabile se e solo se V = Vt0 (Teorema Spettrale), ovvero se e solo se f (v) = t0 v per ogni v ∈ V. Quindi A = t0 I n . III Metodo La matrice A `e diagonalizzabile se e solo se t0 `e regolare. Essendo n la sua molteplicit`a algebrica, questo significa che rk(A − t0 In ) = n − ma (t0 ) = n − n = 0. Ma l’unica matrice di rango 0 `e quella nulla, cio`e A − t0 In = O, da cui A = t0 In . ¥ 2.6.33 Si consideri l’endomorfismo fh : R3 → R3 rappresentato dalla matrice
h 0 h Ah = −1 1 h 0 0 1
h ∈ R.
Si stabilisca per quali valori di h fh non `e un automorfismo e per quali i suoi autovalori sono semplici. Si dica se, per h = 1, `e possibile esprimere R3 come somma diretta di autospazi. Determinarli in caso affermativo. Svolgimento. L’applicazione fh `e un automorfismo se e solo se `e invertibile, ovvero se `e invertibile la matrice ad esso associata. Siccome det(Ah ) = h = 0 se e solo se h = 0, per quest’ultimo valore f0 non `e un automorfismo. Gli autovalori di fh sono le radici del polinomio χ(t) = det(Ah − tI) = (1 − t)2 (h − t). Queste sono t1,2 = 1 e t3 = h. Esiste quindi un autovalore doppio indipendentemente dal valore di h. Per h = 1, l’endomorfismo f1 ha un unico autovalore triplo t = 1. Lo spazio R3 si pu`o esprimere come somma di autospazi se e solo se f1 ha gli autovalori regolari (cio`e `e diagonalizzabile). Una matrice con un unico autovalore t `e diagonalizzabile se e solo se `e scalare di tipo tI. In questo caso dovrebbe essere A1 = 1 · I3 = I3 , cosa impossibile (cfr. Esercizio 2.6.32). ¥ 2.6.34 Siano dati i vettori v1 = [6, −2, 0]t , v2 = [0, 1, 1]t , v3 = [2, 4, −4]t , w1 = [1, −1, 0]t , w2 = [0, 2, 2]t , w3 = [1, 1, 0]t di R3 , con h ∈ R. Vedere se esiste un endomorfismo f di R3 tale che f (vi ) = wi per i = 1, 2, 3. Stabilire inoltre quali dei vi sono autovettori di f . Svolgimento. Osserviamo che i vettori v1 , v2 , v3 sono linearmente indipendenti, quindi formano una base di R3 . Dall’algebra lineare sappiamo che esiste un unico endomorfismo f verificante le condizioni assegnate. Per terminare l’esercizio non `e necessario calcolare esplicitamente f . Per definizione di autovettore basta infatti vedere se f (vi ) = λvi per qualche λ 6= 0. Questa condizione vale solo per i = 2, con λ = 2. Perci` o v2 `e un autovettore, mentre v1 e v3 non lo sono. ¥ 2.6.35 Sia f 6= 0 un endomorfismo nilpotente di V. Dimostrare che Spec f = {0}. Svolgimento. Per λ 6= 0, sia v ∈ Vλ (f ): mostriamo che v = 0. Per ipotesi si ha = 0 per qualche m. Allora 0 = f m (v) = λm v. Essendo λm 6= 0, ne segue v = 0. Pertanto l’autospazio relativo a λ 6= 0 si riduce al solo vettore nullo. Lo spettro di f ` ora sufficiente mostrare che 0 `e effettivamente un autovalore. contiene quindi, al pi` u, 0. E m−1 Supponiamo ora che f 6= 0: ci`o non `e restrittivo, basta prendere come m il minimo intero che annulla la corrispondente potenza di f . Il sottospazio W = Im f m−1 non si riduce allora al solo vettore nullo. Inoltre se w ∈ W si ha w = f m−1 (v) per qualche v ∈ V. Allora f (w) = f (f m−1 (v)) = f m (v) = 0, quindi w ∈ ker f : segue W ⊆ ker f . fm
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI
111
Poich´e ker f non `e altro che l’autospazio relativo a 0, ci`o prova che questo non si riduce al vettore nullo. Esistono quindi autovettori relativi a 0, dunque 0 ∈ Spec f = {0}. ¥ 2.6.36 Due matrici A e B di ordine 3 hanno autovettori r = [1, 0, 1]t , s = [1, 1, 1]t e t = [0, 0, 1]t . Verificare che tutte le matrici A, B, AB e BA sono diagonalizzabili. Svolgimento. Condizione necessaria e sufficiente per la diagonalizzabilit`a di una matrice d’ordine n `e avere n autovettori indipendenti. In questo caso dobbiamo verificare che il determinante della matrice P , le cui colonne sono gli autovettori, non sia nullo. Infatti ¯ ¯ ¯ 1 1 0 ¯ ¯ ¯ det(P ) = ¯¯ 0 1 0 ¯¯ = 1 6= 0. ¯ 1 1 1 ¯ Quindi sia A che B sono diagonalizzabili. Con lo stesso ragionamento dell’Esercizio 2.6.23, si dimostra che r, s e t sono autovettori, corrispondenti ai medesimi autovalori, pure per AB e BA. Quindi anche queste matrici sono diagonalizzabili. ¥ 2.6.37 Una matrice reale A di tipo (2, 2) soddisfa le condizioni det(det(A)I − A) = 0,
det(− det(A)I − A) = 0.
Calcolare gli autovalori di A e stabilire se `e diagonalizzabile. Svolgimento. Per ipotesi, i numeri det(A) e − det(A) sono radici del polinomio caratteristico, quindi sono (tutti) gli autovalori di A. Non possono coincidere perch´e A `e invertibile, quindi, essendo distinti, sono regolari ed A `e diagonalizzabile. ¥ 2.6.38 Verificare che ogni matrice quadrata di ordine 2 tale che A2 + I = O `e diagonalizzabile nel campo complesso. Svolgimento.
Dall’ipotesi A2 + I = O , abbiamo (A + i · I)(A − i · I) = O.
(3.2.4)
Quindi, per il Teorema di Binet, det((A + i · I)) · det((Ai · I)) = 0. Consideriamo tre casi. (i) Se det(A + i · I) = 0 e det(A − i · I) 6= 0, allora la matrice A − i · I `e invertibile. Moltiplicando a destra per la sua inversa entrambi i membri della (3.2.4), abbiamo A + i · I = O, quindi A = −i · I `e scalare (quindi diagonalizzabile). (ii) Se det(A+i·I) 6= 0 e det(A−i·I) = 0, la matrice A+i·I `e invertibile. Moltiplicando a sinistra per la sua inversa entrambi i membri della (3.2.4), abbiamo A − i · I = O, quindi A = i · I, matrice scalare, `e diagonalizzabile. (iii) Se det((A + i · I)) = det((A − i · I)) = 0, i numeri λ1 = i e λ2 = −i sono autovalori di A, perch`e radici del polinomio caratteristico, sono regolari, perch´e semplici, quindi A `e diagonalizzabile. ¥ 2.6.39 Determinare i valori di h ∈ R 1 0 A= 0 2 0 3
tali che le due matrici 0 1 3 0 3 , B= 0 5 0 2 0 0 −h
112
SOLUZIONI DEGLI ESERCIZI siano simili. Svolgimento. La matrice B `e triangolare superiore. I suoi termini principali t1 = 1, t2 = 5 e t3 = −h coincidono con gli autovalori. Le radici del polinomio det(A−tI) = (1 − t)(t − 5)(t + 1), ovvero t1 = 1, t2 = −1 e t3 = 5, sono gli autovalori di A. Condizione necessaria affinch´e A e B siano simili `e che abbiano gli stessi autovalori. Questo `e vero se e solo se h = 1. In questo caso entrambe le matrici hanno gli stessi autovalori distinti, quindi regolari. Sono entrambe diagonalizzabili e simili alla stessa matrice diagonale. Quindi sono simili. ¥ 2.6.40 Determinare tutte le matrici che ammettono x1 = [1, 1]t e x2 = [1, −1]t come autovettori. Svolgimento.
Sia
· A=
a b c d
¸
la matrice che ammette x1 e x2 come autovettori. Essendo questi indipendenti A `e diagonalizzabile e la matrice di passaggio ha come colonne x1 e x2 stessi: · ¸ 1 1 P = . 1 −1 Detti λ1 e λ2 gli autovalori rispettivi di x1 e x2 , si ha A = P −1 DP, con D = diag(λ1 , λ2 ), ovvero P A = DP : · ¸ · ¸ a+c b+d λ1 λ1 = . a−c b−d λ2 −λ2
(3.2.5)
Ricordando che TrA = λ1 + λ2 = a + d, dalla (3.2.5), otteniamo a + c = λ1 b + d = λ1 a − c = λ2 b − d = −λ2 a + d = λ1 + λ2 , da cui a = d e b = c. Quindi
· A=
a b b a
¸ .
Il fatto che A sia simmetrica `e in accordo col risultato dell’Esercizio 2.6.19, dato che U = √12 P `e ortogonale. ¥ 2.6.41 Stabilire se le seguenti matrici sono simili: 1 0 1 1 1 −1 B = 0 1 1 . A= 0 1 2 0 0 3 0 0 3
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI Svolgimento. Sono entrambe triangolari superiori, con gli stessi termini principali, quindi con gli stessi autovalori. Esaminiamo la regolarit`a dell’autovalore doppio λ = 1. Per A, rk(A − I) = 1, quindi λ = 1 `e regolare ed A `e diagonalizzabile. Siccome rk(B − I) = 2, l’autovalore λ = 1 non `e regolare per la matrice B, che quindi non `e diagonalizzabile. Essendo una diagonalizzabile, l’altra no, le matrici A e B non possono essere simili. ¥ 2.6.42 Mostrare che le seguenti matrici sono simili · ¸ · ¸ 1 2 1 0 A= , B= 0 1 1 1 e calcolare una matrice di passaggio. Svolgimento. Sono entrambe triangolari, con gli stessi autovalori doppi, coincidenti coi termini principali. Verifichiamo la regolarit`a degli autovalori. Per A, siccome rk(A − I) = 1 6= 0, λ = 1 non `e regolare. Quindi A non `e diagonalizzabile. Lo stesso discorso vale per B. Per stabilire se A e B sono simili, costruiamo direttamente la matrice di passaggio · ¸ a b P = , c d tale che P A = BP . Quest’ultima uguaglianza determina il sistema a=a 2a + b = b c=a+c 2c + d = b + d, da cui a = 0, b = 2c, c = c e d = d. La matrice `e quindi: · ¸ a 2c P = . c d La similitudine si ha se P `e invertibile, ovvero se e solo se det(P ) = 2c2 6= 0, cio`e c 6= 0. ¥
113
Indice analitico Equazione Dimensionale, 17, 76 Teorema Spettrale, 47 Teorema dimensionale, 16 Teorema fondamentale delle applicazioni lineari, 11 applicazione lineare biunivoca, 6 applicazione lineare iniettiva, 6 applicazione lineare suriettiva, 6 applicazione lineare, 5 automorfismi, 6 automorfismo, 75 autospazio, 34, 38 autovalore regolare, 41 autovalore, 34 autovettore, 34 base ortonormale, 55 cambi di base, 22 campo base, 5 codominio, 5 dominio, 5 endomorfismi, 6 endomorfismo diagonalizzabile, 31 endomorfismo semplice, 31 endomorfismo simmetrico, 47 equazione caratteristica, 31 forma lineare, 6 immagine, 7 isomorfismi, 6 isomorfismo canonico, 13 matrice caratteristica, 31 matrice del cambio di base, 22 matrice di passaggio, 29 matrice di proiezione, 63 matrice diagonalizzabile, 31 matrice ortogonale, 49, 54 matrice pseudoinversa di Moore-Penrose, 62 matrici di proiezione, 62 matrici ortogonali speciali, 51, 54 molteplicit` a algebrica, 40
molteplicit` a geometrica, 40 norma, 47, 53 nucleo, 7 omomorfismo, 5 ortonormalizzazione di Gram-Schmidt, 55 polinomio caratteristico di una applicazione lineare, 32 polinomio caratteristico, 31 prodotto scalare, 47 proiezione canonica, 18 similitudine, 29 singolare, 9 sistema ortonormale, 53 sottospazi ortogonali, 54 spettro, 31 trasformazioni ortogonali, 54 versore, 53 versori, 49 vettori normali, 53 vettori ortogonali, 47, 53
View more...
Comments