Sebenta Alga
Short Description
Download Sebenta Alga...
Description
Cap´ıtulo 1 Sistemas de Equa¸ co ˜es Lineares e Matrizes Os sistemas de equa¸c˜oes lineares tem uma grande aplica¸ca˜o a diferentes a´reas, tais como `a Economia, `as Engenharias, `a F´ısica, . . .. De facto, muitos problemas nestas ´areas levam `a necessidade de resolver sistemas de equa¸co˜es lineares com um determinado n´ umero de equa¸c˜oes e inc´ognitas. Salienta-se que existem programas como o Mathematica e o MatLab que permitem resolver eficazmente estes sistemas quando o n´ umero de equa¸co˜es e inc´ognitas ´e bastante elevado. Por esta raz˜ao apresentaremos apenas exemplos de dimens˜ao pequena.
1.1
Generalidades
Defini¸c˜ ao 1.1.1 Uma equa¸c˜ao linear nas inc´ognitas x1 , x2 , . . . , xn ´e uma equa¸c˜ao do tipo a1 x1 + a2 x2 + . . . + an xn = b, (1.1) ´ habitual designar-se b segundo onde a1 , a2 , . . . , an , b s˜ao n´ umeros reais. E membro ou termo independente da equa¸c˜ao (1.1) e a1 , a2 , . . . , an coeficientes das inc´ognitas. Diz-se que o n-´ uplo (α1 , α2 , . . . , αn ) ´e solu¸c˜ao de (1.1) se a1 α1 + a2 α2 + . . . + an αn = b. A conjun¸ca˜o de equa¸co˜es lineares do tipo (1.1) designa-se sistema de equa¸c˜oes lineares. 1
˜ 2 CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES Defini¸c˜ ao 1.1.2 Um sistema constitu´ıdo por m equa¸c˜oes lineares nas n inc´ognitas x1 , x2 , . . . , xn , pode representar-se da seguinte forma: a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 (1.2) .. .. . . a x + a x + ... + a x = b . m1 1 m2 2 mn n m A resolu¸c˜ao de um sistema de equa¸c˜oes lineares consiste em determinar todas as suas solu¸co˜es (caso existam). Deste modo, um sistema de equa¸co˜es lineares diz-se: 1. Poss´ıvel quando tem solu¸c˜ao; 1.i Determinado quando a solu¸c˜ao ´e u ´nica; 1.ii Indeterminado quando tem mais do que uma solu¸ca˜o; Designa-se grau de indetermina¸c˜ao do sistema ao n´ umero de inc´ognitas livres, isto ´e, inc´ognitas que podem tomar valores arbitr´arios. 2. Imposs´ıvel quando n˜ao tem solu¸ca˜o. No caso do sistema de equa¸co˜es lineares (1.2) ser poss´ıvel, o n-´ uplo (α1 , α2 , . . . , αn ) ´e solu¸c˜ao do sistema se as substitui¸co˜es xi = αi ; i = 1, 2, . . . , n, transformam todas as equa¸co˜es do sistema em identidades verdadeiras. Defini¸c˜ ao 1.1.3 Dois sistemas de equa¸c˜oes lineares com o mesmo n´ umero de equa¸c˜oes e de inc´ognitas dizem-se equivalentes se o conjunto solu¸c˜ao for igual. Defini¸c˜ ao 1.1.4 Um sistema de equa¸c˜oes lineares cujos termos independentes s˜ao todos nulos designa-se de sistema homog´eneo. Este tipo de sistema ser´a sempre poss´ıvel, pois possui sempre, pelo menos, a solu¸c˜ao nula. De modo a ilustrar a aplica¸ca˜o do m´etodo de elimina¸c˜ao de Gauss-Jordan na resolu¸c˜ao de sistemas de equa¸c˜oes lineares, introduzir-se-`a alguma terminologia, nomeadamente, tabelas de dupla entrada designadas de matrizes.
1.1. GENERALIDADES
3
As matrizes denotam-se habitualmente por letras mai´ usculas. Alguns exemplos de matrizes s˜ao: A=
2 3 5 1 −3 6
1 4 B = 0 −3 , 2 7
,
1 3 5 C = 1 −3 6 5 8 3
As matrizes consistem de linhas e colunas. Por exemplo, considerando a matriz 2 3 5 A= , 1 −3 6 As linhas s˜ao
2 3 5 , linha 1
1 −3 6 , linha 2
e as colunas s˜ao
2 1 , coluna 1
3 −3 , coluna 2
5 6 . coluna 3
Defini¸c˜ ao 1.1.5 As matrizes consistem em tabelas de dupla entrada, em que a localiza¸c˜ao de um elemento na matriz ´e descrita indicando a linha e a coluna na qual o elemento se encontra. Assim, o elemento que se encontra na linha i, coluna j da matriz A denota-se por aij . Deste modo podemos visualizar uma matriz arbitr´aria m × n do seguinte modo: A=
a11 a21 .. .
a12 a22 .. .
. . . a1n . . . a2n . . . . ..
.
am1 am2 . . . amn Cada uma das m filas horizontais de A designa-se por linha de A enquanto cada uma das n filas verticais se designa por coluna de A. Uma matriz com m linhas e n colunas de n´ umeros reais diz-se uma matriz de ordem ou tipo m × n sobre R.
˜ 4 CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES O conjunto de todas as matrizes do tipo m × n sobre R representa-se por Mm×n . A ordem de uma matriz ´e descrita especificando o n´ umero de linhas e de colunas da matriz. Por exemplo, uma matriz com duas linhas e trˆes colunas diz-se uma matriz de ordem 2 × 3, o primeiro n´ umero indica o n´ umero de linhas e o segundo o n´ umero de colunas. Quando o n´ umero de linhas ´e igual ao n´ umero de colunas (m = n), diz-se que a matriz ´e quadrada e escreve-se A ∈ Mn , caso contr´ario diz-se que a matriz ´e rectangular. No caso ` da matriz ser quadrada, os elementos diagonais de A s˜ao a11 , a22 , . . . , ann . A sequˆencia ordenada constitu´ıda por estes elementos (a11 , a22 , . . . , ann ) chamase diagonal principal de A. A sequˆencia ordenada constitu´ıda pelos elementos (a1n , a2,n−1 , . . .,an1 ) designa-se diagonal secund´aria. Uma matriz composta por uma linha diz-se matriz linha e uma matriz composta por uma coluna diz-se matriz coluna. Por exemplo,
2 1 3 1 −1 0 matriz 2×3 , matriz rectangular
3 1 2 −3 0 1 2 1 −8 matriz 3×3 , matriz quadrada
h
i
5 3 1 matriz 1×3 matriz linha
5 3 1 matriz 3×1 matriz coluna
Continuar-se-´a, agora, o tema inicial desta sec¸ca˜o. Existem duas matrizes associadas a um sistema de equa¸co˜es lineares: a matriz dos coeficientes constitu´ıda pelos coeficientes das vari´aveis do sistema e a matriz ampliada constitu´ıda pela matriz dos coeficientes, juntamente com os termos independentes. A matriz dos coeficientes denota-se habitualmente por A e a matriz ampliada por [A|B]. Por exemplo, a matriz dos coeficientes e a matriz ampliada associada ao sistema de equa¸c˜oes lineares seguinte ´e: 1 −1 2 1 −1 2 1 2 0 2 2 0 2 1 x − y + 2z = 1 1 −3 5 1 −3 5 3 , 2x + 2z =1 x − 3y + 5z = 3. matriz dos coeficientes matriz ampliada respectivamente. As transforma¸co˜es designadas transforma¸c˜oes elementares, aplicam-se ao sistema inicial de modo a obter um sistema mais simples e equivalente ao primeiro. Assim, dado um sistema de equa¸c˜oes lineares, S, obt´em-se um sistema equivalente a S, quando:
1.1. GENERALIDADES
5
1. Se troca a ordem das equa¸co˜es; 2. Se multiplicam ambos os membros de uma dada equa¸ca˜o por uma constante diferente de zero; 3. A uma equa¸c˜ao se soma uma outra, eventualmente multiplicada por uma constante arbitr´aria. As transforma¸c˜oes anteriores podem representar-se simbolicamente do seguinte modo: 1. Ei ↔ Ej ; 2. Ei ← αEi ,
α 6= 0;
3. Ei ← Ei + βEj . A troca da ordem das inc´ognitas permite tamb´em obter sistemas equivalentes entre si. Utilizam-se transforma¸co˜es an´alogas, designadas opera¸c˜oes elementares, na resolu¸ca˜o de sistemas de equa¸c˜oes lineares recorrendo ao m´etodo matricial, nomedadamente 1. Troca entre si de duas linhas da matriz; 2. Multiplica¸c˜ao de uma linha da matriz por um n´ umero diferente de zero; 3. Substitui¸c˜ao de uma linha da matriz pela sua soma com um m´ ultiplo de outra, e podem representar-se simbolicamente da forma seguinte: 1. Li ↔ Lj ; 2. Li ← αLi , α 6= 0; 3. Li ← Li + βLj . Para cada uma das trˆes opera¸co˜es elementares anteriores existem opera¸co˜es an´alogas correspondente a`s colunas, que se podem escrever simbolicamente do seguinte modo:
˜ 6 CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES 1. Ci ↔ Cj ; 2. Ci ← αCi , α 6= 0; 3. Ci ← Ci + βCj . No m´etodo de elimina¸ca˜o de Gauss-Jordan as transforma¸c˜oes elementares s˜ao utilizadas para eliminar de um modo sistem´atico vari´aveis. O objectivo final deste m´etodo ´e o de se obter um sistema cujas solu¸co˜es s˜ao dadas de modo imediato. Ilustrar-se-`a, no exemplo seguinte, o modo de funcionamento deste m´etodo quer atrav´es das equa¸co˜es quer recorrendo `as matrizes. O leitor dever´a observar no modo como as vari´aveis s˜ao eliminadas nas equa¸c˜oes e como isto se processa em termos matriciais onde s˜ao colocados zeros em determinadas posi¸c˜oes. Exemplo. Resolva o sistema de equa¸co˜es x − y + 2z 2x + 2z x − 3y + 5z
lineares =1 =1 = 3.
Solu¸c˜ ao. Pretende-se eliminar os coeficientes de x na 2a e 3a equa¸co˜es, para tal substituem-se estas equa¸co˜es pela sua soma com o produto de −2 e −1 vezes a 1a equa¸ca˜o, respectivamente. No segundo passo para eliminar o coeficiente de y na 3a equa¸ca˜o basta adicionar a esta equa¸ca˜o a 2a equa¸ca˜o. Isto ´e, x −y +2z = 1 x −y +2z = 1 ⇐⇒ 2x +2z = 1 2y −2z = −1 E2 ←E2 −2E1 E ←E −E 3 3 1 x −3y +5z = 3 −2y +3z = 2 x −y +2z = 1 2y −2z = −1 ⇐⇒E3 ←E3 +E2 z = 1. Para obter a solu¸c˜ao do sistema prossegue-se utilizando a substitui¸c˜ao inversa. Assim, o conjunto solu¸ca˜o deste sistema ´e {(− 21 , 12 , 1)}, ou seja, ´e poss´ıvel e determinado. No m´etodo matricial, `a matriz ampliada associada ao sistema, [A|B], efectuam-se as mesmas sequˆencias de opera¸co˜es elementares sobre linhas que
´ ˜ DE GAUSS 1.2. METODO DE ELIMINAC ¸ AO
7
se executaram anteriormente. Neste caso, 1 −1 2 | 1 1 −1 2 | 1 −→ [A|B] = 2 0 2 | 1 L2 ←L2 −2L1 0 2 −2 | −1 L3 ←L3 −L1 1 −3 5 | 3 0 −2 3 | 2 1 −1 2 | 1 −−−−−−−−−→ L3 ← L3 + L2 0 2 −2 | −1 . 0 0 1 | 1 Au ´ltima matriz representa o sistema x −y +2z = 1 2y −2z = −1 z = 1, que pode ser resolvido por substitui¸c˜ao inversa dando origem ao mesmo conjunto solu¸ca˜o j´a anteriormente obtido.
1.2
M´ etodo de elimina¸ c˜ ao de Gauss
Na se¸ca˜o anterior, ilustrou-se o m´etodo de elimina¸ca˜o de Gauss num sistema de equa¸co˜es lineares em que o n´ umero de equa¸c˜oes e inc´ognitas era igual. De seguida, explica-se o funcionamento deste m´etodo no caso geral. Primeiro, introduz-se o conceito de matriz em escada de linha. Defini¸c˜ ao 1.2.1 Diz–se que uma matriz A de ordem Mm×n est´a em forma de escada de linhas se satisfizer as condi¸c˜oes seguintes: 1. Se r < m e a linha r ´e nula, ent˜ao a linha r + 1 tamb´em ´e nula; 2. Se s < m, a linha s ´e n˜ao nula e ast ´e a sua primeira entrada n˜ao nula (designada “pivot”), ent˜ao para todo o j ∈ {1, . . . , t}, as+1j = 0. Assim, uma matriz est´a em forma de escada de linhas se as entradas debaixo do “pivot” s˜ao iguais a zero. Exemplo. A matriz A de ordem 0 0 A= 0 0 0
5×6 1 0 0 0 0
2 0 0 0 0
0 2 4 3 −1 0 0 −1 5 0 0 0 0 0 0
˜ 8 CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES est´a em forma de escada de linhas. No entanto, a matriz B de ordem 4 × 6 0 1 2 0 0 4 0 0 1 1 0 0 B= 0 0 1 0 1 5 0 0 0 0 0 0 n˜ao est´a em forma de escada de linhas. O m´etodo de elimina¸c˜ao de Gauss aplica-se `a matriz ampliada de um dado sistema de equa¸co˜es lineares com o objectivo de a colocar na forma em escada de linhas. Assim, em cada passo do m´etodo identifica-se o “pivot” e eliminam-se os coeficientes dos termos correspondentes que se situam abaixo dele. Na pr´atica usa-se uma variante do m´etodo de elimina¸c˜ao de Gauss que se pode sintetizar no algoritmo seguinte: Para i = 1, . . . , m 1. Seja t o menor elemento de {1, . . . , n}, tal que ait 6= 0 (ait ´e candidato a “pivot” no passo corrente). 2. Seja r o menor elemento de {1, . . . , t − 1} tal que akr 6= 0, k ∈ {i + 1, . . . , m}. i. Caso n˜ao exista este elemento ait ´e o “pivot”; ii. Caso exista este elemento troca-se a k-´esima pela i-´esima equa¸c˜ao e air ´e o “pivot”. 3. Seja l a coluna onde se situa o “pivot”. Para cada s ∈ {i + 1, . . . , m}, substitui-se a s-´esima equa¸c˜ao pela sua soma com o produto de − aaslil pela i-´esima equa¸c˜ao. Ap´os terminar o processo de elimina¸ca˜o de Gauss, a resolu¸c˜ao do sistema prossegue atrav´es da substitui¸ca˜o inversa, isto ´e, substituindo da u ´ltima para a primeira equa¸c˜ao os valores entretanto determinados. Observe-se, no entanto, que na resolu¸ca˜o de sistemas de equa¸co˜es lineares n˜ao ´e poss´ıvel utilizar opera¸co˜es elementares sobre colunas, com excep¸ca˜o da troca de colunas aplicada `a matriz dos coeficientes. No caso de uma matriz n˜ao estar na forma de escada de linhas, a elimina¸ca˜o de Gauss permite obter a partir desta matriz, e efectuando um n´ umero
´ ˜ DE GAUSS 1.2. METODO DE ELIMINAC ¸ AO
9
finito de opera¸c˜oes elementares sobre linhas e/ou colunas, uma nova matriz na forma de escada de linhas. Exemplo.Utilize o m´etodo de elimina¸c˜ao de Gauss para encontrar uma matriz em escada de linha a partir da matriz A. 0 0 0 0 0 0 9 6 −6 3 A= 0 4 5 −3 −4 0 2 2 −2 −2 Solu¸c˜ ao. A
=
→L1 → 1
2
→L3 →L3 −4L1
→L3 →L3 +3L2
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 9 4 2 1 9 4 0 1 0 0 0 1 0 0 0
0 0 0 0 2 2 −2 −2 6 −6 3 →L1 ↔L5 0 9 6 −6 3 0 4 5 −3 −4 5 −3 −4 2 −2 −2 0 0 0 0 0 1 −1 −1 0 1 1 −1 −1 6 −6 3 →L2 →L2 −9L1 0 0 −3 3 12 0 4 5 −3 −4 5 −3 −4 0 0 0 0 0 0 0 0 1 −1 −1 0 1 1 −1 −1 −3 3 12 1 0 →L2 ↔L3 0 0 1 0 0 −3 3 12 1 1 0 0 0 0 0 0 0 0 0 1 −1 −1 1 1 0 . 0 6 12 0 0 0
Aplicando o m´etodo de elimina¸ca˜o de Gauss transformou-se a matriz A numa matriz em escada de linhas.
Exemplo. Resolva o sistema de equa¸co˜es lineares untilizando o m´etodo de elimina¸ca˜o de Gauss: =4 x + 2y − z + 3w 2x + 4y − 2z + 7w = 10 −x − 2y + z − 4w = −6.
˜ 10CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES Solu¸c˜ ao. Aplicando o m´etodo 1 2 −1 3 | 2 4 −2 7 | [A|B] = −1 −2 1 −4 | 1 2 −1 −→ 0 0 0 L1 ←L1 −3L2 L3 ←L3 +L2 0 0 0
de elimina¸ca˜o de Gauss-Jordan, obt´em-se 4 1 2 −1 3 | 4 −→ 10 L2 ←L2 −2L1 0 0 0 1 | 2 L3 ←L3 +L1 −6 0 0 0 −1 | −2 3 | 4 1 | 2 . 0 | 0
Au ´ltima matriz representa o sistema x + 2y − z = −2 w = 2 A primeira equa¸ca˜o pode-se escrever da forma x = −2y + z − 2 e, portanto, a solu¸c˜ao geral ´e x = −2y + z − 2 e w = 2. Este sistema ´e poss´ıvel e indeterminado, por isso para se obterem solu¸c˜oes particulares para este sistema podem obter-se atribuindo a y e z diversos valores.
1.3
Caracter´ıstica de uma matriz
Nesta se¸ca˜o, apresenta-se a no¸c˜ao de caracter´ıstica de uma matriz pois permite classificar um sistema de equa¸c˜oes lineares sem o resolver previamente. Defini¸c˜ ao 1.3.1 A caracter´ıstica de uma matriz A, car(A), de ordem m × n ´e igual ao n´ umero de “pivots” de uma matriz em forma de escada de linhas obtida a partir de A. Sejam A, B, C matrizes de ordem m × n tais que B e C s˜ao matrizes em forma de escada de linhas que se obtˆem de A efectuando um n´ umero finito de opera¸c˜oes elementares. Ent˜ao B e C tˆem a mesma caracter´ıstica.. Teorema 1 (Teorema de Rouch´e) Considere-se um sistema de equa¸c˜oes lineares com coeficientes e termos independentes reais, representado pela matriz ampliada [A|B]. Este sistema ´e poss´ıvel se e s´o se a caracter´ıstica da matriz simples do sistema, A, for igual `a caracter´ıstica da matriz ampliada do sistema [A|B]
1.3. CARACTER´ISTICA DE UMA MATRIZ
11
Deste modo, um sistema diz-se 1. Poss´ıvel Determinado quando car(A) = car(A|B) = n´ umero de inc´ognitas; 2. Poss´ıvel Indeterminado quando car(A) = car(A|B) < n´ umero de inc´ognitas. O grau de indetermina¸ca˜o = n´ umero de inc´ognitas − car(A); 3. Imposs´ıvel quando car(A) < car(A|B). Exemplo. Classifique o sistema seguinte para os diferentes valores reais de k. 3x + 4y + 2z = k 2x + 3y − z = 1 x + y + kz = 2. Solu¸c˜ ao: A matriz ampliada deste sistema ´e
3 4 2 | k 1 1 −→ 2 3 [A|B] = 2 3 −1 | 1 L1 ↔ L3 1 1 k | 2 3 4 1 1 k | 2 −−−−−−−−→ 0 1 −1 − 2k | −3 − L3 ← L3 − L2 0 1 2 − 3k | k − 6
k | 2 −1 | 1 2 | k
−→ L2 ←L2 −2L1 L3 ←L3 −3L1
1 1 k | 2 0 1 −1 − 2k | −3 . 0 0 3−k | k−3
Se k = 3 obt´em-se
1 1 3 | 2 0 1 −7 | −3 . 0 0 0 | 0 Ent˜ao, car(A) = car(A|B) = 2 < 3 =n´ umero de inc´ognitas e o grau de indetermina¸ca˜o ´e igual ao n´ umero de inc´ognitas menos car(A) = 3 − 2 = 1. Logo, o sistema ´e poss´ıvel e indeterminado com grau de indetermina¸c˜ao 1. No caso de k ∈ R\{3}, car(A) = car(A|B) = 3 = n´ umero de inc´ognitas. Como tal, o sistema ´e poss´ıvel e determinado.
˜ 12CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES
1.4
Propriedades alg´ ebricas das matrizes
Defini¸c˜ ao 1.4.1 Duas matrizes C = [cij ] e D = [dij ] dizem-se iguais quando C e D s˜ao matrizes com a mesma ordem satisfazendo cij = dij , para cada i = 1, . . . , m e j = 1, . . . , n. A defini¸ca˜o anterior aplica-se em particular a matrizes do tipo 1 u = [1 2 3] e v = 2 . 3 Apesar de u e v representarem o mesmo ponto em R3 , n˜ao se pode considerar que estas matrizes s˜ao iguais, uma vez que tˆem ordens diferentes. Defini¸c˜ ao 1.4.2 Sejam A, B ∈ Mm×n . A soma de A e B ´e a matriz A + B ∈ Mm×n que se obt´em adicionando as entradas hom´ologas de A e B, i.e., A + B = [aij + bij ] ∈ Mm×n . Exemplo.
1 −1 x 0 −2 1 1 −3 x + 1 2 0 1 + 3 1 1 = 5 1 2 . 3 5 y 3 4 1 6 9 y+1
Defini¸c˜ ao 1.4.3 Sejam α um escalar e A = [aij ] ∈ Mm×n . Chama-se produto do escalar α pela matriz A, e denota-se por αA, `a matriz que se obt´em multiplicando todas as entradas de A por α, i.e, αA = [αaij ]. A matriz −A ´e a matriz que se obt´em de A multiplicando cada um dos elementos de A por −1. Assim, se A = [aij ], ent˜ao −A = [−aij ]. Como tal, pode-se definir subtrac¸c˜ao de matrizes em termos da adi¸c˜aoe da multiplica¸c˜ao escalar. Dadas duas matrizes A = [aij ] e B = [bij ] com a mesma ordem, a diferen¸ca entre A e B ´e definida como sendo a matriz A − B = A + (−B). Deste modo, A − B = [aij − bij ].
´ 1.4. PROPRIEDADES ALGEBRICAS DAS MATRIZES
13
Defini¸c˜ ao 1.4.4 Seja A = [aij ] ∈ Mm×n e B = [bij ] ∈ Mn×p . O produto entre A e B, AB, ´e a matriz do tipo m × p cujo elemento (i, j) ´e ai1 b1j + ai2 b2j + · · · + ain bnj . Assim, " n # X AB = aik bkj ∈ Mm×p . k=1
Como se pode constatar pela defini¸ca˜o, o produto da matriz A pela matriz B, AB, apenas est´a definido se o n´ umero de colunas de A for igual ao n´ umero de linhas de B. Neste caso, o n´ umero de linhas da matriz AB ´e igual ao n´ umero de linhas de A e o n´ umero de colunas ´e igual ao n´ umero de colunas de B. Exemplo. Sejam
3 0 1 A = 1 −1 2 2 4 3
e
1 0 B = −1 3 . 2 −2
Ent˜ao
3 × 1 + 0 × (−1) + 1 × 2 3 × 0 + 0 × 3 + 1 × (−2) AB = 1 × 1 + (−1) × (−1) + 2 × 2 1 × 0 + (−1) × 3 + 2 × (−2) 2 × 1 + 4 × (−1) + 3 × 2 2 × 0 + 4 × 3 + 3 × (−2) 5 −2 6 −7 . = 4 6
Considerem-se as matrizes A e B do exemplo anterior. A matriz AB tem ordem 3 × 2, enquanto a matriz BA tem ordem 2 × 3. Assim, pode concluirse que o produto de matrizes n˜ ao goza da propriedade comutativa. No entanto, embora o produto de matrizes n˜ao seja comutativo, h´a matrizes A, B ∈ Mn tais que AB = BA. Neste caso diz-se que A e B comutam. Defini¸c˜ ao 1.4.5 A matriz nula ´e uma matriz em que todas as entradas s˜ao iguais a zero. Uma matriz diz-se triangular superior se todas as entradas abaixo da diagonal principal s˜ao nulas. Uma matriz diz-se triangular inferior se todas as entradas abaixo da diagonal principal s˜ao nulas. Uma matriz
˜ 14CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES diagonal ´e uma matriz quadrada nos quais todos os elementos excepto a diagonal principal s˜ao iguais a zero. A matriz identidade ´e uma matriz diagonal, em que as entradas diagonais s˜ao todas iguais a zero. Assim,
a11 a12 . . . a1n 0 a22 . . . a2n A = .. .. . . .. . . . . 0 0 . . . ann matriz triangular superior
e
0m×n
0 0 .. .
0 ... 0 ... = .. . . . . 0 0 ... matriz nula
a11 0 . . . 0 a21 a22 . . . 0 B = .. .. . . .. . . . . . an1 an2 . . . ann matriz triangular inferior 0 0 .. .
0
a11 0 . . . 0 0 a22 . . . 0 C = .. .. . . . . . .. . 0 0 . . . ann matriz diagonal
0 ... 0 1 ... 0 In = .. . . .. . . . 0 0 ... 1 matriz identidade 1 0 .. .
As matrizes nulas tˆem um papel na teoria das matrizes semelhante ao zero dos n´ umeros reais, enquanto que as matrizes identidades tˆem um pape an´alogo ao n´ umero 1. Estes papeis encontram-se descritos no teorema seguinte. Teorema 2 Seja A ∈ Mm×n e 0m×n a matriz nula de ordem m × n. Seja B ∈ Mn uma matriz quadrada n×n e sejam On e In a matriz nula e a matriz identidade de ordem n × n. Ent˜ao 1. A + 0m×n = 0m×n = 0m×n + A; 2. B0n = 0n B = 0n 3. BIn = In B = B. Teorema 3 Sejam A, B e C matrizes e α e β escalares. Suponhamos que a ordem das matrizes ´e tal que as opera¸c˜oes seguintes podem ser realizadas. De seguida, apresentam-se algumas propriedades para a adi¸c˜ao de matrizes e para o produto escalar 1. A + B = B + A, (propriedade comutativa);
.
´ 1.4. PROPRIEDADES ALGEBRICAS DAS MATRIZES
15
2. (A + B) + C = A + (B + C), (propriedade associativa); 3. A + 0m×n = 0m×n + A = A, (existˆencia de elemento neutro para a adi¸c˜ao); 4. A + (−A) = (−A) + A = 0m×n , (existˆencia de elemento sim´etrico). 5. (αβ)A = α(βA), (propriedade associativa); 6. α(A + B) = αA + αB, (propriedade distributiva); 7. (α + β)A = αA + βA, (propriedade distributiva); 8. 1A = A, (elemento neutro). 9. A0 = 0 e 0A = 0, AIn = Im A = A, (elemento absorvente e elemento neutro, respectivamente); 10. (AB)C = A(BC), (propriedade associativa); 11. A(B+C) = AB+AC, (A+B)C = AC+BC, (propriedade distributiva); 12. α(AB) = (αA)B = A(αB). Considerem-se as matrizes 1 0 0 0 A= , B= , −1 0 1 0
C=
1 0 2 2
e
0
C =
1 0 1 2
.
Ent˜ao, AB =
0 0 0 0
e
AC =
1 0 −1 0
= AC 0 .
Assim, pode concluir-se que 13. AB = 0 n˜ao implica que A = 0 ou B = 0; 14. (AC = AC 0 e A 6= 0) n˜ao implica que C = C 0 . Defini¸c˜ ao 1.4.6 Sejam A ∈ Mn e k ∈ N0 . Define-se potˆencia de expoente k de A da forma: ( In se k = 0 Ak = se k ∈ N. AA . . . A} | {z k vezes
˜ 16CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES Note-se que Ai+j = Ai Aj e Aij = (Ai )j , para i, j ∈ N0 . No entanto, como o produto de matrizes n˜ao ´e comutativo, n˜ao se verifica (AB)i = Ai B i , i ∈ N. Com efeito, para as matrizes 1 2 1 0 A= e B= 1 1 1 0 obt´em-se 2
2
AB =
3 4 2 3
1 2 1 1
1 0 1 0
1 0 1 0
2
e 2
(AB) =
=
7 0 5 0
=
9 0 6 0
.
e, para este exemplo, (AB)2 6= A2 B 2 .
1.5
Matrizes sim´ etricas
Defini¸c˜ ao 1.5.1 Seja A = [aij ] do tipo m × n. A matriz transposta de A ´e a matriz AT = [aji ] ∈ Mn×m . Recorrendo a` defini¸c˜ao anterior, verifica-se que as colunas de AT s˜ao as linhas de A e as linhas s˜ao as colunas de A. Teorema 4 Sejam A e B matrizes de tal forma que as somas e os produtos estejam bem definidos. Ent˜ao, 1. (AT )T = A; 2. (A + B)T = AT + B T ; 3. (αA)T = α AT , para α ∈ R; 4. (AB)T = B T AT ; 5. (Ak )T = (AT )k . Defini¸c˜ ao 1.5.2 Seja A uma matriz quadrada, tal que AT = A, ent˜ao A diz-se sim´etrica. No caso de AT = −A a matriz A diz-se anti-sim´etrica. Se A ´e uma matriz quadrada que satisfaz a condi¸c˜ao AAT = In , ent˜ao diz-se que A ´e ortogonal.
´ 1.5. MATRIZES SIMETRICAS
17
Se A ´e uma matriz sim´etrica, ent˜ao os elementos situados em posi¸co˜es sim´etricas relativamente `a diagonal principal s˜ao iguais. Se A ´e uma matriz anti-sim´etrica, ent˜ao os elementos diagonais da matriz s˜ao iguais a zero e os elementos situados em posi¸c˜oes sim´etricas relativamente a` diagonal principal s˜ao sim´etricos. Exemplo. A transposta de 1 2 −1 A= 0 3 4 ´e
1 0 AT = 2 3 . −1 4 A matriz
3 2 5 B= 2 1 7 5 7 9
´e sim´etrica, isto ´e, B = B T e a matriz 0 2 5 C = −2 0 7 −5 −7 0 ´e anti-sim´etrica, ou seja, C = −C T . Introduz-se, de seguida, um n´ umero que se associa a toda a matriz quadrada designado de tra¸co da matriz . Defini¸c˜ ao 1.5.3 Seja A ∈ Mn . O tra¸co de A, denotado de Tr (A), ´e a soma dos elementos da diagonal principal de A, isto ´e, Tr (A) = a11 + a22 + . . . + ann Exemplo: Determine o tra¸co da matriz 4 1 −2 A = 2 −5 6 . 7 3 0
˜ 18CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES Solu¸ca˜o. Obt´em-se Tr (A) = 4 + (−5) + 0 = −1. O tra¸co de matriz desempenha um papel muito importante na teoria das matrizes por causa das suas propriedades muito simples. Este conceito ´e utilizado em a´reas tais como a mecˆanica estat´ıstica, na relatividade geral na mecˆanica quˆantica, uma vez que tem um significado f´ısico. No teorema seguinte apresentam-se alguns resultados sobre o tra¸co. Teorema 5 Sejam A, C matrizes e c um escalar. Suponhamos que as matrizes tˆem ordem que permitem as opera¸c˜oes seguintes: (a) Tr (A + B) = Tr (A) + Tr (B) (b) Tr (AB) = Tr (BA) (c) Tr (cA) = cTr (A) (d) Tr (AT ) = Tr (A) Demonstra¸c˜ ao. Prova-se apenas a al´ınea (a), as demonstra¸ca˜o das restantes al´ıneas s˜ao deixadas a cargo do leitor. Como os elementos da diagonal principal de A + B s˜ao (a11 + b11 ), (a22 + b22 ), . . . , (a22 + b22 ), obt´em-se Tr (A + B) = (a11 + b11 ) + (a22 + b22 ) + . . . + (ann + bnn ) = (a11 + a22 + . . . + ann ) + (b11 + b22 + . . . + bnn ) = Tr (A) + Tr (B).
Para finalizar esta se¸ca˜o, abordar-se-´a o tema sobre matrizes com entradas complexas. Um n´ umero complexo ´e um n´ umero da forma z = a + b i. onde √ a, b s˜ao n´ umeros reais e i = −1. a designa-se parte real e b designa-se parte imagin´aria de z. O conjunto constitu´ıdo pelos n´ umeros complexos denota-se por C Descrevem-se de seguida, a regras da aritm´etica para n´ umeros complexos. Sejam z1 = a + b i e z2 = c + d i n´ umeros complexos. Ent˜ao 1. z1 = z2 se e s´o se a = c e b = d; 2. z1 + z2 = (a + c) + (b + d) i
´ 1.5. MATRIZES SIMETRICAS
19
3. z1 − z2 = (a − c) + (b − d) i 4. z1 z2 = (a + b i)(c + d i) = a(c + d i) + b i(c + d i) = ac + ad i + bc i + bdi2 = ac + bdi2 + (ad + bc) i = (ac − bd) + (ad + bc) i O conjugado de um n´ umero complexo z = a + b i define-se e denota-se por z = a − b i. Exemplo. Considere os n´ umeros complexos z1 = 2 + 3 i e z2 = 1 − 2 i. Calcule z1 + z2 , z1 z2 e z1 . Solu¸ca˜o. Usando as defini¸co˜es anteriores, obt´em-se z1 + z2 = (2 + 3 i) + (1 − 2 i) = (2 + 1) + (3 − 2) i = 3 + i z1 z2 = (2 + 3 i)(1 − 2 i) = 2(1 − 2 i) + 3 i(1 − 2 i) = 2 − 4 i + 3 i − 6 i2 = 8 − i z1 = 2 − 3 i
As opera¸c˜oes matriciais em matrizes com entradas complexas s˜ao exactamente iguais ao caso de matrizes com entradas reais, Exemplo. Sejam 2 + i 3 − 2i 3 2i A= eB= . 4 5i 1 + i 2 + 3i Calcule A + B, 2A e AB. Solu¸ca˜o. Obt´em-se 2 + i 3 − 2i 3 2i A+B = + 4 5i 1 + i 2 + 3i 2 + i + 3 3 − 2i + 2i 5+ i 3 = = 4 + 1 + i 5i + 2 + 3i 5+ i 2+8
2A = 2
2 + i 3 − 2i 4 5i
=
4 + 2i 6 − 4i 8 10 i
˜ 20CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES
AB =
2 + i 3 − 2i 4 5i
3 2i 1 + i 2 + 3i
3(2 + i) + (3 − 2 i)(1 + i) (2 + i)(2 i) + (3 − 2 i)(2 + 3 i) = 4 × 3 + (5 i)(1 + i) 4(2 i) + (5 i)(2 + 3 i) 11 + 4 i 10 + 9 i = . 7 + 5 i −15 + 8 i
A conjugada da matriz A denota-se por A e obt´em-se de A fazendo a conjugada de cada uma das entradas de A. A matriz transconjugada de A T 2 + 3 i 1 − 4 i escreve-se e define-se por A∗ = A . Por exemplo, se A = , 6 7i ent˜ao T 2 − 3i 1 + 4i 2 − 3i 6 ∗ A= e A =A = . 6 −7 i 1 + 4 i −7 i ∗ Uma matriz quadrada diz-se herm´ıtica se A = A. 2 3 − 4i Por exemplo, a matriz C = ´e herm´ıtica. De facto, 3 + 4 i −7 i
C=
2 3 + 4i 3 − 4i 6
e
∗
T
C =C =
2 3 − 4i 3 + 4 i −7 i
= C.
As propriedades da transconjugada s˜ao semelhantes a`s propriedades da transposta, como se pode constatar no teorema que se segue. Teorema 6 Sejam A, B matrizes com entradas complexas e seja z um n´ umero complexo. Ent˜ao (a) (A + B)∗ = A∗ + B ∗ ; (b) (z A)∗ = z A∗ ; (c) (AB)∗ = B ∗ A∗ (d) (A∗ )∗ = A
1.6. INVERSA DE UMA MATRIZ
1.6
21
Inversa de uma matriz
Dado um escalar n˜ao nulo α, ent˜ao para cada escalar β a equa¸c˜ao αx = β tem uma u ´nica solu¸ca˜o dada por x = α−1 β. Ser´a poss´ıvel efectuar um racioc´ınio semelhante no caso dos sistemas de equa¸co˜es lineares da forma AX = B, isto ´e, ser´a poss´ıvel encontrar uma matriz “A−1 ” de modo que X = A−1 B? A resposta a esta quest˜ao ´e afirmativa no caso da matriz A ser quadrada. Defini¸c˜ ao 1.6.1 Seja A uma matriz quadrada de ordem n. Diz-se que A ´e invert´ıvel (ou regular ou n˜ao singular) se existir uma matriz quadrada B de ordem n, tal que AB = BA = In . Note-se que existe apenas uma matriz quadrada B satisfazendo as igualdades anteriores. A matriz B denomina-se inversa da matriz A e denota-se por A−1 . Teorema 7 Sejam A, B ∈ Mn invert´ıveis. Ent˜ao 1. AB ´e invert´ıvel e (AB)−1 = B −1 A−1 ; −1 −1 −1 2. Ak ´e invert´ıvel e (Ak )−1 = A | A {z. . . A }, k ∈ N; k vezes
3. AT ´e invert´ıvel e (AT )−1 = (A−1 )T ; 4. A−1 ´e invert´ıvel e (A−1 )−1 = A; 5. (αA)−1 = α1 A−1 , α 6= 0; 6. In−1 = In . Demonstra¸c˜ ao: 1. Note-se que B −1 A−1 ´e inversa de AB se e s´o se (AB)(B −1 A−1 ) = (B −1 A−1 )(AB) = In . Dado que as matrizes A e B s˜ao invert´ıveis e que o produto de matrizes ´e associativo, vem (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In e (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = B −1 B = In .
˜ 22CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES 2. Uma vez que (A−1 )m ´e inversa de Am se e s´o se Am (A−1 )m = (A−1 )m Am = In e que A ´e invert´ıvel e o produto de matrizes ´e associativo, tem-se Am (A−1 )m = (A . . . AAA) (A−1 A−1 A−1 . . . A−1 ) | {z }| {z } m vezes m vezes = (A . . . AA)(AA−1 ) (A−1 A−1 . . . A−1 ) {z } | | {z } m−1 vezes m−1 vezes = (A . . . AA) In (A−1 A−1 . . . A−1 ) | {z } | {z } m−1 vezes m−1 vezes = (A . . . AA) (A−1 A−1 . . . A−1 ) {z } | {z } | m−1 vezes m−1 vezes = ··· = In . 3. Dado que (A−1 )T ´e inversa de AT se e s´o se (A−1 )T AT = (AT A−1 )T = In e que A ´e invert´ıvel e o produto de matrizes ´e associativo, tem-se (A−1 )T AT = (A A−1 )T = In e (AT A−1 )T = (A−1 A)T = In . As demonstra¸co˜es de 4. e 5. s˜ao an´alogas `as anteriores e deixam-se a cargo do leitor. A demonstra¸ca˜o de 6. ´e imediata. Defini¸c˜ ao 1.6.2 Uma matriz A ´e ortogonal se e s´o se a sua inversa coincidir com a sua transposta, i.e., A−1 = AT . Seja A ∈ Mn uma matriz invert´ıvel. A matriz inversa de A pode ser determinada usando o algoritmo de Gauss-Jordan, que consiste nos seguintes passos: 1. Aplicar a` matriz [A|In ], de ordem n × 2n, o m´etodo de elimina¸ca˜o de Gauss descendente. 2. Quando a matriz estiver na forma de escada, se o n´ umero de linhas n˜ao nulas for menor que n, ent˜ao a matriz A n˜ao ´e invert´ıvel. Caso contr´ario,
1.6. INVERSA DE UMA MATRIZ
23
2.i come¸cando pela u ´ltima linha e utilizando opera¸co˜es elementares, anulam-se os elementos que se encontram acima da diagonal principal da matriz a` esquerda. 2.ii Depois de transformada a matriz a` esquerda na forma diagonal dividem-se todas as linhas pelos respectivos elementos diagonais da matriz a` esquerda. No final deste processo obt´em-se a matriz [I|A−1 ]. A partir do m´etodo anterior, pode-se concluir que A ∈ Mn ´e invert´ıvel se e s´o se a sua caracter´ıstica ´e igual a n. Exemplo. Averig´ ue se a seguinte matriz ´e invert´ıvel e em caso afirmativo determine a sua inversa. 1 1 4 A = 2 5 4 . 1 4 −2 Solu¸c˜ ao. Come¸ca-se por aplicar dente `a matriz 1 [A|I] = 2 1
o m´etodo de elimina¸ca˜o de Gauss descen 1 4 | 1 0 0 5 4 | 0 1 0 . 4 −2 | 0 0 1
O primeiro passo consiste em adicionar `a segunda e `a terceira linhas de [A|I] a primeira linha multiplicada por −2 e −1, respectivamente. Na matriz obtida adiciona-se `a terceira linha a segunda multiplicada por −1: 1 1 4 | 1 0 0 1 1 4 | 1 0 0 −→ [A|I] = 2 5 4 | 0 1 0 L2 ←L2 −2L1 0 3 −4 | −2 1 0 L3 ←L3 −L1 1 4 −2 | 0 0 1 0 3 −6 | −1 0 1 1 1 4 | 1 0 0 −→ 0 3 −4 | −2 1 0 . L3 ← L3 − L2 0 0 −2 | 1 −1 1 Como se pode observar a matriz A ´e invert´ıvel, dado que o n´ umero de linhas n˜ao nulas da matriz em escada a` esquerda ´e 3. Inicia-se, agora, a elimina¸ca˜o de Gauss ascendente. Usa-se o elemento −2 que se encontra na posi¸ca˜o (3, 3) para anular os restantes elementos da terceira coluna (adiciona-se `a segunda e primeira linhas a terceira multiplicada por −2 e 2, respectivamente). Na
˜ 24CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES nova − 13 : 1 0 0
matriz obtida, adiciona-se a` primeira linha a segunda multiplicada por 1 0 | 3 −2 2 1 0 0 | 13 −3 38 3 −→ 0 3 0 | −4 3 −2 . 3 0 | −4 3 −2 L1 ← L1 − 13 L2 0 −2 | 1 −1 1 0 0 −2 | 1 −1 1
Do lado esquerdo obteve-se uma matriz diagonal. Resta dividir a segunda linha por 3 e a terceira por −2: −3 83 1 0 0 | 13 3 [I|A−1 ] = 0 1 0 | − 34 1 − 23 . 0 0 1 | − 21 12 − 21 Conclu´ı-se que A ´e invert´ıvel e a sua inversa ´e 13 8 −3 3 3 A−1 = − 43 1 − 23 . − 12 21 − 12 Considere o seguinte sistema de equa¸co˜es lineares a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 . .. . a x + a x + ... + a x = b . m1 1 m2 2 mn n m ´ poss´ıvel escrever este sistema usando nota¸ca˜o matricial. E a11 x1 + a12 x2 + . . . + a1n xn b1 a21 x1 + a22 x2 + . . . + a2n xn b2 = .. .. . . am1 x1 + am2 x2 + . . . + amn xn . bm
De facto,
A matriz da esquerda pode ser escrita como o produto da matriz dos coeficientes A e a matriz coluna das vari´aveis. Seja AB a matriz coluna dos termos independentes, isto ´e, A X B a11 a12 . . . a1n x1 b1 a21 a22 . . . a2n x2 = b2 .. .. .. .. .. . . ... . . . am1 am2 . . . amn xn bm
1.6. INVERSA DE UMA MATRIZ
25
Teorema 8 Se A ∈ Mn ´e invert´ıvel, ent˜ao verifica-se facilmente que a solu¸c˜ao do sistema AX = B ´e dada por X = A−1 B. Demonstra¸ca˜o: A invertibilidade de A implica que AX = B seja equivalente a A−1 (AX) = A−1 B o que, conjuntamente com a associatividade do produto matricial, permite escrever a equa¸ca˜o anterior da forma In X = A−1 B, ou seja, X = A−1 B. Exemplo. Seja =1 x + y + 4z 2x + 5y + 4z = 1 x + 4y − 2z = 0. Este sistema pode representar-se matricialmente como AX = B, onde 1 1 4 x 1 A = 2 5 4 , X = y e B = 1 . 1 4 −2 z 0 Pelo exerc´ıcio anterior tem-se −3 83 1 − 23 . A−1 = 1 − 12 2 13 4 −3 38 1 3 3 4 2 −1 1 = − 13 . Assim, o conjunto Logo, X = A B = − 3 1 − 3 − 12 12 − 12 0 0 solu¸ca˜o do sistema ´e {( 34 , − 13 , 0)}.
13 3 − 43 − 12
˜ 26CAP´ITULO 1. SISTEMAS DE EQUAC ¸ OES LINEARES E MATRIZES
7236(&5(7 %\(YHUXVDW
Cap´ıtulo 2 Determinantes e Valores/Vectores Pr´ oprios Como se constatou no Cap´ıtulo 1, nem sempre uma matriz quadrada ´e invert´ıvel. Recorde-se que A ∈ Mn ´e invert´ıvel se e s´o se car(A) = n.
(2.1)
Neste cap´ıtulo, mostra-se que ´e poss´ıvel associar a cada matriz A ∈ Mn um n´ umero, dependendo exclusivamente das entradas da matriz, que permite decidir acerca da invertibilidade de A. Este n´ umero designa-se determinante de A e denota-se por det (A) ou |A|.
2.1
Determinantes - Defini¸ c˜ oes e Propriedades
O caso 1 × 1 ´e trivial. De facto, uma matriz A = [a11 ] ∈ M1 ´e invert´ıvel se e s´o se a11 6= 0, isto ´e, car(A) = 1. Analise-se, agora, o caso 2 × 2. Considere-se a matriz a11 a12 A= a21 a22 e comece-se por supor que a11 6= 0. Assim, # " a a 11 12 −→ a a a11 a12 11 12 a22 a11 − a21 a12 , = A= 0 a22 − aa21 a12 0 a21 a22 L2 → L2 − aa21 L1 11 11 a11 27
´ 28CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS o que, juntamente com (2.1), permite concluir que A ´e invert´ıvel se e s´o se a22 a11 − a21 a12 6= 0. Se a11 = 0, ent˜ao −→ 0 a12 a21 a22 A= a21 a22 L2 ↔ L1 0 a12 e A ´e invert´ıvel quando a21 6= 0 e a12 6= 0, isto ´e quando a21 a12 6= 0. Deste modo, construiu-se, a partir das entradas da matriz, o n´ umero a22 a11 −a21 a12 , que indica se a matriz A ´e ou n˜ao invert´ıvel. Em termos pr´aticos, o determinante de uma matriz de ordem 2, A = [aij ] , pode calcular-se utilizando uma regra, habitualmente designada Regra dos Produtos Cruzados, que consiste em subtrair o produto dos elementos da diagonal secund´aria ao produto dos elementos da diagonal principal, isto ´e, Defini¸c˜ ao 2.1.1 O determinante de uma matriz 2 × 2 denota-se por |A| ou det (A) e ´e dado por a11 a12 a21 a22 = a22 a11 − a21 a12 Exemplo. Considere-se a matriz 1 2 A= ∈ M2 , 3 4 ent˜ao det (A) = 1 × 4 − 3 × 2 = −2. No caso de A ∈ M3 mostra-se, de a11 A = a21 a31
forma semelhante, que a12 a13 a22 a23 a32 a33
´e invert´ıvel se e s´o se a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13 − a11 a32 a23 − a21 a12 a33 6= 0. Tal como no caso 2 × 2, o determinante de uma matriz de ordem 3 pode obter-se usando uma regra pr´atica designada Regra de Sarrus. A utiliza¸c˜ao desta regra pode resumir-se do seguinte modo:
˜ 2.1. DETERMINANTES - DEFINIC ¸ OES E PROPRIEDADES
29
1. Reproduzem-se as duas primeiras linhas, ap´os a terceira linha de A. 2. Considera-se a diagonal principal de A, (a11 , a22 , a33 ), e as sequˆencias (a21 , a32 , a13 ) e (a31 , a12 , a23 ), bem como a diagonal secund´aria, (a31 , a22 , a13 ), e as sequˆencias (a11 , a32 , a23 ) e (a21 , a12 , a33 ). O determinante de A obt´em-se multiplicando os elementos que constituem cada uma das sequˆencias, somando, depois, as parcelas correspondentes `a diagonal principal e a`s duas sequˆencias que lhe est˜ao associadas e subtraindo as parcelas relativas a` diagonal secund´aria e `as outras duas sequˆencias que lhe correspondem. Defini¸c˜ ao a11 |A| = a21 a31
2.1.2 O determinante de uma matriz A ∈ M3 ´e dado por a12 a13 a22 a23 = a11 a22 a33 +a21 a32 a13 +a31 a12 a23 −a31 a22 a13 −a11 a32 a23 −a21 a12 a33 . a32 a33
Exemplo. Seja
1 2 3 A = 4 5 6 ∈ M3 , 1 1 −1 ent˜ao det (A) = 1 × 5 × (−1) + 4 × 1 × 3 + 1 × 2 × 6 − 1 × 5 × 3 − 1 × 1 × 6 − 4 × 2 × (−1) = 6. Apresentam-se de seguida algumas propriedades imediatas associadas ao determinante de uma matriz 2 × 2: 1. Seja A = [aij ] ∈ M2 , ent˜ao det
a11 + a011 a12 + a012 a21 a22
= det
a11 a12 a21 a22
+ det
a011 a012 a21 a22
.
Esta propriedade admite uma vers˜ao an´aloga no caso da soma ocorrer na segunda linha da matriz.
´ 30CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS 2. Seja A = [aij ] ∈ M2 e α ∈ R, ent˜ao α a11 α a12 a11 a12 det = α det . a21 a22 a21 a22 Esta propriedade ainda ´e v´alida no caso de α estar multiplicado pela segunda linha. 3. Seja A = [aij ] ∈ M2 , ent˜ao a11 a12 a21 a22 det = −det . a21 a22 a11 a12 4. det (I2 ) = 1. As propriedades anteriores continuam a ser v´alidas para o caso de matrizes de ordem 3 e as demonstra¸c˜oes deixam-se a cargo do leitor. Defini¸c˜ ao 2.1.3 O determinante de uma matriz A ∈ Mn como sendo a fun¸c˜ao det : Mn → R A ,→ det (A), que a cada matriz quadrada A de ordem n faz corresponder um n´ umero real, det (A), de tal modo que as seguintes condi¸c˜oes sejam satisfeitas: P1. det (L1 , . . . , Li + L0i , . . . , Ln ) = det (L1 , . . . , Li , . . . , Ln )+det (L1 , . . . , L0i , . . . , Ln ) ; P2. det (L1 , . . . , αLi , . . . , Ln ) = α det (L1 , . . . , Li , . . . , Ln ) ; P3. det (L1 , . . . , Li , . . . , Lj , . . . , Ln ) = −det (L1 , . . . , Lj , . . . , Li , . . . , Ln ) ; P4. det (In ) = 1, onde Li representa a i−´esima linha da matriz A. Da Propriedade 1 conclui-se que, em geral, dadas A, B ∈ Mn , det (A + B) 6= det (A) + det (B).
˜ 2.1. DETERMINANTES - DEFINIC ¸ OES E PROPRIEDADES
31
Exemplo. Considerem-se as matrizes de ordem 2 0 0 1 0 A= e B= . 0 0 0 −1 Ent˜ao, A+B =
1 0 0 −1
e det (A + B) = −1.
Como det (A) = det (B) = 0, vem que det (A) + det (B) 6= det (A + B). Teorema 9 O determinante de uma matriz com, pelo menos, duas linhas iguais ´e nulo. O teorema anterior prova-se facilmente recorrendo `a Propriedade 3. De facto, P3. permite concluir que trocando duas linhas iguais o sinal do determinante altera-se, mas, por outro lado, a matriz mant´em-se igual e, como tal, o seu determinante tamb´em se mant´em. Assim, det (A) = −det (A) e, por isso, o determinante ´e nulo. O pr´oximo teorema generaliza o Teorema 9. Teorema 10 Seja A ∈ Mn . Ent˜ao, tem-se: (a) Se existirem na matriz A ∈ Mn duas linhas m´ ultiplas uma da outra, ent˜ao det (A) = 0. Em particular, det (A) = 0 se A tiver uma linha nula. (b) Se a j-´esima linha de A ∈ Mn se escrever da forma Lj = Σnk=1,k6=j αk Lk , sendo αk escalares, ent˜ao det (A) = 0. Demonstra¸c˜ ao: Considere-se que Lk , k = 1, . . . , n, representam as linhas de A e seja Lj = αLi , com α escalar. Aplicando a Propriedade 2 e o Teorema 9, vem det (L1 , . . . , Li , . . . , αLi , . . . , Ln ) = α det (L1 , . . . , Li , . . . , Li , . . . , Ln ) = α 0 = 0. O caso particular de uma linha nula resulta de se considerar Lj = 0Li . Deste modo, provou-se a al´ınea (a).
´ 32CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS Considere-se agora Lj = Σnk=1,k6=j αk Lk . Ent˜ao, aplicando a Propriedade 1 e a al´ınea (a), obt´em-se: ! n n X X det L1 , . . . , Lk , . . . , αk L k , . . . , L n = det (L1 , . . . , Lk , . . . , αk Lk , . . . , Ln ) k=1,k6=j
=
k=1,k6=j n X
0 = 0,
k=1,k6=j
obtendo-se assim a al´ınea (b).
A demonstra¸ca˜o do teorema seguinte ´e trivial, uma vez que as propriedades decorrem imediatamente da defini¸c˜ao de fun¸c˜ao determinante. Teorema 11 Seja A ∈ Mn . Ent˜ao, tem-se: (a) O determinante n˜ao se altera se a uma linha de A for adicionado um m´ ultiplo de outra linha de A. (b) Multiplicando os elementos de n linhas de uma matriz A, pelos escalares n˜ao nulos α1 , . . . , αn , obt´em-se uma matriz B, satisfazendo det (B) = α1 × · · · × αn det (A). (c) O determinante de uma matriz ´e igual ao determinante da sua transposta, isto ´e, det (A) = det (AT ). (d) O determinante de uma matriz triangular A ´e o produto dos elementos da diagonal principal. (e) Se B ∈ Mn , ent˜ao det (AB) = det (A)det (B). Como consequˆencia do Teorema 11 (c), as propriedades apresentadas em termos de linhas de uma matriz, tamb´em, s˜ao v´alidas em termos de colunas. Exemplo. 1. Seja A ∈ Mn . Mostre que det (2A) = 2n det (A).
˜ 2.1. DETERMINANTES - DEFINIC ¸ OES E PROPRIEDADES
33
2. Considere-se A = (L1 , L2 , L3 ), onde Li , i = 1, 2, 3, representam as linhas de A. Sabendo que det (A) = −2, calcule det (B), com B = (−2L1 + 4L2 , 5L3 , 3L2 + L3 ). Solu¸c˜ ao: 1. Considere-se A = (L1 , . . . , Ln ), onde Li , i = 1, . . . , n, representam as linhas de A. Ent˜ao, det (2A) = det (2L1 , 2L2 , . . . , 2Ln ) = 2det (L1 , 2L2 , . . . , 2Ln ) = 22 det (L1 , L2 , . . . , 2Ln ) = . . . = 2n det (L1 , L2 , · · · , Ln ) = 2n det (A). 2. Utilizando a Propriedade 1, tem-se det (B) = det (−2L1 + 4L2 , 5L3 , 3L2 + L3 ) = det (−2L1 + 4L2 , 5L3 , 3L2 ) + det (−2L1 + 4L2 , 5L3 , L3 ) . O segundo determinante ´e nulo, visto que a segunda linha ´e m´ ultipla da terceira. Utilizando novamente a Propriedade 1, obt´em-se det (B) = det (−2L1 + 4L2 , 5L3 , 3L2 ) = det (−2L1 , 5L3 , 3L2 ) + det (4L2 , 5L3 , 3L2 ) . Mais uma vez, o segundo determinante ´e nulo, dado que a primeira linha ´e m´ ultipla da terceira. Logo, utilizando as Propriedades 2 e 3, tem-se det (B) = −2 × 5 × 3 det (L1 , L3 , L2 ) = −30 (−det (L1 , L2 , L3 )) . Dado que det (A) = −2, conclui-se que det (B) = 30 det (A) = −60. ´ sempre poss´ıvel utilizar o algoritmo de elimina¸c˜ao de Gauss para calE cular o determinante de uma matriz A ∈ Mn , transformando-a numa matriz triangular. No entanto, ´e necess´ario n˜ao esquecer que: 1. A troca de linhas (colunas), entre si, altera o sinal do determinante. 2. Multiplicando os elementos de uma linha (coluna) da matriz A por um escalar, n˜ao nulo, α obt´em-se uma matriz B tal que det (B) = α det (A). 3. A soma de uma linha (coluna) com outra multiplicada por um escalar n˜ao altera o valor do determinante.
´ 34CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS Exemplo. 1 2 −1 −1 0 −1 −1 −2 1 2 1 0 1 0 − 0 1 2 0 0 0
−1 1 = 2 −1 L2 →L2 +L1 0 1 L →L +L 4 4 1 2 −1 1 −1 0 1 = − −1 L3 →L3 −L2 0 0 1
1 0 0 0 2 1 0 0
2 −1 1 1 1 0 = 1 −1 2 C3 ↔C4 0 1 0 1 −1 0 1 = −(1 × 1 × 2 × 1) = −2. 2 −2 0 1
Utilizando o procedimento descrito anteriormente, conclui-se, facilmente, que det (A) = 0 se e s´o se a caracter´ıstica da matriz A ∈ Mn ´e inferior a n. Logo, det (A) 6= 0 se e s´o se a caracter´ıstica da matriz A ´e igual a n. Assim, pode dizer-se que: Teorema 12 Seja A ∈ Mn . Ent˜ao A ∈ Mn ´e invert´ıvel se e s´o se det (A) 6= 0. Se uma matriz A ∈ Mn ´e invert´ıvel ent˜ao A A−1 = In . Deste modo, det (A A−1 ) = det (In ) que, pelo Teorema 11 (e), ainda se pode escrever, de forma equivalente, como det (A)det (A−1 ) = 1. Obt´em-se, assim, a propriedade seguinte Teorema 13 Seja A ∈ Mn invert´ıvel . Ent˜ao det (A−1 ) =
1 . det (A)
Considere-se A ∈ Mn . Para cada n ∈ N existe uma u ´nica fun¸ca˜o determinante. De seguida apresenta-se uma f´ormula, definida por recorrˆencia, que permite escrever o determinante de uma matriz de ordem n como combina¸c˜ao linear de determinantes de ordem n − 1. Primeiro introduzem-se os conceitos de menor e complemento alg´ebrico de uma matriz.
˜ 2.1. DETERMINANTES - DEFINIC ¸ OES E PROPRIEDADES
35
Defini¸c˜ ao 2.1.4 Seja Aij a submatriz de A = [aij ] ∈ Mn obtida por supress˜ao da linha i e da coluna j. Chama-se menor e complemento alg´ebrico (co-factor) de ´ındices i e j de A a det(Aij ) e (−1)i+j det(Aij ), respectivamente.
Exemplo.Considere-se
1 2 3 A = 4 5 6 ∈ M3 . 7 8 9 1 2 O menor de ´ındices 2 e 3 de A ´e det (A23 ) = 7 8 2+3 ´ındices 2 e 3 de A ´e (−1) det (A23 ) = 6.
= −6 e o co-factor de
Comece-se, agora, por analisar a f´ormula que permite calcular o determinante no caso de A = [aij ] ∈ M3 . Pela regra de Sarrus, obt´em-se det (A) = a11 a22 a33 +a13 a21 a32 +a31 a12 a23 −(a13 a22 a31 +a11 a23 a32 +a12 a21 a33 ). Agrupando as parcelas que contˆem a11 , as que contˆem a12 e as que contˆem a13 pode escrever-se a express˜ao anterior na forma det (A) = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) ou seja, a a det (A) = a11 22 23 a32 a33
− a12 a21 a23 a31 a33
+ a13 a21 a22 a31 a32
.
Provou-se, assim, que para o caso 3×3 o determinante de A se obt´em multiplicando os elementos da primeira linha de A pelos respectivos complementos alg´ebricos. Mostra-se, facilmente, que se em vez da primeira linha tivesse sido utilizada qualquer uma das outras linhas/colunas de A o resultado seria an´alogo. Esta f´ormula pode ser generalizada para matrizes de ordem n obtendo-se o seguinte resultado, conhecido como Teorema de Laplace:
´ 36CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS Teorema 14 Seja A = [aij ] ∈ Mn . Ent˜ao, o determinante de A ´e igual ` a soma dos produtos dos elementos de uma linha/coluna arbitr´aria de A pelos respectivos complementos alg´ebricos, isto ´e, fixando uma linha, n X det(A) = aij (−1)i+j det(Aij ), i = 1, . . . , n; j=1
ou, fixando uma coluna, det(A) =
n X
aij (−1)i+j det(Aij ), j = 1, . . . , n.
i=1
Esta f´ormula ´e particularmente u ´til se uma das linhas ou das colunas da matriz tiver muitos zeros. Exemplo. Efectuando o da matriz A, obt´em-se 1 1 1 1 1 0 2 1 det (A) = 3 0 1 1 1 1 2 1
desenvolvimento de Laplace ao longo da 2a coluna = 1 × (−1)1+2 det (A12 ) + 0 × (−1)2+2 det (A22 ) +
+ 0 × (−1)3+2 det (A32 ) + 1 × (−1)4+2 det (A42 ) = 1 2 1 1 1 1 = − 3 1 1 + 1 2 1 = −2. 1 2 1 3 1 1 Na pr´atica ´e habitual utilizar-se um m´etodo h´ıbrido para o c´alculo de determinantes, que consiste em aplicar o algoritmo de elimina¸ca˜o de Gauss a uma linha (coluna) que contiver mais zeros, efectuando depois o desenvolvimento de Laplace ao longo dessa linha (coluna). Exemplo. Considerando a opera¸c˜ao elementar que se segue desenvolvimento de Laplace ao longo da 2a coluna, obt´em-se 1 1 1 1 1 1 1 1 1 2 1 0 2 1 =L4 →L4 −L1 1 0 2 1 = 1 × (−1)1+2 3 1 3 0 1 1 3 0 1 1 0 1 1 1 2 1 0 0 1 0
e efectuando o
1 1 0
= −2.
˜ 2.2. ALGUMAS APLICAC ¸ OES DOS DETERMINANTES
2.2
37
Algumas aplica¸ co ˜es dos determinantes
Nesta sec¸c˜ao, apresenta-se algumas aplica¸c˜oes da teoria dos determinantes, nomeadamente ao c´alculo da matriz inversa de uma matriz e `a resolu¸ca˜o de sistemas de equa¸co˜es lineares. Seja A = [aij ] ∈ Mn uma matriz invert´ıvel. A matriz inversa de A pode ser obtida utilizando a teoria dos determinantes. Para tal: 1. Constr´oi-se a matriz dos complementos alg´ebricos ou a matriz dos cofactores de A, Cof(A) = (−1)i+j det (Aij ) ∈ Mn , que se obt´em substituindo cada componente aij da matriz A pelo seu complemento alg´ebrico; 2. Transp˜oe-se a matriz dos complementos alg´ebricos, obtendo-se a matriz adjunta de A, Adj (A), isto ´e, Adj (A) = (Cof (A))T ; 3. A matriz inversa de A obt´em-se multiplicando a matriz adjunta de A por det1(A) , isto ´e, 1 × Adj (A). (2.2) A−1 = det (A) Exemplo. 1. Determine a inversa da matriz 1 −1 0 A = −1 0 1 ∈ M3 . 2 1 1 2. Seja A ∈ Mn invert´ıvel. Mostre que A.Adj (A) = Adj (A).A = det (A).In .
´ 38CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS Solu¸c˜ ao: 1. Como det (A) = −4 6= 0, A ´e invert´ıvel e a matriz adjunta de A ´e dada por T (−1)2 det (A11 ) (−1)3 det (A12 ) (−1)4 det (A13 ) Adj(A) = (Cof(A))T = (−1)3 det (A21 ) (−1)4 det (A22 ) (−1)5 det (A23 ) (−1)4 det (A31 ) (−1)5 det (A32 ) (−1)6 det (A33 ) T 2 0 1 3 −1 1 4 −1 0 (−1) (−1) (−1) 2 1 1 1 2 1 3 −1 0 4 1 0 5 1 −1 = (−1) (−1) (−1) 1 1 2 1 2 1 −1 0 0 −1 5 1 6 1 (−1) (−1) (−1)4 −1 1 −1 0 0 1 T −1 3 −1 −1 1 −1 1 −3 = 3 1 −1 . = 1 −1 −1 −1 −1 −3 −1 Assim, A−1 =
1 4
1 Adj(A) = − 34 det (A) 1 4
− 14 − 14 3 4
1 4 1 4 1 4
.
2. Dado que A ´e invert´ıvel, verifica-se (2.2) e, como tal, Adj(A) = det (A).A−1 . Assim, usando a igualdade anterior e a associatividade do produto matricial, pode escrever-se A.Adj (A) = A. det (A).A−1 = det (A). A.A−1 = det (A).I. Analogamente, Adj (A).A = det (A).A−1 .A = det (A). A−1 .A = det (A).I.
A utiliza¸c˜ao de (2.2) para o c´alculo da inversa ´e por vezes u ´til para alguns tipos especiais de matrizes. No entanto, em geral, n˜ao ´e a melhor escolha como processo de c´alculo da inversa de uma matriz, porque requer, por exemplo, mais c´alculos do que o m´etodo de Gauss-Jordan. Tal como j´a foi referido anteriormente, o determinante de uma matriz A permite decidir se essa matriz ´e ou n˜ao invert´ıvel e, consequentemente, se o
˜ 2.2. ALGUMAS APLICAC ¸ OES DOS DETERMINANTES
39
sistema linear AX = B tem solu¸c˜ao u ´nica. De seguida, apresenta-se uma f´ormula para obter a solu¸ca˜o de um sistema AX = B, no caso de A ∈ Mn ser invert´ıvel. A um sistema nestas condi¸c˜oes d´a-se o nome de sistema de Cramer e a f´ormula utilizada para obter a sua solu¸ca˜o, habitualmente designada por Regra de Cramer, ´e apresentada de seguida.
Teorema 15 Sejam A ∈ Mn e X, B ∈ Mn×1 . Se det (A) 6= 0, ent˜ao o sistema AX = B tem uma u ´nica solu¸c˜ao xi =
|A0i | , i = 1, . . . , n; |A|
sendo A0i a matriz que se obt´em de A substituindo a i-´esima coluna de A pelo vector dos termos independentes B. Demonstra¸c˜ ao: Como det (A) 6= 0 a solu¸ca˜o do sistema AX = B ´e u ´nica e ´e dada por X = A−1 B 1 = Adj(A)B |A| o elemento xi de X ´e dado por 1 [ linha i de Adj(A)] × B |A| b1 b2 1 = [C1i C2i . . . Cni ] .. |A| . bn 1 = (b1 C1i + b2 C2i + . . . + bn Cni ). |A|
xi =
A express˜ao em parentesis ´e a expans˜ao do co-factor de |A0i | em fun¸ca˜o da coluna i. Assim, |A0 | xi = i . |A|
´ 40CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS Exemplo. Considere-se 1 1 A= 1 2 1 2
o sistema definido por 1 x 2 1 , X = y e B = 1 . 3 z 3
Uma vez que det (A) = 2 6= 0, o sistema ´e de Cramer, sendo por isso poss´ıvel e determinado, isto ´e, tendo apenas uma solu¸ca˜o. Assim, usando a regra de Cramer, obt´em-se 1 2 1 1 1 2 2 1 1 1 1 1 1 2 1 1 2 1 1 3 3 1 2 3 3 2 3 = 2, y = = −1 e z = = 1. x= det (A) det (A) det (A) Logo, o conjunto solu¸c˜ao do sistema ´e {(2, −1, 1)}. Note-se que, como o c´alculo de determinantes de matrizes de grandes dimens˜oes ´e moroso, n˜ao se aconselha a utiliza¸c˜ao da Regra de Cramer para resolver sistemas de Cramer com um grande n´ umero de inc´ognitas. Defini¸c˜ ao 2.2.1 Considere-se a matriz A ∈ Mn . Um vector pr´oprio de A ´e um vector X ∈ Rn \{0}, tal que AX = λX, para algum escalar λ. O escalar λ designa-se valor pr´oprio de A e o vector X diz-se vector pr´oprio associado ao valor pr´oprio λ.
Note-se que, embora seja poss´ıvel que um valor pr´oprio seja nulo, o vector nulo nunca poder´a ser vector pr´oprio. Na verdade, A ter um valor pr´oprio nulo significa que A n˜ao ´e invert´ıvel. Para mostrar a veracidade desta afirma¸ca˜o basta notar que se 0 ´e valor pr´oprio de A, ent˜ao o sistema AX = 0 tem mais do que uma solu¸c˜ao (n˜ao ´e um sistema de Cramer). Logo, det (A) = 0 e, como tal, A n˜ao ´e invert´ıvel. Deste modo, os valores pr´oprios de A ∈ Mn s˜ao todos os escalares λ que s˜ao solu¸ca˜o da equa¸ca˜o det (A − λI) = 0.
˜ 2.2. ALGUMAS APLICAC ¸ OES DOS DETERMINANTES
41
A esta equa¸ca˜o d´a-se o nome de equa¸c˜ao caracter´ıstica de A e a det (A − λI) d´a-se o nome de polin´omio caracter´ıstico de A e representa-se por pA (λ). Dado λ uma raiz da equa¸ca˜o caracter´ıstica de A, designa-se de multiplicidade alg´ebrica do valor pr´oprio λ a multiplicidade de λ como raiz da equa¸ca˜o caracter´ıstica de A. Note-se que, o coeficiente do termo de grau n do polin´omio caracter´ıstico de A ´e (−1)n e o termo independente ´e det (A). Assim, pA (λ) = (−1)n λn + an−1 λn−1 + . . . + a1 λ + det (A). Para um dado valor pr´oprio de A, λ, os vectores pr´oprios de A associados a λ s˜ao os vectores que pertencem ao seguinte conjunto VA (λ) = {X ∈ Rn \{0} : (A − λI)X = 0} . Exemplo. Considere-se a matriz 1 −2 A= ∈ M2 . 0 1 O escalar λ ´e valor pr´oprio de A se e s´o se det (A − λI) = 0. Assim, 1 − λ −2 = 0 ⇔ (1 − λ)2 = 0 ⇔ λ = 1. 0 1−λ Como tal, 1 ´e valor p´oprio de A com multiplicidade alg´ebrica 2. O conjunto dos vectores pr´oprios de A associados ao valor pr´oprio 1 ´e VA (1) = X = (x, y) ∈ R2 \{(0, 0)} : (A − I)X = 0 . Como (A − I)X = 0 ⇔
0 −2 0 0
x y
=
0 0
⇔ (y = 0 ∧ x ∈ R),
vem que VA (1) = (x, y) ∈ R2 \{(0, 0)} : y = 0 = {(x, 0) : x ∈ R\{0}} .
Observe-se que a cada valor pr´oprio est´a associado mais do que um vector pr´oprio, mas a cada vector pr´oprio est´a associado um e um s´o valor pr´oprio.
´ 42CAP´ITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS Teorema 16 Seja A ∈ Mn . Ent˜ao: 1. Se X ´e um vector pr´oprio de A associado ao valor pr´oprio λ, ent˜ao αX, α 6= 0, tamb´em ´e vector pr´oprio de A associado a λ. 2. As matrizes A e AT tˆem os mesmos valores pr´oprios. 3. Se A ´e triangular, ent˜ao os seus valores pr´oprios s˜ao os elementos da diagonal principal de A. Demonstra¸c˜ ao: 1. Supondo que X ´e um vector pr´oprio de A associado a λ, vem que A(αX) = α(AX) = α(λX) = λ(αX), X 6= 0. Logo, αX tamb´em ´e vector pr´oprio de A associado ao valor pr´oprio λ. 2. Aplicando o Teorema 11 (c), obt´em-se det (A − λI) = 0 ⇔ det ((A − λI)T ) = 0, que ainda se pode escrever como det (AT − λI) = 0. Assim, as matrizes A e AT tˆem os mesmos valores pr´oprios.
3. Seja A = [aij ] ∈ Mn triangular superior. O escalar λ ´e valor pr´oprio de A se e s´o se det (A − λI) = 0. Assim, a11 − λ a . . . a 12 1n 0 a22 − λ . . . a2n det (A − λI) = 0 ⇐⇒ = 0. .. .. .. .. . . . . 0 0 . . . ann − λ Aplicando o Teorema 11 (d), obt´em-se det (A − λI) = 0 ⇐⇒ (a11 − λ)(a22 − λ) . . . (ann − λ) = 0, que ainda ´e equivalente a λ = a11 ∨ λ = a22 ∨ . . . ∨ λ = ann . Como tal, os valores pr´oprios de A s˜ao os elementos da sua diagonal principal. No caso de A triangular inferior a demonstra¸c˜ao ´e an´aloga.
Cap´ıtulo 3 Espa¸ cos e Subespa¸ cos Vectoriais Denote-se por R3 o espa¸co tridimensional. Neste espa¸co ´e poss´ıvel construir uma correspondˆencia entre pontos e vectores, desde que se considere um determinado ponto, O, como sendo a origem. Com efeito, a qualquer →
ponto P de R3 pode fazer-se corresponder o vector OP , com origem em O e extremidade em P . Neste conjunto, ´e poss´ıvel considerar as opera¸co˜es usuais de adi¸ca˜o entre vectores e multiplica¸ca˜o de um escalar real por um vector. Estas opera¸co˜es satisfazem as propriedades usuais de associatividade, comutatividade, distributividade, existˆencia de oposto, etc. A no¸ca˜o de espa¸co vectorial que se introduz neste cap´ıtulo generaliza este conceito e engloba, por exemplo, espa¸cos vectoriais n-dimensionais, entre outros.
3.1
Defini¸c˜ ao e propriedades
Toda a fun¸ca˜o f : A × A → A, onde A ´e um conjunto, n˜ao vazio, designase opera¸c˜ao bin´aria em A. Alguns exemplos de opera¸co˜es bin´arias s˜ao: a adi¸ca˜o usual de dois n´ umeros reais, visto que ´e uma opera¸ca˜o que transforma o par de n´ umero reais (a, b) no n´ umero real a + b, a multiplica¸ca˜o usual de dois n´ umeros naturais, porque transforma o par de n´ umeros naturais (a, b) no n´ umero natural ab, . . .. Defini¸c˜ ao 3.1.1 Seja K um conjunto no qual estejam definidas duas opera¸c˜oes: uma opera¸c˜ao bin´aria, designada por “adi¸c˜ao” e uma opera¸c˜ao “multiplica¸c˜ao 43
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
44
escalar”, representadas pela simbologia usual. Diz-se que K, com essas opera¸c˜ oes, constitui um corpo se se verificam as condi¸c˜oes seguintes: (a) Propriedades da adi¸c˜ao: (i) K ´e fechado para a adi¸c˜ao 1 ; (ii) Propriedade Comutativa: α + β = β + α, α, β ∈ K; (iii) Propriedade Associativa: (α + β) + γ = α + (β + γ), α, β, γ ∈ K; (iv) Existˆencia de Elemento neutro: ∃0K ∈ K, tal que 0K + α = α, α ∈ K; (v) Existˆencia de oposto: ∀α ∈ K, ∃ − α ∈ K, tal que α + (−α) = 0K ; (b) Propriedades da multiplica¸c˜ao: (i) K ´e fechado para a multiplica¸c˜ao escalar 2 ; (ii) Propriedade Comutativa: α · β = β · α, α, β ∈ K; (iii) Propriedade Associativa: (α · β) · γ = α · (β · γ), α, β, γ ∈ K; (iv) Existˆencia de Elemento neutro: ∃1K ∈ K, tal que 1K · α = α, α ∈ K; (v) Existˆencia de oposto: ∀α ∈ K\{0K }, ∃1/α ∈ K, tal que α·(1/α) = 1K ; (vi) Propriedade distributiva da multiplica¸c˜ao sobre a adi¸c˜ao (α + β) · γ = α · γ + β · γ Entre os exemplos mais habituais de corpos contam-se o conjunto dos n´ umeros reais, R, com as opera¸c˜oes habituais; o conjunto dos n´ umeros racionais, Q, com as opera¸co˜es habituais; o conjunto dos n´ umeros complexos, C, com as opera¸co˜es habituais 3 . 1
Este conceito ser´ a definido a seguir Este conceito ser´ a definido a seguir 3 Os n´ umeros complexos apareceram como uma extens˜ao dos n´ umeros reais, o seu conjunto representa-se por C e define-se como sendo C = {z = a + i b : a, b ∈ R e i2 = −1}. Dados os n´ umeros complexos z = a + b i e z 0 = a0 + i b0 define-se a adi¸c˜ ao como sendo o complexo z + z 0 = (a + a0 ) + i (b + b0 ) e a multiplica¸c˜ ao de um n´ umero complexo z = a + i b por outro n´ umero complexo α = α1 + i α2 , como α · z = (α1 a − α2 b) + (α1 b + α2 a)i. 2
˜ E PROPRIEDADES 3.1. DEFINIC ¸ AO
45
Defini¸c˜ ao 3.1.2 Seja K o corpo dos n´ umeros reais ou dos n´ umeros complexos. Um espa¸co vectorial ´e um conjunto V, n˜ao vazio, satisfazendo certas propriedades (descritas abaixo), e onde est˜ao definidas duas opera¸c˜oes: “adi¸c˜ao” e “multiplica¸c˜ao escalar”, representadas pela simbologia usual e definidas do modo seguinte: + : V ×V −→ V (3.1) (u, v) ,→ u + v e ·: K×V −→ V . (3.2) (α, v) ,→ α · v Diz-se que V ´e fechado para a adi¸c˜ao e fechado para a multiplica¸c˜ao escalar se satisfizer (3.1) e (3.2), respectivamente. Assim, (V, +, ·) ´e um espa¸co vectorial sobre o corpo K se forem v´alidas as seguintes propriedades: (a) Propriedades da adi¸c˜ao: (i) V ´e fechado para a adi¸c˜ao; (ii) Propriedade comutativa: u + v = v + u, u, v ∈ V ; (iii) Propriedade associativa: (u + v) + w = u + (v + w), u, v, w ∈ V ; (iv) Existˆencia de elemento neutro, ∃0V ∈ V , tal que u + 0V = u, u∈V. (v) Existˆencia de oposto: ∀u ∈ V , ∃ − u ∈ V , tal que u + (−u) = 0V ; (b) Propriedades da multiplica¸c˜ao: (i) V ´e fechado para a multiplica¸c˜ao escalar; (ii) α · (u + v) = α · u + α · v, α ∈ K e u, v ∈ V ; (iii) (α + β) · u = α · u + β · u; α, β ∈ K e u ∈ V ; (iv) (α · β) · u = α · (β · u), α, β ∈ K e u ∈ V ; (v) 1K · u = u, u ∈ V , onde 1K ´e o elemento neutro para a multiplica¸c˜ao em K. Os elementos de K s˜ao designados escalares e os elementos de V vectores. Se K = R ou K = C, ent˜ao V diz-se um espa¸co vectorial real ou um espa¸co vectorial complexo, respectivamente. Quando as opera¸co˜es “adi¸c˜ao”
46
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
e “multiplica¸ca˜o escalar” estiverem subentendidas, para simplificar a linguagem, dir-se-´a ”seja V um espa¸co vectorial sobre K“ em vez de ”seja V um espa¸co vectorial definido por (V, +, ·)“. Doravante, representa-se por 0V e 0 o elemento neutro para a adi¸c˜ao no espa¸co vectorial V e o elemento neutro para a adi¸c˜ao em K, respectivamente. As demonstra¸co˜es dos pr´oximos exemplos deixam-se a cargo do leitor. Exemplo. 1. Seja n ∈ N. Mostra-se que (Kn , +, ·) ´e um espa¸co vectorial sobre K, onde Kn representa o conjunto dos n-´ uplos com elementos em K, i.e., Kn = {(x1 , x2 , . . . , xn ) : x1 , x2 , . . . , xn ∈ K}. As opera¸c˜oes usuais s˜ao definidas por (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) e α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 . . . , αxn ). 2. Seja n ∈ N. Mostra-se que (Rn [x], +, ·) ´e um espa¸co vectorial sobre K, onde Rn [x] representa o conjunto dos polin´omios, na vari´avel x, com coeficientes em K e que tˆem grau menor ou igual a n, i.e., Rn [x] = {an xn + . . . + a1 x + a0 : a0 , a1 , . . . , an ∈ K}. Neste caso, as opera¸co˜es usuais s˜ao definidas por: (an xn +. . .+a1 x+a0 )+(bn xn +. . .+b1 x+b0 ) = (an +bn )xn +. . .+(a1 +b1 )x+(a0 +b0 ) e α(an xn + . . . + a1 x + a0 ) = (αan )xn + . . . + (αa1 )x + (αa0 ). 3. Mostra-se que (R[x], +, ·) ´e um espa¸co vectorial sobre K, onde R[x] representa o conjunto dos polin´omios de qualquer grau, na vari´avel x, com coeficientes em K. As opera¸co˜es usuais neste conjunto s˜ao idˆenticas `as definidas no conjunto Rn [x]. 4. Sejam m, n ∈ N. Prova-se que (Mm×n (K), +, ·) ´e um espa¸co vectorial sobre K, onde Mm×n (K) representa o conjunto constitu´ıdo pelas matrizes com m linhas e n colunas e coeficientes definidos em K.
˜ E PROPRIEDADES 3.1. DEFINIC ¸ AO
47
Dadas A = [aij ], B = [bij ] ∈ Mm×n e α ∈ K, a adi¸ca˜o e a multiplica¸c˜ao escalar s˜ao definidas por A + B = [aij ] + [bij ] = [aij + bij ] e α · A = α[aij ] = [αaij ], respectivamente. 4.1 Se m = 2 e n = 1, o conjunto M2×1 (K) ´e definido do seguinte modo: a M2×1 (K) = : a, b ∈ K . b Neste caso, a adi¸ca˜o e a multiplica¸ca˜o escalar s˜ao definidas por: a c a+c A+B = + = b d b+d e
α·A=α
a b
=
αa αb
,
respectivamente. 4.2 Se m = 1 e n = 2, o conjunto M1×2 (K) ´e definido do seguinte modo: a b : a, b ∈ K , M1×2 (K) = sendo a adi¸c˜ao e a multiplica¸c˜ao escalar definidas da seguinte forma: A+B = a b + c d = a+c b+d e α·A=α
a b
=
αa αb
,
respectivamente. Teorema 17 Seja V um espa¸co vectorial sobre um corpo K. Ent˜ao, (a) 0 · u = 0V , u ∈ V ; (b) α · 0V = 0V , α ∈ K; (c) Se α · u = 0V , ent˜ao α = 0 ou u = 0V ;
48
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
(d) (α − β) · u = α · u − β · u, α, β ∈ K e u ∈ V ; Demonstra¸c˜ ao. A t´ıtulo exemplificativo, prova-se a al´ınea (a). Note-se que 0 · u + 0 · u + (−(0 · u)) = 0 · u + (−(0 · u)), onde −(0 · u) ´e o oposto de 0 · u relativamente a` opera¸ca˜o adi¸ca˜o de vectores. Visto que 0 · u + (−(0 · u)) = 0V , obt´em-se 0 · u + 0V = 0V , donde resulta o pretendido. Seja V um espa¸co vectorial sobre um corpo K. Doravante, para simplificar a nota¸ca˜o, escrever-se-´a α u, em vez de α · u, para α ∈ K e u ∈ V . Defini¸c˜ ao 3.1.3 Seja V um espa¸co vectorial sobre um corpo K. Diz-se que V 0 ⊆ V ´e um subespa¸co vectorial de V se e s´o se verifica as seguintes condi¸c˜oes: S1 . V 0 6= ∅; S2 . u + v ∈ V 0 , u, v ∈ V 0 ; S3 . αu ∈ V 0 , α ∈ K e u ∈ V 0 . Da defini¸ca˜o anterior, conclui-se facilmente que V 0 ⊆ V ´e um subespa¸co vectorial de V se e s´o se verifica as seguintes condi¸c˜oes: S4 . V 0 6= ∅; S5 . α u + β v ∈ V 0 , α, β ∈ K e u, v ∈ V 0 . De facto, se V 0 satisfaz S2 e S3 , ent˜ao tamb´em satisfaz S5 . Considere-se, ent˜ao, u, v ∈ V 0 . Sabendo que V 0 ´e fechado para o produto escalar (S2 ), vem que α u, β v ∈ V 0 , para α, β ∈ K. Por outro lado, uma vez que V 0 ´e fechado para a adi¸c˜ao (S1 ), tem-se que α u + β v ∈ V 0 , como se queria demonstrar. ´ curioso referir que se V ´e um espa¸co vectorial sobre um corpo K e V 0 um E subconjunto de V que ´e ainda espa¸co vectorial, considerando as opera¸co˜es de adi¸ca˜o e multiplica¸ca˜o escalar que definem V como espa¸co vectorial, ent˜ao V 0 ´e um subespa¸co vectorial de V . (Demonstra¸ca˜o deixada a cargo do leitor). Os
˜ E PROPRIEDADES 3.1. DEFINIC ¸ AO
49
subconjuntos de V , {0V } e V designam-se subespa¸cos triviais de V , enquanto que todos os outros subespa¸cos designam-se subespa¸cos pr´oprios. Exemplo. 1. Mostra-se que A = {(x, y, z) ∈ R3 : x + y + z = 0} ´e um subespa¸co vectorial real de R3 . De facto: 1. A 6= ∅, uma vez que (0, 0, 0) ∈ A, (0 + 0 + 0 = 0). 2. sejam u = (x, y, z) e v = (x0 , y 0 , z 0 ) elementos arbitr´arios de A e α, β ∈ R. Ent˜ao, α u + β v ∈ A, visto que α u + β v = α (x, y, z) + β (x0 , y 0 , z 0 ) = (α x + β x0 , α y + β y 0 , α z + β z 0 ) ∈ A. Como u, v ∈ A, vem que x + y + z = 0 e x0 + y 0 + z 0 = 0. Logo, α(x + y + z) = 0 e β(x0 + y 0 + z 0 ) = 0, para quaisquer α, β ∈ K. Assim, (α x + β x0 ) + (α y + β y 0 ) + (α z + β z 0 ) = α(x + y + z) + β(x0 + y 0 + z 0 ) = 0. 2. Prova-se, agora, que a b S= : a + d = 0, a, b, c, d ∈ R c d ´e um subespa¸co vectorial real de M3 . De facto: 1. S = 6 ∅, uma vez que 0 0 ∈ S, (a + d = 0 + 0 = 0). 0 0 2. sejam A=
a b c d
e B=
a0 b 0 c0 d 0
elementos arbitr´arios de S e α, β ∈ R. Ent˜ao, α A + β B ∈ S, visto que 0 0 a b a b α a + β a 0 α b + β b0 αA+βB = α +β = . c d c0 d 0 α c + β c 0 α d + β d0
50
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
Como A, B ∈ S, vem que a + d = 0 e a0 + d0 = 0. Logo, α(a + d) = 0 e β(a0 + b0 ) = 0, para quaisquer α, β ∈ K. Assim, (α a + β a0 ) + (α d + β d0 ) = α(a + d) + β(a0 + d0 ) = 0.
Por vezes torna-se f´acil verificar que um dado conjunto, n˜ao vazio, n˜ao ´e um subespa¸co vectorial. Na verdade, se V 0 ´e um subespa¸co vectorial de um espa¸co vectorial V sobre um corpo K, ent˜ao 0V ∈ V 0 . Efectivamente, seja u ∈ V 0 . Pela defini¸ca˜o de subespa¸co vectorial (S2 e S3 ), tem-se 0V = u − u ∈ V 0 ,
u ∈ V 0.
Deste modo, se 0V ∈ / V 0 , ent˜ao V 0 n˜ao ´e um subespa¸co vectorial de V . Notese, no entanto, que o rec´ıproco n˜ao ´e verdadeiro, isto ´e, 0V ∈ V 0 n˜ao ´e garantia de que V 0 seja um subespa¸co vectorial de V . Exemplo. 1. Seja A = {(x, y, z) ∈ R3 : x + y + z = 1}. Note-se que (0, 0, 0) ∈ / A. Deste modo, pode-se concluir que A n˜ao ´e um subespa¸co vectorial de R3 . De facto, (1, 0, 0) e (0, 1, 0) s˜ao dois elementos de A, mas (1, 0, 0) + (0, 1, 0) = (1, 1, 0) ∈ / A, uma vez que 1 + 1 + 0 = 2 6= 1. 2. Seja B = {(x, y) ∈ R2 : x ≥ 0 ∧ y ≥ 0}. Note-se que, apesar de (0, 0) ∈ B, B n˜ao ´e um subespa¸co vectorial real de R2 . Por exemplo, considere-se u = (1, 2) ∈ B e α = −2 ∈ R. Ent˜ao α u ∈ / B, dado que α u = −2(1, 2) = (−2, −4) e −2 0 e −4 0. Relembram-se, agora, os conceitos de intersec¸c˜ao e reuni˜ao de conjuntos e introduz-se o conceito de soma de conjuntos, visto que ser˜ao usados ao longo deste cap´ıtulo.
ˆ ˆ 3.2. DEPENDENCIA/ INDEPENDENCIA LINEAR
51
Defini¸c˜ ao 3.1.4 Seja V um espa¸co vectorial sobre um corpo K e sejam F e G dois subespa¸cos vectoriais de V , ent˜ao F ∩ G = {u ∈ V : u ∈ F ∧ u ∈ G} F ∪ G = {u ∈ V : u ∈ F ∨ u ∈ G} F + G = {u ∈ V : ∃a ∈ F, ∃b ∈ G : u = a + b}. Al´em disso, deixa-se a cargo do leitor a demonstra¸ca˜o do resultado seguinte: Teorema 18 Seja V um espa¸co vectorial sobre um corpo K e sejam F e G dois subespa¸cos vectoriais de V , ent˜ao 1. F ∩ G ´e um subespa¸co vectorial de V , designado subespa¸co intersec¸c˜ao. 2. F + G ´e um subespa¸co vectorial de V , designado subespa¸co soma. 3. F ∪ G ´e um subespa¸co vectorial se e s´o se F ⊆ G ou G ⊆ F . Exemplo.Considere-se F = {(x, y, z) ∈ R3 : x = 0} e G = {(x, y, z) ∈ R3 : z = 0}. Prova-se que F e G s˜ao subespa¸cos vectoriais de R3 . No entanto, F ∪ G n˜ao ´e um subespa¸co vectorial de R3 . Efectivamente, F * G e G * F , porque, por exemplo, (0, 1, 2) ∈ F , mas (0, 1, 2) ∈ / G e (1, 2, 0) ∈ G, no entanto (1, 2, 0) ∈ / F. O conjunto F ∪ G = {(x, y, z) ∈ R3 : x = 0 ∨ z = 0}, n˜ao ´e subespa¸co vectorial de R3 , porque, por exemplo (0, 1, 2), (1, 2, 0) ∈ F ∪ G, contudo, (0, 1, 2) + (1, 2, 0) = (1, 3, 2) ∈ / F ∪ G.
3.2
Dependˆ encia/ independˆ encia linear
Defini¸c˜ ao 3.2.1 Seja V um espa¸co vectorial sobre um corpo K e considerese os elementos u1 , u2 , . . . , un ∈ V . Um elemento v ∈ V diz-se uma combina¸c˜ao linear de u1 , u2 . . . , un se existirem escalares α1 , α2 , . . . , αn ∈ K, tal que v = α1 u1 + α2 u2 + . . . + αn un .
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
52
Exemplo.O vector (1, 2) de R2 ´e combina¸c˜ao linear dos vectores (1, −1) e (0, 1), dado que (1, 2) = 1(1, −1) + 3(0, 1).
Defini¸c˜ ao 3.2.2 Os elementos u1 , u2 , . . . , un ∈ V dizem-se linearmente independentes se a u ´nica combina¸c˜ao linear nula de u1 , u2 . . . , un ´e a trivialmente nula, ou seja, α1 u1 + α2 u2 + . . . + αn un = 0V ⇒ α1 = α2 = · · · = αn = 0. Caso contr´ario, u1 , u2 . . . , un dizem-se linearmente dependentes, isto ´e, se existem escalares αi , i = 1, 2, . . . , n, n˜ao todos nulos, tais que α1 u1 + α2 u2 + . . . + αn un = 0V . Exemplo. 1. Os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0) de R3 s˜ao linearmente independentes. Note-se que α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 0) = (0, 0, 0) se e s´o se (α1 + α2 + α3 , α1 + α2 , α1 ) = (0, 0, 0). Obt´em-se, assim, o seguinte sistema α1 + α2 + α3 = 0 α1 + α2 = 0 α1 = 0 cuja solu¸c˜ao ´e α1 = α2 = α3 = 0. Deste modo, conclui-se que os vectores s˜ao linearmente independentes. 2. Os vectores (1, 1, 1), (1, 0, 2), (0, −1, 1) de R3 s˜ao linearmente dependentes, uma vez que α1 (1, 1, 1) + α2 (1, 0, 2) + α3 (0, −1, 1) = (0, 0, 0) se e s´o se (α1 + α2 , α1 − α3 , α1 + 2α2 + α3 ) = (0, 0, 0),
ˆ ˆ 3.2. DEPENDENCIA/ INDEPENDENCIA LINEAR
53
de onde se obt´em o seguinte sistema = 0 α1 + α2 α1 − α3 = 0 . α1 + 2α2 + α3 = 0 A matriz ampliada deste sistema ´e 1 1 0 | 0 1 1 0 | 0 [A|B] = 1 0 −1 | 0 −→ L2 ←L2 −L1 0 −1 −1 | 0 L3 ←L3 −L1 1 2 1 | 0 0 1 1 | 0 1 1 0 | 0 −−−−−−−−−−→ L3 ← L3 + L2 0 −1 −1 | 0 . 0 0 0 | 0 Como car(A) = car(A|B) = 2 < 3 = n´ umero de inc´ognitas, o sistema ´e poss´ıvel e indeterminado. Deste modo, conclui-se que os vectores s˜ao linearmente dependentes, dado que o vector nulo n˜ao ´e o u ´nico vector que se pode escrever como uma combina¸ca˜o linear de (1, 1, 1), (1, 0, 2), (0, −1, 1). Teorema 19 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Ent˜ao os n elementos s˜ao linearmente dependentes se e s´o se for poss´ıvel escrever um dos elementos como combina¸c˜ao linear dos restantes. Demonstra¸c˜ ao. (⇒) Se u1 , . . . , un s˜ao linearmente dependentes, existem escalares αi , i = 1, . . . , n, n˜ao todos nulos, tais que α1 u1 + . . . + αi ui + . . . + αn un = 0V . Sem perda de generalidade, suponha-se que αi 6= 0. Assim, αi ui = −α1 u1 − . . . − αi−1 ui−1 − αi+1 ui+1 . . . − αn un ⇔ αi−1 αi+1 αn α1 ui−1 − ui+1 − . . . − un ⇔ ui = − u1 − . . . − αi αi αi αi e, como tal, ui escreve-se como combina¸ca˜o linear dos restantes elementos. (⇐) Suponha-se, sem perda de generalidade, que o elemento ui se escreve como combina¸ca˜o linear dos restantes, ent˜ao, existem escalares, n˜ao todos nulos α1 , . . . , αi−1 , αi+1 , . . . , αn , tais que ui = −α1 u1 − . . . − αi−1 ui−1 − αi+1 ui+1 . . . − αn un ,
54
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
isto ´e, α1 u1 + . . . + αi−1 ui−1 + ui + αi+1 ui+1 . . . + αn un = 0V , e, por conseguinte, os elementos u1 , . . . , un s˜ao linearmente dependentes. Exemplo. (⇐) Considerem-se os vectores (1, 1, 1), (1, 0, 2), (0, −1, 1) de R3 . Como (0, −1, 1) se escreve como combina¸c˜ao linear de (1, 1, 1) e (1, 0, 2), dado que (0, −1, 1) = (1, 0, 2) − (1, 1, 1), conclui-se, pelo Teorema 19, que os trˆes vectores s˜ao linearmente dependentes (como tamb´em se pode comprovar pelo exemplo anterior). (⇒) Considerem-se, agora, os vectores (1, 1, 1), (−1, −1, −1) e (0, 0, 1). Apesar dos vectores serem linearmente dependentes (demonstra¸c˜ao a cargo do leitor), o vector (0, 0, 1) n˜ao se pode escrever como combina¸ca˜o linear de (1, 1, 1) e de (−1, −1, −1). Na verdade, se (0, 0, 1) = α1 (1, 1, 1) + α2 (−1, −1, −1), ent˜ao o sistema
α1 , α2 ∈ R,
α1 − α2 = 0 α1 − α2 = 0 α1 − α2 = 1
seria imposs´ıvel, dado que a primeira e a terceira condi¸ca˜o n˜ao se podem verificar simultaneamente. Note-se, no entanto, que os vectores (1, 1, 1) e (−1, −1, −1) podem-se escrever como combina¸c˜ao linear dos restantes, dado que (1, 1, 1) = −1(−1, −1, −1) + 0(0, 0, 1) e (−1, −1, −1) = −1(1, 1, 1) + 0(0, 0, 1).
Teorema 20 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Ent˜ao se uj = k ui , i 6= j, i, j ∈ {1, . . . , n} e k ∈ K, ent˜ao os elementos u1 , . . . , un s˜ao linearmente dependentes. Demonstra¸c˜ ao. Considere-se, em primeiro lugar, k = 0. Neste caso, uj = 0V , e, portanto, existe αj 6= 0, tal que 0 u1 + . . . + αj 0V + . . . + 0 un = 0V ,
ˆ ˆ 3.2. DEPENDENCIA/ INDEPENDENCIA LINEAR
55
concluindo-se, assim, que os elementos u1 , . . . , un s˜ao linearmente dependentes. Suponha-se, agora, que k 6= 0. Ent˜ao existe um escalar αj ∈ K, n˜ao nulo, tal que 0u1 + . . . − k αj ui + k αj ui + . . . + 0un = 0V , e, por conseguinte, os elementos s˜ao u1 , . . . , un s˜ao linearmente dependentes. Exemplo. 1. Os vectores (1, 1, 1), (1, 0, 2), (0, 0, 0) de R3 s˜ao linearmente dependentes, uma vez que 0(1, 1, 1) + 0(1, 0, 2) + 5(0, 0, 0) = (0, 0, 0), e, por isso, existe uma combina¸ca˜o linear nula de (1, 1, 1), (1, 0, 2), (0, 0, 0) que n˜ao ´e a trivialmente nula. 2. Os vectores (1, 1, 1), (2, 2, 2), (0, 2, 1) de R3 s˜ao linearmente dependentes, uma vez que −2(1, 1, 1) + (2, 2, 2) + 0(0, 2, 1) = (0, 0, 0).
Teorema 21 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Se u1 , . . . , un s˜ao linearmente independentes e se u1 , . . . , un , v s˜ao linearmente dependentes, para um dado v ∈ V , ent˜ao v escreve-se como combina¸c˜ao linear de u1 , . . . , un . Demonstra¸c˜ ao. Considere-se, ent˜ao, que u1 , . . . , un s˜ao linearmente independentes e que u1 , . . . , un , v s˜ao linearmente dependentes. Suponha-se, agora, por redu¸ca˜o ao absurdo, que v n˜ao se escreve como combina¸ca˜o linear de u1 , . . . , un . Deste modo, pelo Teorema 19, existe i = 1, . . . , n tal que ui = α1 u1 + . . . + αi−1 ui−1 + αi+1 ui+1 + . . . + αn un + αn+1 v, isto ´e, α1 u1 + . . . + αi−1 ui−1 − ui + αi+1 ui+1 + . . . + αn un + αn+1 v = 0V . Se αn+1 = 0, ent˜ao α1 u1 + . . . + αi−1 ui−1 − ui + αi+1 ui+1 + . . . + αn un = 0V
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
56
e o i-´esimo escalar ´e αi = −1. Como tal, ´e poss´ıvel escrever 0V como uma combina¸c˜ao linear n˜ao trivialmente nula de u1 , . . . , un , o que contraria a hip´otese destes elementos serem linearmente independentes. No caso de αn+1 6= 0, vem v=−
αi−1 1 αi+1 αn α1 u1 − . . . − ui−1 + ui − ui+1 − . . . − un αn+1 αn+1 αn+1 αn+1 αn+1
o que ´e um absurdo, pois est´a-se a supor que v n˜ao se escreve como combina¸ca˜o linear de u1 , . . . , un . Por conseguinte, v ter´a de ser combina¸ca˜o linear de u1 , . . . , un . Exemplo.Considerem-se os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0) de R3 , que se sabe serem linearmente independentes e o vector (1, 3, 4) de R3 . Verificase, facilmente, que o vector (1, 3, 4) ´e combina¸ca˜o linear dos trˆes vectores restantes. De facto, existem escalares α1 , α2 , α3 ∈ R, n˜ao todos nulos, tais que (1, 3, 4) = α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 0). Da igualdade anterior, obt´em-se o seguinte sistema α1 + α2 + α3 = 1 α1 + α2 = 3 . α1 = 4 A solu¸c˜ao deste sistema ´e α1 = 4, α2 = −1 e α3 = −2. Deste modo, (1, 3, 4) = 4(1, 1, 1) − 1(1, 1, 0) − 2(1, 0, 0), isto ´e, (1, 3, 4) ´e combina¸c˜ao linear de (1, 1, 1), (1, 1, 0) e (1, 0, 0). Teorema 22 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Sejam u1 , . . . , up elementos linearmente dependentes de V . Ent˜ao, os elementos que perten¸cam a qualquer subconjunto finito de V que contenha u1 , . . . , up tamb´em s˜ao linearmente dependentes. Demonstra¸c˜ ao. Sem perda de generalidade, considere-se o conjunto constitu´ıdo por u1 , . . . , up , up+1 , . . . , un . Como por hip´otese u1 , . . . , up s˜ao linearmente dependentes, existem escalares n˜ao todos nulos αi , i = 1, . . . , p, tais que α1 u1 + . . . + αp up = 0V .
ˆ ˆ 3.2. DEPENDENCIA/ INDEPENDENCIA LINEAR
57
A igualdade anterior pode escrever-se de forma equivalente do seguinte modo α1 u1 + . . . + αp up + 0up+1 + . . . + 0un = 0V . Assim, existe uma combina¸ca˜o linear nula de u1 , . . . , un que n˜ao ´e a trivialmente nula e, portanto, os elementos u1 , . . . , up s˜ao linearmente dependentes. Exemplo. Considere-se os vectores (1, 1, 1), (1, 0, 2), (0, −1, 1) de R3 , que se sabe serem linearmente dependentes. Mostra-se que os vectores (1, 1, 1), (1, 0, 2), (0, −1, 1), (1, 2, 3) ainda s˜ao linearmente dependentes. De facto, (0, −1, 1) = (1, 0, 2) − (1, 1, 1) + 0(1, 2, 3), e, por isso, o vector (0, −1, 1) ´e combina¸ca˜o linear dos restantes vectores. Ent˜ao, pelo Teorema 19, conclui-se que os vectores (1, 1, 1), (1, 0, 2), (0, −1, 1), (1, 2, 3) s˜ao linearmente dependentes. Teorema 23 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K linearmente independentes. Ent˜ao quaisquer 1 < p < n elementos distintos escolhidos arbitrariamente entre eles ainda s˜ao linearmente independentes. Demonstra¸c˜ ao. Considere-se, sem perda de generalidade, que u1 , u2 , . . . , up s˜ao elementos distintos escolhidos aleatoriamente de u1 , u2 , . . . , un e suponhase que s˜ao linearmente dependentes. Ent˜ao, pelo Teorema 19, existe um elemento que se escreve como combina¸ca˜o linear dos restantes. Pode supor-se, sem perda de generalidade, que esse elemento ´e u1 . Ent˜ao, existem escalares β2 , . . . , βp ∈ K, n˜ao todos nulos, tais que u1 = β2 u2 + . . . + βp up . Deste modo, tem-se que u1 − β2 u2 − . . . − βp up + 0up+1 + . . . + 0un = 0V . O que ´e um absurdo pois, por hip´otese, u1 , u2 , . . . , un s˜ao linearmente independentes. Assim, conclui-se que os elementos u1 , u2 , . . . , up s˜ao linearmente independentes.
58
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
Exemplo. Considere-se os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0) de R3 , que se sabe serem linearmente independentes. Os vectores (1, 1, 1), (1, 1, 0) ainda s˜ao linearmente independentes. De facto, da igualdade α1 (1, 1, 1) + α2 (1, 1, 0) = (0, 0, 0), obt´em-se o sistema
α1 + α2 = 0 α1 + α2 = 0 , α1 = 0
cuja solu¸ca˜o ´e α1 = α2 = 0.
Teorema 24 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Os elementos u1 , . . . , un s˜ao linearmente independentes se e s´o se qualquer combina¸c˜ao linear de u1 , . . . , un tem coeficientes u ´nicos, isto ´e, α1 u1 + . . . + αn un = β1 u1 + . . . + βn un ⇒ αi = βi ,
i = 1, . . . , n
Demonstra¸c˜ ao. (⇒) Suponha-se que u1 , . . . , un s˜ao linearmente independentes e que existe uma combina¸ca˜o linear de u1 , . . . , un que n˜ao tem coeficientes u ´nicos. Seja u ∈ V , tal que existem escalares αi 6= βi , i = 1, . . . , n, tais que α1 u1 + . . . + αn un = u e β1 u1 . . . + βn un = u. Das igualdades anteriores, vem α1 u1 + . . . + αn un = β1 u1 + . . . + βn un , o que ´e equivalente, (α1 − β1 )u1 + . . . + (αn − βn )un = 0V . Uma vez que u1 , . . . , un s˜ao linearmente independentes, conclui-se que αi = βi , i = 1, . . . , n, o que ´e um absurdo, pois partiu-se do pressuposto que estes coeficientes n˜ao eram u ´nicos.
ˆ ˆ 3.2. DEPENDENCIA/ INDEPENDENCIA LINEAR
59
(⇐) Demonstra-se, agora, o contra-rec´ıproco. Suponha-se que u1 , . . . , un s˜ao linearmente dependentes. Ent˜ao existem escalares αi , i = 1, . . . , n, n˜ao todos nulos, tais que α1 u1 + . . . + αn un = 0V . No entanto, ´e imediato que 0u1 + . . . + 0un = 0V , logo existem duas formas distintas de escrever 0V como combina¸ca˜o linear de u1 , . . . , un . De seguida, mostra-se que o estudo da independˆencia/dependˆencia de vectores em Rn se pode efectuar com base na resolu¸ca˜o de sistemas de equa¸c˜oes lineares. Na verdade,
Teorema 25 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Os vectores u1 , . . . , up ∈ Rn s˜ao linearmente independentes se e s´o se o sistema de equa¸c˜oes lineares Au = 0, onde A ∈ Mn×p ´e a matriz cujas colunas s˜ao os vectores u1 , . . . , up , ´e poss´ıvel e determinado. Note-se que Au = 0 ´e equivalente a α1 u1 + . . . + αp up = 0, com u = (α1 , . . . , αp ), αi ∈ R, i = 1, . . . , p. Logo, os vectores u1 , . . . , up ∈ Rn s˜ao linearmente independentes se e s´o se a u ´nica solu¸c˜ao de Au = 0 ´e a solu¸c˜ao nula. Assim, o sistema ´e poss´ıvel e determinado. Teorema 26 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Ent˜ao qualquer conjunto de p vectores em Rn , com p > n, ´e linearmente dependente. Considere-se a matriz A ∈ Mn×p cujas colunas s˜ao os p vectores referidos no Teorema 25. Esta propriedade garante que estes vectores s˜ao linearmente independentes se e s´o se o sistema de equa¸co˜es lineares Au = 0 ´e poss´ıvel e determinado. Assim, ter-se-ia car(A) = car(A|B) = n´ umero de inc´ognitas. Por outro lado, como o n´ umero de inc´ognitas ´e p, car(A) tamb´em teria de ser p, o que significa que a matriz em escada de linhas teria p “pivots”, o que ´e um absurdo uma vez que o n´ umero de linhas ´e n < p.
60
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
Exemplo. 1. Considere-se os vectores de R3 (1, 1, 1), (1, 1, 0). Ent˜ao, a matriz A ∈ M3×2 definida no Teorema 25 ´e dada por 1 1 A = 1 1 . 1 0 Do sistema Au = 0, obt´em-se 1 1 | 0 1 1 | 0 [A|B] = 1 1 | 0 −→ L2 ←L2 −L1 0 0 | 0 . L3 ←L3 −L1 1 0 | 0 0 −1 | 0 Como car(A) = car(A|B) = 2 = n´ umero de inc´ognitas, o sistema ´e poss´ıvel e determinado. Logo, os vectores s˜ao linearmente independentes. 2. Considere-se, agora, os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4) de 3 R . Ent˜ao, como o n´ umero de vectores ´e 4,o Teorema 26 permite concluir que os vectores anteriores s˜ao linearmente dependentes. Com base nos Teoremas 25 e 26, prova-se que (ver [4]) para matrizes m × n em escada de linhas se tem: Teorema 27 Sejam u1 , . . . , un , n ≥ 2, elementos de um espa¸co vectorial V sobre um corpo K. Ent˜ao (a) As colunas que contˆem “pivots” s˜ao linearmente independentes em Rn . (b) As linhas n˜ao nulas s˜ao linearmente independentes em Rn . (c) O n´ umero de linhas independentes e o n´ umero de colunas independentes s˜ao ambos iguais `a caracter´ıstica da matriz. Exemplo. Considere-se os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4) de R3 . Colocando os vectores anteriores por coluna numa matriz A e efectuando a elimina¸ca˜o de Gauss, verifica-se que (1, 1, 1), (1, 1, 0), (1, 0, 0) s˜ao vectores linearmente independentes. Na verdade, 1 1 1 1 A = 1 1 0 3 . 1 0 0 4
3.3. SISTEMAS DE GERADORES E BASES
61
Ent˜ao, A=
1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 3 −→ L2 ←L2 −L1 0 0 −1 2 −→L2 ↔L3 0 −1 −1 3 . L3 ←L3 −L1 1 0 0 4 0 −1 −1 3 0 0 −1 2
Deste modo, car(A) = 3. Logo, existem 3 linhas/colunas independentes (Teorema 27 (c)). Assim, existem 3 vectores linearmente independentes que correspondem `as colunas que cont´em “pivots” (Teorema 27 (a)).
3.3
Sistemas de Geradores e Bases
Teorema 28 Seja G um subconjunto, n˜ao vazio, de um espa¸co vectorial V sobre um corpo K. Diz-se que G ´e um conjunto constitu´ıdo por geradores de V ou que G gera V , e denota-se por V = hGi, se qualquer elemento de V se escreve como combina¸c˜ao linear dos elementos de G. No caso de G ser um conjunto finito, G = {u1 , . . . , uk }, ent˜ao escreve-se V = hGi = hu1 , . . . , uk i e diz-se que V ´e um espa¸co vectorial finitamente gerado. Exemplo. Mostra-se, de seguida, que h(1, 0, 2), (1, 0, 0)i = {(x, y, z) ∈ R3 : y = 0}. Efectivamente, seja (x, y, z) um elemento gen´erico de R3 . Ent˜ao, existem escalares α1 , α2 ∈ R, tais que (x, y, z) = α1 (1, 0, 2) + α2 (1, 0, 0), o que ´e equivalente a α1 + α2 = x 0 = y , 2α1 = z cuja solu¸ca˜o ´e α1 = z/2, α2 = x − z/2, quando y = 0. Provou-se, assim, que s´o existem escalares α1 , α2 ∈ R, tais que (x, y, z) = α1 (1, 0, 2) + α2 (1, 0, 0), se y = 0.
62
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
Teorema 29 Seja V um espa¸co vectorial sobre um corpo K, tal que V = hu1 , . . . , un i. Se ui ´e linearmente dependente dos restantes, ent˜ao u1 , . . . , ui−1 , ui+1 , . . . , un ´e ainda um sistema de geradores de V . Demonstra¸c˜ ao. Seja v ∈ V . Como u1 , . . . , un geram V , existem escalares α1 , . . . , αn ∈ K, tais que v = α1 u1 + . . . + αi ui + . . . + αn un .
(3.3)
Por outro lado, por hip´otese, ui escreve-se como combina¸c˜ao linear dos restantes elementos. Logo, existem escalares β1 , . . . , βi−1 , βi+1 , . . . , βn , tais que ui = β1 u1 + . . . + βi−1 ui−1 + βi+1 ui+1 + . . . + βn un .
(3.4)
Substituindo (3.4) em (3.3), tem-se v = α1 u1 + . . . + αi (β1 u1 + . . . + βi−1 ui−1 + βi+1 ui+1 + . . . + βn un ) + . . . + αn un = (α1 + αi β1 )u1 + . . . + (αi−1 + αi βi−1 )ui−1 + (αi+1 + αi βi+1 )ui+1 + . . . + (αn + αi βn )un . Deste modo, v ∈ V ´e combina¸ca˜o linear de u1 , . . . , ui−1 , ui+1 , . . . , un , e, por conseguinte, u1 , . . . , ui−1 , ui+1 , . . . , un ´e ainda um sistema de geradores de V. Exemplo. Os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4) de R3 constituem um conjunto de geradores de R3 , uma vez que qualquer elemento de R3 se escreve como combina¸c˜ao linear deste vectores. Seja (x, y, z) ∈ R3 , mostra-se que existem escalares α1 , α2 , α3 , α4 ∈ R, tais que (x, y, z) = α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 0) + α4 (1, 3, 4). Obt´em-se, assim, o seguinte sistema α1 + α2 + α3 + α4 = x α1 + α2 + 3α4 = y . α1 + 4α4 = z
3.3. SISTEMAS DE GERADORES E BASES
63
A matriz ampliada deste sistema ´e 1 1 1 1 | x 1 1 1 1 | x [A|B] = 1 1 0 3 | y −→ L2 ←L2 −L1 0 0 −1 2 | y − x L3 ←L3 −L1 1 0 0 4 | z 0 −1 −1 3 | z − x 1 1 1 1 | x −−−−−→ L3 ↔ L2 0 −1 −1 3 | z − x . 0 0 −1 2 | y − x Ent˜ao, car(A) = car(A|B) = 3 < 4 = n´ umero de inc´ognitas, logo o sistema ´e poss´ıvel e indeterminado. Por isso, existem escalares α1 , α2 , α3 , α4 ∈ R que satisfazem (x, y, z) = α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 0) + α4 (1, 3, 4). Logo, R3 = h(1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4)i. Sabe-se que o vector (1, 3, 4) ´e combina¸ca˜o linear de (1, 1, 1), (1, 1, 0), (1, 0, 0). Ent˜ao, prova-se de seguida que estes vectores ainda formam um conjunto de geradores de R3 . Seja (x, y, z) ∈ R3 , mostra-se que existem escalares α1 , α2 , α3 ∈ R, tais que (x, y, z) = α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 0). De modo an´alogo ao anterior, obt´em-se o α1 + α2 + α3 α1 + α2 α1
seguinte sistema = x = y , = z
cuja solu¸ca˜o ´e (z, y − z, x − y). Logo, existem escalares α1 = z, α2 = y − z e α3 = x − y que satisfazem (x, y, z) = z(1, 1, 1) + (y − z)(1, 1, 0) + (x − y)(1, 0, 0) e, por isso, R3 = h(1, 1, 1), (1, 1, 0), (1, 0, 0)i. Defini¸c˜ ao 3.3.1 Considere-se V um espa¸co vectorial finitamente gerado sobre um corpo K. Chama-se base de V a qualquer sequˆencia de elementos de V linearmente independentes e que geram V . O n´ umero de elementos de uma base de V designa-se dimens˜ao de V e denota-se por dim V .
64
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
Note-se que qualquer espa¸co vectorial V sobre um corpo K pode ter um n´ umero infinito de bases, no entanto todas as bases tˆem o mesmo n´ umero de elementos. Al´em disso, como na defini¸c˜ao de base ´e referida a no¸c˜ao de sequˆencia de elementos de V , a ordem pela qual os elementos aparecem na base ´e importante. As sequˆencias ((1, 0), (0, 1)) e ((1, 0, 0), (0, 1, 0), (0, 0, 1)) designam-se base can´onica de R2 e R3 , respectivamente. Mais geralmente, no caso de Rn a base can´onica ´e ((1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)). Assim, as dimens˜oes de R2 , R3 e Rn s˜ao 2, 3 e n, respectivamente. A dimens˜ao do espa¸co vectorial dos polin´omios de grau menor ou igual a n, Rn [x], ´e n + 1, uma vez que (1, x, x2 , . . . , xn−1 , xn ) ´e a sua base can´onica. Exemplo. A sequˆencia de vectores ((1, 1, 1), (1, 1, 0), (1, 0, 0)) constitui uma base de R3 , visto que j´a se mostrou anteriormente que os vectores s˜ao linearmente independentes e constituem um sistema de geradores de R3 . Alterando a ordem dos vectores anteriores obt´em-se, por exemplo, ((1, 0, 0), (1, 1, 0), (1, 1, 1)) que constitui uma nova base de R3 . Defini¸c˜ ao 3.3.2 Seja V um espa¸co vectorial de dimens˜ao finita, n, sobre um corpo K. Ent˜ao a sequˆencia (u1 , . . . , un ) ´e uma base de V se e s´o se qualquer elemento de V se escreve de forma u ´nica como combina¸c˜ao linear de u1 , . . . , un . Assim sendo, existem escalares u ´nicos α1 , . . . , αn ∈ K, tais que v = α1 u1 + . . . + αn un , v ∈ V. Os escalares α1 , . . . , αn designam-se coordenadas do vector v relativamente ` a base (u1 , . . . , un ).
Exemplo.Considere-se a sequˆencia ((1, 1, 1), (1, 1, 0), (1, 0, 0)) que se sabe ser uma base de R3 . Seja (1, 2, 3) ∈ R3 . Ent˜ao, as coordenadas de (1, 3, 4), relativamente `a base ((1, 1, 1), (1, 1, 0), (1, 0, 0)) s˜ao 4,−1 e −2. Efectivamente, provou-se anteriormente que (1, 3, 4) = 4(1, 1, 1) − 1(1, 1, 0) − 2(1, 0, 0).
3.3. SISTEMAS DE GERADORES E BASES
65
No caso particular de V n˜ao ser um espa¸co vectorial finitamente gerado, diz-se que a dimens˜ao de V ´e infinita. Se V coincide com o seu elemento neutro (V = {0V }), diz-se que V tem dimens˜ao nula e, neste caso, V n˜ao tem base. Introduz-se, de seguida, o conceito de subespa¸co pr´oprio associado a um valor pr´oprio. Comece-se por recordar que no Cap´ıtulo 2 se introduziu o conceito de valor pr´oprio de uma matriz A ∈ Mn e foi referido que para um dado valor pr´oprio de A, λ, os vectores pr´oprios de A associados a λ constituem o conjunto VA (λ) = {X ∈ Rn \{0} : (A − λI)X = 0} . A cada valor pr´oprio de A, λ, est´a ainda associado um subespa¸co vectorial, designado subespa¸co pr´oprio de A associado a λ e definido por SA (λ) = {X ∈ Rn : (A − λI)X = 0} . A dimens˜ao deste subespa¸co ´e designada multiplicidade geom´etrica do valor pr´oprio λ e esta multiplicidade ´e menor ou igual do que a multiplicidade alg´ebrica do valor pr´oprio λ. Exemplo. Considere-se a matriz 1 −2 A= ∈ M2 . 0 1 Mostrou-se no Cap´ıtulo 2 que 1 ´e valor pr´oprio de A com multiplicidade alg´ebrica 2 e que o conjunto dos vectores pr´oprios de A associados ao valor pr´oprio 1 ´e VA (1) = (x, y) ∈ R2 \{(0, 0)} : y = 0 = {(x, 0) : x ∈ R\{0}} . Deste modo, o subespa¸co pr´oprio de A associado a 1 ´e SA (1) = (x, y) ∈ R2 : y = 0 = {x(1, 0) : x ∈ R} = h(1, 0)i. e a multiplicidade geom´etrica do valor pr´oprio 1 ´e 1 (menor que a multiplicidade alg´ebrica que ´e 2).
66
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
Apresentam-se, de seguida, duas propriedades associadas aos subespa¸cos soma e intersec¸c˜ao que permitem determinar, de forma simples, a dimens˜ao destes subespa¸cos. Com efeito, sejam F e G dois subespa¸cos vectoriais de V (espa¸co vectorial sobre um corpo K). Mostra-se que Teorema 30
(a) hF i + hGi = hF ∪ Gi.
(b) dim(F + G) = dimF + dimG − dim(F ∩ G).
Para finalizar, apresentam-se alguns resultados sobre sistemas de geradores de um espa¸co vectorial. Considere-se V um espa¸co vectorial de dimens˜ao finita, n, sobre um corpo K e (u1 , . . . , un ) uma base de V . Ent˜ao, s˜ao v´alidas os teoremas seguintes: Teorema 31 Quaisquer m elementos de V com m > n s˜ao linearmente dependentes. Exemplo.1. Sejam (2, 1), (1, 0) e (0, 1) vectores de R2 . Pelo Teorema 31, conclui-se que os vectores s˜ao linearmente dependentes, dado que a dimens˜ao de R2 ´e 2 < 3 =n´ umero de vectores. 2. Os polin´omios −2 + 3x + 3x2 − 4x3 , 2x3 , −2, 3x2 + 3x e 2x + 1 de R3 [x] s˜ao linearmente dependentes. De facto, a dimens˜ao de R3 [x] = 4 < 5 = n´ umero de polin´omios. Teorema 32 Qualquer subconjunto de V constitu´ıdo por n elementos linearmente independentes gera V . Exemplo.1. Aplicando o teorema anterior, conclui-se facilmente que R3 6= h(1, 1, 0), (0, 1, 1)i, porque apesar dos vectores (1, 1, 0) e (0, 1, 1) serem linearmente independentes, o n´ umero de vectores ´e 2 < 3 = dim(R3 ). Analogamente, apesar dos polin´omios 1 + x, x2 , x3 de R3 [x] serem linearmente independentes, R3 [x] 6= h1 + x, x2 , x3 i, porque 3 < 4 = dim(R3 [x]). 2. Dado que os vectores u1 = (1, 1, 0), u2 = (0, 1, 1), u3 = (−1, 1, 1) s˜ao linearmente independentes e s˜ao 3 = dim(R3 ), conclui-se pelo Teorema 326 que R3 = h(1, 1, 0), (0, 1, 1), (−1, 1, 1)i. Teorema 33 Qualquer conjunto de geradores de V ´e linearmente independente se e s´o se tem n elementos;
3.3. SISTEMAS DE GERADORES E BASES
67
Exemplo. 1. Os vectores (0, −1, 2), (−1, 0, 2), (−1, −1, 4), (1, 0, 0) de R3 constituem um sistema de geradores de R3 , no entanto como s˜ao 4 vectores, pelo Teorema 33 conclui-se que os vectores s˜ao linearmente dependentes. 2. Sabe-se pelo exemplo anterior que R3 = h(1, 1, 0), (0, 1, 1), (−1, 1, 1)i. Deste modo, pode-se concluir que os vectores s˜ao linearmente independentes. Teorema 34 Um sistema de geradores de V tem no m´ınimo n elementos. Exemplo.Considere-se o espa¸co vectorial R3 . Dado um elemento arbitr´ario de R3 , (x, y, z), verifica-se que (x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1). Assim, para gerar R3 s˜ao necess´arios no m´ınimo trˆes vectores, (1, 0, 0), (0, 1, 0) e (0, 0, 1). Teorema 35 Qualquer conjunto finito de geradores de V , cont´em uma base de V . Exemplo.Recorrendo ao exemplo respeitante ao Teorema 32, pode-se inferir que (u1 , u2 , u3 ) e (u1 , u2 , u3 , u4 ), onde u4 ´e um vector arbitr´ario de R3 , s˜ao sistemas de geradores de R3 . No entanto, aplicando o Teorema 33, conclui-se que no segundo caso os vectores s˜ao linearmente dependentes, uma vez que 4 > 3 = dimR3 . Deste modo, {u1 , u2 , u3 , u4 }, cont´em uma base de R3 que ´e, por exemplo, (u1 , u2 , u3 ). Teorema 36 Qualquer subconjunto de V , que contenha um conjunto de geradores de V ´e ainda um conjunto de geradores de V . Exemplo.1. Os vectores u1 = (1, 1, 1), u2 = (1, 1, 0), e u3 = (1, 0, 0) de R3 s˜ao linearmente independentes, e portanto pelo Teorema 32, constituem um sistema de geradores de R3 . Assim sendo, qualquer elemento w de R3 pode-se escrever como combina¸ca˜o linear de u1 , u2 , u3 , isto ´e, existem α1 , α2 , α3 ∈ R, tais que, w = α1 u1 + α2 u2 + α3 u3 . Se considerar o sistema (u1 , u2 , u3 , u4 ), onde u4 ´e um vector arbitr´ario de R3 , obviamente que este novo sistema tamb´em gera R3 . De facto, dado w ∈ R3 , tem-se w = α1 u1 + α2 u2 + α3 u3 + 0u4 .
68
CAP´ITULO 3. ESPAC ¸ OS E SUBESPAC ¸ OS VECTORIAIS
Teorema 37 Qualquer conjunto com m < n elementos linearmente independentes de V pode ser ampliado de modo a formar uma base de V . Exemplo. Mostra-se facilmente que os polin´omios 1 + x, x2 de R2 [x] s˜ao linearmente independentes. Por outro lado, a sequˆencia de polin´omios (1 + x, x2 , 2) de R2 [x], ´e ainda linearmente independente e, por isso, aplicando o Teorema 32, constitui um sistema de geradores linearmente independente. Deste modo, ampliou-se o sistema independente (1 + x, x2 ) de modo a formar uma base de R2 [x].
Cap´ıtulo 4 Aplica¸ c˜ oes Lineares No Cap´ıtulo 3, apresentaram-se alguns exemplos que deram a ideia de que existem espa¸cos vectoriais que s˜ao “iguais”, na medida em que possuem as mesmas propriedades, embora os seus elementos apresentem formas distintas. ´ o caso dos espa¸cos vectoriais M2×1 e M1×2 , constitu´ıdos pelos vectores E coluna e pelos vectores linha com 2 componentes, respectivamente. Neste cap´ıtulo tornar-se-´a esta ideia mais precisa, introduzindo, para isso, algumas no¸co˜es.
4.1
Defini¸c˜ ao e propriedades
Sejam U e V espa¸cos vectoriais sobre um corpo K. Uma aplica¸c˜ao (transforma¸c˜ao) linear de U em V ´e uma aplica¸ca˜o f : U → V que satisfaz as seguintes propriedades: f (u + v) = f (u) + f (v)
e
f (αu) = αf (u),
ou, de forma equivalente, f (αu + βv) = αf (u) + βf (v), para quaisquer u, v ∈ U e α, β ∈ K. Os espa¸cos vectoriais U e V designam-se espa¸co de partida e espa¸co de chegada, respectivamente. Exemplo. A aplica¸ca˜o f : R3 → R2 , definida por f (x, y, z) = (y + z, x) ´e linear. De facto, sejam u = (x, y, z) e v = (x0 , y 0 , z 0 ) elementos arbitr´arios de 69
˜ CAP´ITULO 4. APLICAC ¸ OES LINEARES
70 R3 e α, β ∈ R. Ent˜ao, f (αu + βv) = = = = = =
f (α(x, y, z) + β(x0 , y 0 , z 0 )) f (αx + βx0 , αy + βy 0 , αz + βz 0 ) (αy + βy 0 + αz + βz 0 , αx + βx0 ) α (y + z, x) + β (y 0 + z 0 , x0 ) αf (x, y, z) + βf (x0 , y 0 , z 0 ) αf (u) + βf (v).
Verifica-se facilmente que a aplica¸c˜ao f : U → V que associa a cada elemento do espa¸co vectorial U o elemento neutro do espa¸co vectorial V , ´e uma aplica¸c˜ao linear, mais propriamente a aplica¸c˜ao nula doravante denotada por 0f . De forma an´aloga, a aplica¸c˜ao f : U → U que associa cada elemento de um espa¸co vectorial U em si pr´oprio tamb´em ´e uma aplica¸c˜ao linear, habitualmente designada aplica¸c˜ao identidade e denotada por 1f . Como consequˆencia da defini¸ca˜o de aplica¸ca˜o linear obtˆem-se os resultados seguintes: Teorema 38 Sejam U e V espa¸cos vectoriais sobre um corpo K. Uma aplica¸c˜ao f : U → V ´e linear se e s´o se ! n n X X f α i xi = αi f (xi ) , (4.1) i=1
i=1
para quaisquer xi ∈ U , αi ∈ K, i = 1, . . . , n, n > 1. Demonstra¸c˜ ao. (⇒) Considere-se xi ∈ U , αi ∈ K, i = 1, . . . , n. Aplicando a defini¸ca˜o de aplica¸ca˜o linear, obt´em-se ! ! ! n n n X X X f αi xi = f α1 x1 + αi xi = α1 f (x1 ) + f αi xi i=1
i=2
= α1 f (x1 ) + f
i=2
α2 x2 +
n X i=3
! α i xi
˜ E PROPRIEDADES 4.1. DEFINIC ¸ AO
= α1 f (x1 ) + α2 f (x2 ) + f
71 n X
! α i xi
i=3
= ··· = α1 f (x1 ) + α2 f (x2 ) + . . . + αn f (xn ) n X = αi f (xi ) . i=1
(⇐) Se f satisfaz (4.1) para n > 1 ent˜ao, no caso particular de n = 2, obt´em-se f (α1 x1 + α2 x2 ) = α1 f (x1 ) + α2 f (x2 ), para quaisquer x1 , x2 ∈ U e α1 , α2 ∈ R. Deste modo, conclui-se que f ´e linear. Teorema 39 Sejam U e V espa¸cos vectoriais sobre um corpo K. Se a aplica¸c˜ao f : U → V ´e linear, ent˜ao f (0U ) = 0V . Demonstra¸c˜ ao. Seja x um elemento arbitr´ario de U e −x o seu sim´etrico. Ent˜ao, x + (−x) = 0U . Assim, dado que f ´e linear, f (0U ) = f (x + (−x)) = f (x) − f (x) = 0V .
Note-se que a partir do Teorema 39 obt´em-se uma condi¸ca˜o necess´aria para que uma dada aplica¸ca˜o seja linear. Exemplo. A aplica¸ca˜o f : R → R2 tal que f (x) = (1, x) n˜ao ´e linear. De facto, como f (0R ) = f (0) = (1, 0) 6= (0, 0) = 0R2 , pela Propriedade 2, f n˜ao ´e linear. Relembre-se, agora, a defini¸ca˜o de soma, multiplica¸c˜ao escalar e composta de aplica¸c˜oes. Dados os conjuntos U , V e W e as aplica¸co˜es f, g : U → V e h : V → W define-se 1. f + g : U → V , por (f + g)(u) = f (u) + g(u), u ∈ U . 2. αf : U → V por (αf )(u) = α(f (u)), u ∈ U , α escalar.
72
˜ CAP´ITULO 4. APLICAC ¸ OES LINEARES 3. h ◦ g : U → W por (h ◦ g)(u) = (h(g(u)), u ∈ U .
No caso particular de U , V e W serem espa¸cos vectoriais sobre um corpo K e de f , g e h serem aplica¸co˜es lineares, as aplica¸co˜es 1, 2 e 3 tamb´em s˜ao lineares. Na verdade, considerando u, v ∈ U e α, β ∈ K arbitr´arios e utilizando a defini¸c˜ao de soma de aplica¸co˜es, obt´em-se (f + g)(αu + βv) = f (αu + βv) + g(αu + βv). Como f e g s˜ao lineares pode escrever-se (f + g)(αu + βv) = αf (u) + βf (v) + αg(u) + βg(v) = α(f (u) + g(u)) + β(f (v) + g(v)). Utilizando novamente a defini¸c˜ao de soma de aplica¸c˜oes, obt´em-se que f + g ´e linear, dado que (f + g)(αu + βv) = α(f + g)(u) + β(f + g)(v). A linearidade das aplica¸co˜es αf e de h ◦ g mostra-se de forma an´aloga. ´ simples mosSejam U e V dois espa¸cos vectoriais sobre um corpo K. E trar que o conjunto de todas as aplica¸c˜oes lineares de U em V , munido das opera¸co˜es adi¸c˜ao e multiplica¸c˜ao escalar definidas em 1 e 2 ainda ´e um espa¸co vectorial sobre K (ver [3]). Para caracterizar uma aplica¸c˜ao de forma u ´nica, em geral, ´e necess´ario uma grande quantidade de informa¸ca˜o. O caso das aplica¸co˜es lineares ´e especial, visto que quando o espa¸co de partida tem dimens˜ao finita, qualquer aplica¸ca˜o linear fica determinada desde que sejam conhecidas as imagens de uma base desse espa¸co. Assim, sejam U e V espa¸cos vectoriais sobre um corpo K, f : U → V uma aplica¸ca˜o linear e B1 = (u1 , u2 , . . . , un ) uma base de U . Considerese, ainda, um vector arbitr´ario u ∈ U . Ent˜ao, existem escalares u ´nicos α1 , α2 , . . . , αn ∈ K, tais que u = α1 u1 + α2 u2 + . . . + αn un . A linearidade de f permite escrever f (u) = f (α1 u1 + α2 u2 + . . . + αn un ) = α1 f (u1 ) + α2 f (u2 ) + . . . + αn f (un ) .
(4.2)
˜ E PROPRIEDADES 4.1. DEFINIC ¸ AO
73
Assim, a imagem de cada vector u ∈ U fica determinada desde que se conhe¸cam as imagens dos vectores da base B, isto ´e, f (u1 ), f (u2 ), . . . , f (un ). Exemplo.Pretende-se caracterizar a aplica¸c˜ao f : R2 → R3 , tal que f (1, 2) = (3, −1, 5) e f (0, 1) = (2, 1, −1). Dado que dim R2 = 2, quaisquer dois elementos de R2 linearmente independentes constituem uma sua base. Como 1 2 car = 2, 0 1 os vectores (1, 2) e (0, 1) s˜ao linearmente independentes e, assim sendo, B1 = ((1, 2), (0, 1)) ´e base de R2 . Deste modo, para todo o (x, y) ∈ R2 , existem escalares u ´nicos α1 , α2 ∈ R, tais que (x, y) = α1 (1, 2) + α2 (0, 1). Da igualdade anterior obt´em-se α1 =x 2α1 + α2 = y, cuja solu¸ca˜o ´e (x, y − 2x). Logo, (x, y) = x(1, 2) + (y − 2x)(0, 1).
(4.3)
Como f ´e linear, f (1, 2) = (3, −1, 5) e f (0, 1) = (2, 1, −1), de (4.3) vem f (x, y) = f (x(1, 2) + (y − 2x)(0, 1)) = xf (1, 2) + (y − 2x)f (0, 1) = x(3, −1, 5) + (y − 2x)(2, 1, −1) = (−x + 2y, −3x + y, 7x − y).
Sejam U e V dois espa¸cos vectoriais sobre um corpo K e sejam B1 = (u1 , u2 , . . . , un ) e B2 = (v1 , v2 , . . . , vm ) bases de U e V , respectivamente. Note-se que dada uma matriz A = [aij ] ∈ Mm×n arbitr´aria, esta define uma u ´nica aplica¸c˜ao linear f : U → V relativamente ao par de bases B1 e B2 . Para tal, basta considerar que a j-´esima coluna de A, [a1j a2j . . . amj ]T , representa
˜ CAP´ITULO 4. APLICAC ¸ OES LINEARES
74
o vector das coordenadas de f (uj ) na base B2 , j = 1, . . . , n. Como cada um dos n vectores de coordenadas ´e u ´nico, cada f (uj ) pode ser escrito de forma u ´nica como combina¸c˜ao linear dos elementos da base B2 do seguinte modo: f (uj ) = a1j v1 + a2j v2 + . . . + amj vm , j = 1, . . . , n.
(4.4)
Assim, conhecidas as imagens de uma base do espa¸co de partida, qualquer aplica¸ca˜o linear f fica definida, basta para tal utilizar (4.2) juntamente com (4.4). A matriz A designa-se matriz da aplica¸c˜ao linear f relativamente a`s bases B1 e B2 e denota-se por A = M(f ; B1 , B2 ). Exemplo. Seja f : R3 → R2 uma aplica¸ca˜o linear cuja matriz que representa f relativamente a`s bases B1 = ((−1, 0, 0), (0, 0, 1), (0, 1, 0)) e B2 = ((0, 1), (1, 0)) ´e 1 2 3 M(f ; B1 , B2 ) = . 5 0 1 Note-se que as colunas de M(f ; B1 , B2 ) s˜ao os vectores das coordenadas das imagens dos vectores de B1 na base B2 . Deste modo, f (−1, 0, 0) = 1 × (0, 1) + 5 × (1, 0) = (5, 1) f (0, 0, 1) = 2 × (0, 1) + 0 × (1, 0) = (0, 2) f (0, 1, 0) = 3 × (0, 1) + 1 × (1, 0) = (1, 3). ´ f´acil verificar que E (x, y, z) = −x(−1, 0, 0) + z(0, 0, 1) + y(0, 1, 0).
(4.5)
Utilizando (4.5) e a linearidade de f , vem f (x, y, z) = = = =
f (−x(−1, 0, 0) + z(0, 0, 1) + y(0, 1, 0)) −xf (−1, 0, 0) + zf (0, 0, 1) + yf (0, 1, 0) −x(5, 1) + z(0, 2) + y(1, 3) (−5x + y, −x + 2z + 3y).
Note-se ainda que, dada uma aplica¸ca˜o linear f : U → V e dadas B1 = (u1 , u2 , . . . , un ) e B2 = (v1 , v2 , . . . , vm ) bases de U e V , respectivamente, ´e sempre poss´ıvel construir uma u ´nica matriz A que define f em rela¸c˜ao a B1 e B2 . Para obter A basta, para cada j = 1, . . . , n,
˜ E PROPRIEDADES 4.1. DEFINIC ¸ AO
75
1. Calcular f (uj ); 2. Determinar o vector das coordenadas de f (uj ) na base B2 , (a1j , a2j , . . . , amj ) ;
(4.6)
3. Introduzir o vector (4.6) na j-´esima coluna de A. Exemplo.Considere-se a aplica¸ca˜o linear f : R3 → R2 , definida por f (x, y, z) = (−5x + y, −x + 3y + 2z) e as bases B1 = ((−1, 0, 0), (0, 0, 1), (0, 1, 0)) e B2 = ((0, 1), (1, 0)). Para obter a matriz de f relativamente `as bases B1 e B2 come¸ca-se por calcular as imagens dos elementos de B1 . Assim, f (−1, 0, 0) = (5, 1), f (0, 0, 1) = (0, 2) e f (0, 1, 0) = (1, 3). De seguida, determinam-se os vectores das coordenadas de cada uma das imagens na base B2 , (a1j , a2j ), j = 1, 2, 3. Para tal, resolvem-se as equa¸c˜oes seguintes (5, 1) = a11 (0, 1) + a21 (1, 0) (0, 2) = a12 (0, 1) + a22 (1, 0) (1, 3) = a13 (0, 1) + a23 (1, 0), cujas solu¸co˜es s˜ao (a11 , a21 ) = (1, 5), (a12 , a22 ) = (2, 0) e (a13 , a23 ) = (3, 1), respectivamente. A matriz M(f ; B1 , B2 ) obt´em-se introduzindo, ordenadamente por coluna, os vectores das coordenadas. Assim, 1 2 3 M(f ; B1 , B2 ) = . 5 0 1
Considere-se, novamente, a combina¸c˜ao linear (4.2). A igualdade (4.4) permite escrever (4.2) da seguinte forma: f (u) = α1 (a11 v1 + . . . + am1 vm ) + α2 (a12 v1 + . . . + am2 vm ) + . . . + αn (a1n v1 + . . . + amn vm ) = (α1 a11 + . . . + αn a1n ) v1 + (α1 a21 + . . . + αn a2n ) v2 + . . . + (α1 am1 + . . . + αn amn ) vm .
(4.7)
76
˜ CAP´ITULO 4. APLICAC ¸ OES LINEARES
Note-se que os coeficientes dos vectores vi , i = 1, . . . , m, s˜ao as coordenadas de uma matriz produto, nomeadamente o produto da matriz M(f ; B1 , B2 ) pelo vector coluna constitu´ıdo pelas coordenadas de u na base B1 . Este produto matricial origina um vector coluna cujas componentes s˜ao as coordenadas de f (u) na base B2 . Assim, o c´alculo da imagem de um vector por uma aplica¸ca˜o linear corresponde a multiplicar a matriz da aplica¸c˜ao linear por um vector de coordenadas. Ent˜ao, f (u), em (4.7), pode escrever-se sucintamente em termos matriciais como (f (u))B2 = M(f ; B1 , B2 )uB1 ,
(4.8)
onde uB denota o vector das coordenadas de um vector u numa base B. ´ simExemplo. Considere-se a aplica¸c˜ao linear do exemplo anterior. E ples verificar que o vector das coordenadas do vector (1, 2, 3) na base B1 ´e T −1 3 2 . Assim, utilizando (4.8), obt´em-se (f (1, 2, 3))B2 = M(f ; B1 , B2 )(1, 2, 3)B1 =
1 2 3 5 0 1
−1 11 3 = . 3 2
Sejam U e V espa¸cos vectoriais sobre um corpo K e f : U → V uma aplica¸ca˜o linear. A Propriedade 2 garante a existˆencia de, pelo menos, um elemento em U , 0U , cuja imagem ´e o elemento neutro de V , 0V . O conjunto formado por todos os elementos de U cuja imagem por f ´e o elemento neutro de V , isto ´e, N ucf = {u ∈ U : f (u) = 0V } , designa-se n´ ucleo de f e ´e um subespa¸co vectorial de U . Em contrapartida, o conjunto Imf = {v : v = f (u), para algum u ∈ U } designa-se conjunto imagem de f ou contradom´ınio de f e ´e um subespa¸co vectorial de V . Comece-se por mostrar que N ucf ´e subespa¸co vectorial de U . Pela Propriedade 2, f (0U ) = 0V , logo 0U ∈ N ucf 6= ∅. Considere-se, agora, u, v ∈ N ucf e α, β ∈ R arbitr´arios. Ent˜ao, dado f ser linear, vem f (αu + βv) = αf (u) + βf (v) .
˜ E PROPRIEDADES 4.1. DEFINIC ¸ AO
77
Como u, v ∈ N ucf , obt´em-se f (αu + βv) = α0V + β0V = 0V e, por conseguinte, αu + βv ∈ N ucf . Logo, N ucf ´e um subespa¸co vectorial de U . De seguida mostra-se que Imf ´e um subespa¸co vectorial de V . Pela Propriedade 2, f (0U ) = 0V , logo 0V ∈ Imf 6= ∅. Considere-se, agora, v1 , v2 ∈ Imf e α, β ∈ R arbitr´arios. Por defini¸ca˜o de Imf , existem u1 , u2 ∈ U , tais que f (u1 ) = v1 e f (u2 ) = v2 . Assim, dado que f ´e linear, vem αv1 + βv2 = αf (u1 ) + βf (u2 ) = f (αu1 + βu2 ) . Como U ´e espa¸co vectorial, αu1 + βu2 ∈ U e, deste modo, αv1 + βv2 = f (αu1 + βu2 ) ∈ Imf, sendo, por isso, Imf um subespa¸co vectorial de V . ` dimens˜oes de Imf e N ucf chamam-se caracter´ıstica de f e nulidade As de f , respectivamente. Pode ainda mostrar-se (ver [2]) que ´e v´alida a seguinte igualdade dim N ucf + dim Imf = dim U. Note-se, ainda, que (4.2) permite concluir que Imf = hf (u1 ), f (u2 ), . . . , f (un )i . Exemplo. Considere-se a aplica¸ca˜o linear f : R3 → R2 , tal que f (x, y, z) = (−5x + y, −x + 3y + 2z). O n´ ucleo de f ´e o subespa¸co vectorial de R3 N ucf = (x, y, z) ∈ R3 : f (x, y, z) = (0, 0) = (x, y, z) ∈ R3 : (−5x + y, −x + 3y + 2z) = (0, 0) . Da igualdade anterior obt´em-se −5x + y =0 −x + 3y + 2z = 0, cuja solu¸ca˜o ´e (x, 5x, −7x). Assim, N ucf = {(x, 5x, −7x) : x ∈ R} = h(1, 5, −7)i.
˜ CAP´ITULO 4. APLICAC ¸ OES LINEARES
78
A nulidade de f ´e 1, visto que um elemento n˜ao nulo ´e linearmente independente. A imagem de f ´e o subespa¸co vectorial de R2 Imf = {(−5x + y, −x + 3y + 2z) : x, y, z ∈ R} . Dado que (−5x + y, −x + 3y + 2z) = x(−5, −1) + y(1, 3) + z(0, 2), vem Imf = h(−5, −1), (1, 3), (0, 2)i = h(1, 3), (0, 2)i. Note-se que car
1 3 0 1
= 2,
por isso, estes dois vectores s˜ao linearmente independentes e, assim sendo, a caracter´ıstica de f ´e igual a 2. Observe-se que, efectivamente, dim N ucf + dim Imf = dim R3 , visto que 1 + 2 = 3. Tal como se referiu, no in´ıcio deste cap´ıtulo, alguns espa¸cos vectoriais aparentam ser “iguais”. Neste momento ´e poss´ıvel clarificar esta ideia, come¸case, por isso, por recordar algumas no¸co˜es. Dados dois conjuntos A e B e uma aplica¸c˜ao f : A → B, diz-se que - a aplica¸ca˜o f ´e injectiva se e s´o se quaisquer dois elementos distintos de A n˜ao tˆem a mesma imagem, isto ´e, u1 6= u2 =⇒ f (u1 ) 6= f (u2 ),
u1 , u2 ∈ A.
- a aplica¸ca˜o f ´e sobrejectiva se e s´o se todo o elemento de B ´e imagem, por f , de algum elemento de A, isto ´e, ∃u ∈ A, tal que v = f (u),
v ∈ B.
- a aplica¸c˜ao f ´e bijectiva se for simultaneamente injectiva e sobrejectiva. No caso particular de f : U → V ser uma aplica¸c˜ao linear,
˜ E PROPRIEDADES 4.1. DEFINIC ¸ AO
79
- f ´e injectiva se e s´o se N ucf = {0U }. - f ´e sobrejectiva se e s´o se dim V = dim Imf . Comece-se por mostrar que f ´e injectiva se e s´o se N ucf = {0U }. (⇒) Do Teorema 39, obt´em-se f (0U ) = 0V , o que, conjuntamente com o facto de f ser injectiva, permite concluir que N ucf = {0U }. (⇐) Utilizando a lei da convers˜ao, pretende mostrar-se que se N ucf 6= {0U } ent˜ao f n˜ao ´e injectiva. Efectivamente, pela Propriedade 2, vem que f (0U ) = 0V . Mas, como, por hip´otese, N ucf 6= {0U } ent˜ao existe x ∈ U , x 6= 0U , tal que f (x) = 0V . Logo, f n˜ao ´e injectiva. De seguida mostra-se que f ´e sobrejectiva se e s´o se dim V = dim Imf . Efectivamente, f ´e sobrejectiva se e s´o se ∃u ∈ U, tal que v = f (u),
v∈V
ou, de modo equivalente, se e s´o se V ≡ Imf . Como Imf ⊆ V , obt´em-se V ≡ Imf se e s´o se dim V = dim Imf . Exemplo. A aplica¸c˜ao linear f : R3 → R2 , tal que f (x, y, z) = (−5x + y, −x + 3y + 2z) n˜ao ´e bijectiva. De facto, f ´e bijectiva se e s´o se f ´e sobrejectiva e injectiva. A aplica¸ca˜o f ´e sobrejectiva, dado que dim R2 = 2 = dim Imf . No entanto, como N ucf 6= {(0, 0, 0)}, f n˜ao ´e injectiva e, como tal, tamb´em n˜ao ´e bijectiva. Existem aplica¸co˜es que transformam um espa¸co vectorial noutro preservando a sua estrutura. Estas aplica¸c˜oes designam-se isomorfismos. Assim, dada uma aplica¸c˜ao linear f : U → V , se - f ´e bijectiva, f diz-se um isomorfismo; - f ´e injectiva, f diz-se um monomorfismo; - f ´e sobrejectiva, f diz-se um epimorfismo. No caso particular de U = V , a aplica¸ca˜o linear f designa-se endomorfismo. A um isomorfismo em que U = V d´a-se o nome de automorfismo. O exemplo seguinte mostra que, de facto, existem aplica¸co˜es que transformam um espa¸co vectorial noutro preservando a sua estrutura.
˜ CAP´ITULO 4. APLICAC ¸ OES LINEARES
80
Exemplo. Considerem-se os espa¸cos vectoriais M1×2 e M2×1 . A adi¸ca˜o em M1×2 1 −2 + −3 4 = −2 2 corresponde em M2×1 a
1 −2
+
−3 4
=
−2 2
.
Em contrapartida, a multiplica¸ca˜o escalar em M1×2 −9 −3 4 = 27 −36 corresponde em M2×1 a −9
−3 4
=
27 −36
.
Mais geralmente, sob a correspondˆencia u1 u1 u2 ↔ u2 ambas as opera¸c˜oes que se seguem preservam a estrutura dos elementos, isto ´e, elementos correspondentes adicionam-se ou multiplicam-se por um escalar de forma correspondente, u1 v1 u1 + v1 u1 u2 + v1 v2 = u1 + v1 u2 + v2 ←→ + = u2 v2 u2 + v2
α
u1 u2
=
αu1 αu2
←→ α
u1 u2
=
αu1 αu2
.
Assim, estes espa¸cos podem considerar-se “iguais” neste sentido.
Bibliografia ´ [1] Isabel Cabral, Cec´ılia Perdig˜ao e Carlos Saiago, Algebra Linear, Teoria, Exerc´ıcios Resolvidos e Exerc´ıcios propostos com solu¸c˜oes, Escolar Editora, 2008 ´ [2] Em´ılia Giraldes, Victor H. Fernandes e Maria Paula M. Smith,Algebra Linear e Geometria Anal´ıtica, McGraw-Hill de Portugal, 1995. [3] Jim Hefferon, Linear Algebra, ftp://joshua.smcvt.edu/pub/hefferon/book/book.pdf. ´ [4] Luis T. Magalh˜aes, Algebra Linear como introdu¸c˜ao a matem´atica aplicada, Texto Editora, Lisboa, 1993. ´ [5] Jo˜ao F. Queir´o e Ana Paula Santana, Introdu¸c˜ao a` Algebra Linear, Trajectos da Ciˆencia, Gradiva, 2010 [6] Gareth Williams, Linear Algebra with applications, Jones and Bartlett publishers, 2011
81
View more...
Comments