AlgebraLinearProfessorFaleiros

Share Embed Donate


Short Description

Download AlgebraLinearProfessorFaleiros...

Description

CURSO DE

Álgebra Linear Antonio Cândido Faleiros Centro de Matemática, Computação e Cognição Universidade Federal do ABC Santo André, SP 28 de março de 2011

2

Sumário 1 Sistemas de equações lineares 1.1 Equações lineares . . . . . . . . . . . . . . . . . . . . . . 1.2 Sistemas de equações lineares . . . . . . . . . . . . . . . 1.3 Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Sistema escalonado . . . . . . . . . . . . . . . . . . . . . 1.5 Operações elementares . . . . . . . . . . . . . . . . . . . 1.6 Método da eliminação de Gauss . . . . . . . . . . . . . . 1.6.1 A eliminação de Gauss-Jordan . . . . . . . . . . . 1.7 Operações matriciais . . . . . . . . . . . . . . . . . . . . 1.7.1 Adição de matrizes . . . . . . . . . . . . . . . . . 1.7.2 Multiplicação de uma matriz por um número real 1.7.3 Multiplicação de matrizes . . . . . . . . . . . . . 1.8 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . 1.9 Potências . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10 Matriz transposta . . . . . . . . . . . . . . . . . . . . . . 1.11 Matrizes elementares . . . . . . . . . . . . . . . . . . . . 1.11.1 Sistemas equivalentes e matrizes elementares . . . 1.12 Um método para inverter matrizes . . . . . . . . . . . . 1.13 Forma matricial de um sistema linear . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

9 9 12 15 17 21 22 25 27 27 27 28 31 32 33 34 36 36 38

2 Determinantes 2.1 De…nição de determinante . . . . . 2.2 Propriedades do determinante . . . 2.3 Autovalores e Autovetores . . . . . 2.4 Cofatora, adjunta clássica e inversa 2.5 Regra de Cramer . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

43 45 47 51 52 53

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

3 Espaço vetorial 55 3.1 Propriedades adicionais . . . . . . . . . . . . . . . . . . . . . . . 58 3.2 O espaço vetorial das ênuplas ordenadas . . . . . . . . . . . . . 58 3.3 Outros espaços vetoriais relevantes . . . . . . . . . . . . . . . . 59 3

4

SUMÁRIO 3.4 3.5 3.6 3.7 3.8 3.9 3.10 3.11

Subespaços vetoriais . . . . . . . . . . . . . . . Espaço gerado . . . . . . . . . . . . . . . . . . . Dependência linear . . . . . . . . . . . . . . . . Dependência linear de funções . . . . . . . . . . Base e dimensão de um espaço vetorial . . . . . Matriz de mudança de base . . . . . . . . . . . Espaço linha e espaço coluna . . . . . . . . . . . Sistemas lineares e o espaço nulo de uma matriz

4 Transformação linear 4.1 Transformação linear e bases . . . . . 4.2 Exemplos de transformações lineares 4.3 Composição e inversa . . . . . . . . . 4.4 Matriz de uma transformação linear . 4.5 Matriz da composta e da inversa . . . 4.6 Matrizes semelhantes . . . . . . . . . 4.7 Núcleo e imagem . . . . . . . . . . .

. . . . . . .

5 Produto interno 5.0.1 Produtos internos . . . . . . . . 5.1 Norma e distância . . . . . . . . . . . . 5.2 Desigualdade de Cauchy-Schwarz . . . 5.3 Ângulo entre dois vetores . . . . . . . . 5.4 Bases ortogonais e ortonormais . . . . 5.5 Coordenadas numa base ortogonal . . . 5.6 Produto interno numa base ortonormal 5.7 Complemento ortogonal . . . . . . . . 5.8 Projeção ortogonal . . . . . . . . . . . 5.9 Obtendo bases ortogonais . . . . . . . 5.10 Decomposição QR . . . . . . . . . . . 5.11 Matriz ortogonal . . . . . . . . . . . . 5.12 Mínimos quadrados . . . . . . . . . . . 5.13 Soluções de mínimos quadrados . . . . 5.14 Teorema sobre matriz inversível . . . .

. . . . . . .

. . . . . . . . . . . . . . .

. . . . . . .

. . . . . . . . . . . . . . .

. . . . . . .

. . . . . . . . . . . . . . .

6 Autovalores e autovetores 6.1 Autovalor e autovetor de uma matriz . . . . 6.2 Autovalor e autovetor de um operador linear 6.3 Potências de matrizes . . . . . . . . . . . . . 6.4 Diagonalização . . . . . . . . . . . . . . . . 6.5 Potência de uma matriz . . . . . . . . . . .

. . . . . . .

. . . . . . . . . . . . . . .

. . . . .

. . . . . . .

. . . . . . . . . . . . . . .

. . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

60 62 63 66 69 74 77 82

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

89 91 94 96 99 101 103 106

. . . . . . . . . . . . . . .

109 . 109 . 110 . 112 . 113 . 115 . 115 . 116 . 117 . 118 . 119 . 121 . 123 . 126 . 128 . 132

. . . . .

135 . 135 . 138 . 140 . 141 . 144

. . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . .

. . . . . . . . . . . . . . .

. . . . .

SUMÁRIO

5

6.6 Diagonalização ortogonal . . . . . . . . . . . . . . . . . . . . . . 145

6

SUMÁRIO

Prefácio Estas notas de aula se basearam, inicialmente, no livro de Anton e Rorres, Álgebra Linear Aplicada. Depois elas foram in‡uenciadas pelos excelentes livros: Álgebra Linear e Aplicações do Calioli, Domingues e Costa, Álgebra Linear do Boldrini, Costa, Figueiredo e Wetzler Álgebra Linear do Nicholson, além de minhas preferências pessoais sobre como apresentar o assunto. Antonio Cândido Faleiros UFABC, Santo André, SP, 2011

Notas de aula do Professor Faleiros

8

SUMÁRIO

Notas de aula do Professor Faleiros

Capítulo 1 Sistemas de equações lineares 1.1

Equações lineares

Quando estudamos a geometria analítica plana, usando um sistema de coordenadas cartesianas ortogonais, cujos eixos caracterizamos pelos índices 1 e 2; …xada uma reta, existem três números reais a1 ; a2 e b tais que as coordenadas cartesianas (x1 ; x2 ) dos pontos da reta obedecem a uma equação do tipo a1 x 1 + a2 x 2 = b onde a1 ou a2 é diferente de zero. Podemos pensar em a1 x1 +a2 x2 = b como sendo uma equação, denominada equação geral da reta, envolvendo duas incógnitas x1 e x2 : Os pontos (c1 ; c2 ) da reta satisfazem a a1 c1 + a2 c2 = b e são denominadas de soluções desta equação. Os Exemplo 1.1 O ponto (x1 ; x2 ) = (1; 2) do plano cartesiano pertence à reta cuja equação geral é 3x1 x2 = 1: Na geometria analítica espacial, quando se usa um sistema de coordenadas cartesianas ortogonais, com eixos caracterizados pelos índices 1; 2 e 3; …xado um plano, as coordenadas cartesianas (x1 ; x2 ; x3 ) dos seus pontos satisfazem a uma equação da forma a1 x 1 + a2 x 2 + a3 x 3 = b onde a1 ; a2 ; a3 e b são números reais e, dos três números a1 ; a2 e a3 ; pelo menos um não é nulo. Exemplo 1.2 O ponto (x1 ; x2 ; x3 ) = (2; 1; 1) do espaço cartesiano pertence ao plano cuja equação geral é 4x1 + 3x2 2x3 = 3: Notas de aula do Professor Faleiros

10

Sistemas de equações lineares

Exemplo 1.3 No espaço cartesiano, x1 + x2 = 5 é a equação geral de um plano, e não de uma reta, como poderíamos pensar num primeiro momento. A ausência do x3 se deve ao fato de, nesta equação, ele estar multiplicado por zero. Podemos nos esquecer da geometria e nos ater à algebra das equações de retas e planos. Seja n um número inteiro maior do que 1 e a1 ; : : : ; an ; números reais. Sendo b um número real, a1 x 1 +

+ an x n = b

(1.1)

é uma equação algébrica linear ou equação linear nas n incógnitas x1 ; : : : ; xn : Os números reais a1 ; a2 ; : : : ; an são os coe…cientes e b é o termo constante da equação. Se c1 ; : : : ; cn forem números reais tais que a1 c 1 +

+ an cn = b;

diremos que x1 = c1 ; : : : ; xn = cn ou (x1 ; : : : ; xn ) = (c1 ; : : : ; cn ): é solução da equação linear (1.1). Ainda, por simplicidade, iremos dizer que a sequência (c1 ; c2 ; : : : ; cn ) é solução de (1.1). A equação 0x1 + + 0xn = b onde todos os coe…cientes são nulos, é chamada de degenerada. Quando b 6= 0; ela é a única equação linear que não possui solução. Quando b = 0; toda sequência (c1 ; c2 ; : : : ; cn ) é solução. Exemplo 1.4 Uma solução de 3x1 5x2 = 1 é x1 = 12 e x2 = 7: Podemos dizer também que (x1 ; x2 ) = (12; 7) é solução ou que o par (12; 7) é solução. Existem outras soluções para esta equação linear. Explicitando x1 ; obtemos x1 = (1+ 5x2 )=3: Atribuindo um valor c2 qualquer a x2 ; obtemos desta igualdade um valor c1 para x1 tal que x1 = c1 e x2 = c2 é solução da equação linear dada. Fazendo x2 = 1; obtemos x1 = 2 e (x1 ; x2 ) = (2; 1) é solução da equação dada. Na equação linear a1 x1 + a incógnita x1 para obter x1 =

+an xn = b; quando a1 6= 0; pode-se explicitar 1 (b a1

a2 x 2

an x n ) :

Notas de aula do Professor Faleiros

1.1 Equações lineares

11

Nesta equação, x1 recebe o nome de variável dependente e as demais de variáveis independentes ou livres. As incógnitas recebem também o nome de variável pois, ao escolher livremente os valores de x2 ; : : : ; xn ; a equação acima estabelece um valor para x1 ; que depende dos valores das demais incógnitas. Para obter uma solução, pode-se variar os valores das incógnitas que passam a ser chamadas de variáveis. Sendo c2 ; : : : ; cn números reais, fazendo x2 = c2 ; : : : ; xn = cn obtemos pela an cn ) : Denotando o número real do equação acima x1 = a11 (b a2 c2 lado direito desta igualdade por c1 ; a sequência (c1 ; c2 ; : : : ; cn ) é uma solução da equação linear original. De modo geral, se ak 6= 0; pode-se explicitar a variável xk ; que passa a ser a variável dependente, sendo as incógnitas restantes as variáveis independentes. Excetuando as equações lineares degeneradas com termo constante não nulo, as demais, com duas ou mais variáveis, possuem in…nitas soluções. O conjunto de todas elas é denominado de conjunto solução ou solução geral da equação. Para obter o conjunto solução da equação linear a1 x1 + +an xn = b basta explicitar uma incógnita em função das demais. Se a1 6= 0; a solução geral será o conjunto f (x1 ; : : : ; xn ) : x1 =

1 (b a1

a2 x 2

an xn ) com x2 ; : : : ; xn 2 R g

Exemplo 1.5 Explicitando o x2 em função de x1 na equação linear 5x1 x2 = 1 obtém-se x2 = 5x1 1 e a solução geral da equação linear original é f (x1 ; x2 ) : x2 = 5x1

1 com x1 2 R g:

Aproveitando o exemplo anterior, vamos observar que a solução geral do sistema pode ser apresentada de modo que as incógnitas x1 e x2 sejam tratadas em pé de igualdade, como funções de uma terceira variável. Se introduzirmos uma nova variável t de…nida por t = x1 ; então x2 = 5t 1 e o conjunto solução passa a ter o formato f ( t; 5t 1 ) : t 2 Rg:

A variável t é denominada de parâmetro da solução geral. Em lugar de expressar a solução geral na forma de um conjunto pode-se simplesmente escrevê-la na forma x1 = t e x2 = 5t 1; destacando que t é um parâmetro que percorre os reais. Aqui se subentende que o conjunto formado pelos pares (x1 ; x2 ) onde x1 = t e x2 = 5t 1; com t 2 R; é o conjunto solução da equação. Exemplo 1.6 Na equação x 4y + 7z = 5 podemos explicitar x em função de y e z para obter x = 5+ 4y 7z: A solução geral desta equação é f (x; y; z) : x = 5 + 4y

7z; com y e z percorrendo os reais g

Notas de aula do Professor Faleiros

12

Sistemas de equações lineares

De…nindo os parâmetros r e c por r = y e c = z; obtemos a solução geral na forma paramétrica x=5 y=t z=c

4t + 7c

onde os parâmetros t e c que podem assumir qualquer valor real. A cada valor atribuído a t e a c temos uma solução da equação.

1.2

Sistemas de equações lineares

Quando estudamos Geometria Analítica Plana, quando se pretende analisar a posição relativa de duas retas cujas equações gerais são a11 x1 + a12 x2 = b1 a21 x1 + a22 x2 = b2 é preciso determinar os pontos (x1 ; x2 ) do plano que satisfazem simultaneamente às duas equações. Quando as retas forem paralelas e disjuntas, elas não possuem pontos em comum, de modo que nenhum par ordenado (x1 ; x2 ) de números reais satisfaz às duas equações. Quando as retas forem coincidentes elas possuem uma in…nidade de pontos em comum e há uma in…nidade de pares de números reais que satisfaz às duas equações. Quando a interseção das retas ocorre em um ponto, há um único par (x1 ; x2 ) de números reais satisfaz às duas equações. Ainda na Geometria Analítica Plana, se faz o estudo da posição relativa de três ou mais retas. Como no caso anterior, as retas podem ter uma in…nidade de pontos, um único ponto ou nenhum ponto comum, casos em que as equações gerais das retas serão satisfeitas simultaneamente por uma in…nidade de pares de números reais, por um único par ou nenhum par, respectivamente. Na Geometria Analítica Espacial, dois planos cujas equações gerais são a11 x1 + a12 x2 + a13 x3 = b1 a21 x1 + a22 x2 + a23 x3 = b2 podem ter nenhum ou in…nitos pontos em comum. Eles podem ser paralelos e distintos, paralelos e coincidentes ou a interseção pode ocorrer ao longo de uma reta que pertence a ambos. Se os planos forem paralelos e distintos, não existe nenhum terno ordenado (x1 ; x2 ; x3 ) de números reais que satisfaz às duas equações gerais. Nos outros casos, onde a interseção não é vazia, há uma in…nidade de pares a satisfazer as duas equações. Notas de aula do Professor Faleiros

1.2 Sistemas de equações lineares

13

Ainda na Geometria Analítica Espacial, é interessante determinar a posição relativa de três planos quando eles poderão coincidir, ou ter interseção vazia, ou interseção ao longo de uma reta ou interseção num único ponto. Neste último caso, haverá um único terno (x1 ; x2 ; x3 ) de números reais que satisfaz às três equações das retas e, no segundo caso, não haverá nenhum terno satisfazendo às três equações das retas. No primeiro e terceiro caso, de coincidência dos três planos ou interseção ao longo de uma reta, teremos uma in…nidade de ternos de números reais satisfazendo às equações das três retas ao mesmo tempo. Estes exemplos nos mostram a importância de se estudar equações como as que surgem no contexto da geometria plana e espacial. Equações dessa natureza surgem no contexto do Cálculo Numérico e são de extrema importância para as aplicações da Matemática na Engenharia, na Física, na Química, na Biologia, na Economia. As equações gerais de retas e planos são equações lineares. Quando nos deparamos com mais de uma equação linear, dizemos estar diante de um sistema de equações lineares. Passemos a estudar tais sistemas em sua forma geral. Sejam m e n inteiros maiores do que 1: Sejam aij e bi ; com i = 1; 2; : : : m e j = 1; 2; : : : ; n; números reais. Um conjunto …nito de m equações lineares a11 x1 + a12 x2 + a21 x1 + a22 x2 +

+ a1n xn = b1 + a2n xn = b2

am1 x1 + am2 x2 +

+ amn xx = bm

(1.2)

nas incógnitas x1 ; : : : ; xn ; é chamado de sistema de equações algébricas lineares ou um sistema linear com m equações e n incógnitas. Se x1 = c1 ; : : : ; xn = cn for solução de todas as equações em (1.2), diremos que ela é solução do sistema (1.2). Também diremos que (x1 ; : : : ; xn ) = (c1 ; : : : ; cn ) ou que a ênupla ordenada de números reais (c1 ; : : : ; cn ) é solução do sistema linear. Um sistema de equações lineares pode ter solução ou não. Quando uma equação do sistema for degenerada, 0x1 +

+ 0xn = b;

com todos os coe…cientes nulos e b diferente de zero, já podemos a…rmar que o sistema não possui solução. Notas de aula do Professor Faleiros

14

Sistemas de equações lineares

Podemos simpli…car a notação de um sistema usando o símbolo de somatório. Com ele pode-se escrever a i ésima equação na forma n X

aij xj = bi

j=1

e assim denotar todas as equações do sistema observando que i assume todos os valores inteiros de 1 a m; como em n X

aij xj = bi ;

com

i = 1; : : : ; m:

j=1

Exemplo 1.7 O sistema x1 + x2 = 1 0x1 + 0x2 = 2 não tem solução pois a segunda equação é degenerada e seu termo constante é diferente de zero. O sistema x1 + x2 = 1 x1 + x2 = 2 não possui solução pois a soma x1 + x2 não pode ser ao mesmo tempo igual a 1 e a 2: Já o sistema x1 + x2 = 2 0x1 + 0x2 = 0 possui in…nitas soluções pois a segunda equação é satisfeita para quaisquer valores que se atribua a x1 e a x2 : A primeira é satisfeita sempre que x1 = t e x2 = 2 t; para todo t real. O sistema x1 x2 = 2 x1 + x2 = 4 tem uma única solução (x1 ; x2 ) = (3; 1) que pode ser obtida observando que, ao adicionar as duas equações obtemos 2x1 = 6 e, ao subtrair a primeira da segunda, obtemos 2x2 = 2: Um sistema de equações lineares é consistente ou compatível quando tiver ao menos uma solução e inconsistente ou incompatível quando não possuir solução. O conjunto de todas as soluções é chamado de conjunto solução ou solução geral do sistema. Notas de aula do Professor Faleiros

1.3 Matriz

15

Exemplo 1.8 Todas as soluções do sistema x1

3x2 + x3 = 0 x2 x3 = 1

são tais que x1 = 3 + 2x3 ; x2 = 1 + x3 com x3 percorrendo os reais, e o seu conjunto solução é f (x1 ; x2 ; x3 ) : x1 = 3 + 2x3 ; x2 = 1 + x3 com x3 2 R g: Para veri…car este fato, basta explicitar x1 na primeira equação, x2 na segunda equação, usando-a para eliminá-la da primeira equação.

1.3

Matriz

Para determinar a solução de um sistema precisamos apenas dos seus coe…cientes e das suas constantes. Estes coe…cientes e constantes podem ser dispostos em uma matriz que é uma coleção de números dispostos em uma tabela retangular e delimitada por colchetes. Os números que compõem uma matriz são denominados des entradas ou elementos d matriz. As linhas e as colunas da tabela serão as linhas e as colunas da matriz. Uma matriz de tamanho m n é aquela que possui m linhas e n colunas. Quando o número de linhas for igual ao número de colunas se diz que a matriz é quadrada. Uma matriz quadrada n n é chamada matriz de ordem n: Matrizes com um única coluna são denominadas matrizes coluna ou vetores coluna. Matrizes com uma única linha são denominadas matrizes linha ou vetores linha. Vamos usar letras maiúsculas para designar as matrizes e letras minúsculas com subíndices para designar suas entradas. Estes índices informam a posição da entrada na matriz, tal como em 2 3 a11 a12 a1n 6 a21 a22 a2n 7 6 7 A = 6 .. .. .. 7 .. 4 . . . . 5 am1 am2 amn

onde aij é a entrada da linha i coluna j: A matriz acima pode ser representada de forma abreviada por A = [aij ] ou por [aij ]m n quando for desejável indicar explicitamente o seu tamanho. É comum usar a notação aij = (A)ij : Os elementos aii ; para i = 1; 2; : : : são os elementos da diagonal principal da matriz também denominada de diagonal da matriz. Os elementos ai; n+1 i ; para i = 1; 2; : : : são os elementos da diagonal secundária da matriz. Uma Notas de aula do Professor Faleiros

16

Sistemas de equações lineares

matriz quadrada onde apenas os elementos da diagonal principal são diferentes de zero são chamadas de matriz diagonal. Uma matriz quadrada na qual todas as entradas acima da diagonal principal são zero é chamada triangular inferior e uma matriz quadrada naqual todas as entradas abaixo da diagonal principal são zero é chamada triangular superior. Uma matriz que é triangular inferior ou triangular superior é chamada triangular. Quando se tratar de uma matriz linha ou coluna, podemos abrir uma exceção e usar uma letra minúscula em negrito para designá-la tal como em

a=

a1 a2

an

e

2

6 6 b=6 4

b1 b2 .. . bm

3 7 7 7 5

Duas matrizes A = [aij ] e B = [bij ] são iguais quando ambas possuírem o mesmo tamanho e suas entradas correspondentes forem iguais, isto é, aij = bij ; para i e j percorrendo todas as linhas e todas as colunas de A e B: Quando duas matrizes A e B forem iguais, escreveremos A = B: Como enfatizamos no início desta seção, as matrizes mostraram-se muito úteis na representação de sistemas lineares. Dado o sistema linear a11 x1 + a12 x2 + a21 x1 + a22 x2 +

+ a1n xn = b1 + a2n xn = b2

am1 x1 + am2 x2 +

+ amn xx = bm

com m equações e n incógnitas, a tabela retangular de números 2

6 6 A=6 4

a11 a21 .. .

a12 a22 .. .

am1 am2

...

a1n a2n .. . amn

3 7 7 7 5

é chamada de matriz dos coe…cientes do sistema e 2 3 b1 6 7 b = 4 ... 5 bm Notas de aula do Professor Faleiros

1.4 Sistema escalonado

17

é a matriz das constantes do sistema. de A; obtemos a matriz aumentada ou 2 a11 a12 6 a21 a22 6 6 .. .. .. 4 . . . am1 am2

Ao acrescentar a coluna b à direita matriz completa do sistema 3 a1n b1 a2n b2 7 7 .. .. 7 . . 5 amn bm

que será denotada por [ A j b ]: A notação matricial simpli…ca a notação e proporciona uma ferramenta matemática e…ciente no estudo teórico e numérica dos sistemas, mormente quando se estudam os sistemas de grande porte, que são aqueles com muitas equações e muitas incógnitas. Exemplo 1.9 A matriz completa do sistema x + y + 2z = 9 2x + 4y 3z = 1 3x + 6y 5z = 0

é

2

1 1 4 2 4 3 6

1.4

3 2 9 3 1 5: 5 0

Sistema escalonado

É muito simples obter a solução geral de alguns sistemas especiais e, dentre eles, se destacam os sistemas escalonados. Uma matriz escalonada é aquela em que 1. as linhas nulas …cam agrupadas na parte inferior da matriz; 2. nas linhas não nulas, o primeiro elemento não nulo da esquerda para a direita é o número 1: Este número é o líder ou pivô da linha; 3. a partir da segunda linha, o elemento líder …ca à direita do líder da linha acima. Uma matriz é escalonada reduzida se 1. for escalonada e Notas de aula do Professor Faleiros

18

Sistemas de equações lineares 2. o líder é o único elemento não nulo de sua coluna.

Exemplo 1.10 As 2 0 4 0 0 são escalonadas e

matrizes 3 1 2 3 4 0 0 1 2 5 0 0 0 0 2

1 6 0 6 4 0 0

é escalonada reduzida.

2 0 0 0

2

3 1 2 3 4 5 4 0 0 1 2 3 5 0 0 0 1 2

e

0 1 0 0

4 2 0 0

0 0 1 0

3 6 4 7 7 2 5 0

Um sistema linear é escalonado quando sua matriz completa for escalonada e escalonado reduzido quando sua matriz completa for escalonada reduzida. Exemplo 1.11 O sistema x1 + 2x2 + 3x3 + 4x4 = 5 x2 + 2x3 + 3x4 = 4 x4 = 2 é escalonado e x1 x2

x3 +2x3 x4

= 5 = 6 = 7

é escalonado reduzido. Um sistema escalonado não possui solução quando uma de suas equações for degenerada, 0x1 + 0x2 + + 0xn = b com b diferente de zero. Nos demais casos, o sistema escalonado será consistente e podemos obter sua solução geral com o procedimento descrito abaixo. Inicialmente explicita-se em cada equação a incógnita que está multiplicada pelo pivô. Estas são as incógnitas líderes do sistema. Em seguida, segue-se um procedimento conhecido por substituição reversa. A expressão que está do lado direito da última equação é usada para eliminar a última incógnita lider das equações acima. A expressão que está do lado direito da penúltima equação é usada para eliminar a penúltima incógnita líder das equações acima. Notas de aula do Professor Faleiros

1.4 Sistema escalonado

19

Este procedimento é continuado até eliminar todas as incógnitas líderes do lado direito das equações que formam o sistema. Num sistema escalonado consistente, as incógnitas que restarem do lado direito depois da substituição reversa, são denominadas de variáveis livres ou independentes. O termo variável tem sua origem no fato de podermos atribuir a elas qualquer valor real para obter uma solução do sistema. As incógnitas líderes que permaneceram do lado esquerdo passam a depender dos valores das variáveis livres e, por este motivo, recebem o nome de variáveis dependentes ou variáveis líderes. Quando não houver variável livre, o sistema terá uma única solução. Existindo variáveis livres, o sistema possuirá in…nitas soluções. Quando houver uma equação degenerada com termo constante não nulo, o sistema não tem solução. Para obter a solução geral de sistemas escalonados reduzidos, a etapa de substituição reversa é desnecessária pois, ao explicitar as variáveis líderes, restarão apenas as variáveis independentes no lado direito das equações. Exemplo 1.12 Para resolver o sistema escalonado x1

x2 + 2x3 = 3 x2 x3 = 1 x3 = 2

Explicitamos as variáveis dependentes x1 ; x2 e x3 ; que são as variáveis dos pivôs da matriz completa do sistema x1 = x2 x2 = x3 x3 = 2

2x3 + 3 1

Podemos eliminar as as variáveis dependentes do lado direito das equações, usando substituição reversa. A última equação é usada para eliminar x3 do lado direito das equações acima. Depois, a penúltima equação é usada para eliminar x2 do lado direito da equação acima. Usando este procedimento, chegamos a x3 = 2 x2 = x3 x1 = x2

1=2 1=1 2x3 + 3 = 1 4 + 3 = 0

e concluímos que a única solução deste sistema é (x1 ; x2 ; x3 ) = (0; 1; 2): Notas de aula do Professor Faleiros

20

Sistemas de equações lineares

Exemplo 1.13 Para resolver o sistema escalonado x1 + 2x2 x3 = 1 x2 + x3 = 2 explicitamos as variáveis dependentes x1 e x2 ; x1 = 2x2 + x3 + 1 x2 = 2 x3 e usamos a segunda equação para eliminar o x2 da primeira equação x1 =

2(2

x3 ) + x3 + 1 = 3x3

3

O x3 é a variável livre deste sistema, que terá in…nitas soluções. Sua solução geral é x1 = 3x3 3; x2 = 2 x3 ; com x3 percorrendo os reais. Se desejarmos tratar x1 ; x2 e x3 em pé de igualdade, introduzimos uma nova variável t; de…nindo-a por t = x3 quando então se escreve a solução geral na forma x1 = 3t 3; x2 = 2 t; x3 = t; com t percorrendo o conjunto dos números reais. A nova variável t recebe o nome de parâmetro e com ele a solução geral se apresenta na forma paramétrica. Exemplo 1.14 Para resolver o sistema escalonado reduzido x1

2x2 + 3x3 + x4 = 1 x3 3x4 = 2

explicitamos as variáveis dependentes x1 e x3 x1 = 1 + 2x2 x3 = 2 + 3x4

3x3

x4

Usamos a segunda equação para eliminar a variável dependente x3 do lado direito da primeira equação e obter x1 = 1 + 2x2

3(2 + 3x4 )

x4 = 2x2

10x4

5:

Temos duas variáveis livres, a x2 e a x4 e a solução geral deste sistema é x1 = 2x2 10x4 x3 = 2 + 3x4

5

onde x2 e x4 podem assumir qualquer valor. Notas de aula do Professor Faleiros

1.5 Operações elementares

21

Querendo tratar as quatro variáveis em pé de igualdade na solução geral, pode-se introduzir duas novas variáveis r e s; de…nindo-as por r = x2 e s = x4 : A solução geral poderá ser escrita na forma paramétrica x1 x2 x3 x4

= 2r 10c =r = 2 + 3s =s

5

onde os parâmetros r e s podem assumir qualquer valor real. Diremos que a solução geral é uniparamétrica quando depender de um parâmetro, biparamétrica quando depender de dois, triparamétrica se depender de três. Quando a solução geral depender de mais do que três parâmetros podemos continuar com os pre…xos tetra, penta, hexa ou chamá-la de poliparamétrica. Nos resta agora discutir a solução de sistemas genéricos. Veremos como aplicar transformações ao sistema original até chegar a um sistema escalonado equivalente. Dois sistemas são equivalentes quando possuem o mesmo conjunto solução.

1.5

Operações elementares

A transformação de um sistem em outro equivalente é realizada por meio de operações elementares sobre as equações do sistema que são de três tipos: 1. Trocar de posição duas equações, levando cada uma para a posição da outra. 2. Multiplicar uma equação por uma constante não nula. 3. Adicionar a uma equação um múltiplo de outra. Quando se multiplica uma equação por um número real, a equação obtida é denominada de múltiplo da equação original. As três operações elementares sobre as equações de um sistema correspondem às operações elementares sobre as linhas da matriz completa: 1. Trocar de posição duas linhas, levando cada uma para a posição da outra. 2. Multiplicar uma linha por uma constante não nula. 3. Adicionar a uma linha um múltiplo de outra linha. Notas de aula do Professor Faleiros

22

Sistemas de equações lineares

As operações elementares são reversíveis e transformam um sistema em outro equivalente. Por reversíveis queremos dizer que, se mediante uma operação elementar podemos levar uma matriz A noutra matriz B; então é possível levar a matriz B na matriz A efetuando uma operação elementar. Se B for obtida de A permutando suas linhas r e s; podemos recuperarA permutando as linhas r e s de B: Se B for obtida multiplicando a linha i de A por um número real diferente de zero, podemos recuperar A multiplicando a linha i de B por 1 : Se B for obtida adicionando à linha r de A um múltiplo da sua linha s; podemos recuperar A adicionando à linha r de B o múltiplo da sua linha s: Quando aplicamos sucessivas operações elementares sobre uma matriz M e chegamos a uma matriz escalonada R; dizemos que R é uma forma escalonada da matriz M: Se R for escalonada reduzida, diremos que R é a forma escalonada reduzida da matriz M: A forma escalonada reduzida de uma matriz M é única.

1.6

Método da eliminação de Gauss

Quando todos os coe…cientes que multiplicam uma incógnita forem iguais a zero, como em x1 + 0x2 + 4x3 = 5 x1 + 0x2 8x3 = 7 a variável x2 é livre. Independentemente do valor que a ela for atribuído, ela não contribuirá com a soma. A segunda coluna da matriz completa deste sistema 1 0 4 5 1 0 8 8 é nula. Na prática, nem se escreve o termo x2 em sistemas como o acima e ele é apresentado na forma x1 + 4x3 = 5 x1 8x3 = 7 e se elimina a segunda coluna de sua matriz completa que passa a ser 1 1

4 5 8 8

:

Notas de aula do Professor Faleiros

1.6 Método da eliminação de Gauss

23

Se uma equação do sistema for identicamente nula como é o caso da terceira equação do sistema x1 3x2 + 2x3 = 9; x1 + 4x2 + 6x3 = 1; 0x1 + 0x2 + 0x3 = 0: o fato de qualquer solução das duas primeiras equações ser uma solução da terceira, podemos eliminá-la e buscar soluções para as duas primeiras equações x1 3x2 + 2x3 = 9; x1 + 4x2 + 6x3 = 1: Com relação à matriz completa do sistema, 2 3 1 3 2 9 4 1 4 6 1 5 0 0 0 0

a eliminação da última equação corresponde à eliminação da linha nula e escrever 1 3 2 9 : 1 4 6 1 Vamos trabalhar com a matriz completa do sistema e, numa primeira etapa, iremos eliminar suas linhas e colunas nulas pelos motivos explicados acima. Passemos à descrição do método da eliminação de Gauss, que consiste na realização de operações elementares sobre a matriz completa até transformá-la numa matriz escalonada. Denotaremos por bij a entrada da linha i coluna j da matriz completa [ A j b ]: 1. Faça i = 1 e j = 1: 2. Se bij = 0; percorra a coluna r de cima para baixo. (a) Se bis = 0 para todo s > j; passe para a próxima coluna fazendo j = j + 1 e retorne à etapa 2. (b) Se brs 6= 0 para algum s > j; leve a linha i para a posição da linha r e leve esta para a posição da linha i: Agora a entrada bij é diferente de zero. 3. Divida a linha i por bij para obter o pivô igual a 1: Notas de aula do Professor Faleiros

24

Sistemas de equações lineares 4. Adicione múltiplos da linha i às linhas que estão abaixo, de modo a zerar todas as entradas embaixo do pivô. 5. Passe à linha seguinte fazendo i = i + 1 e retorne à etapa 2. 6. Quando chegar à última linha, se bij 6= 0; divida-a por bij :

Ao …nal deste processo chega-se a um sistema escalonado, equivalente ao sistema original. Se uma equação deste sistema for degenerada e inconsistente, ele não terá solução. Se todas as equações do sistema escalonado forem consistentes, havendo variável livre, o sistema terá in…nitas soluções e, quando não, uma única solução. Exemplo 1.15 Usando o método da eliminação de Gauss para resolver o sistema nas variáveis x1 ; x2 ; x3 ; x4 ; x5 cuja matriz completa é 2 3 0 0 2 0 7 12 4 2 4 10 6 12 28 5 2 4 5 6 5 1 2

1 2 4 chegamos à matriz escalonada 0 0 0 0

5 3 1 0 0 0

3 6 14 7=2 6 5: 1 2

Exemplo 1.16 Usando o método da eliminação de Gauss para resolver o sistema nas variáveis x1 ; x2 ; x3 ; x4 cuja matriz completa é 2 3 1 2 2 1 9 4 1 2 1 0 4 5 1 2 2 1 7

chegamos à matriz escalonada 2

1 2 2 1 4 0 0 1 1 0 0 0 0

Como a última linha corresponde à equação

3 9 5 5 2

0x1 + 0x2 + 0x3 + 0x4 = 2; o sistema não possui solução. Notas de aula do Professor Faleiros

1.6 Método da eliminação de Gauss

1.6.1

25

A eliminação de Gauss-Jordan

A eliminação de Gauss-Jordan consiste na utilização de operações elementares sobre a matriz completa até transformá-la numa matriz escalonada reduzida. Efetuada a primeira etapa do método da eliminação de Gauss, pode-se continuar o processo, aplicando operações elementares sobre a matriz completa com o intuito de anular os coe…cientes acima dos pivôs, começando com os pivôs das linhas de baixo e subindo até a primeira linha e chegar a uma matriz escalonada reduzida. Lembre-se que a forma escalonada reduzida de uma matriz é única, seja qual for o caminho percorrido. Quando se chega à matriz escalonada reduzida, para obter a solução geral do sistema, basta explicitar as variáveis dependentes, que são aquelas correspondentes aos pivôs de cada linha. O método de Gauss e o de Gauss Jordan exigem o mesmo esforço computacional para resolver um sistema de equações algébricas lineares. Exemplo 1.17 Considere o escalonada é 2 1 4 0 0

sistema linear cuja matriz completa na forma 3 2 5 3 6 14 0 1 0 7=2 6 5 0 0 0 1 2

use o método descrito para zerar as entradas acima dos pivôs. Comece zerando as entradas acima do pivô da terceira linha. Em seguida, zere as entradas acima do pivô da segunda linha obtendo 2 3 1 2 0 3 0 7 4 0 0 1 0 0 1 5 0 0 0 0 1 2 que corresponde ao sistema

x1 + 2x2 + 0x3 + 3x4 + 0x5 = 7 x3 + 0x4 + 0x5 = 1 x5 = 2 cuja solução geral é x1 = 7 x3 = 1 x5 = 2

2x2

3x4

onde x2 e x4 são variáveis livres e podem assumir qualquer valor real. Notas de aula do Professor Faleiros

26

Sistemas de equações lineares

Exemplo 1.18 Resolva por eliminação de Gauss-Jordan x1 +3x2 2x1 +6x2 2x1 +6x2

2x3 +2x5 5x3 2x4 +4x5 3x6 5x3 +10x4 +15x6 +8x4 +4x5 +18x6

Resolução. A matriz completa 2 1 3 2 6 2 6 5 6 4 0 0 5 2 6 0

Realizando a eliminação gaussiana, 2 1 3 2 6 0 0 1 6 4 0 0 0 0 0 0

do sistema é 0 2 10 8

2 0 4 3 0 15 4 18

= = = =

0 1 5 6

3 0 1 7 7 5 5 6

chegamos à matriz escalonada 3 0 2 0 0 2 0 3 1 7 7 0 0 1 1=3 5 0 0 0 0

Continuando com as operações elementares, zeramos as entradas acima do pivô da terceira linha e, em seguida, zeramos as entradas acima do pivô da segunda linha quando então se chega á matriz escalonada reduzida 3 2 1 3 0 4 2 0 0 6 0 0 1 2 0 0 0 7 7 6 4 0 0 0 0 0 1 1 5 3 0 0 0 0 0 0 0 que nos fornece imediatamente a solução geral do sistema x1 = 3x2 x3 = x4 x6 = 1=3

4x4

2x5

onde x2 ; x4 e x5 são variáveis livres e podem assumir qualquer valor real. Quando o sistema escalonado for consistente e possuir m equações não nulas e n incógnitas, existirá uma única solução quando m = n e in…nitas soluções quando m < n: Exemplo 1.19 Dados k sistemas Ax = b1 ; : : : ; Ax = bk em que as matrizes dos coe…cientes são idênticas, podemos resolvê-los simultaneamente, realizando operações elementares sobre a matriz aumentada [A j b1 j j bk ] ; reduzindoa à forma escalonada e resolver todos os sistemas de uma só vez usando a eliminação de Gauss ou ainda, reduzindo-a à forma escalonada reduzida e resolvendo os sistemas usando o método de Gauss-Jordan. Notas de aula do Professor Faleiros

1.7 Operações matriciais

1.7 1.7.1

27

Operações matriciais Adição de matrizes

Sejam A = [aij ] e B = [bij ] duas matrizes m n: A adição de A com B é a operação que resulta na matriz soma A + B = [cij ]; de tamanho m n; onde cij = aij + bij para i = 1; : : : ; m e j = 1; : : : ; n: A matriz oposta de B = [bij ] ; denotada por B; é aquela cuja entrada da linha i coluna j é bij : A diferença A B é a matriz A + ( B); obtida subtraindo das entradas de A as entradas correspondentes de B: Matrizes de tamanhos distintos não podem ser adicionadas nem subtraídas. Matrizes de mesmo tamanho são ditas conformes para a adição.

1.7.2

Multiplicação de uma matriz por um número real

Seja A = [aij ] uma matriz m n e c um número real. A multiplicação de c por A é a operação que resulta na matriz cA = [caij ] de tamanho m n chamada de múltiplo de A por c: Observe que cada entrada de cA é igual a c vezes a entrada correspondente de A: Se A1 ; A2 ; : : : ; An são matrizes de mesmo tamanho e c1 ; c2 ; : : : ; cn são números reais, então uma expressão da forma c 1 A1 + c 2 A2 +

+ c n An

é chamada de combinação linear de A1 ; A2 ; : : : ; An com coe…cientes c1 ; c2 ; : : : ; cn : Propriedades Neste momento destacamos a matriz nula ou matriz zero 2 3 0 0 6 7 0 = 4 ... . . . ... 5 0 0

onde todas as entradas são nulas. Adicionando uma matriz A com a matriz nula de mesmo tamanho, obtemos a matriz A: Por este motivo, a matriz nula é chamada de elemento neutro da adição. Sendo A; B e C matrizes de mesmo tamanho, x e y números reais e 1 a unidade real, valem as propriedades: 1. A + B = B + A (Comutatividade da adição) Notas de aula do Professor Faleiros

28

Sistemas de equações lineares 2. A + (B + C) = (A + B) + C (Associatividade da adição) 3. A + 0 = 0 + A = A (Elemento neutro) 4. B + ( B) = ( B) + B = 0 (A matriz

B é a matriz oposta de B)

5. (xy)A = x(yA) (Associatividade da multiplicação por um real) 6. x(A + B) = xA + xB (Distributividade) 7. (x + y)A = xA + yA (Distributividade) 8. 1A = A

1.7.3

Multiplicação de matrizes

De…nição 1.20 Seja A = [aik ] uma matriz m p e B = [bkj ] uma matriz p n: A multiplicação das matrizes A e B é a operação que leva A e B na matriz AB = [cij ] de tamanho m n; onde cij =

p X

aik bkj

k=1

para i = 1; : : : ; m e j = 1; : : : ; n: A matriz AB é denominada de produto de A por B: Para obter a entrada cij da linha i e coluna j de AB; destaque a linha i de A e a coluna j de B: Multiplique aik por bkj ; para k = 1; 2; : : : ; p e adicione os resultados para obter cij : Para ser possível multiplicar a matriz A pela matriz B; o número de colunas da primeira deve ser igual ao número de linhas da segunda, quando então se diz que são conformes para a multiplicação. Mesmo quando é possível calcular o produto AB; nem sempre é possível calcular BA e, quando for possível, nem sempre AB = BA pois o produto de matrizes não é comutativo. Em casos excepcionais, quando AB = BA se diz que as matrizes comutam. O produto de matrizes triangulares superiores é uma matriz triangular superior e o produto de matrizes triangulares inferiores é uma matriz triangular inferior Exemplo 1.21 A multiplicação da matriz A=

8 3

6 9

4 5

por

2

2 B=4 9 5

3 1 2

Notas de aula do Professor Faleiros

3 0 3 5 7

1.7 Operações matriciais

29

resulta na matriz 58 50

AB =

26 10

10 62

:

Se x for um vetor coluna com m linhas e y um vetor linha com n colunas, então xy é uma matriz m n: Quando m = n; yx é uma matriz 1 1: Toda matriz 1 1; com uma única entrada, tal como [m] ; é identi…cada ao número real m e escreveremos [m] = m: Exemplo 1.22 Sendo x=

1 2

e

y=

3 4

então xy =

3 4 6 8

e

yx = [11] :

Propriedades das multiplicação matricial Em cada uma das propriedades abaixo, x é real. As matrizes A e B e as matrizes B e C são conformes para a multiplicação. As matrizes A; A1 e A2 bem como as matrizes B; B1 e B2 são conformes para a adição. 1. A(BC) = (AB)C (Associatividade da multiplicação) 2. A(B1 + B2 ) = AB1 + AB2 (Distributividade à esquerda) 3. (A1 + A2 )B = A1 B + A2 B (Distributividade à direita) 4. (xB)C = x(BC) = B(xC) (Associatividade em relação ao produto por um real) Não vale a lei do cancelamento. A igualdade AD = BD não implica, necessariamente, em A = B; mesmo quando D for diferente de zero. Exemplo 1.23 Observe que AD = BD mas A 6= B quando A = B=

5 3 6 4

eD=

0 0 1 2

1 3 2 4

e

:

É possível obter AB = 0; mesmo quando A 6= 0 e B 6= 0: Logo, AB = 0 não implica em A = 0 ou B = 0: Exemplo 1.24 Observe que AB = 0 quando A =

0 1 0 2

Entretanto, nem A e nem B são matrizes nulas. Notas de aula do Professor Faleiros

eB=

3 4 0 0

:

30

Sistemas de equações lineares

Produto matricial como combinação linear Sendo 2

6 6 A=6 4

a11 a21 .. .

a12 a22 .. .

a1n a2n .. .

am1 am2

amn

3 7 7 7 5

e

2

x1 x2 .. .

6 6 x=6 4

xn

3 7 7 7 5

então 2

a11 x1 + a12 x2 + a21 x1 + a22 x2 + .. .

6 6 Ax = 6 4

am1 x1 + am2 x2 + 2 3 2 a11 a12 6 a21 7 6 a22 6 7 6 = x1 6 .. 7 + x2 6 .. 4 . 5 4 . am1 am2

3 + a1n xn + a2n xn 7 7 7 5 + amn xn 3 7 7 7+ 5

2

6 6 + xn 6 4

a1n a2n .. . amn

3 7 7 7 5

Sendo 2

6 6 c1 = 6 4

a11 a21 .. . am1

3 7 7 7 5

2

6 6 c2 = 6 4

a12 a22 .. . am2

3 7 7 7 5

2

6 6 cn = 6 4

a1n a2n .. . amn

3 7 7 7 5

as colunas de A; então Ax = x1 c1 + x2 c2 +

+ xn cn :

Uma expressão do tipo x1 c1 + x2 c2 + + xn cn é chamada de combinação linear das matrizes c1 ; c2 ; : : : ; cn com coe…cientes x1 ; x2 ; : : : ; xn : A matriz Ax é uma combinação linear das colunas de A cujos coe…cientes são as entradas da matriz x: De modo análogo, sendo y uma matriz linha, yA é uma combinação linear das matrizes linha de A com coe…cientes provenientes da matriz y: Notas de aula do Professor Faleiros

1.8 Matriz inversa

1.8

31

Matriz inversa

Neste momento destacamos a matriz identidade de tamanho n 2 3 1 0 0 0 6 0 1 0 0 7 7 6 6 .. .. . . .. .. 7 In = 6 . . . . . 7 6 7 4 0 0 1 0 5 0 0 0 1

n

que possui todas as entradas iguais a zero, exceto aquelas que se encontram na diagonal principal, que são iguais a 1: Sendo A uma matriz m n e B uma matriz n p; então AIn = A e In B = B: Quando A for n n; então AIn = In A = A:

Não havendo a necessidade de informar o tamanho da matriz identidade, podemos indicá-la tão somente por I: A matriz identidade é o elemento neutro da multiplicação de matrizes quadradas. De…nição 1.25 Uma matriz quadrada A é invertível quando existe uma matriz quadrada B tal que AB = BA = I; onde I é a matriz identidade. A matriz B é chamada de inversa de A: Uma matriz quadrada não invertível é denominada singular. Quando uma matriz A é invertível, sua inversa é única, sendo denotada por A : De acordo com a de…nição, se B é a inversa de A então A é a inversa de B ou, em outras palavras, 1 A= A 1 : 1

Uma matriz diagonal, como 2 6 6 D=6 4

d1 0 0 d2 .. .. . . 0 0

0 0 .. .

...

dn

é invertível se e só se todos os reais d1 ; d2 ; : : : ; sua inversa é 2 1 0 d1 6 0 d 1 2 6 D 1 = 6 .. .. .. 4 . . . 0 0

3 7 7 7 5

dn forem diferentes de zero, e 3 0 0 7 7 .. 7 : . 5 dn 1

Notas de aula do Professor Faleiros

32

Sistemas de equações lineares

Uma matriz triangular é invertível se, e só se, todos os elementos da diagonal principal forem diferentes de zero. A inversa de uma matriz triangular superior é uma matriz triangular inferior e a inversa de uma matriz triangular inferior é uma matriz triangular superior. a b A matriz A = é invertível se e só se ad bc 6= 0 e sua inversa é c d A

1

=

1 ad

bc

3 5 1 2

Exemplo 1.26 A matriz B =

d c

b a

:

é a inversa de A =

2 1

5 3

:

Nenhuma matriz quadrada A com uma coluna nula possui inversa pois, para qualquer matriz B de mesmo tamanho, a mesma coluna de BA é nula e assim, BA 6= I: Toda matriz quadrada A com uma linha nula é singular pois, para qualquer matriz quadrada B de mesmo tamanho, a mesma linha de AB será nula e assim, AB 6= I: Propriedades da matriz inversa Sejam A e B matrizes invertíveis de mesmo tamanho. 1. Sendo k um número real, a matriz kA é invertível e (kA)

1

= k 1A 1:

2. A matriz AB é invertível e (AB)

1

= B 1A 1:

Se as matrizes A1 ; A2 ; : : : ; An forem todas invertíveis e do mesmo tamanho, então o produto A1 A2 An é invertível e (A1

1.9

An )

1

= An 1

A1 1 :

Potências

Seja A uma matriz quadrada e n um número inteiro maior do que zero. De…nimos as potências inteiras não negativas de A por A0 = I;

An = An 1 A

Notas de aula do Professor Faleiros

1.10 Matriz transposta

33

Se A for invertível, então (A 1 )n = (An )

1

e de…nimos as potências negativas de A por A

n

= (A 1 )n = (An ) 1 :

Propriedades Sejam A e B matrizes quadradas com o mesmo tamanho, r e s números inteiros não negativos. Então 1. Ar As = Ar+s 2. (Ar )s = Ars 3. Se AB = BA; então (AB)r = Ar B r : Quando A e B forem invertíveis, as identidades acima valem quando r e s forem números inteiros negativos.

1.10

Matriz transposta

Se A = [aij ] uma matriz m n: A matriz [bij ] de tamanho n m; onde bij = aji ; para todo i e todo j; é chamada de transposta de A e denotada por AT : Exemplo 1.27 A transposta de A =

1 2 3 4

é AT =

1 3 2 4

:

Se A e B forem matrizes de mesmo tamanho e k for um número real, valem as propriedades abaixo. 1. (AT )T = A 2. (A + B)T = AT + B T 3. (kA)T = kAT 4. (AT )

1

= (A 1 )T

Se A e B forem matrizes conforme para a multiplicação, (AB)T = B T AT Notas de aula do Professor Faleiros

34

Sistemas de equações lineares

Quando os tamanhos de A1 ; : : : ; An forem tais que o produto A1 pode ser efetuado, então (A1

An )T = ATn

An

AT1 :

Observe que a ordem dos fatores se altera de A1 até An para ATn até AT1 : Quando A for quadrada e n for um inteiro positivo, então (An )T = AT

n

:

Quando A for quadrada e invertível, o n pode ser qualquer inteiro na propriedade acima. De…nição 1.28 Uma matriz quadrada A é simétrica quando AT = A: Para qualquer matriz retangular A; as matrizes AAT e AT A são quadradas e simétricas. Teorema 1.29 Sejam A e B matrizes simétricas de mesma ordem e real. Então (a) AT é simétrica. (b) A + B e A B são simétricas. (c) A é simétrica. (d) Se A for invertível, então A 1 é simétrica. (e) Se A é invertível então AAT e AT A é invertível.

um

Nem sempre o produto de matrizes simétricas é simétrica. O produto de duas matrizes simétricas A e B é simétrica se e só se A e B comutarem, isto é, AB = BA: Teorema 1.30 Se A é uma matriz invertível, então AAT e AT A também são invertíveis. Prova. Como A é invertível, também o é AT : Logo, AAT e AT A também são invertíveis por serem o produto de matrizes invertíveis.

1.11

Matrizes elementares

De…nição 1.31 Uma matriz quadrada é elementar quando for obtida a partir da matriz identidade executando uma única operação elementar. Notas de aula do Professor Faleiros

1.11 Matrizes elementares Exemplo 1.32 As matrizes abaixo são elementares 2 3 2 3 1 0 0 0 1 0 3 6 7 1 0 6 0 0 0 1 7 4 0 1 0 5 4 0 0 1 0 5 0 3 0 0 1 0 1 0 0

35

2

3 1 0 0 4 0 1 0 5 0 0 1

A última matriz é a identidade. Ela é uma matriz elementar pois pode ser obtida da identidade multiplicando sua primeira linha por 1:

Denotemos por E(i $ j) a matriz elementar obtida da identidade permutando as posições das linhas i e j: Denotemos por E( i ! i) a matriz elementar obtida da identidade multiplicando sua linha i por um real não nulo. Denotemos por E(i + j ! i) a matriz elementar obtida da identidade adicionando vezes sua linha j à sua linha i: Seja A uma matriz m n e vamos supor que as matrizes elementares a seguir sejam m m: Trocando a linha i pela linha j de A; obtemos a matriz E(i $ j)A: Multiplicando a linha i de A por obtemos a matriz E( i! i)A: Adicionando vezes a linha j de A à sua linha i; obtemos a matriz E(i + j ! i)A: Resumindo: Seja A uma matriz m n e E uma matriz elementar m m: A matriz EA é igual à matriz obtida quando se realiza sobre A a mesma operação efetuada sobre I para obter E: As matrizes elementares são invertíveis pois

E( E(i

1

E(i $ j) é a inversa de E(i $ j); i ! i) é a inversa de E( i ! i); j ! i) é a inversa de E(i + j ! i):

No processo de obter a forma escalonada reduzida de uma matriz quadrada A; aplicamos a ela uma sequência de operações elementares E1 ; E2 ; : : : ; Es tais que R = Es E2 E1 A é a forma escalonada reduzida de A: Como A é quadrada, esta matriz R é a identidade ou pelo menos sua última linha é nula. As matrizes elementares são invertíveis. Se A for invertível, então R é invertível e, portanto, só pode ser a matriz identidade. Se A for singular, então R é singular (se não fosse, A seria invertível) e, portanto, pelo menos sua última linha é nula. Provamos o seguinte teorema: Teorema 1.33 Seja A uma matriz quadrada e R sua forma escalonada reduzida. Se A for invertível se e só se R é a identidade. Se A for singular se e só se pelo menos a última linha de R é nula. Notas de aula do Professor Faleiros

36

1.11.1

Sistemas de equações lineares

Sistemas equivalentes e matrizes elementares

Sejam A e B matrizes m n; b e c matrizes coluna m 1: Os sistemas lineares Ax = b e Bx = c são equivalentes se possuírem a mesma solução geral. Para serem equivalentes, as matrizes ampliadas [A j b] e [B j c] devem possuir a mesma forma escalonada reduzida [R j d] onde o tamanho de R é m n e o de d é m 1: Logo, existem matrizes elementares E1 ; : : : ; Er e E1 ; : : : ; Es tais que [R j d] = Er

E1 [A j b]

e

[R j d] = Es

E1 [B j c]

de onde se obtém [A j b] = E1 1

Er 1 Es

E1 [B j c] :

Nota-se assim que dois sistemas lineares com o mesmo número de equações e o mesmo número de incógnitas são equivalentes quando for possível levar um no outro mediante operações elementares. Note ainda que A = E1 1

Er 1 Es

E1 B

ou seja, a matriz dos coe…cientes de um sistema pode ser levado no outro mediante operações elementares.

1.12

Um método para inverter matrizes

Para obter a forma escalonada reduzida de uma matriz aplica-se a ela uma sucessão de operações elementares. Quando a matriz for quadrada, sua forma escalonada reduzida é a identidade ou então possui uma ou mais linha nulas. No primeiro caso, a matriz é invertível e, no segundo caso, singular. Se A é invertível, realizando operações elementares sobre ela, chegamos à matriz identidade, que é sua forma escalonada reduzida. Isto signi…ca que existem matrizes elementares Er ; : : : ; E1 tais que Er

E1 A = I

= Er

E1 = Er

de onde obtemos A

1

E1 I:

Se Er

E1 A = I

então Er

E1 I = A 1 :

Observe: Realizando sobre I as mesmas transformações que levam A na matriz identidade, chega-se à inversa de A: Tal observação sugere um dispositivo Notas de aula do Professor Faleiros

1.12 Um método para inverter matrizes

37

prático para determinar a inversa de uma matriz. Coloque a matriz identidade à direita de A obtendo a matriz ampliada [A j I]: Efetue operações elementares sobre esta matriz ampliada até obter a matriz [I j B]; quando a matriz original A se transformou na identidade e a matriz identidade se transformou na matriz B: Esta matriz B é, exatamente, a inversa de A: Se a matriz A não for invertível, sua forma escalonada reduzida conterá uma linha nula. Se em algum momento do processo de escalonamento da matriz ampliada [A j I]; uma linha de A se anular, pode encerrá-lo, a…rmando que A não possui inversa. Exemplo 1.34 Calcule a inversa de 2 3 1 2 3 A = 4 2 5 3 5: 1 0 8 Resolução. Justapomos as matrizes A e I formando a matriz ampliada [A j I] e realizamos operações elementares sobre ela, até transformar A em I: Quando isto acontecer, a matriz I terá se transformado em A 1 2 3 1 2 3 1 0 0 4 2 5 3 0 1 0 5 1 0 8 0 0 1 2

1 2 3 1 0 4 0 1 3 2 1 0 2 5 1 0 2 1 2 3 1 0 4 0 1 3 2 1 0 0 1 5 2 2 1 2 3 1 0 4 0 1 3 2 1 0 0 1 5 2 2 1 2 0 14 6 4 0 1 0 13 5 0 0 1 5 2 2 1 0 0 40 16 4 0 1 0 13 5 0 0 1 5 2

3 0 0 5 1 3 0 0 5 1 3 0 0 5 1 3 3 3 5 1 3 9 3 5 1

Notas de aula do Professor Faleiros

38

Sistemas de equações lineares

e assim, A

1

2

3 9 3 5: 1

40 16 4 13 5 = 5 2

Exemplo 1.35 Repita o procedimento do exemplo anterior com a matriz 2 3 1 6 4 A=4 2 4 1 5 1 2 5 e conclua que ela não é invertível.

1.13

Forma matricial de um sistema linear

O sistema de equações algébricas lineares a11 x1 + a12 x2 + a21 x1 + a22 x2 +

+ a1n xn = b1 + a2n xn = b2

am1 x1 + am2 x2 +

+ amn xx = bm

nas incógnitas x1 ; : : : ; xn pode ser escrito na forma matricial Ax = b onde

2

6 6 A=6 4

a11 a21 .. .

a12 a22 .. .

am1 am2

..

.

a1n a2n .. . amn

é a matriz dos coe…cientes do sistema, 2 3 2 b1 6 7 6 e x=4 b = 4 ... 5 bm

3 7 7 7 5

3 x1 .. 7 . 5 xn

são, respectivamente, a matriz das contantes e a matriz das incógnitas do sistema. Na forma matricial diremos que x = c; onde c é uma matriz Notas de aula do Professor Faleiros

1.13 Forma matricial de um sistema linear

39

coluna n 1; é uma solução do sistema quando Ac = b: Também pode-se dizer simplesmente que c é uma solução do sistema. Um sistema linear Ax = 0; no qual o lado direito é a matriz nula, recebe o nome de sistema linear homogêneo. Ele sempre admite a solução x = 0; denominada solução trivial. Além desta, tais sistemas podem ou não ter outras soluções. Quando o sistema homogêneo possuir uma solução não trivial x = c; onde c 6= 0; então, sendo k um número real, x = kc será solução do sistema homogêneo. Esta é uma indicação de que, quando o sistema homogêneo possuir uma solução não trivial, terá in…nitas soluções. Então, de duas uma: ou o sistema homogêneo possui apenas a solução trivial ou possui in…nitas soluções. Um sistema homogêneo com mais incógnitas do que equações sempre terá in…nitas soluções e, dentre elas a solução trivial. Tal fato se deve ao processo de escalonamento que sempre redunda num sistema escalonado compatível com variáveis livres. O sistema Ax = 0 é denominado de sistema homogêneo associado ao sistema linear Ax = b: Se c0 for solução de Ax = 0 e c1 for solução de Ax = b; então c0 + c1 é solução de Ax = b: Se c1 e c2 forem soluções de Ax = b; então a diferença c2 c1 é solução do sistema homogêneo Ax = 0: Logo, ao encontrar uma solução c1 de Ax = b; sendo c2 outra solução, ela será da forma c0 + c1 ; para alguma solução c0 do sistema homogêneo associado Ax = 0: Se o sistema linear Ax = b for compatível, ele terá uma única solução se e só se o sistema homogêneo Ax = 0 possuir apenas a solução trivial. Quando o sistema homogêneo Ax = 0 possuir outras soluções além da trivial, o sistema Ax = b terá in…nitas quando for compatível ou nenhuma solução quando for incompatível. Exemplo 1.36 A matriz aumentada de 2 2 2 1 6 1 1 2 6 4 1 1 2 0 0 1

um sistema homogêneo é 3 0 1 0 3 1 0 7 7 0 1 0 5 1 1 0

que, levada à forma escalonada reduzida …ca 2 1 1 0 0 1 6 0 0 1 0 1 6 4 0 0 0 1 0 0 0 0 0 0

3 0 0 7 7 0 5 0

Notas de aula do Professor Faleiros

40

Sistemas de equações lineares

e a solução geral deste sistema é x1 = x2 x3 = x5 x4 = 0

x5

onde x2 e x5 são variáveis livres e podem assumir qualquer valor real. Introduzindo os parâmetros r = x2 e s = x5 ; pode-se escrever a solução geral na forma paramétrica x1 =

r

s;

x2 = r;

x3 =

s;

x4 = 0;

x5 = s

onde r e s podem assumir qualquer valor real. Teorema 1.37 A…rmações equivalentes para uma matriz quadrada A: (1) A é invertível. (2) O sistema homogêneo Ax = 0 tem somente a solução trivial. (3) A forma escalonada reduzida por linhas de A é a matriz identidade I: (4) A pode ser expressa como um produto de matrizes elementares. Prova. (1) =) (2): Se A é invertível e c0 for uma solução de Ax = 0; então c0 = Ic0 = (A 1 A) c0 = A 1 (Ac0 ) = A 1 0 = 0; mostrando que a equação homogênea Ax = 0 possui apenas a solução trivial. (2) =)(3) Se a única solução do sistema Ax = 0 for a trivial, ele é equivalente ao sistema Ix = 0; onde I é a matriz identidade. Neste caso, podemos levar A em I por meio de uma sucessão de operações elementares. Como I é uma matriz escalonada reduzida, isto signi…ca que I é a forma escalonada reduzida de A: (3) ) (4) Se a forma escalonada de A; for I; então existem matrizes elementares E1 ; : : : ; Ek tais que Ek

E1 A = I

e assim A = E1 1

Ek 1

provando que A é igual ao produto de matrizes elementares. (4) ) (1) Sendo A um produto de matrizes elementares, que são invertíveis, ela é invertível. Corolário 1.38 Sejam A e B duas matrizes quadradas de mesmo tamanho. (a) Se BA = I; então A é invertível e B = A 1 : (b) Se AB = I; então A é invertível e B = A 1 : Notas de aula do Professor Faleiros

1.13 Forma matricial de um sistema linear

41

Prova. (a) Se BA = I e c0 for uma solução do sistema homogêneo Ax = 0; então c0 = Ic0 = (BA)c0 = B(Ac0 ) = B0 = 0: Logo, o sistema homogêneo Ax = 0 possui apenas a solução trivial, donde se conclui que A é invertível. Multiplicando os dois membros de BA = I pela direita por A 1 segue B = A 1: (b) Quando AB = I; pelo item anterior, B é invertível e A = B 1 : Sendo a inversa de B; a matriz A é invertível e A 1 = B:

Corolário 1.39 Sejam A e B matrizes quadradas de mesmo tamanho. Se A for singular, então AB e BA são singulares. Prova. Se A for singular, o sistema linear homogêneo Ax = 0 possui solução não trivial c0 : Daí, BAc0 = 0; mostrando que BA é singular. Se A for singular, sua forma escalonada reduzida R pelo menos sua última linha é nula. Existem matrizes elementares E1 ; : : : ; Ek tais que R = Ek E1 A: Se AB for invertível, RB = Ek E1 (AB) também será, o que não pode ocorrer pois pelo menos a última linha de RB é nula.

Corolário 1.40 A matriz A é invertível se e só se a única solução do sistema Ax = b for x = A 1 b: Prova. Se A é invertível, então c1 = A 1 b é uma solução de Ax = b: Sendo c2 outra solução deste sistema, A(c1 c2 ) = 0 e, como o sistema homogêneo Ax = 0 possui apenas a solução trivial, c1 = c2 ; mostrando que Ax = b possui uma única solução dada por x = A 1 b: Se Ax = b tem uma única solução para todo b; então Ax = 0 tem uma única solução e A é invertível.

Exemplo 1.41 Como consequência da 2 1 4 A= 2 1 o sistema homogêneo

invertibilidade da matriz 3 2 3 5 3 5 0 8

x1 +2x2 +3x3 = 0 2x1 +5x2 +3x3 = 0 x1 +8x3 = 0 possui apenas a solução trivial. Notas de aula do Professor Faleiros

42

Sistemas de equações lineares

Exemplo 1.42 Para determinar a consistência do sistema linear x1 +x2 +2x3 = b1 x1 +x3 = b2 2x1 +x2 +3x3 = b3 basta realizar operações elementares na matriz completa do sistema para obter 2 3 1 1 2 b1 4 0 1 1 b1 b2 5 0 0 0 b3 b2 b1

O sistema será consistente se e só se b3 b2 b1 = 0 ou b3 = b2 + b1 ; ou seja, quando b for igual a 2 3 2 3 2 3 b1 1 0 5 = b1 4 0 5 + b2 4 1 5 : b = 4 b2 b1 + b2 1 1 T

Quando b = 1 1 2 o sistema tem solução e sua solução geral pode ser obtida pelo métodos de Gauss x1 = 1

e

x2 =

x3

com x3 percorrendo o conjunto dos números reais. Quando b = o sistema não possui solução.

1 0 3

T

;

Exemplo 1.43 Escalonando a matriz completa do sistema x1 +2x2 +3x3 = b1 2x1 +5x2 +3x3 = b2 x1 +8x3 = b3 chega-se a

2

1 2 4 0 1 0 0

3 b1 3 b2 2b1 1 b3 + 3b1

2b2

3 5

quando então se percebe que o sistema é sempre consistente, não havendo restrições sobre b:

Notas de aula do Professor Faleiros

Capítulo 2 Determinantes Para resolver um sistema de duas equações com duas incógnitas a11 x1 + a12 x2 = b1 a21 x1 + a22 x2 = b2 podemos usar o método de eliminação das incógnitas. Multiplicando a primeira equação por a22 , a segunda por a12 e subtraindo a segunda equação da primeira, obtemos (a11 a22 a12 a21 )x1 = b1 a22 b2 a12 : Quando a11 a22

a12 a21 6= 0; obtemos x1 =

b1 a22 a11 a22

b2 a12 : a12 a21

As expressões do denominador e do numerador envolvem as entradas das matrizes b1 a12 a11 a12 A= e 1 = b2 a22 a21 a22 e os matemáticos as denominaram de determinante de A1 e determinante de 2; seu determi1 , denotando-as por det(A) e det(A1 ): Para uma matriz 2 nante é de…nido por det

a11 a12 a21 a22

= a11 a22

a12 a21 :

De modo semelhante podemos eliminar x1 do sistema para obter x2 =

det( 2 ) : det(A)

O sistema possuirá solução se e só se det(A) 6= 0 e a solução será única. Notas de aula do Professor Faleiros

44

Determinantes

Os matemáticos veri…caram que este procedimento de eliminar variáveis de um sistema poderia ser estendido para sistemas com mais do que duas variáveis. Por exemplo, para sistemas com três equações e três incógnitas, a11 x1 + a12 x2 + a13 x3 = b1 a21 x1 + a22 x2 + a23 x3 = b2 a31 x1 + a32 x2 + a33 x3 = b3 é possível explicitar x2 e x3 em função de x1 usando a segunda e a terceira equações. Substituindo as expressões obtidas na primeira equação, obtemos x1 = onde A e

det( 1 ) det(A)

são matrizes 3 3 dadas por 3 2 a11 a12 a13 A = 4 a21 a22 a23 5 ; a31 a32 a33 1

1

3 b1 a12 a13 = 4 b2 a22 a23 5 b3 a32 a33 2

e det(A); det( 1 ) são os seus determinantes, de…nidos a partir dos determinantes de matrizes 2 2: Sendo A aquela matriz 3 3 logo acima, de…nimos det(A) = a11 det(A11 )

a12 det(A12 ) + a13 det(A13 )

onde A11 = são matrizes 2

a22 a23 a32 a33

; A12 =

a21 a23 a31 a33

e A13 =

a21 a22 a31 a32

2; obtidas da seguinte maneira:

Para obter A11 ; elimine a primeira linha e a primeira coluna de A: Para obter A12 ; elimine a primeira linha e a segunda coluna de A: Para obter A13 ; elimine a primeira linha e a terceira coluna de A: Desenvolvendo os determinantes de A11 ; A12 e A13 obtemos det(A) = a11 (a22 a33

a23 a32 )

a12 (a21 a33

a23 a31 ) + a13 (a21 a32

Do mesmo modo se mostra que x2 =

det( 2 ) det(A)

x3 =

det( 3 ) det(A)

Notas de aula do Professor Faleiros

a22 a31 ) :

2.1 De…nição de determinante onde 2

45

2

3 a11 b1 a13 = 4 a21 b2 a23 5 ; a31 b3 a33

3

2

3 a11 a12 b1 = 4 a21 a22 b2 5 : a31 a32 b3

Se det(A) 6= 0; o sistema possuirá uma única solução para cada b = [b1 ; b2 ; b3 ]T : Do que …cou demonstrado no capítulo anterior, A é invertível, se e só se det(A) 6= 0: Este procedimento se aplica a sistemas com n equações e n incógnitas, quando surge a idéia de determinantes de matrizes de tamanho n n; que são de…nidos em termos de matrizes quadradas de tamanho inferior.

2.1

De…nição de determinante

Seja A uma matriz quadrada n n: O determinante de A é um número real que será de…nido de forma recursiva. Quando A = [a] é uma matriz 1 1; de…ne-se det A = a: Quando A= for uma matriz quadrada 2

a11 a12 a21 a22

2; de…nimos

det(A) = a11 a22

a12 a21 :

O determinante de matrizes quadradas de tamanho n n; quando n > 2 é de…nido de modo recursivo, a partir do determinante de matrizes de tamanho menor. Se A = [aij ] for uma matriz quadrada n n; denote por Aij a matriz de tamanho (n 1) (n 1) obtida quando se elimina a linha i e a coluna j de A: O cofator (i; j) de A é o número Cij = ( 1)i+j det(Aij ): O determinante de A é o número real de…nido por det(A) = a11 C11 + a12 C12 +

+ a1n C1n =

n X

a1j C1j :

j=1

Esta fórmula é denominada de desenvolvimento do determinante por cofatores ao longo da primeira linha ou desenvolvimento de Laplace ao longo da primeira linha. Notas de aula do Professor Faleiros

46

Determinantes

Exemplo 2.1 Calcule o determinante da matriz 2 3 1 0 3 A = det 4 2 1 0 5 8 4 1

Desenvolvendo o determinante pela primeira linha, obtemos A=1 =1

det ( 1)

1 4

0 1

0

det

0+3

0=

1

2 8

0 1

+3

det

2 1 8 4

O determinante também pode ser calculado desenvolvendo o determinante por cofatores ao longo da linha i det(A) = ai1 Ci1 + ai2 Ci2 +

+ ain Cin =

n X

aij Cij :

j=1

e ainda pode ser desenvolvido por cofatores ao longo da coluna j det(A) = a1j C1j + a2j C2j +

+ anj Cnj =

n X

aij Cij

i=1

Exemplo 2.2 Os determinantes das matrizes 2 3 2 2 1 0 1 4 4 3 7 0 5 4 2 0 e 4 2 0 0 0

3 5 3 5 0

são iguais a zero pois ambos possuem uma …la nula. Para veri…car esta a…rmação basta desenvolver o determinante da primeira pela terceira coluna e a segunda pela terceira linha.

Nota 2.3 Este é um fato geral. Se a matriz possuir uma linha ou coluna nula, seu determinate é igual a zero. Exemplo 2.4 Para uma matriz for triangular inferior, 2 3 a11 0 0 6 a21 a22 0 7 6 7 A=6 a 7; a a 4 31 32 33 5 .. .. .. . . . . . .

o determinante é o produto dos elementos de sua diagonal det A = a11 a22

ann :

Em particular, o determinante da matriz identidade é igual a 1: Notas de aula do Professor Faleiros

2.2 Propriedades do determinante

47

Exemplo 2.5 Para calcular o determinante de uma matriz 3 3; pode-se usar a regra de Sarrus. Aplica-se esta regra do seguinte modo: Acrescente as duas primeiras colunas à direita da matriz A obtendo 2 3 a11 a12 a13 a11 a12 4 a21 a22 a23 a21 a22 5 a31 a32 a33 a31 a32

Multiplique as entradas ao longo das três diagonais principais, aquelas que vão da esquerda para a direita e de cima para baixo, que iniciam nas entradas a11 ; a12 e a13 : Adicione os resultados. Multiplique as entradas ao longo das três diagonais secundárias, aquelas que vão da direita para a esquerda e de cima para baixo, que iniciam nas entradas a13; a11 e a12 : Adicione os produtos e o subtraia da soma anterior para obter det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 (a13 a22 a31 + a11 a23 a32 + a12 a21 a33 ): Se as matrizes não possuírem características especiais, calcular o determinante de matrizes 4 4 usando apenas a de…nição exige um bom trabalho. Para simpli…car o cálculo, precisamos de alternativas mais e…cientes que apenas a de…nição.

2.2

Propriedades do determinante

Teorema 2.6 O determinante de uma matriz quadrada A de tamanho n é igual ao determinante de sua transposta

n;

det (A) = det(AT ): Prova. O desenvolvimento do determinante de AT pela primeira coluna, det(AT ) = ( 1)1+1 a11 det AT11 + = ( 1)1+1 a11 det A11 +

+ ( 1)1+n a1n det AT1n + ( 1)1+n a1n det A1n

é o determinante de A desenvolvido pela primeira linha. Nota 2.7 Este teorema garante que todo resultado válido para linha vale para coluna e vice-versa. Teorema 2.8 Se B for obtida multiplicando uma linha de A por k; então det(B) = k det(A): Notas de aula do Professor Faleiros

48

Determinantes

Teorema 2.9 Se B for obtida permutando duas linhas de A; então det(B) =

det(A):

Prova. Prova-se por indução no tamanho da matriz. A propriedade vale para matrizes quadradas 2 2: Supondo a propriedade válida para matrizes quadradas (n 1) (n 1) vamos mostrar que ela vale para uma matriz n n: Fixemos uma linha i que não foi permutada na passagem de A para B: Sejam, respectivamente, Aij e Bij as matrizes obtidas de A e B; eliminando em cada uma a linha i e a coluna j: A matriz Bij pode ser obtida de Aij permutando as mesmas linhas que levaram A em B: Pela hipótese de indução, det(Bij ) = det(Aij ): Desenvolvendo o determinante de B em cofatores ao longo da linha i; det(B) = ( 1)i+1 ai1 det(Bi1 ) + =

+ ( 1)i+n ain det(Bin )

( 1)i+1 ai1 det(Ai1 )

( 1)i+n ain det(Ain ) =

det(A):

Teorema 2.10 Se B for obtida adicionando a uma linha de A um múltiplo de outra linha de A; então det(B) = det(A): Prova. Suponha que B foi obtida de A adicionando à sua linha i um múltiplo k de sua linha r: Assim, bij = aij + k arj ; com j = 1; 2; : : : ; n: As outras linhas de B são iguais às linhas de A: Desenvolvendo o determinante de B pela linha i; det(B) =

n X j=1

(aij + karj )Cij =

n X

aij Cij + k

j=1

n X

arj Cij = det(A)

j=1

pois o somatório na segunda parcela é igual a zero uma vez que corresponde ao determinante de uma matriz cuja linha i é igual à linha r: Sejam v; v1 ; : : : ; vm ; matrizes linha ou matrizes coluna de mesmo tamanho. Quando existirem números reais k1 ; k2 ; : : : ; km tais que v = k1 v1 +

+ km vm

diremos que a matriz v é uma combinação linear de v1 ; : : : ; vm ; Notas de aula do Professor Faleiros

2.2 Propriedades do determinante

49

Teorema 2.11 O determinante de uma matriz quadrada é nulo quando 1. uma linha ou coluna for nula. 2. duas linhas forem iguais. 3. duas linhas forem proporcionais. 4. uma linha for uma combinação linear das demais. Exemplo 2.12 Determinante das matrizes elementares. Seja E uma matriz elementar n n: Das propriedades provadas, se conclui que 1. Se E surge ao multiplicar uma linha da matriz identidade por k; então det(E) = k: 2. Se E surge da permuta de duas linhas da matriz identidade, então det(E) = 1: 3. Se E é o resultado da adição a uma linha da matriz identidade um múltiplo de outra linha, então det(E) = 1: Exemplo 2.13 Produto de uma matriz elementar por uma matriz quadrada qualquer. Se E for uma matriz elementar e B uma matriz quadrada qualquer, ambas de mesmo tamanho n n; então det(EB) = det(E) det(B) Se E1 ; : : : ; Ek forem matrizes elementares de tamanho n det(E1

Ek B) = det(E1 )

n; então

det(Ek ) det(B)

Matrizes invertíveis e singulares Lema 2.14 Se A é invertível então det(A) 6= 0: Prova. Se A for invertível, então podemos escrevê-la como um produto de matrizes elementares A = E1 Ek : Assim, det A = det E1

det Ek 6= 0:

Lema 2.15 Se A for singular então det(A) = 0: Notas de aula do Professor Faleiros

50

Determinantes

Prova. Quando A é singular, sua forma escalonada reduzida R possui ao menos uma linha nula, de modo que seu determinante é igual a zero. Como existem matrizes elementares E1 ; : : : ; Ek tais que A = E1 Ek R; obtemos det(A) = 0: Dos dois lemas anteriores, podemos enunciar Teorema 2.16 Uma matriz quadrada A é invertível se e só se det(A) 6= 0: Determinante do produto Teorema 2.17 Se A e B forem matrizes quadradas de mesmo tamanho, então det(AB) = det(A) det(B): Prova. Se A for singular, AB é singular. Daí, det A = 0 e det(AB) = 0; o que resulta na igualdade det(AB) = det(A) det(B): Se A for invertível, existem matrizes elementares E1 ; : : : ; Ek tais que A = E1 Ek : Daí, det(AB) = det(E1 Ek B) = det E det Ek det B = det(E1 Ek ) det B = det A det B:

Corolário 2.18 Se A for invertível, então det(A 1 ) = (det A) 1 : Nota: Em geral, o det(A + B) é diferente do det(A) + det(B): Teorema 2.19 Sejam c1; : : : ; ci ; : : : ; cn e di matrizes coluna n propriedade det c1

ci + di

cn

1: Vale a

= det c1

ci

cn

+ det c1

di

cn

Pode-se calcular o determinante de uma matriz realizando operações elementares em suas linhas e suas colunas até transformá-la numa matriz triangular superior ou inferior. Exemplo 2.20 Vamos calcular um determinante realizando sua redução por Notas de aula do Professor Faleiros

2.3 Autovalores e Autovetores

51

linhas, transformando-a numa matriz triangular superior: 2 3 2 3 0 1 5 3 6 9 6 9 5 = det 4 3 det 4 0 1 5 5 = (L1 $L2 ) (1=3)L1 !L1 2 6 1 2 6 1 2 2 3 3 1 2 3 1 2 3 5 5 3 det 4 0 1 5 5 3 det 4 0 1 = = L3 2L1 !L3 L3 10L2 !L3 2 6 1 0 10 5 2 3 1 2 3 4 5 5 = 3 ( 55) = 165: 3 det 0 1 0 0 55

Exemplo 2.21 Vamos calcular o determinante abaixo realizando uma operação elementar sobre colunas, subtraindo 3 vezes a primeira coluna da terceira, e desenvolvendo o determinante da matriz resultante em cofatores pela primeira linha 2 3 2 3 1 0 0 3 1 0 0 0 6 2 7 0 6 7 6 2 7 0 0 7 7 6 7 det 6 4 0 6 3 0 5 = det 4 0 6 3 0 5 = 546: 7 3 1 5 7 3 1 26 Matrizes triangulares superiores (inferiores) por blocos Se A e B forem matrizes quadradas, então det

2.3

A X 0 B

= det A det B:

Autovalores e Autovetores

Seja A uma matriz quadrada real de ordem n n: Uma matriz coluna não nula x de ordem n 1 é um autovetor de A se existir um número real tal que Ax = x: Passando x para o lado esquerdo e colocando o x em evidência, obtemos (A I)x = 0; que é um sistema linear homogêneo em x: Tal sistema possui solução não trivial quando a matriz A I for singular, fato que ocorre quando det(A I) = 0: Os valores de que satisfazem a esta equação são denominados autovalor de A: Quando for um autovalor, as soluções não triviais do sistema (A

I)x = 0

são chamadas de autovetores de A correspondentes ao autovalor : Como a matriz A I é singular, o sistema (A I)x = 0 possui in…nitas soluções. Notas de aula do Professor Faleiros

52

Determinantes

Exemplo 2.22 Determine os autovalores e autovetores da matriz A =

1 3 4 2

A equação det(A I) = 0 é polinominal em ; denominada de equação característica de A: O polinômio det(A I) é denominado polinômio característico da matriz A: Como os polinômios podem possuir raízes complexas, podemos ampliar a nossa de…nição e admitir autovetores e autovalores complexos.

2.4

Cofatora, adjunta clássica e inversa

Sendo Cij o cofator do elemento aij da matriz A = 0 C11 : : : C1n B .. .. cof (A) = @ . . Cn1 : : : Cnn

[aij ] ; a matriz 1 C A

é denominada de matriz de cofatores de A: A transposta da matriz cofatora de A 0 1 C11 : : : Cn1 B .. C adj(A) = @ ... . A C1n : : : Cnn

é chamada de adjunta clássica de A: Sabemos que n X

aik Cik = det(A)

k=1

observe que, quando i 6= j; n X

ajk Cik = 0

k=1

pois o somatório em questão corresponde ao determinante de uma matriz na qual as linhas i e j são iguais. Deste modo, para todo i e todo j no conjunto f1; 2; : : : ; ng n X aik Cjk = det(A) ij k=1

o que implica na igualdade matricial

A adj(A) = det(A)I Notas de aula do Professor Faleiros

:

2.5 Regra de Cramer

53

ou A

2.5

1

=

1 adj(A) det(A)

Regra de Cramer

Seja A uma matriz quadrada de ordem n; com determinante não nulo. Para cada vetor coluna b com n linhas, o sistema Ax = b tem solução única dada por x = A 1 b: Como A 1 = adj(A)= det(A); segue x=

1 adj(A)b: det(A)

Cada linha de x é igual à linha correspondente do lado direito, de onde obtemos xj =

1 (b1 C1i + det(A)

+ bn Cni ) =

1 det(Ai ) det(A)

onde Aj é obtida de A substituíndo a coluna j de A 0 a11 : : : b1 : : : a1n B .. .. .. Aj = @ . . . a1n : : : bn : : : ann " Coluna j

por b; isto é, 1 C A:

Hoje a regra de Cramer tem apenas interesse teórico. O método da eliminação de Gauss é muito mais e…ciente para calcular a solução de um sistema linear.

Notas de aula do Professor Faleiros

54

Determinantes

Notas de aula do Professor Faleiros

Capítulo 3 Espaço vetorial Um corpo é uma estrutura matemática formada por um conjunto K; com pelo menos dois elementos, e duas operações, denominadas adição e multiplicação, descritas a seguir. Os elementos do conjunto K são denominados escalares. A adição é uma operação que leva dois escalares e de K e os leva num escalar de K que é denotado por + e denominado soma de e : A multiplicação é uma operação que leva dois escalares e de K e os leva num escalar de K que é denotado por ou ; denominado produto de e : O fato de + e pertencerem a K nos faz dizer que as duas operações possuem a propriedade do fechamento. Para K com as operações de adição e multiplicação formarem um corpo é preciso que as propriedades abaixo sejam satisfeitas: 1. Comutatividade. Dados dois escalares +

= =

e ;

+

2. Associatividade. Dados três escalares ;

e ;

+( + )=( + )+ ( )=( ) 3. Elemento neutro. Existem dois escalares 0 e 1 tais que, para todo escalar ; +0=0+ = 1=1 = O 0 (zero) é o elemento neutro da adição e o 1 (um) é o elemento neutro da multiplicação. Notas de aula do Professor Faleiros

56

Espaço vetorial 4. Elemento simétrico. (a) Para cada escalar existe um outro escalar denotado por chamado de simétrico aditivo ou oposto de para o qual +(

)=(

)+

e

= 0:

(b) Para cada escalar diferente do zero existe um outro escalar denotado por 1 e chamado de simétrico multiplicativo ou inverso de para o qual ( 1 ) = ( 1 ) = 1: Exemplo 3.1 O conjunto dos números racionais Q com as operações usuais de adição e multiplicação de números racionais é um corpo. Também são corpos os conjuntos dos números reais R e o dos complexos C: Exemplo 3.2 Existem corpos com um número …nito de elementos. Sendo p um número primo, o conjunto Zp = f0; 1; : : : ; p 1g com as operações de adição e multiplicação módulo p é um corpo …nito. Lembramos que as operações de adição e muliplicação módulo p; denotadas por ( + ) mod p e ( ) mod p são de…nidas realizando as operações usuais de com nos inteiros e tomando o resto da divisão inteira do resultado por p: Estes corpos são muito utilizados em Criptogra…a. Um espaço vetorial é uma estrutura matemática formada por um conjunto não vazio V; cujos elementos são denominados de vetores, um corpo K; cujos elementos são denominados escalares, e duas operações, sendo a primeira denominada de adição de vetores e a segunda recebe o nome de multiplicação de um vetor por um escalar, descritas em seguida. Por simplicidade, frequentemente se diz apenas que V é um espaço vetorial. Todavia não se deve esquecer que o espaço vetorial é um estrutura formada por V; K e pelas duas operações. Para enfatizar o papel do corpo na estrutura do espaço vetorial também é usual dizer que V é um espaço vetorial sobre o corpo K: A adição de vetores é uma operação que leva um par v e w de vetores de V num vetor de V denotado por v + w e chamado de soma de v e w: A multiplicação de um escalar por um vetor é uma operação que leva um escalar de K e um vetor v de V num outro vetor de V denotado por v e denominado de múltiplo de v: O conjunto V é um espaço vetorial sobre K Estas operações devem ainda possuir as propriedades abaixo: Notas de aula do Professor Faleiros

57 Propriedades da adição: 1. Comutatividade da adição. Para todo vetor u e v em V; u + v = v + u: 2. Associatividade da adição. Para todo vetor u; v e w em V; (u + v) + w = u + (v + w): 3. Vetor nulo. Existe um vetor em V chamado de vetor zero ou vetor nulo, denotado por 0; para o qual v + 0 = 0 + v = v: 4. Elemento oposto. Para cada vetor v em V; existe um vetor denotado por v em V e chamado de vetor oposto de v; para o qual v + ( v) = ( v) + v = 0: Propriedades da multiplicação por escalar: 5. Associatividade da multiplicação. Para todo escalar todo vetor v em V; ( v) = ( )v:

e

em K e

6. Distributividade da multiplicação em relação à adição de vetores. Para todo escalar em K e todo vetor v e w em V; (v + w) = v + w: 1. Distributividade da adição de escalares em relação à multiplicação. ( + )v = v + v: 7. Elemento unidade. Se 1 for o elemento neutro da multiplicação em K; para todo vetor v em V; 1v = v: De…nimos a subtração do vetor v pelo vetor w como sendo a operação que resulta no vetor v w de…nido por v

w = v + ( w):

Notas de aula do Professor Faleiros

58

Espaço vetorial

Quando for conveniente, sendo como sinônimo de v e

um escalar e v um vetor, escreveremos v v

será um sinônimo de 1 v: Se K for o corpo dos números reais, se diz que o espaço vetorial é real. Se K for o corpo dos números complexos, se diz que o espaço vetorial é complexo. Nota 3.3 Ao de…nirmos as operações de adição de vetores e multiplicação um vetor por um escalar, estabelecemos que a soma u + v e o produto v pertencem ambos a V: Muitos autores incluem este fato entre as propriedades das operações dizendo que o espaço vetorial V é fechado na adição e fechado na multiplicação por escalar.

3.1

Propriedades adicionais

1. 0u = 0: 2. r 0 = 0: 3. ( 1)v =

v:

4. Se r v = 0 então r = 0 ou v = 0: Prova. 1. 0u = (0 + 0)u = 0u+0u o que implica em 0u = 0: 2. r0 = r(0 + 0) = r0+r0 o que implica em r0 = 0: 3. (v + ( 1v)) = (1 + ( 1))v = 0v = 0: Logo, 1v = v: 4. Se r 6= 0; então v = 1v = (r 1 r)v = r 1 (r v) = r 1 0 = 0:

3.2

O espaço vetorial das ênuplas ordenadas

Seja n um número inteiro positivo. Uma sequência (x1 ; : : : ; xn ) de números reais, delimitada por parêntesis, é chamada de n-upla (leia-se ênupla) ordenada de números reais. Os números reais xi ; onde i = 1; 2; : : : ; xn são chamados de elementos da ênupla. Quando n = 2 ou 3; usamos o termo par ordenado e terno ordenado. Duas ênuplas (x1 ; : : : ; xn ) e (y1 ; : : : ; yn ) são iguais se x1 = y1 ; x2 = y2 ; : : : ; xn = yn : O conjunto de todas as ênuplas ordenadas com esta de…nição de igualdade é denotado por Rn : Notas de aula do Professor Faleiros

3.3 Outros espaços vetoriais relevantes

59

De…nimos as operações de adição de duas ênuplas x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) por x + y = (x1 + y1 ; : : : ; xn + yn ) e a de multiplicação de um número real k por uma ênupla ordenada x = (x1 ; : : : ; xn ) por k x = (k x1 ; : : : ; k xn ): A ênupla x + y é chamada de soma de x e y; a ênupla k x é o múltiplo escalar de x: O Rn com estas duas operações é um espaço vetorial real, cujo vetor nulo ou vetor zero é a n-upla 0 = (0; : : : ; 0) onde todos os elementos são nulos. O inverso aditivo ou oposto de x = (x1 ; : : : ; xn ) é x = ( x1 ; : : : ; xn ) e a subtração no Rn é a operação (x1 ; : : : ; xn )

(y1 ; : : : ; yn ) = (x1

y1 ; : : : ; x n

yn )

O Rn é o espaço vetorial mais importante para as aplicações. Mais tarde estudaremos os conceitos de dimensão e isomor…smo. Nesta ocasião, provaremos que todo espaço vetorial real de dimensão n é isomorfo ao Rn : Isto signi…ca que toda propriedade ou operação realizada no Rn se transfere para o outro espaço e vice-versa e, desta forma, os dois espaços são equivalentes para os objetivos da Álgebra Linear. Assim, se estudarmos apenas o Rn ; teremos estudado todos os espaços de dimensão …nita.

3.3

Outros espaços vetoriais relevantes

Exemplo 3.4 Sejam m e n números inteiros positivos. O conjunto das matrizes reais m n com as operações de adição de matrizes e multiplicação de matriz por um número real é um espaço vetorial real. Exemplo 3.5 O conjunto das funções reais contínuas com domínio num intervalo aberto (a; b) e imagem em R; com as operações de adição de funções e multiplicação de uma função por um número real é um espaço vetorial real. Exemplo 3.6 O conjunto V = f0g que contém um único elemento, onde se de…ne a adição por 0 + 0 = 0 e a multiplicação por um escalar por 0 = 0; é um espaço vetorial denominado de espaço vetorial nulo. Notas de aula do Professor Faleiros

60

Espaço vetorial

Observe que nem toda operação de adição e multiplicação por escalar em um conjunto resulta em um espaço vetorial. Considere V = R2 onde de…nimos a adição como é usual por (x1 ; x2 ) + (y1 ; y2 ) = (x1 + y1 ; x2 + y2 ) e a multiplicação de um par (x1 ; x2 ) por um número real r de um modo um pouco diferente que o usual r (x1 ; x2 ) = (r x1 ; 0): Observe que 1(1; 2) = (1; 0) que é diferente de (1; 2); não satisfazendo a última propriedade da multiplicação por escalar. Logo, R2 com as operações acima não forma um espaço vetorial real.

3.4

Subespaços vetoriais

Seja V um espaço vetorial e S um subconjunto não vazio de V: O subconjunto S é fechado na adição se, dados dois vetores u e v em S; a soma u+v pertence a S: O subconjunto S de V é fechado na multiplicação por escalar se dado um vetor v em S e um escalar c real, o vetor c v pertence a S: Se S for um subconjunto não vazio de V; fechado na adição e na multiplicação por escalar, será denominado subespaço vetorial de V: Todo subespaço vetorial contém o vetor nulo. De fato, se v for um vetor de um subespaço vetorial S; multiplicando-o pelo escalar 0; obtém-se que o vetor zero 0 = 0 v pertence a S; que é fechado na multiplicação por escalar. Se V é um espaço vetorial, então o V e o conjunto f0g; contendo apenas o vetor nulo, são subespaços vetoriais de V: Seja S for um subespaço vetorial de V: Teorema 3.7 Seja S um subespaço vetorial de V: Então S; juntamente com as operações de adição de vetores e multiplicação por escalares herdadas do espaço vetorial V; também é um espaço vetorial. Exemplo 3.8 São subespaços do R2 ; o f(0; 0)g; retas passando pela origem e o próprio R2 : Exemplo 3.9 São subespaços do R3 ; o f(0; 0; 0)g; retas passando pela origem, planos passando pela origem e o próprio R3 : Exemplo 3.10 Planos do R3 passando pela origem, cuja equação geral é da forma ax1 + bx2 + cx3 = 0; onde a; b e c são reais …xos e (x1 ; x2 ; x3 ) é um ponto qualquer do plano. Notas de aula do Professor Faleiros

3.4 Subespaços vetoriais

61

Exemplo 3.11 V = polinômios, S = polinômios de grau

n:

Exemplo 3.12 São subespaços das matrizes quadradas Mn n o conjunto das matrizes simétricas, o conjunto das matrizes diagonais, o conjunto das matrizes triangulares superiores e o conjunto das matrizes triangulares inferiores. Exemplo 3.13 Do espaço vetorial das funções reais com domínio em R; são subespaços aqueles subconjuntos dos polinômios reais, das funções contínuas, das funções com derivada contínuas, das funções com derivadas contínuas até a ordem m; das funções reais com derivadas contínuas de todas as ordens. Exemplo 3.14 Seja A uma matriz real m linear homogêneo Ax = 0 é um subespaço Quando 2 1 2 4 A=4 2 3 6

n: O conjunto solução do sistema vetorial das matrizes reais n 1: 3 3 6 5 9

este subespaço é o subconjunto formado pelo plano de M3 1 cujos pontos [x1 ; x2 ; x3 ]T satisfazem à equação x1 2x2 + 3x3 = 0: Quando 2 3 1 2 3 7 8 5 A=4 3 2 4 6

o espaço solução é a reta x1 = 5t; x2 reais. Quando 2 1 A=4 3 4

o espaço solução é o espaço trivial que 0; x3 = 0: Quando 2 0 4 A= 0 0 o espaço solução é todo o M3 1 :

= 2 7 1

t; x3 = t; com t percorrendo os 3 3 8 5 2

contém apenas a origem x1 = 0; x2 = 3 0 0 0 0 5 0 0

Exemplo 3.15 (Um contra-exemplo) O conjunto S de todos os pares ordenados de números reais (x1 ; x2 ) com x1 0 não é um subespaço vetorial do R2 por não ser fechado na multiplicação por escalar, uma vez que 1(x1 ; x2 ) = ( x1 ; x2 ) não pertence a S quando x1 > 0; uma vez que x1 < 0: Notas de aula do Professor Faleiros

62

3.5

Espaço vetorial

Espaço gerado

Se v1 ; v2 ; : : : ; vn forem vetores de um espaço vetorial V e s1 ; s2 ; : : : ; sn forem escalares, então o vetor w = s1 v1 + +sn vn de V é uma combinação linear dos vetores v1 ; : : : ; vn : Se v for um vetor de V e s for um escalar, o vetor w = s v é chamado de múltiplo escalar de v: Exemplo 3.16 Sejam e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1) vetores do R3 : Dado um vetor x = (x1 ; x2 ; x3 ) do R3 ; podemos escrever x = x1 e1 +x2 e2 +x3 e3 : Exemplo 3.17 Em R3 ; w = (9; 2; 7) é uma combinação linear de u = (1; 2; 1) e v = (6; 4; 2) pois w = 3u+ 2v: Todavia, não é possível escrever z = (4; 1; 8) como combinação linear de u e v: Seja G = fv1 ; : : : ; vk g um conjunto …nito e não vazio de vetores pertencentes a um espaço vetorial V não nulo. O conjunto S = f s1 v1 +

+ sn vn : s1 ; : : : ; sn 2 R g

formado por todas as combinações lineares dos vetores v1 ; : : : ; vk é um subespaço vetorial de V; chamado espaço vetorial gerado por G ou espaço vetorial gerado por v1 ; : : : ; vk : Também se diz que os vetores v1 ; : : : ; vk geram S e escreve-se S = ger(G)

ou

S = ger(v1; : : : ; vk ):

Exemplo 3.18 O espaço gerado por um vetor não nulo v é uma reta que passa pelo zero. Um ponto w qualquer desta reta satisfaz à equação vetorial w = tv; com t percorrendo os reais. Exemplo 3.19 O conjunto f e1 ; e2 ; e3 g; onde e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1); gera o R3 : Exemplo 3.20 O conjunto fv1 ; v2 ; v3 g onde v1 = (1; 1; 2); v2 = (1; 0; 1); v3 = (2; 1; 3) não gera o R3 : Exemplo 3.21 O conjunto f1; x; x2 ; : : : ; xn g gera Pn : Notas de aula do Professor Faleiros

3.6 Dependência linear

63

Propriedades dos espaços gerados 1. Seja G = fv1 ; : : : ; vn g um conjunto …nito e não vazio de vetores. O espaço gerado por G não se altera quando: (a) Se permuta a posição de seus vetores. (b) Se multiplica um de seus vetores por um escalar não nulo. (c) Se adiciona a um vetor de G um múltiplo de outro vetor de G: (d) Se inclui em G um vetor igual a uma combinação linear dos vetores de G: (e) Se retira de G um vetor igual a uma combinação linear dos demais vetores de G: 2. Dois conjuntos …nitos e não vazios de vetores G1 e G2 geram o mesmo espaço vetorial se, e só se, os vetores de G1 forem combinações lineares dos vetores de G2 e os vetores de G2 forem combinações lineares dos vetores de G1 :

3.6

Dependência linear

Seja G = fv1 ; :::; vn g um conjunto …nito e não vazio de vetores de um espaço vetorial V não nulo. Se existirem escalares c1 ; c2 ; : : : ; cn nem todos nulos tais que c1 v1 + + cn vn = 0; então o conjunto G é chamado linearmente dependente. Se c1 = 0; c2 = 0; : : : ; cn = 0 forem os únicos escalares para os quais c1 v1 +

+ cn vn = 0;

o conjunto G é chamado de linearmente independente. Dados os vetores v1 ; v2 ; : : : ; vn de um espaço vetorial V; podemos olhar para c1 v1 + + cn vn = 0; como uma equação vetorial cujas incógnitas são os escalares c1 ; c2 ; : : : ; cn : Esta equação sempre é satisfeita quando fazemos c1 = c2 = = cn = 0; chamada de solução trivial da equação. Se a equação vetorial anterior possuir apenas a solução trivial, o conjunto G = fv1 ; :::; vn g é linearmente independente e, quando possuir soluções não triviais, o conjunto G é linearmente dependente. Notas de aula do Professor Faleiros

64

Espaço vetorial

Exemplo 3.22 O conjunto de vetores v1 = (2; 1; 0); v2 = (1; 2; 5); v3 = (7; 1; 5) do R3 é linearmente dependente pois 3v1 +v2 v3 = 0: Desta equação, podemos explicitar v3 para obter este vetor como uma combinação linear de v1 e v2 ; obtendo v3 = 3v1 + v2 : Também é possível escrever v1 ou v2 como uma combinação linear dos outros dois. Exemplo 3.23 Os polinômios p1 = 1

x; p2 = 5 + 3x

2x2 ; p3 = 1 + 3x

x2

formam um conjunto linearmente dependente em P3 pois 3p1

p2 + 2p3 = 0:

Exemplo 3.24 Os vetores e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1) do R3 formam um conjunto linearmente independente. Exemplo 3.25 Veri…que se o conjunto formado pelos vetores v1 = (1; 2; 3); v2 = (5; 6; 1); v3 = (3; 2; 1) é linearmente dependente. De fato, a equação vetorial c1 (1; 2; 3) + c2 (5; 6; 1) + c3 (3; 2; 1) = (0; 0; 0) corresponde ao sistema linear 2 3 2 3 32 c1 1 5 3 0 4 2 6 2 5 4 c2 5 = 4 0 5 3 1 1 c3 0

cuja solução é c2 = c1 e c3 = 2c1 : Fazendo c1 = 1; obtemos v1 + v2 2v3 = 0; mostrando que o conjunto de vetores formado por v1 ; v2 e v3 é linearmente dependente.

Exemplo 3.26 O conjunto f1; x; : : : ; xn g é linearmente independente em Pn (R): Basta escrever a equação c1 1 + c2 x +

+ cn xn = 0

nos escalares c1 ; c2 ; : : : ; cn e observar que, se houver uma solução diferente da trivial para esta equação, teríamos no lado esquerdo um polinômio não nulo de grau n ou inferior com in…nitas raízes. Em particular, todo número inteiro seria uma raiz deste polinômio. Ora, um polinômio não nulo de grau n ou inferior pode ter, no máximo, n raízes. Logo, c1 = c2 = = cn = 0: Notas de aula do Professor Faleiros

3.6 Dependência linear

65

Exemplo 3.27 O conjunto formado pelas funções f1 = x e f2 = sen x é linearmente independente no espaço vetorial das funções reais com domínio em R: De fato, se c1 e c2 forem dois escalares tais que c1 x+ c2 sen x = 0 para todo x real, derivando a igualdade em x obteríamos o sistema em c1 e c2 c1 x + c2 sen x = 0 c1 + c2 cos x = 0 que, para x = =2 possui apenas a solução trivial, uma vez que det

=2 sen =2 1 cos =2

= det

=2 1 1 0

=

1 6= 0:

O teorema que segue mostra a origem do termo dependência linear. Ele sugere que, quando um conjunto de vetores é linearmente dependente, há uma dependência linear entre seus vetores. Com isto queremos dizer que um dos vetores é uma combinação linear dos demais. Teorema 3.28 Um conjunto …nito de vetores é linearmente dependente se, e só se, um dos seus vetores for uma combinação linear dos demais. Prova. Seja G = fv1 ; : : : ; vn g um conjunto linearmente dependente. Então existem escalares k1 ; : : : ; kn ; nem todos nulos, tais que k1 v1 +

+ kn vn = 0

Supondo que k1 6= 0; então v1 =

k2 k1

v2 +

+

kn k1

vn

mostrando que v1 é combinação linear de v2 ; : : : ; vn : Se ki for diferente de zero, para algum i; é possível explicitar vi e obtê-lo como combinação linear dos demais. Reciprocamente, se v1 = 2 v2 + + n vn ; então 1:v1 2 v2 n vn = 0 e o conjunto G é linearmente dependente. Observe que pelo menos o coe…ciente de v1 é diferente de zero.

Retas e planos Seja v um vetor não nulo de um espaço vetorial V: O conjunto de vetores w para os quais w = t v para algum t real é chamado de reta gerada por v e w = t v; com t em R; é chamada de equação vetorial da reta gerada por v: Notas de aula do Professor Faleiros

66

Espaço vetorial

Sejam v1 e v2 vetores de um espaço vetorial V onde um não é múltiplo escalar do outro. O conjunto gerado por G = fv1 ; v2 g é chamado de plano gerado por v1 e v2 : Se w for um ponto deste plano, existem escalares r e s tais que w = r v1 + s v2 : Esta é a chamada equação vetorial do plano gerado por v1 ; v2 : Um conjunto com dois vetores fv1 ; v2 g de um espaço vetorial V é linearmente dependente se, e somente se, estiverem na mesma reta que passa pela origem. Um conjunto com três vetores fv1 ; v2 ; v3 g é linearmente dependente se, e somente se, todos estiverem numa reta que passa pela origem ou num plano que passa pela origem. Propriedades da dependência linear 1. Todo conjunto …nito de vetores que contém o vetor nulo é linearmente dependente. 2. Todo conjunto com um único vetor não nulo é linearmente independente. 3. Todo conjunto com dois vetores é linearmente dependende se, e só se, um for múltiplo do outro. 4. Se incluirmos vetores em um conjunto linearmente dependente, ele continua linearmente dependente. 5. Se retirarmos vetores de um conjunto linearmente independente, ele continua linearmente independente. 6. Se incluirmos um vetor w a um conjunto linearmente independente G e ele se tornar linearmente dependente, então w é uma combinação linear dos elementos de G: 7. Seja G conjunto linearmente independente. Se o vetor w não for uma combinação linear dos vetores G; o conjunto obtido acrescentando w a G continua linearmente independente.

3.7

Dependência linear de funções

Consideremos o espaço vetorial F (a; b) das funções com domínio no intervalo (a; b) de números reais e com imagem em R: O conceito de dependência linear de vetores se aplica aos elementos deste conjunto. Sendo f1 ; f2 ; : : : ; fn funções Notas de aula do Professor Faleiros

3.7 Dependência linear de funções

67

de F (a; b); o conjunto G = ff1 ; f2 ; : : : ; fn g é linearmente dependente se existirem escalares c1 ; c2 ; : : : ; cn nem todos nulos tais que c1 f1 +

+ cn fn = 0:

Observe que esta é uma igualdade entre funções e o 0 (zero) do lado direito é a função identicamente nula o que implica em c1 f1 (x) +

+ cn fn (x) = 0

para todo x no intervalo (a; b): Agora o zero da equação anterior não é mais a função nula e sim o número real zero. Como se trata de funções de…nidas num intervalo (a; b); diremos que o conjunto é linearmente dependente em (a; b): Quando o conjunto não for linearmente dependente em (a; b); diremos que o conjunto de funções é linearmente independente em (a; b): Isto signi…ca que a única sequência c1 ; c2 ; : : : ; cn de escalares para os quais c1 f1 (x) +

+ cn fn (x) = 0

para todo x no intervalo (a; b); é c1 = 0; c2 = 0; : : : ; cn = 0: Exemplo 3.29 O conjunto formado pelas funções f1 (x) = sin2 x; f2 (x) = cos2 x; f3 (x) = 5 de…nidas no conjunto dos números reais é linearmente dependente em R pois 5f1 (x) + 5f2 (x) f3 (x) = 0 para todo x real. Wronskiano Consideremos o espaço vetorial das funções com derivadas contínuas até a ordem n 1 no intervalo (a; b) que é denotado por C n 1 (a; b): Sendo G = ff1 ; : : : ; fn g um conjunto linearmente dependente neste espaço de funções, existe uma sequência não nula de escalares c1 ; : : : ; cn ; para a qual c1 f1 (x) +

+ cn fn (x) = 0

para todo x em (a; b): Como as funções possuem derivadas contínuas até a ordem n 1; podemos derivar sucessivamente a igualdade acima obtendo o sistema linear c1 f1 (x) + 0

c1 f1 (x) + (n 1)

c1 f1

(x) +

+ cn fn (x) = 0 0

+ cn fn (x) = 0 + cn fn(n) (x) = 0

Notas de aula do Professor Faleiros

68

Espaço vetorial

Como este sistema linear em c1 ; c2 ; : : : ; cn possui solução não trivial, segue que 2 3 f1 (x) fn (x) 6 7 .. .. .. W [f1 ; : : : ; fn ](x) = det 4 . 5=0 . . (n 1) (n 1) f1 (x) fn (x)

para todo x real. Este determinante é chamado de wronskiano das funções f1 ; f2 ; : : : ; fn e, quando se deseja simpli…car a notação, ele é denotado apenas por W (x): Assim, quando G = ff1 ; : : : ; fn g for linearmente dependente em (a; b); então W (x) = 0 para todo x em (a; b): A recíproca desta propriedade não é verdadeira como nos mostra o exemplo a seguir.

Exemplo 3.30 O conjunto de funções G = fx2 ; x j x jg é linearmente independente em ( 2; 2) e W (x) = 0 para todo x em ( 2; 2): Para provar que este conjunto é linearmente independente no intervalo considerado, sejam c1 e c2 escalares tais que c1 x2 + c2 x j x j = 0 para todo x em ( 2; 2): Fazendo x = 1 e x = 1 obtemos c1 c2 = 0 c1 + c2 = 0 cuja única solução é a trivial c1 = 0 e c2 = 0: Se W (x0 ) 6= 0 para algum x0 em (a; b) e c1 ; : : : ; cn forem números reais tais que c1 f1 (x) + + cn fn (x) = 0 para todo x em (a; b); podemos derivar sucessivamente a igualdade anterior, veri…cando que c1 ; c2 ; : : : ; cn é solução do sistema linear c1 f1 (x0 ) + 0

c1 f1 (x0 ) + (n 1)

c1 f1

(x0 ) +

+ cn fn (x0 ) = 0 0

+ cn fn (x0 ) = 0 + cn fn(n) (x0 ) = 0

cuja única solução é a trivial, c1 = c2 = = cn = 0: Isto prova que o conjunto formado pelas funções f1 ; : : : ; fn é linearmente independente em C (n 1) (a; b): Provamos o seguinte teorema: Teorema 3.31 Seja G = ff1 ; : : : ; fn g um conjunto de funções em C (n 1) (a; b): Se G for linearmente dependente, W (x) = 0 para todo x real. Se W (x0 ) 6= 0 em algum ponto x de (a; b); então G é linearmente independente em (a; b): Notas de aula do Professor Faleiros

3.8 Base e dimensão de um espaço vetorial

69

Quando W [f1 ; : : : ; fn ](x) = 0 em (a; b); nada se pode a…rmar sobre a dependência ou independência linear do conjunto G = ff1 ; : : : ; fn g em (a; b); sem hipóteses adicionais. Quando as funções envolvidas forem soluções de uma equação diferencial linear, temos o seguinte resultado: Teorema 3.32 Sejam a0 (x); : : : ; an 1 (x) e b(x) funções contínuas em (a; b) e y = f1 (x); : : : ; y = fn (x) soluções da equação diferencial ordinária y (n) + an 1 (x)y (n

1)

+

+ a1 (x)y 0 (x) + a0 (x)y = b(x)

em (a; b): O conjunto de funções f f1 ; : : : ; fn g é linearmente independente em (a; b) se, e só se, o wronskiano 3 2 f1 (x) fn (x) 7 6 .. .. ... W (x) = det 4 5 . . (n 1) (n 1) (x) fn (x) f1

for diferente de zero para algum x0 em (a; b): Além disso, se o wronskiano for diferente de zero em um ponto de (a; b); então será diferente de zero em todos os pontos deste intervalo. O teorema acima nos permite a…rmar que, quando y = f1 (x); : : : ; y = fn (x) forem soluções de uma equação diferencial ordinária com coe…cientes contínuos em (a; b) e W (x) = 0 em um ponto de (a; b); então o conjunto G = ff1; : : : ; fn g é linearmente dependente em (a; b): Exemplo 3.33 O conjunto f x; sen x g é linearmente independente em C 1 ( 1; 1): Exemplo 3.34 O conjunto f 1; ex ; e2x g é linearmente independente em C 2 ( 1; 1):

3.8

Base e dimensão de um espaço vetorial

No R2 podemos escrever (x1 ; x2 ) = x1 e1 + x2 e2 onde e1 = (1; 0); e2 = (0; 1) Notas de aula do Professor Faleiros

70

Espaço vetorial

(x1 ; x2 ) = (x2

x1 )d1 + (2x1

x2 )d2

onde d1 = (1; 2) e d2 = (1; 1): Observe que, sendo v1 = (1; 0); v2 = (0; 1); v3 = (1; 1); (x1 ; x2 ) = (x1

t)v1 + (x2

t)v2 + tv3

para qualquer número real t: Destes exemplos notamos que podemos escrever todo vetor do R2 como combinação linear dos elementos de G e que esta decomposição é única, tanto quando G = fe1 ; e2 g como quando G = fd1 ; d2 g: Ainda podemos escrever todo vetor do R2 como combinação linear de elementos de G = fv1 ; v2 ; v3 g mas esta decomposição não é única. Esta falta de unicidade decorre da dependência linear do conjunto fv1 ; v2 ; v3 g: De…nição 3.35 Seja B um conjunto …nito e não vazio de vetores de um espaço vetorial V não nulo. B é uma base de V se 1. for um conjunto gerador de V ; 2. for linearmente independente. Exemplo 3.36 Sejam v1 = (1; 2; 1); v2 = (2; 9; 0) e v3 = (3; 3; 4) vetores do R3 : O conjunto de vetores B = fv1 ; v2 ; v3 g é uma base do R3 : De fato, se c1 v1 + c2 v2 + c3 v3 = 0; então c1 ; c2 ; c3 é uma solução do sistema linear c1 + 2c2 + 3c3 = 0 2c1 + 9c2 + 3c3 = 0 c1 + 0c2 + 4c3 = 0 que possui apenas a solução trivial c1 = nante da matriz 2 1 2 4 A= 2 9 1 0

c2 = c3 = 0; uma vez que o determi3 3 3 5= 1 4

é diferente de zero. Além disto, sendo x = (x1 ; x2 ; x3 ) um vetor qualquer do R3 ; podemos escrevê-lo como uma combinação linear x = 1 v1 + 2 v2 + 3 v3 ; onde 1 ; 2 ; 3 é a única solução do sistema +2 2 1+9 1+0 1

+3 2+3 2+4

2

3 3 3

= x1 ; = x2 ; = x3 :

Quando x = ( 1; 3; 2); por exemplo, obtemos 25:

1

= 102;

Notas de aula do Professor Faleiros

2

=

14;

3

=

3.8 Base e dimensão de um espaço vetorial Exemplo 3.37 A solução geral do sistema homogêneo 2 3 2 3 x1 2 2 2 1 0 1 6 x2 7 6 1 6 7 6 1 2 3 1 7 6 7 6 x3 7 = 6 7 4 4 1 1 2 0 1 56 4 x4 5 0 0 1 1 1 x5

71

3 0 0 7 7 0 5 0

é x1 = r; x2 = s; x3 = r + s; x4 = 0; x5 = r s onde os parâmetros r e s podem assumir quaisquer valor real. Logo, a solução geral do sistema linear é T 1 o subespaço vetorial de M5 1 gerado pelos vetores coluna 1 0 1 0 T 1 e 0 1 1 0 : Teorema 3.38 Se o espaço vetorial V possuir um conjunto gerador …nito, então V possui base. Prova. De fato, dado G …nito que gera V; se G for linearmente independente, a a…rmação é verdadeira. Sendo G linearmente dependente, um de seus vetores é uma combinação linear dos demais. Retirando-o de G obtemos um conjunto G1 que ainda gera V: Se G1 for linearmente independente, a a…rmação está provada. Em caso contrário, repete-se o procedimento anterior até chegar a um conjunto linearmente independente que gera V e que, portanto, será uma base de V: Teorema 3.39 Unicidade da representação em uma base. Se B = fv1 ; v2 ; : : : ; vn g é uma base de um espaço vetorial V; então, para cada vetor w em V; existe uma única ênupla (a1 ; a2 ; : : : ; an ) para a qual w = a1 v1 + a2 v2 +

+ an vn :

Prova. A existência é imediata pois B é base de V: Quanto à uniciade, se existirem duas ênuplas (a1 ; a2 ; : : : ; an ) e (b1 ; b2 ; : : : ; bn ) para as quais w = a1 v1 + a2 v2 + w = b1 v1 + b2 v2 +

+ an vn ; + bn vn ;

então (a1

b1 )v1 + (a2

b2 )v2 +

+ (an

bn )vn = w

w = 0:

Da independência linear de B; segue ai = bi para i = 1; 2; : : : ; n o que prova a unicidade da decomposição de w numa combinação linear dos elementos da Notas de aula do Professor Faleiros

72

Espaço vetorial

base. Os escalares a1 ; : : : ; an para os quais w = a1 v1 + a2 v2 + + an vn são chamados de coordenadas de w em relação à base B = fv1 ; v2 ; : : : ; vn g: A ênupla (a1 ; : : : ; an ) do Rn é chamada de vetor de coordenadas de w T an em relação a B e é denotado por (w)B : O vetor coluna a1 é chamado de matriz de coordenadas de w em relação a B: O vetor de coordenadas depende da ordem na qual escrevemos os vetores da base. Uma mudança na ordem dos vetores da base resulta numa mudança correspondente da ordem das entradas nos vetores de coordenadas. Bases canônicas Existem bases que, pela sua simplicidade e aplicabilidade, recebem o nome de bases canônicas. O conjunto fe1 ; e2 g; onde e1 = (1; 0) e e2 = (0; 1) é a base canônica do R2 e todo vetor x = (x1 ; x2 ) pode ser decomposto na combinação linear x = x1 e1 + x2 e2 : O conjunto fe1 ; e2 ; e3 g; onde e1 = (1; 0; 0); e2 = (0; 1; 0) e e3 = (0; 0; 1) é a base canônica do R3 e todo vetor x = (x1 ; x2 ; x3 ) pode ser decomposto na combinação linear x = x1 e1 + x2 e2 + x3 e3 : Nota: No R2 e no R3 os vetores da base canônica costumam ser denotados por i; j e k em vez de e1 ; e2 ; e3 : Nós utilizaremos as duas notações, de acordo com a conveniência. O conjunto fe1 ; : : : ; en g; onde e1 = (1; 0; : : : ; 0); e2 = (0; 1; : : : ; 0); : : : ; en = (0; 0; : : : ; 1) é a base canônica do Rn e todo vetor x = (x1 ; : : : ; xn ) pode ser decomposto na combinação linear x = x 1 e1 +

+ xn en :

O conjunto de polinômios f1; x; x2 ; : : : ; xn g é a base canônica do espaço vetorial formado pelos polinômios de grau menor ou igual a n e estes polinômios são da forma a0 + a1 t + + an tn ; onde a1 ; a2 ; : : : ; an são escalares. O conjunto formado pelas matrizes A1 =

1 0 0 0

; A2 =

0 1 0 0

; A3 =

0 0 1 0

; A4 =

0 0 0 1

é a base canônica do espaço vetorial M2 2 ; das matrizes quadradas de ordem 2 2 e toda matriz a b A= c d uma combinação linear dos elementos da base canônica A = aA1 + bA2 + cA3 + dA4 : Notas de aula do Professor Faleiros

3.8 Base e dimensão de um espaço vetorial

73

Propriedades das bases Seja V um espaço vetorial não nulo que possui uma base com m elementos. Então 1. Qualquer subconjunto de V com mais do que m vetores é linearmente dependente. 2. Qualquer subconjunto de V com menos do que m vetores não gera V . 3. Todas as bases de V possuem m vetores. Esta propriedade é conhecida como Princípio da Invariância. 4. Um conjunto linearmente independente com m vetores é base de V: 5. Um conjunto gerador de V com m vetores é base de V: 6. Um conjunto gerador de V com mais do que m vetores pode ser reduzido a uma base de V; removendo um a um aqueles vetores que são combinações lineares dos demais. 7. Pode-se incluir vetores a um conjunto linearmente independente com menos do que m vetores, até obter uma base de V: Um algoritmo possível consiste em unir uma base ao conjunto, retirando os vetores agregados que são combinação linear dos demais. Exemplo 3.40 O conjunto B formado pelos vetores v1 = ( 3; 7) e v2 = (5; 5) é linearmente independente e, portanto, B é uma base de R2 : Exemplo 3.41 O conjunto B formado pelos vetores v1 = (2; 0; 1); v2 = (4; 0; 7) e v3 = ( 1; 1; 4) gera o R3 e, portanto, B é uma base do R3 : Se um espaço vetorial V não nulo possuir uma base com m elementos, pelo princípio da invariância, todas as suas bases terão m elementos. Neste caso, se diz que V possui dimensão …nita e que sua dimensão é m e escreveremos dim(V ) = m: O espaço vetorial nulo f0g é tratado à parte. Por de…nição, sua base é o conjunto vazio e sua dimensão é zero. Exemplo 3.42 Os espaços vetoriais Rm ; Pm (R); Mm n possuem dimensão …nita e suas dimensões são, respectivamente, m; m + 1 e m n: Exemplo 3.43 Os espaços vetoriais das funções reais com domínio na reta F (R); das funções reais com derivadas contínuas até a ordem k em toda a reta C k (R); dos polinômios reais P (R); com as operações de adição de funções e multiplicação de um real por uma função, possuem todos dimensão in…nita. Notas de aula do Professor Faleiros

74

Espaço vetorial

Teorema 3.44 Seja S um subespaço de um espaço vetorial V de dimensão …nita. Então dim(S) dim(V ): Quando dim(S) = dim(V ); então S = V: Prova. Como S está contido em V; toda base deste espaço vetorial é um conjunto gerador de S; o que implica na desigualdade dim(S) dim(V ): Quando dim(S) = dim(V ); toda base de V é conjunto gerador de S e, portanto, uma base de S o que implica na igualdade S = V:

3.9

Matriz de mudança de base

Seja V um espaço vetorial de dimensão …nita n maior do que zero. Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g duas bases de V: Podemos decompor cada elemento de B2 numa combinação linear dos elementos de B1

A matriz

w1 = a11 v1 + a21 v2 + w2 = a12 v1 + a22 v2 +

+ an1 vn + an2 vn

wn = a1n v1 + a2n v2 +

+ ann vn

2

6 6 M12 = 6 4

a11 a12 a21 a22 .. .. . . an1 an2

..

.

a1n a2n .. . ann

3 7 7 7 5

é chamada de matriz de mudança de base ou, se desejarmos fazer referência às bases envolvidas, matriz de mudança da base B1 para a base B2 ou matriz de transição da base B1 para a base B2 : Observe que as coordenadas do desenvolvimento de w1 na base B1 formam a primeira coluna, as coordenadas do desenvolvimento de w2 na base B1 formam a segunda coluna, e assim por diante. Exemplo 3.45 Sejam B1 = fv1 ; v2 ; v3 g e B2 = fw1 ; w2 ; w3 g bases do R3 ; onde v1 = (1; 0; 1); v2 = (0; 1; 1); v3 = (0; 0; 2) e w1 = (0; 1; 3); w2 = (1; 2; 1); w3 = (1; 0; 3): Notas de aula do Professor Faleiros

3.9 Matriz de mudança de base Então M12

75

2

3 1 1 2 0 5 1 1

0 =4 1 1

Sejam B1 = fv1 ; : : : ; vn g; B2 = fw1 ; : : : ; wn g e B3 = fu1 ; : : : ; un g bases de V com podemos escrever os vetores de B3 como combinações lineares dos elementos das bases: Usando o símbolo de somatório, wj =

n X

aij vi ;

uj =

i=1

n X

e

bij wi

uj =

i=1

n X

cij vi

i=1

de modo que M12 = [aij ] ; M23 = [bij ] e M13 = [cij ] são, respectivamente, as matrizes de mudança da base B1 para a base B2 ; da base B2 para a base B3 e da base B1 para a base B3 : Destas decomposições segue X X X bkj bkj wk = aik vi uj = k

k

=

X X i

aik bkj

k

ou cij =

X

!

i

vi =

X

cij vi

i

aik bkj

k

para i e j variando de 1 a n: Tais igualdades entre escalares corresponde à igualdade matricial M13 = M12 M23 : Quando B3 = B1 ; a matriz M13 é a matriz identidade e M23 = M21 : Da igualdade acima segue M12 M21 = I; mostrando que as matrizes de mudança de base são inversíveis e que a inversa de M12 é M21 : Sejam i e j inteiros do conjunto f1; 2; : : : ; ng: O delta de Kronecker ij ; é um conjunto de n2 números de…nidos do seguinte modo: ij = 1 quando i = j e ij = 0 quando i 6= j: O elemento da linha i coluna j da matriz identidade I de ordem n n é exatamente ij e podemos usar o delta de Kronecker para escrever I = [ ij ]: As igualdades matriciais M12 M21 = I

e

M21 M12 = I

Notas de aula do Professor Faleiros

76

Espaço vetorial

quando escritas componente a componente, fornece X X aik bkj = ij e bik akj = k

ij

k

para i e j percorrendo os valores 1; : : : ; n: Mudança de coordenadas Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g duas bases do espaço vetorial V e u um vetor de V: Sejam [u]1 = [x1 ; : : : ; xn ]T

[u]2 = [y1 ; : : : ; yn ]T

e

as matrizes das coordenadas de u nas bases B1 e B2 ; respectivamente. Seja M12 = [aij ] a matriz de mudança da base B1 para a base B2 : Temos X X u= xi vi = yj wj i

j

e wj =

n X

aij vi ;

i=1

de onde segue u=

X

yj wj =

j

=

j

X X i

X

aij yj

j

yj

!

X

aij vi

i

vi =

X

xi vi :

i

Da unicidade da decomposição de um vetor nos elementos da base segue X xi = aij yj j

que corresponde à igualdade matricial [u]1 = M12 [u]2 : Exemplo 3.46 Sabe-se que B1 = fv1 ; v2 ; v3 g e B2 = fw1 ; w2 ; w3 g são bases de um espaço vetorial V de dimensão três e que 2 3 0 1 1 2 0 5 M12 = 4 1 1 1 1 Notas de aula do Professor Faleiros

3.10 Espaço linha e espaço coluna

77

é a matriz de mudança da base B1 para B2 : Sendo u = w2 + 2w3 ; sua T 1 2 matriz de coordenadas na base B2 é 0 : A matriz das coordenadas de u na base B1 pode ser obtida pela relação 2 32 3 2 3 0 1 1 0 1 2 0 54 1 5 = 4 2 5 [u]1 = M12 [u]2 = 4 1 1 1 1 2 3 e assim u = v1

3.10

2v2 + 3v3 :

Espaço linha e espaço coluna

Vamos veri…car que, com frequência, é interessante dispor um conjunto de vetores do Rn nas linhas ou colunas de uma matriz. As matrizes são formas compactas e convenientes de apresentar os vetores de um espaço vetorial. De…nição 3.47 Para uma matriz 2 de tamanho m

3 a11 : : : a1n 6 .. 7 A = 4 ... . 5 am1 : : : amn

n; suas linhas ri =

ai1 ai2 : : : ain

são denominadas vetores linha de A e suas colunas 2 3 a1j 6 a2j 7 6 7 cj = 6 .. 7 = a1j a2j : : : amj 4 . 5 amj

T

são denominadas vetores coluna de A: O espaço vetorial gerado pelos vetores linhas é o espaço linha de A: O espaço vetorial gerado pelos vetores coluna é o espaço coluna de A: Propriedades dos espaços linha e coluna Duas matrizes com o mesmo tamanho são equivalentes quando for possível obter uma delas mediante uma sequência de operações elementares sobre a Notas de aula do Professor Faleiros

78

Espaço vetorial

outra. Se operações elementares sobre A resultam numa matriz B; é possível levar B em A realizando sobre a primeira uma sequência de operações elementares que são invertíveis. Se E1 ; : : : ; Ek forem matrizes elementares e B = Ek

E1 A;

então A = E1 1

Ek 1 B:

Feita esta de…nição passemos a enunciar as propriedades dos espaços linha e coluna de uma matriz. 1. Numa matriz escalonada, (a) os vetores linha não nulos formam uma base do espaço linha da matriz; (b) os vetores coluna que possuem os pivôs formam uma base do espaço coluna da matriz. 2. Sejam A e B matrizes equivalentes. Denote por a1 ; a2 ; : : : ; an os vetores coluna de A e por b1 ; b2 ; : : : ; bn os vetores coluna de B: (a) Se

1;

:::;

n

forem escalares tais que 1 a1

+

+

n an

=0

1 b1

+

+

n bn

= 0:

então Nesta propriedade não se pede que todos os escalares sejam diferentes de zero. Para matrizes com 5 colunas, se 1 a1 + 3 a3 + 5 a5 = 0; então 1 b1 + 3 b3 + 5 b5 = 0 e pode-se pensar que 2 e 4 são iguais a zero. (b) Um subconjunto dos vetores coluna de A é linearmente dependente se, e só se, as mesmas colunas de B formarem um conjunto linearmente dependente. 3. Sejam A e B matrizes equivalentes. Nem sempre o espaço coluna de A é igual ao espaço coluna de B: Entretanto, ambos possuem a mesma dimensão. Se as colunas j1 ; : : : ; jk de A formarem uma base do espaço coluna de A; então as colunas j1 ; : : : ; jk de B formam uma base do espaço coluna de B: Notas de aula do Professor Faleiros

3.10 Espaço linha e espaço coluna

79

4. Duas matrizes equivalentes A e B possuem o mesmo espaço linha. Uma base do espaço linha de B é base do espaço linha de A: Exemplo 3.48 Considere a matriz 2 1 2 6 0 1 6 4 0 0 0 0

escalonada por linhas 3 3 4 5 2 0 4 7 7: 0 1 2 5 0 0 0

Sua primeira, segunda e terceira linhas, exatamente aquelas que contêm os pivôs, formam uma base do seu espaço linha. Sua primeira, segunda e quarta colunas, aquelas que contêm os pivôs, formam uma base do seu espaço coluna.

Exemplo 3.49 As matrizes 2 3 1 0 A=4 0 1 5 0 0

e

Exemplo 3.50 Para obter uma base 2 1 3 6 2 6 A=6 4 2 6 1 3

para o espaço linha da matriz 3 4 2 5 4 9 1 8 2 7 7 9 1 9 7 5 4 2 5 4

2

3 1 0 B=4 0 1 5 1 1

são equivalentes pois pode-se obter B adicionando à terceira linha de A sua primeira e segunda linhas. Todavia, os espaços coluna de A e B são diferentes. T T Os vetores coluna 1 0 1 e 0 1 1 de B não pertencem ao espaço coluna de A: Embora diferentes, os espaços coluna de A e B possuem ambos dimensão 2:

podemos reduzi-la à forma escalonada R mediante operações elementares 2 3 1 3 4 2 5 4 6 0 0 1 3 2 6 7 7 R=6 4 0 0 0 0 1 5 5 0 0 0 0 0 0

e concluir que as três primeiras linhas de R formam uma base para o espaço linha de A: A primeira, terceira e quinta colunas de R, exatamente aquelas que contém os pivôs, formam uma base para o seu espaço coluna. Logo, a primeira, terceira e quinta colunas de A formam uma base do espaço coluna de A. Notas de aula do Professor Faleiros

80

Espaço vetorial

Exemplo 3.51 Para determinar uma base do espaço linha da matriz 2 3 1 2 0 0 3 6 2 5 3 2 6 7 7 A=6 4 0 5 15 10 0 5 2 6 18 8 6

formada por vetores linha de A; siga os passos descritos em seguida. 1. Transponha A 2 3 1 2 0 2 6 2 5 5 6 7 6 7 T 7 0 3 15 18 A =6 6 7 4 0 2 10 8 5 3 6 0 6

2. Realize operações elementares na escalonada 2 1 2 6 0 1 6 R=6 6 0 0 4 0 0 0 0

matriz AT até chegar a uma matriz 3 0 2 5 10 7 7 0 1 7 7: 0 0 5 0 0

As colunas 1; 2 e 4 formam uma base para o espaço coluna de R: Logo, as colunas 1; 2 e 4 de AT formam uma base para o espaço coluna desta matriz. Conclui-se que as linhas 1; 2 e 4 de A formam uma base do espaço linha de A: Exemplo 3.52 Sejam v1 = (1; 2; 0; 0; 3); v2 = (2; 5; 3; 2; 6); v3 = (0; 5; 15; 10; 0); v4 = (2; 6; 18; 8; 6) vetores do R4 e G = fv1 ; v2 ; v3 ; v4 g: Para determinar uma base para o subespaço S gerado por G; basta seguir os seguintes passos: 1. Forme a matriz cujas linhas são as entradas de v1 ; v2 ; v3 e v4 2 3 1 2 0 0 3 6 2 5 3 2 6 7 7 A=6 4 0 5 15 10 0 5 : 2 6 18 8 6 2. Mediante operações elementares, reduza 2 1 2 0 0 6 0 1 3 2 R=6 4 0 0 1 1 0 0 0 0

a matriz à forma escalonada 3 3 0 7 7 0 5 0

Notas de aula do Professor Faleiros

3.10 Espaço linha e espaço coluna

81

3. Uma base do espaço linha de A é formada pelos vetores linha não nulos de R: Logo, uma base para S é w1 = (1; 2; 0; 0; 3); w2 = (0; 1; 3; 2; 0); w3 = (0; 0; 1; 1; 0): Os vetores w1 ; w2 ; w3 não pertencem ao conjunto G: Desejando uma base de S formada pelos elementos de G; proceda como segue: 1. Forme a matriz cujas colunas são as entradas de v1 ; v2 ; v3 e v4 2 3 1 2 0 2 6 2 5 5 6 7 6 7 6 3 15 18 7 A=6 0 7 4 0 2 10 8 5 3 6 0 6 2. Escalone esta matriz 2

6 6 R=6 6 4

1 0 0 0 0

2 1 0 0 0

0 5 0 0 0

2 10 12 0 0

3 7 7 7 7 5

3. As colunas 1; 2 e 4 formam uma base do espaço coluna de R: Isto implica em que as colunas 1; 2 e 4 de A formam uma base do espaço coluna de A: Logo, v1 ; v2 ; v4 formam uma base do espaço gerado por G: Exemplo 3.53 A matriz 2

6 A=6 4

1 2 0 3

é equivalente à matriz escalonada 2 1 6 0 B=6 4 0 0

2 5 3 6

2 1 0 0

0 1 3 0

0 1 0 0

2 1 4 7

2 3 1 0

3 5 8 7 7 1 5 2 3 5 2 7 7 1 5 0

Notas de aula do Professor Faleiros

82

Espaço vetorial

As colunas 1; 2 e 4 de B são linearmente independentes e geram seu espaço coluna. Logo, as colunas 1; 2 e 4 de A são linearmente independentes e geram o espaço coluna de A: Denotando as colunas de B por b1 ; b2 ; b3 ; b4 e b5 ; nota-se que b1 ; b2 e b4 formam uma base para o seu espaço coluna e que b3 = 2b1 b2 b5 = b1 + b2 + b4 : Denotando as colunas de A por a1 ; a2 ; a3 ; a4 e a5 ; então a1 ; a2 e a4 formam uma base do espaço coluna de A e a3 = 2a1 a2 ; a5 = a1 + a2 + a4 : Teorema 3.54 A dimensão do espaço linha de uma matriz é igual à dimensão do seu espaço coluna. Prova. Seja R uma forma escalonada de A: A dimensão do espaço linha de A é igual à dimensão do espaço linha de R: A dimensão do espaço coluna de A é igual à dimensão do espaço coluna de R: Uma base do espaço linha de R é constituída das linhas que possuem os pivôs. Uma base do espaço coluna de R é formada pelas colunas que possuem os pivôs. Logo, as dimensões do espaço linha e do espaço coluna de R são iguais, provando o teorema. O posto de uma matriz A; denotado por pos(A); é a dimensão do seu espaço linha, que é igual à dimensão do seu espaço coluna. Sendo a dimensão do espaço linha igual à do espaço coluna, o posto de uma matriz é igual ao posto de sua transposta.

3.11

Sistemas lineares e o espaço nulo de uma matriz

Quando A é uma matriz m n e b é uma matriz m 1; podemos nos perguntar quando é que o sistema linear Ax = b tem solução. Sendo x a matriz coluna [x1 xn ]T e c1 ; : : : ; cn os vetores coluna de A; então Ax = x1 c1 +

+ xn cn :

Vemos que Ax = b se, e só se, b for uma combinação linear das colunas de A: Em outras palavras, o sistema Ax = b possui solução se, e só se, b for uma Notas de aula do Professor Faleiros

3.11 Sistemas lineares e o espaço nulo de uma matriz

83

combinação linear das colunas de A: A matriz b é uma combinação linear das colunas de A se, e só se, o posto da matriz A dos coe…cientes é igual ao posto da matriz completa [A j b] do sistema. O posto de A é sempre menor ou igual a m e menor ou igual a n: Se o posto de A for m; o sistema linear Ax = b será consistente para toda matriz coluna b: Se o posto de A for igual a n; o sistema linear Ax = b possuirá no máximo uma solução. Quando m > n; o número de equações do sistema linear Ax = b é maior do que o número de incógnitas e se diz que ele é sobredeterminado. Neste caso o posto de A é menor do que m e o sistema linear Ax = b nem sempre tem solução. Quando m < n; o número de equações do sistema linear Ax = b é menor do que o número de incógnitas e se diz que o sistema linear Ax = b é subdeterminado. Quando o posto de A for igual a m; o sistema linear Ax = b sempre possui solução. Quando m = n; o número de equações do sistema linear Ax = b é igual ao número de incógnitas e se diz que o sistema linear Ax = b é determinado. Quando o posto de A for igual a m; a matriz A é invertível e o sistema linear Ax = b possui uma única solução para cada b: Quando o sistema Ax = b tem solução, ela será única se, e só se, o sistema homogêneo Ax = 0 possuir apenas a solução trivial. O conjunto solução do sistema homogêneo Ax = 0 é um espaço vetorial chamado espaço nulo de A: O espaço nulo de A possui apenas o vetor nulo ou possui in…nitas matrizes coluna. Neste caso, sendo fv1 ; : : : ; vk g uma base do espaço nulo de A; toda solução do sistema homogêneo Ax = 0 é da forma c1 v1 + + ck vk ; onde c1 ; : : : ; ck são escalares. Sendo x ~ uma solução do sistema não homogêneo Ax = b; todas as suas soluções serão da forma x ~ + c1 v1 +

+ ck vk ;

onde c1 ; : : : ; ck são escalares. Cada solução deste conjunto é chamada de solução particular do sistema Ax = b: A dimensão do espaço nulo de A é chamada de nulidade de A sendo denotada por nul(A): Sempre é bom lembrar que a nulidade de A é igual ao número de variáveis livres do sistema homogêneo Rx = 0; onde R é uma forma escalonada de A e que o posto de A é igual a número de variáveis dependentes do sistema homogêneo Rx = 0: Exemplo 3.55 A solução geral do sistema do sistema escalonado x1 +3x2

+4x4 x3 +2x4 x5

= 0 = 0 = 1

Notas de aula do Professor Faleiros

84

Espaço vetorial

é obtida por substituição reversa x5 = 1; x3 =

2x4 ;

x1 =

3x2

4x4 :

Nela, x2 ; x4 são variáveis livres e x1 ; x3 ; x5 são variáveis dependentes. Introduzindo os parâmetros r e s; de…nindo-os por r = x2 e s = x4 ; obtemos a solução geral x1 =

3r

4s;

x2 = r;

x3 =

2s;

x4 = s;

x5 = 1

na forma paramétrica. Ao colocar a solução geral na forma matricial, 2 3 2 3 2 3 2 3 x1 0 3 4 6 x2 7 6 0 7 6 1 7 6 0 7 6 7 6 7 6 7 6 7 6 x3 7 = 6 0 7 + r 6 0 7 + s 6 2 7 6 7 6 7 6 7 6 7 4 x4 5 4 0 5 4 0 5 4 1 5 x5 1 0 0

percebemos que o primeiro vetor coluna do lado direito é uma solução particular do sistema dado e que os outros dois vetores coluna formam uma base para o espaço de soluções do sistema linear homogêneo associado. Exemplo 3.56 Escalonando 2 1 4 2 3 chegamos a

cuja solução geral é

2

1 4 0 0

o sistema 32 2 3 4 6 54 6 9

homogêneo 3 2 3 0 x1 4 5 x2 = 0 5 0 x3

3 2 3 32 2 3 x1 0 4 5 4 5 0 0 x2 = 0 5 0 0 0 x3

2

3 2 3 2 3 x1 2 3 4 x2 5 = s 4 1 5 + t 4 0 5 x3 0 1

onde s e t são escalares quaisquer.

Exemplo 3.57 Escalonando o sistema homogêneo 2 32 3 2 3 1 2 3 x1 0 4 3 7 8 5 4 x2 5 = 4 0 5 2 4 6 x3 0 Notas de aula do Professor Faleiros

3.11 Sistemas lineares e o espaço nulo de uma matriz obtemos

2

1 4 0 0

cuja solução geral é

85

32 3 2 3 2 3 x1 0 5 4 5 4 1 1 x2 = 0 5 0 0 x3 0 2

3 2 3 x1 5 4 x2 5 = s 4 1 5 x3 1

onde s é um escalar qualquer.

Exemplo 3.58 O espaço solução do sistema homogêneo 2

1 4 3 4

2 7 1

32 3 2 3 3 x1 0 8 5 4 x2 5 = 4 0 5 ; 2 x3 0

é o espaço vetorial nulo, pois a única solução do sistema é dada por x1 = 0; x2 = 0 e x3 = 0: Exemplo 3.59 A solução geral do sistema linear homogêneo 2x1 + 2x2 x3 + 0x4 + x5 x1 x2 2x3 3x4 + x5 x1 + x2 2x3 + 0x4 x5 0x1 + 0x2 + x3 + x4 + x5

=0 =0 =0 =0

nas incógnitas x1 ; x2 ; x3 ; x4 ; x5 é 2 6 6 6 6 4

x1 x2 x3 x4 x5

3

2

7 6 7 6 7 = s6 7 6 5 4

1 1 0 0 0

3

2

6 7 6 7 7 + t6 6 7 5 4

1 0 1 0 1

3 7 7 7 7 5

onde s e t são dois parâmetros livres e a dimensão do espaço solução é 2: Teorema 3.60 Se a matriz A possuir n colunas, então pos(A) + nul(A) = n Notas de aula do Professor Faleiros

86

Espaço vetorial

Prova. Seja R uma forma escalonada de A: O posto de A é igual ao número de variáveis dependentes do sistema homogêneo Rx = 0 e a nulidade de A é igual ao número de variáveis livres do sistema homogêneo Rx = 0: Como o número de variáveis dependentes adicionado ao número de variáveis livres é igual a n; decorre que pos(A) + nul(A) = n:

Exemplo 3.61 Se A é uma matriz 5 7; então o sistema linear Ax = b é subdeterminado e deve ser consistente para algum b e, para cada um destes b; a solução deve ter nul(A) = 7 pos(A) parâmetros livres. Exemplo 3.62 Para determinar 2 1 6 3 A=6 4 2 4 nós a escalonamos

2

1 6 0 R=6 4 0 0

o posto e a nulidade da matriz 3 2 0 4 5 3 7 2 0 1 4 7 7: 5 2 4 6 1 5 9 2 4 4 7

0 1 0 0

4 2 0 0

28 12 0 0

o que nos permite concluir que pos(A) = 2

e

3 37 13 16 5 7 7 0 0 5 0 0

nul(A) = 4

veri…cando que pos(A) + nul(A) = 6: A solução geral do sistema homogêneo Ax = 0 é x1 = 4x3 + 28x4 + 37x5 x2 = 2x3 + 12x4 + 16x5

13x6 5x6

com x3 ; x4 ; x5 ; x6 variando livremente nos reais. Uma base do espaço nulo de Aé 2 3 2 3 2 3 2 3 4 28 37 13 6 2 7 6 12 7 6 13 7 6 5 7 6 7 6 7 6 7 6 7 6 1 7 6 0 7 6 0 7 6 0 7 7 6 7 6 7 6 7 v1 = 6 6 0 7 ; v2 = 6 1 7 ; v3 = 6 0 7 ; v4 = 6 0 7 : 6 7 6 7 6 7 6 7 4 0 5 4 0 5 4 1 5 4 0 5 0 0 0 1 Notas de aula do Professor Faleiros

3.11 Sistemas lineares e o espaço nulo de uma matriz Exemplo 3.63 A forma escalonada 2 1 2 6 3 7 A=6 4 2 5 4 9

é

2

1 6 0 R=6 4 0 0

2 1 0 0

da matriz 4 0 2 2 2

0 2 0 0

4 0 4 4 4 12 0 0

5 1 6 4 5 16 0 0

87

6 3 3 4 7 7 1 5 7

3 3 5 7 7: 0 5 0

Como R possui duas linhas não nulas, pos(A) = 2: Como pos(A)+ nul(A) = 6; conclui-se que nul(A) = 4: Exemplo 3.64 Vamos veri…car se o sistema x1 2x2 3x3 + 2x4 = 4 3x1 + 7x2 x3 + x4 = 3 2x1 5x2 + 4x3 3x4 = 7 3x1 + 6x2 + 9x3 6x4 = 1 é consistente ou não. Tomando a matriz aumentada do sistema 2 3 1 2 3 2 4 6 3 7 1 1 3 7 6 7 4 2 5 4 3 7 5 3 6 9 6 1 e escalonando-a, chegamos à matriz 2 3 1 0 23 16 0 6 0 1 10 7 0 7 6 7 4 0 0 0 0 1 5 0 0 0 0 0

O sistema é inconsistente pois o posto da matriz dos coe…cientes é igual a 2 e o posto da matriz aumentada é igual a 3: Exemplo 3.65 Sistema sobredeterminado x1 2x2 = b1 x 1 x 2 = b2 x 1 + x 2 = b3 x1 + 2x2 = b4 x1 + 3x2 = b5 Notas de aula do Professor Faleiros

88

Espaço vetorial

Usando a eliminação de Gauss-Jordan na matriz aumentada, chegamos a 1 0 0 0 0

0 2b2 b1 1 b2 b1 0 b3 3b2 + 2b1 0 b4 4b2 + 3b1 0 b5 5b2 + 4b1

O sistema será consistente se e só se 2b1 3b1 4b1

3b2 + b3 = 0 4b2 + b4 = 0 5b2 + b5 = 0

ou b1 = 5r 4s b2 = 4r 3s b3 = 2r s b4 = r b5 = s onde r e s são reais quaisquer. Vamos enunciar um teorema que reune as propriedades enunciadas até o momento e que dizem respeito às matrizes invertíveis. Teorema 3.66 Seja A uma matriz quadrada de ordem n: As seguintes a…rmações são equivalentes: (a) A é invertível. (b) Ax = 0 admite somente a solução trivial. (c) A forma escalonada reduzida de A é In . (d) A pode ser escrita como um produto de matrizes elementares. (e) Ax = b é consistente para cada matriz b de tamanho n 1: (f) Ax = b tem exatamente uma solução para cada matriz b de tamanho n 1: (g) det(A) 6= 0: (j) Os vetores coluna de A são linearmente independente. (k) Os vetores linha de A são linearmente independente. (l) Os vetores coluna de A geram Mn 1 : (m) Os vetores linha de A geram Mn 1 : (n) Os vetores coluna de A formam uma base de Mn 1 (o) Os vetores linha de A formam uma base de Mn 1 (p) A tem posto n: (q) A nulidade de A é f 0 g: Notas de aula do Professor Faleiros

Capítulo 4 Transformação linear Uma função é uma regra f que associa a cada elemento de um conjunto A um, e exatamente um, elemento de um conjunto B: Se f associa o elemento x de A ao elemento y de B; escrevemos y = f (x) : O y é a imagem de x por f ou valor de f em x: O conjunto A é o domínio de f e o conjunto B é o contradomínio de f: Usaremos a notação f : A ! B para indicar que f é uma função com domínio A e contradomínio B: O conjunto f (A) = ff (x) : x 2 Ag é a imagem de f: Quando A e B forem conjuntos de números reais diremos que f é função real de uma variável real. Duas funções f1 e f2 são iguais e escreveremos f1 = f2 quando tiverem o mesmo domínio, o mesmo contradomínio e f1 (x) = f2 (x) para todo x do domínio que é comum a ambas. Sejam V e W espaços vetoriais. Uma função f : V ! W é chamada de aplicação ou transformação de V em W: Quando V = W; as funções f : V ! W; recebem o nome de operadores. Exemplo 4.1 T : R2 ! R onde T (x; y) = xy+ 3x: Exemplo 4.2 L : R2 ! R3 onde L (x; y) = (x

y; 2x; 3x

Exemplo 4.3 As equações u=x+y v = 2xy w = x2 y 2 de…nem uma transformação T : R2 ! R3 : Notas de aula do Professor Faleiros

5y):

90

Transformação linear

De…nição 4.4 Uma transformação T : V ! W é linear se para todo u e v em V e todo escalar k T (u + v) = T (u) + T (v); T (k v) = k T (v): Se V = W então a transformação linear recebe o nome de operador linear. A transformação nula, que leva todo vetor v no vetor nulo e a transformação identidade que leva todo vetor nele mesmo são transformações lineares. Exemplo 4.5 As transformações T1 (x1 ; x2 ) = 2x1 de R2 em R são lineares.

3x2 e T2 (x1 ; x2 ) = 5x1

Exemplo 4.6 A transformação T3 (x1 ; x2 ) = (x1 + x2 ; x2 ) de R2 em R2 é linear. Exemplo 4.7 Se A for uma matriz m n; então T (x) = Ax é uma transformação linear que leva matrizes coluna x de tamanho n 1 em matrizes coluna Ax de tamanho m 1: Exemplo 4.8 Se B = fv1 ; : : : ; vn g for uma base de V a função T : V ! Rn ; de…nida por T (v) = ( 1 ; : : : ; n ) que leva v no seu vetor de coordenadas ( 1 ; : : : ; n ) na base B; é uma transformação linear. Exemplo 4.9 Se V = P2 (R) for o espaço vetorial dos polinômios de grau menor ou igual a 2 com coe…cientes reais, então as funções T1 (p)(x) = p(ax + b) T2 (p)(x) = xp(x) de…nidas para todo p em P2 (R) Exemplo 4.10 A transformação T que leva uma função f de C( 1; 1) na função T (f ) de C 1 ( 1; 1); de…nida por Z x T (f )(x) = f (t)dt 0

é uma transformação linear. Exemplo 4.11 A transformação T que leva uma função f de C 1 ( 1; 1) na função T (f ) de C( 1; 1); de…nida por T (f )(x) = f 0 (x) é uma transformação linear. Notas de aula do Professor Faleiros

4.1 Transformação linear e bases

91

Exemplo 4.12 Sendo n > 1 um número inteiro, a função que leva uma matriz quadrada n n em seu determinante não é linear pois, se k for um real e A; B forem duas matrizes quadradas n n; então det(A + B) 6= det(A) + det(B) e det(k B) = k n det(B): Propriedades das transformações lineares Se V e W forem espaços vetoriais e T : V ! W uma transformação linear então, sendo c1 ; : : : ; cn escalares e v; v1 ; : : : ; vn vetores de V; então 1. T (0) = 0: 2. T ( v) = 3. T (v1

T (v):

v2 ) = T (v1 )

4. T (c1 v1 +

T (v2 ):

+ cn vn ) = c1 T (v1 )+

+ cn T (vn ):

Podemos usar o símbolo de somatório para expressar esta última propriedade e escrever ! n n X X T ci vi = ci T (vi ): i=1

i=1

Exemplo 4.13 A transformação T (x1 ; x2 ) = (1 + x1 ; 2 + x2 ) do R2 no R2 não é linear pois T (0; 0) = (1; 2) não é igual a (0; 0):

4.1

Transformação linear e bases

Seja T : V ! W uma transformação linear e B = fv1 ; : : : ; vn g uma base de V: Para cada vetor u de V; existem escalares c1 ; : : : ; cn tais que u = c1 v1 +

+ cn vn :

Da linearidade de T; T (u) = T (c1 v1 +

+ cn vn ) = c1 T (v1 ) +

+ cn T (vn ):

Desta igualdade tiramos duas conclusões. Primeiro: se conhecermos os valores de T nos vetores de uma base de V; podemos calcular T num vetor u qualquer. Basta decompor este vetor numa combinação linear dos vetores da base. Notas de aula do Professor Faleiros

92

Transformação linear

Segundo: sendo B = fv1 ; : : : ; vn g uma base de V; toda transformação linear T de V em W é da forma T (u) = c1 w1 +

+ cn wn

onde w1 = T (v1 ); : : : ; wn = T (vn ) são os valores de T no vetores vi de uma base B e (c1 ; : : : ; cn ) é o vetor de coordenadas de u na base B: Em particular, quando T é uma transformação linear do Rn em R e B = fe1 ; : : : ; en g é a base canônica do Rn ; então T (x1 ; : : : ; xn ) = x1 T (e1 ) +

+ xn T (en ) = a1 x1 +

+ an x n ;

onde a1 = T (e1 ); : : : ; an = T (en ) são números reais. Quando T é uma transformação linear do Rn em Rm ; então T (x1 ; : : : ; xn ) = x1 T (e1 ) +

+ xn T (en )

e agora T (e1 ) = (a11 ; : : : ; am1 ); : : : ; T (en ) = (a1n ; : : : ; amn ) são vetores do Rm e T (x1 ; : : : ; xn ) = (a11 x1 ; : : : ; am1 xn ) +

+ (a1n xn ; : : : ; amn xn )

ou T (x1 ; : : : ; xn ) = (a11 x1 +

+ a1n xn ; : : : ; am1 xn +

+ amn xn ):

Conclusão: Toda transformação linear T : Rn ! R é da forma T (x1 ; : : : ; xn ) = a1 x1 +

+ an x n ;

onde a1 ; : : : ; an são números reais. Toda transformação linear T : Rn ! Rm é da forma T (x1 ; : : : ; xn ) = (a11 x1 +

+ a1n xn ; : : : ; am1 xn +

onde aij ; para i = 1; : : : ; m e j = 1; : : : ; n: Observe que T1 (x1 ; : : : ; xn ) = a11 x1 + .. . Tm (x1 ; : : : ; xn ) = am1 x1 +

+ a1n xn + amn xn

Notas de aula do Professor Faleiros

+ amn xn ):

4.1 Transformação linear e bases

93

são transformações lineares do Rn em R e T (x1 ; : : : ; xn ) = ( T1 (x1 ; : : : ; xn ) ; : : : ; Tm (x1 ; : : : ; xn ) ): Escrevendo T (x1 ; : : : ; xn ) = (y1 ; : : : ; ym ) então y1 = a11 x1 + .. . ym = am1 x1 + As igualdades acima podem ser 2 3 2 y1 a11 6 .. 7 6 .. .. 4 . 5=4 . . ym am1

+ a1n xn + amn xn

resumidas numa única igualdade matricial 32 3 a1n x1 .. 7 6 .. 7 ou [y] = [T ] [x]; . 54 . 5 amn xn

onde [T ] = [aij ] é chamada de matriz canônica da transformação linear T; enquanto [x] e [y] são as matrizes das coordenadas de x e y nas bases canônicas do Rn e do Rm ; respectivamente.

Exemplo 4.14 Sendo fv1 ; v2 ; v3 g uma base de um espaço vetorial V de dimensão três e T uma transformação linear de V em R tal que T (v1 ) = 3; T (v2 ) = 2; T (v3 ) = 1: Se v = 2v1 + 5v2 + 4v3 ; então T (v) =

2T (v1 ) + 5T (v2 ) + 4T (v3 ) =

2

3+5

2+4

1=8

Exemplo 4.15 Sejam v1 = (1; 1; 1); v2 = (1; 1; 0) e v3 = (1; 0; 0): Então fv1 ; v2 ; v3 g é base do R3 : Sabendo que T : R3 ! R2 é linear e que T (v1 ) = (1; 0); T (v2 ) = (2; 1) e T (v3 ) = (3; 2); podemos calcular T em todo terno ordenado (x1 ; x2 ; x3 ): Basta decompor o terno numa combinação linear dos vetores da base (x1 ; x2 ; x3 ) = x3 (1; 1; 1) + (x2

x3 )(1; 1; 0) + (x1

x2 )(1; 0; 0)

e calcular T (x1 ; x2 ; x3 ) = x3 T (1; 1; 1) + (x2 x3 )T (1; 1; 0) + (x1 x2 )T (1; 0; 0) = x3 (1; 0) + (x2 x3 )(2; 1) + (x1 x2 )(3; 2) = ( 3x1 x2 x3 ; 3x2 2x1 x3 ): Em particular, T (1; 3; 4) = (4; 7): Notas de aula do Professor Faleiros

94

Transformação linear

Exemplo 4.16 As transformações T1 (x1 ; x2 ) = 2x1 x2 e T2 (x1 ; x2 ) = 3x2 do R2 em R são lineares. A transformação T3 (x1 ; x2 ) = 5 + x1 + 2x2 não é linear por causa da parcela 5: Exemplo 4.17 A matriz canônica da transformação linear T : R3 ! R3 de…nida por T (x1 ; x2 ; x3 ) = (2x1 é

2

2 [T ] = 4 1 0

4.2

x 2 ; x1 1 3 1

3x2 + x3 ; x2

x3 )

3 0 1 5: 1

Exemplos de transformações lineares

Re‡exões no R2 O operador T1 (x1 ; x2 ) = (x1 ; x2 ) re‡ete o ponto (x; y) no eixo 1 do R2 : O operador T2 (x1 ; x2 ) = ( x1 ; x2 ) re‡ete o ponto (x; y) no eixo do R2 : O operador T3 (x1 ; x2 ) = (x2 ; x1 ) re‡ete o ponto (x; y) na reta x = y do 2 R: Re‡exões no R3 O operador T (x1 ; x2 ; x3 ) = (x1 ; x2 ; x3 ) re‡ete o ponto (x; y) no plano 12 do R3 : O operador T (x1 ; x2 ; x3 ) = (x1 ; x2 ; x3 ) re‡ete o ponto (x; y) no plano 13 do R3 : O operador T (x1 ; x2 ; x3 ) = ( x1 ; x2 ; x3 ) re‡ete o ponto (x; y) no plano 23 do R3 : Rotações no R2 Seja um número real. Se girarmos os pontos (1; 0) e (0; 1) do R2 de um ângulo no sentido anti-horário em torno da origem, vamos obter os pontos (cos ; sen ) e ( sen ; cos ): Uma transformação linear que gira qualquer ponto (x1 ; x2 ) de um ângulo no sentido anti-horário em torno da origem é tal que T (x1 ; x2 ) = x1 T (1; 0) + x2 T (0; 1) = x1 (cos ; sen ) + x2 ( sen ; cos ) = ( x1 cos x2 sen ; x1 sen + x2 cos ) : Notas de aula do Professor Faleiros

4.2 Exemplos de transformações lineares Ao girar o ponto (x1 ; x2 ) de um ângulo T (x 1 ; x2 ) = (y1 ; y2 ) onde

95

obtemos o ponto (y1 ; y2 ) onde

y1 = x1 cos x2 sen ; y2 = x1 sen + x2 cos : Usando a notação matricial, chega-se a y1 y2

=

cos sen

sen cos

x1 x2

:

Rotações no R3 1. O operador T (x1 ; x2 ; x3 ) = (x1 ; x2 cos

x3 sen ; x2 sen + x3 cos )

estabelece uma rotação de um ângulo ; em torno do eixo 1; no sentido anti-horário quando se olha para a origem do semi-espaço x1 > 0: Sendo (y1 ; y2 ; y3 ) = T (x1 ; x2 ; x3 ); obtemos a igualdade matricial 2 3 2 32 3 y1 1 0 0 x1 4 y2 5 = 4 0 cos sen 5 4 x2 5 : y3 0 sen cos x3

2. O operador

T (x1 ; x2 ; x3 ) = (x1 cos + x3 sen ; x2 ;

x1 sen + x3 cos )

estabelece uma rotação de um ângulo ; em torno do eixo 2; no sentido anti-horário quando se olha para a origem do semi-espaço x2 > 0: Sendo (y1 ; y2 ; y3 ) = T (x1 ; x2 ; x3 ); obtemos a igualdade matricial 2 3 2 32 3 y1 cos 0 sen x1 4 y2 5 = 4 0 1 0 5 4 x2 5 : y3 sen 0 cos x3

3. O operador

T (x1 ; x2 ; x3 ) = (x1 cos

x2 sen ; x1 sen + x2 cos ; x3 )

estabelece uma rotação de um ângulo ; em torno do eixo 3; no sentido antihorário quando se olha para a origem do semi-espaço x3 > 0: Sendo (y1 ; y2 ; y3 ) = T (x1 ; x2 ; x3 ); obtemos a igualdade matricial 2 3 2 32 3 y1 cos sen 0 x1 4 y2 5 = 4 sen cos 0 5 4 x2 5 : y3 0 0 1 x3 Notas de aula do Professor Faleiros

96

Transformação linear

Dilatações e contrações no Rn Seja k 0 um número real. O operador linear de…nido sobre o Rn por T (x) = kx; é chamado de homotetia de razão k: Quando 0 6 k < 1 recebe o nome de contração e, quando k > 1; recebe o nome de dilatação.

4.3

Composição e inversa

Sejam U; V e W espaços vetoriais, L : U ! V e T : V ! W duas transformações entre espaços vetoriais. A função T L : U ! W de…nida por T

L(u) = T (L(u))

é a composta de L com T: A operação que leva L e T em T de composição de transformações.

L é chamada

Teorema 4.18 A composta de duas transfomações lineares é linear. Prova. Se u1 e u2 forem dois vetores em U; se então T

e

forem dois escalares,

L( u1 + u2 ) = T ( L( u1 + u2 ) ) = T ( L(u1 ) + L(u2 ) ) = T ( L(u1 ) ) + T ( L(u2 ) ) = T L(u1 ) + T L(u2 )

provando a linearidade da composta. Na passagem da primeira para a segunda linha usamos a linearidade de L; da segunda para a terceira a linearidade de T e, da terceira para a quarta, a de…nição de composta. A composição de transformações lineares é associativa mas, nem sempre, comutativa. Quando dois operadores T e L forem tais que T L é igual a L T; dizemos que eles comutam. Exemplo 4.19 Os operadores lineares T (x; y) = (y; x)

e

L (x; y) = (x; 0)

não comutam pois L T (x; y) = L( T (x; y) ) = L (y; x) = (y; 0) : e T

L (x; y) = T ( L (x; y) ) = T (x; 0) = (0; x) : Notas de aula do Professor Faleiros

4.3 Composição e inversa

97

Exemplo 4.20 Os operadores L(x1 ; x2 ) = ( x1 ; x2 )

e

T (x1 ; x2 ) = (x1 ; x2 )

comutam pois L T (x1 ; x2 ) = L(x1 ; x2 ) = ( x1 ; x2 ) e T

L(x1 ; x2 ) = T ( x1 ; x2 ) = ( x1 ; x2 );

mostrando que L T = T

L:

Exemplo 4.21 Considere as transformações lineares L : P1 ! P2 e T : P2 ! P2 de…nidas por L(p)(x) = q(x) = xp(x) e T (p)(x) = p(2x + 4): Então T

L(p)(x) = T (L(p))(x) = T (q)(x) = q(2x + 4) = (2x + 4)p(2x + 4):

Ao compor uma transformação T : V ! V com a transformação identidade I : V ! V; obtemos a própria T uma vez que T

I=I

T = T:

O conceito de composição se aplica a duas ou mais transformações. Dadas as transformações, T1 : V1 ! V2 ; T2 : V2 ! V3 ; T3 : V3 ! V4 ; de…nimos T3 T2 T1 : V1 ! V4 por T3 T2 T1 (v) = T3 (T2 (T1 (v))); para todo v em V: As de…nições de função injetora, sobrejetora, bijetora e inversa se aplicam à transformações entre espaços vetoriais. De…nição 4.22 Seja T : V ! W uma transformação do espaço vetorial V no espaço vetorial W: T é injetora se levar vetores distintos de V em vetores distintos de W: Isto signi…ca que, se v1 6= v2 ; então T (v1 ) 6= T (v2 ): Ou ainda, se T (v1 ) = T (v2 ) implicar em v1 = v2 : T é sobrejetora quando sua imagem for igual a W: Isto signi…ca que, se w pertence a W; existe v em V tal que T (v) = w: T é bijetora quando for injetora e sobrejetora. Neste caso, T possui inversa T 1 : W ! V: Se T (v) = w; então T 1 (w) = v e T

1

T (v) = v

e

T

T

1

(w) = w:

Notas de aula do Professor Faleiros

98

Transformação linear

As projeções não são injetoras nem sobrejetoras. As rotações são isomor…smos. Teorema 4.23 Seja T : V ! W uma transformação linear entre espaços vetoriais. Então T é injetora se e só se T (v) = 0 implicar em v = 0: Prova. Se T for linear, então T (0) = 0: Sendo T injetora e T (v) = 0 então v = 0: Reciprocamente, suponha que T (v) = 0 implica em v = 0: Sejam v1 e v2 tais que T (v1 ) = T (v2 ) : Então, da linearidade de T; segue T (v1 v2 ) = 0; o que implica em v1 v2 = 0; provando que T é injetora. De…nição 4.24 Uma transformação linear bijetora é chamada de isomor…smo. Existindo um isomor…smo entre V e W; estes espaços vetoriais são ditos isomorfos. Teorema 4.25 Dois espaços vetoriais de dimensão …nita são isomorfos se, e só se, suas dimensões forem iguais. O isomor…smo entre eles leva a base de um espaço numa base do outros. Teorema 4.26 Sejam V e W espaços vetoriais de dimensão …nita e T : V ! W uma transformação linear. Se dim V = dim W então são equivalentes 1. T é um isomor…smo. 2. T é sobrejetora. 3. T é injetora. Sendo T : V ! W um isomor…smo existe a transformação inversa T ! V; que também é um isomor…smo.

1

:W

Exemplo 4.27 Seja A uma matriz m n e considere a transformação linear T : Mn 1 ! Mm 1 de…nida por T (x) = Ax: Esta transformação é invertível se e só se A for invertível. Sobre o ponto de vista da Álgebra Linear, dois espaços isomorfos são indistinguíveis. Toda propriedade de um se transfere para o outro pelo isomor…smo. Exemplo 4.28 A transformação linear T : Pn ! Pn+1 ; de…nida por T (p)(x) = xp(x); é injetora mas não é sobrejetora. Sua imagem é formada pelos polinômios de grau n + 1 cujo termo constante é nulo. Notas de aula do Professor Faleiros

4.4 Matriz de uma transformação linear

99

Exemplo 4.29 A transformação linear D : C 1 (R) ! C(R) que leva uma função f em sua derivada Df não é injetora, uma vez que as derivadas de duas funções são iguais quando a diferença entre elas for a função constante. Exercício 4.30 Veri…que quais transformações abaixo são injetoras 1. T : R2 ! R2 onde T (x; y) = (x cos

ysen ; xsen + y cos):

2. T : R3 ! R3 onde T (x; y; z) = (x; y; 0): 3. T : M6

1

! M3

onde T (x) = Ax; onde 2 1 2 0 4 6 3 7 2 0 A=6 4 2 5 2 4 4 9 2 4

1

5 1 6 4

3 3 4 7 7: 1 5 7

Se L : U ! V e T : V ! W forem isomor…smos, então a composta T L é um isomor…smo e (T L) 1 = L 1 T 1 : Este resultado se aplica à composição de três ou mais transformações lineares. Se R; S e T forem isomor…smos e a composição R S T puder ser efetuada, ela será um isomor…smo e (R S

4.4

T)

1

=T

1

S

1

R 1:

Matriz de uma transformação linear

Seja B1 = fv1 ; : : : ; vn g uma base de V e B2 = fw1 ; : : : ; wm g uma base de W: Se T : V ! W for uma transformação linear, pode-se escrever T (vj ) =

m X

aij wi

i=1

para j = 1; : : : ; n: A matriz de T em relação às bases B1 e B2 é 2 3 a11 a1n 6 .. 7 [T ]21 = 4 ... . . . . 5 am amn

Teorema 4.31 Seja T : V ! W uma transformação linear, B1 uma base de V e B2 uma base de W: Dado v em V; [T (v)]2 = [T ]21 [v]1 Notas de aula do Professor Faleiros

100

Transformação linear

onde [T ]21 é a matriz de T nas bases B2 e B1 ; [v]1 e [T (v)]2 são as matrizes de coordenadas de v e T (v) nas bases B1 e B2 ; respectivamente. Num linguagem informal, a matriz de coordenadas de T (v) é a matriz de T multiplicada pela matriz de coordenadas de v: P P T Prova. Se v = nj=1 xj vj e T (v) = m i=1 yi wi ; então [v]1 = [x1 ; : : : ; xn ] ; [T (v)]2 = [y1 ; : : : ; ym ]T são as matrizes de coordenadas de v e T (v) nas bases B P1m= fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wm g; respectivamente. Sendo T (vj ) = i=1 aij wi ; então [T ]21 = [aij ] e ! n n m m n m X X X X X X T (v) = xj T (vj ) = xj aij wi = aij xj wi = yi wi j=1

j=1

de onde se conclui que yi = igualdade matricial

i=1

Pn

j=1

i=1

j=1

i=1

aij xj ; para i = 1; : : : ; m; que corresponde à

[T (v)]2 = [T ]21 [v]1 :

Quando T : V ! V for um operador linear, é usual tomar uma única base B1 em lugar de duas bases distintas B1 e B2 : Neste caso, fazendo B1 = B2 ; a matriz [T ]11 é chamada de matriz de T na base B1 e é denotada por [T ]1 : Se denotarmos B1 por B; sem índice, denota-se [T ]1 simplesmente por [T ] : Sendo v um vetor de V; [v] a matriz das coordenadas de v na base B e [T (v)] a matriz das coordenadas de T (v) na base B; obtemos [T (v)] = [T ][v]: Quando B1 é a base canõnica do Rn e B2 é a base canônica do Rm ; a matriz [T ]21 de uma transformação linear T do Rn no Rm nas bases B1 e B2 é a sua matriz canônica. Exemplo 4.32 Seja T : R2 ! R3 de…nida por T (x; y) = (y; 2x + 3y; x Sendo B1 = f (2; 1); (1; 2)g e B2 = f (1; 0;

y):

1); (0; 1; 0); (1; 2; 0) g; temos

T (2; 1) = (1; 1; 1) = 1(1; 0; 1) 5(0; 1; 0) + 2(1; 2; 0) T (1; 2) = (2; 4; 1) = 1(1; 0; 1) + 2(0; 1; 0) + 1(1; 2; 0) e a matriz de T em relação às bases B1 e B2 é 2 3 1 1 [T ]21 = 4 5 2 5 : 2 1 Notas de aula do Professor Faleiros

4.5 Matriz da composta e da inversa

101

Exemplo 4.33 Seja T : P1 ! P2 de…nida por T (p)(x) = xp(x): Sendo B1 = f1; xg e B2 = f1; x; x2 g; então [T ]21

2

3 0 0 = 4 1 0 5: 0 1

Exemplo 4.34 Seja T : P2 ! P2 de…nida B = f1; x; x2 g então 2 1 5 4 0 3 [T ] = 0 0

por T (p)(x) = p(3x

2

3 66 84 5 27

5): Sendo

3 25 30 5 : 9

para calcular T (1 + 2x + 3x2 ); basta efetuar o produto matricial 1 4 0 0

5 3 0

para obter T (1 + 2x + 3x2 ) = 66

4.5

32 3 2 25 1 30 5 4 2 5 = 4 9 3 84x + 27x2 :

Matriz da composta e da inversa

Sejam U; V e W espaços vetoriais de dimensão …nita. Seja B1 = fu1 ; : : : ; um g uma base de U; B2 = fv1 ; : : : ; vn g uma base de V e B3 = fw1 ; : : : ; wp g uma base de U: Sejam L : V ! W e T : W ! U duas transformações lineares. Se L(uj ) =

n X

akj vk

T (vk ) =

p X

e

bik wi

T

L(uj ) =

i=1

k=1

p X

cij wi

i=1

então [L]21 = [akj ];

[T ]32 = [bik ]

e

[T

L]31 = [cij ]:

Observe: sempre que há somaPsobre um índice, ele aparece repetido. Por n exemplo, no somatório em k; k=1 akj vk ; o sub-índice k aparece em akj e em vk : Vamos ser corajosos, omitindo o símbolo de somatório, para escrever apenas akj vk ; a…rmando, enfaticamente, que ao haver um subíndice repetido, há soma neste índice. Esta notação é denominada de notação de Einstein. Usando-a obtemos L(uj ) = akj vk

T (vk ) = bik wi

e

T

L(uj ) = cij wi

Notas de aula do Professor Faleiros

102

Transformação linear

Partindo da composta, T

L(uj ) = T (L(uj )) = T (akj vk ) = akj T (vk ) = akj bik wi = bik akj wi = cij wi :

Pela unicidade da decomposição de um vetor numa base, obtemos cij = bik akj ; para i = 1; : : : ; p e j = 1; : : : ; m; que correspondem à igualdade matricial [T

L]31 = [T ]32 [L]21 :

Esta fórmula pode ser estendida para a composição de três ou mais transformações lineares. Exercício 4.35 A transformação T : R3 ! R3 que roda um vetor no sentido anti-horário em torno do eixo z por um ângulo ; re‡ete o vetor resultante no plano yz e projeta este vetor ortogonalmente sobre o plano xy; nesta ordem, é a composta de três transformações lineares T1 ; T2 e T3 ; onde T1 realiza ao primeira, T2 realiza a segunda e T3 realiza a terceira operação. As matrizes canônicas das transformações lineares T1; T2 e T3 são 2 3 2 3 2 3 cos sen 0 1 0 0 1 0 0 cos 0 5 [T2 ] = 4 0 1 0 5 [T3 ] = 4 0 1 0 5 : [T1 ] = 4 sen 0 0 1 0 0 1 0 0 0 Para obter a matriz canônica da composta T = T3 T2 T1 basta multiplicar as matrizes 2 3 cos sen 0 cos 0 5: [T ] = [T3 ] [T2 ] [T1 ] = 4 sen 0 0 1

Lema 4.36 Se T : V ! W for um isomor…smo, se B1 for uma base de V e B2 uma base de W; então [T 1 ]12 = [T ]211 Prova. Se T 1 : W ! V for a inversa de T; então T 1 T = I onde I é o operador identidade em V: Se B1 for uma base de V e B2 for uma base de W; aplicando a fórmula anterior com B3 = B1 ; segue [T

1

]12 [T ]21 = [I]11 :

Como [I]11 é a matriz identidade, concluímos que a matriz [T da matriz [T ]21 :

1

]12 é a inversa

A recíproca também é verdadeira: Se [T ]21 for invertível, então a transformação linear T : V ! W é invertível e a matriz [T 1 ]12 de T 1 : W ! V é a inversa da matriz [T ]21 : Podemos então enunciar Notas de aula do Professor Faleiros

4.6 Matrizes semelhantes

103

Teorema 4.37 Sejam V e W espaços vetoriais de dimensão …nita. Uma transformação linear T : V ! W é um isomor…smo se, e só se, as matrizes de T nas bases de V e W forem invertíveis. Exemplo 4.38 Considere o operador linear T : R3 ! R3 de…nido por T (x1 ; x2 ; x3 ) = (3x1 + x2 ; 2x1

4x2 + 3x3 ; 5x1 + 4x2

2x3 )

cuja matriz na base canônica 2

é invertível e sua inversa [T

1

é a matriz canônica de T

4.6

[T ] = 4

] = [T ] 1

:

1

3 2 5

1 4 4

3 0 3 5 2

2

4 11 12

2 6 7

=4

3 3 9 5 10

Matrizes semelhantes

Duas matrizes quadradas e de mesmo tamanho A e B são semelhantes se existir uma matriz invertível P para a qual A=P

1

BP:

Se A e B forem semelhantes, então seus determinantes, seus postos, suas nulidades e seus traços serão iguais. Além disto, A é invertível se, e só se, B também o for. Vamos mostrar que matrizes de um operador linear são semelhantes. Teorema 4.39 Sejam B1 e B2 duas bases de um espaço vetorial V e M12 a matriz de transição da base B1 para a base B2 : Seja T : V ! V um operador linear, [T ]1 a matriz de T na base B1 e [T ]2 a matriz de T na base B2 : Então [T ]2 = M121 [T ]1 M12 : Prova. Nesta demonstração usaremos a notação de Einstein para o somatório. Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g as duas bases de V: Sendo M12 = [aij ] a matriz de transição de B1 para B2 ; wj = aij vi Notas de aula do Professor Faleiros

104

Transformação linear

para j = 1; : : : ; n: Sendo [T ]1 = [xij ] e [T ]2 = [yij ]; respectivamente as matrizes de T nas bases B1 e B2 ; então T (vj ) = xij vi

e

T (wj ) = yij wi :

Por um lado, T (wj ) = ykj wk = ykj aik vi = aik ykj vi e, por outro, T (wj ) = T (akj vk ) = akj T (vk ) = akj xik vi = xik akj vi : Da unicidade da decomposição de um vetor numa base, segue aik ykj = xik akj para i e j iguais a 1; : : : ; n; o que nos leva à igualdade matricial M12 [T ]2 = [T ]1 M12 o que prova o teorema, uma vez que a matriz de transição é invertível. Este teorema mostra que matrizes de operadores lineares T : V ! V em bases diferentes são semelhantes. Isto nos permite de…nir o determinante de um operador linear T por det(T ) = det(A) onde A é a matriz de T numa base qualquer de V: Como as matrizes de T nas bases de V são todas semelhantes, esta de…nição de determinante não dependente da base escolhida. Exemplo 4.40 Seja T : R2 ! R2 de…nida por T (x1 ; x2 ) = (x1 + x2 ; 2x1 + 4x2 ): Determine a matriz de T na base canônica B1 = fe1 ; e2 g e a matriz de T na base B2 = fv1 ; v2 g onde v1 = (1; 1) e v2 = (1; 2): Resolução: Denotemos por [T ]1 a matriz de T na base canônica B1 e por [T ]2 a matriz de T na base B2 : Temos [T ]1 =

1 1 2 4

:

Sendo M12 =

1 1 1 2

Notas de aula do Professor Faleiros

4.6 Matrizes semelhantes

105

então 2 1

M21 = M121 =

1 1

e [T ]2 = M21 [T ]1 M12 : Efetuando o cálculo, obtemos [T ]2 =

2 1

1 1

1 1 2 4

1 1 1 2

=

2 0 0 3

e T (y1 v1 + y2 v2 ) = 2y1 v1 + 3y2 v2 : Exemplo 4.41 A matriz canônica do operador linear T : R2 ! R2 ; de…nido por T (x1 ; x2 ) = (3x1 + 2x2 ; x1 + x2 ); é A=

3 2 1 1

:

Seu determinante é o determinante de A; de modo que det(T ) = det(A) = 1: Exemplo 4.42 Seja um número real e w1 = (cos ; sen ); w2 = ( sen ; cos ) dois vetores do R2 : O conjunto B1 = fw1 ; w2 g é uma base do R2 : Seja T o operador linear do R2 tal que T (w1 ) = w1 e T (w2 ) = w2 : Esta transformação linear é tal que T (x) é o re‡exo de x na reta gerada por w1 : A matriz de T na base B1 é [T ]1 =

1 0

0 1

:

Sendo B2 = fe1 ; e2 g a base canônica do R2 ; vale a relação w1 = cos e1 + sen e2 ; w2 = sen e1 + cos e2 ; de onde obtemos a matriz de transição de B2 para B1 M21 =

cos sen

sen cos

:

Sabemos que [T ]2 = M121 [T ]1 M12 = M21 [T ]1 M211 =

cos sen

=

cos 2 sen 2

sen cos sen 2 cos 2

1 0

0 1

cos sen

:

Notas de aula do Professor Faleiros

sen cos

106

Transformação linear

Como [T (x)]2 = [T ]2 [x]2 ; segue [T (x)]2 = =

cos 2 sen 2

sen 2 cos 2

x1 x2

x1 cos 2 + x2 sen 2 x1 sen 2 x2 cos 2

e T (x1 ; x2 ) = ( x1 cos 2 + x2 sen 2 ; x1 sen 2 Quando

= =6; p p 1 T (x1 ; x2 ) = ( x1 + 3x2 ; 3x1 2

4.7

x2 cos 2 ):

x2 ):

Núcleo e imagem

Seja T : V ! W uma transformação linear. O conjunto Im (T ) = fT (v) : v 2 V g é chamado de imagem de T e o conjunto nuc(T ) = fv 2 V : T (v) = 0g dos vetores de V que são levados no zero por T é chamado de núcleo de T: A imagem de T é um subespaço de W e o núcleo de T é um subespaço de V: A dimensão da imagem de T é chamada de posto de T; denotada por pos(T ) e a dimensão do núcleo é chamada de nulidade de T; denotada por nul(T ): Se T : Mn 1 ! Mm 1 for a transformação linear T (x) = Ax onde A uma matriz m n; então nul(T ) = nul(A) e pos(T ) = pos(A): Exemplo 4.43 Seja A uma matriz real de tamanho m n: Considere a transformação T : Rn ! Rm de…nida por T (x) = Ax: O núcleo de T é o espaço nulo de A e a imagem de T é o espaço coluna de A: Exemplo 4.44 Seja T : R3 ! R3 a transformação linear T (x; y; z) = (2x + 3y; x + z; 3x + 3y + z): Determine sua imagem e seu núcleo. Exemplo 4.45 O núcleo do operador T de…nido no R3 por T (x; y; z) = (x; y; 0) é nuc(T ) = f(0; 0; z) 2 R3 : z 2 Rg que possui dimensão 1 e sua imagem é

im(T ) = f(x; y; 0) 2 R3 : x; y 2 Rg que possui dimensão 2: Logo, nul(T ) + pos(T ) = 1 + 2 = 3: Notas de aula do Professor Faleiros

4.7 Núcleo e imagem

107

Teorema 4.46 Seja T : V ! W uma transformação linear. Se a dimensão de V for n; então pos(T ) + nul(T ) = n: Prova. Seja fv1 ; : : : ; vk g uma base do núcleo e complete-a fv1 ; : : : ; vk ; vk+1 ; : : : ; vn g; formando assim uma base de V: Para completar a prova, basta mostrar que fT (vk+1 ); : : : ; T (vn )g é base da imagem. Se w for um vetor da imagem de T; existe um vetor v de V tal que w = T (v): Como v = c1 v1 + + ck vk + + cn vn ; segue w = T (v) = ck+1 T (vk+1 ) +

+ cn T (vn )

uma vez que T (v1 ); : : : ; T (vk ) são iguais ao vetor nulo. Mostramos assim que fT (vk+1 ); : : : ; T (vn )g gera a imagem. Falta provar que este conjunto é linearmente independente. Se fT (vk+1 ); : : : ; T (vn )g fosse linearmente dependente, existiriam escalares dk+1 ; : : : ; dn ; nem todos nulos, para os quais dk+1 T (vk+1 ) + + dn T (vn ) = 0; o que acarreta em T (dk+1 vk+1 + + dn vn ) = 0: Neste caso, o vetor dk+1 vk+1 + + dn vn pertenceria ao núcleo de T e, portanto, existiriam escalares d1 ; : : : ; dk tais que dk+1 vk+1 + + dn vn = d1 v1 + + dk vk contradizendo a independência linear do conjunto fv1 ; : : : ; vk ; vk+1 ; : : : ; vn g: Logo, fT (vk+1 ); : : : ; T (vn )g é linearmente independente, o que completa a prova do teorema. Exemplo 4.47 Seja um número real. A imagem do operador linear T (x; y; z) = (x cos y sen ; x sen + y cos ; z) é todo o R3 e o seu núcleo é o f0g: Veri…ca-se que nul(T )+ pos(T ) = 3 de acordo com o teorema anterior. Exemplo 4.48 Considere a transformação linear T : M6 1 (R) ! M4 1 (R) de…nida por T (x) = Ax; onde 2 3 1 2 0 4 5 3 6 3 7 2 0 1 4 7 7: A=6 4 2 5 2 4 6 1 5 4 9 2 4 4 7 Realizando operações elementares 2 1 6 0 R=6 4 0 0

em A obtemos sua forma escalonada 3 2 0 4 5 3 1 2 12 16 5 7 7 0 0 0 0 0 5 0 0 0 0 0

que possui posto 2 e nulidade 4: Logo, o posto de T é igual a 2 e sua nulidade é 4: Notas de aula do Professor Faleiros

108

Transformação linear

Notas de aula do Professor Faleiros

Capítulo 5 Produto interno 5.0.1

Produtos internos

De…nição 5.1 Um produto interno ou produto escalar em um espaço vetorial real V é uma operação que associa a cada par de vetores v e w um número real denotado por hv; wi; que tem as seguintes propriedades. Para todo u; v; w em V e para todo real ; 1. hu; vi = hv; ui (simetria) 2. hu + v; wi = hu; wi + hv; wi (aditividade) 3. h u; vi = hu; vi (homegeneidade) 4. hv; vi

0 (positividade)

5. hv; vi = 0 $ v = 0 O produto interno de dois vetores v e w também é denotado por v w: Escolha a notação que preferir. Exemplo 5.2 Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) dois vetores do Rn : A operação h x; y i = x1 y1 + + xn yn

de…ne um produto interno em Rn chamado de produto interno euclidiano.

Exemplo 5.3 Sejam 1 ; : : : ; n números reais positivos chamados pesos. Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) dois vetores do Rn : A operação h x; y i =

1 x1 y1

+

+

n xn yn

de…ne um produto interno em Rn chamado de produto interno euclidiano ponderado. Em particular, h x; y i = 2x1 y1 + 3x2 y2 é um produto interno euclidiano ponderado no R2 : Notas de aula do Professor Faleiros

110

Produto interno

Propriedades adicionais do produto interno Para todo interno,

real e todo u; v; w em um espaço vetorial real V com produto

1. h0; vi = hv; 0i = 0 2. hu; v + wi = hu; vi + hu; wi 3. h u; vi = hu; vi O produto interno é linear nos dois fatores. Fixado um vetor v0 num espaço vetorial V com produto interno, os operadores L(v) = hv; v0 i e T (v) = hv0 ; vi são lineares.

5.1

Norma e distância

Seja V um espaço vetorial real com produto interno. De…nimos a norma de um vetor v em V por p kvk = hv; vi:

Sendo w outro vetor de V; de…nimos a distância de v a w por p d(v; w) = kv wk = hv w; v wi:

Observe que kvk = d( v; 0) e o conjunto dos vetores v em V tais que kvk = 1 é chamado de esfera unitária de V: O conjunto dos vetores v em V tais que kvk 1 é chamado de disco unitário de V: Exemplo 5.4 Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) duas ênuplas ordenadas de números reais. Designando o produto interno euclidiano no Rn por x y; então q p kxk = x x = x21 + + x2n é a norma euclidiana de x e p d(x; y) = kx yk = (x y) (x

y) =

p

(x1

y1 )2 +

+ (xn

yn )2

é a distância euclidiana entre x e y: Sendo x = (1; 2; 3); sua norma euclidiana é p p k(1; 2; 3)k = 1 + 4 + 9 = 14: Notas de aula do Professor Faleiros

5.1 Norma e distância

111

Exemplo 5.5 Sejam x = (x1 ; x2 ) e y = (y1 ; y2 ) dois pares do R2 : Se a norma deste espaço vier do produto interno euclidiano h x; y i = x1 y1 + x2 y2 então a esfera unitária é a circunferência de raio 1: Se a norma vier do produto interno euclidiano ponderado h x; y i = 4x1 y1 + 9x2 y2 ; a esfera unitária será uma elipse de semi eixos 1=2 e 1=3: Exemplo 5.6 Sendo x e y duas matrizes coluna n

1 o produto de matrizes

x y = xT y de…ne um produto interno no espaço vetorial das matrizes coluna reais n Se A for uma matriz n n; então (Ax) y = x

1:

AT y :

Exemplo 5.7 Seja A uma matriz quadrada real invertível n

n; então

hx; yi = xT AT Ay é um produto interno no espaço vetorial das matrizes coluna reais Mn 1 (R): Um caso particular deste produto interno é aquele em que A é a matriz identidade, quando então, hx; yi = xT y: Exemplo 5.8 Seja [a; b] um intervalo de números reais e C[a; b] = f f : [a; b] ! R : f é contínua g: Este conjunto, com as operações de adição de funções e multiplicação de uma função por um número real é um espaço vetorial real. Nele Z b f (x)g(x)dx hf; gi = a

é um produto interno. Em relação a este produto interno, podemos de…nir a norma e a distância entre funções f e g Z b 2 kf k = f 2 (x)dx a

e d(f; g) =

s Z

b

[f (x)

g(x)]2 dx:

a

Notas de aula do Professor Faleiros

112

Produto interno

Propriedades da norma Para todo real k e todo v; w num espaço vetorial real V com produto interno, 1. kvk

0

2. kvk = 0 $ v = 0 3. kk vk = jkj kvk 4. kv + wk

kvk + kwk :

As três primeiras propriedades são consequências diretas das propriedades do produto interno. A quarta propriedade é chamada de desigualdade triangular e será provada usando a desigualdade de Cauchy-Schwarz. Propriedades da distância 1. d(v; w)

0

2. d(v; w) = 0 se, e só se, v = w 3. d(v; w) = d(w; v) 4. d(v; w)

d(v; u) + d(u; w):

Esta última desigualdade também recebe o nome de desigualdade triangular e é uma consequência da desigualdade triangular para a norma.

5.2

Desigualdade de Cauchy-Schwarz

Sendo v e w dois vetores de um espaço vetorial real V com produto interno, vale a desigualdade jv wj kvk kwk ; denominada de desigualdade de Cauchy-Schwarz. Passemos a demonstrá-la. Para todo número real ; pela propriedade (1) segue kv + wk 0: Elevando os dois membros da desigualdade ao quadrado, 0

kv + wk2 = (v + w) (v + w) = v v + v w + w v +

2

w w

e kvk2 + 2 v w +

2

kwk2

0:

O lado esquerdo desta desigualdade pode ser escrita na forma a 2 + b + c se de…nirmos a = kwk2 ; b = 2v w e c = kvk2 : Este trinômio é maior ou igual a Notas de aula do Professor Faleiros

5.3 Ângulo entre dois vetores zero para todo real se e só se b2 de a; b e c; obtemos 4(v w)2

113 4ac

0: Retornando aos valores originais

4 kvk2 kwk2

0

ou, dividindo por 4 e extraindo a raiz quadrada, chegamos à desigualdade de Cauchy-Schwarz jv wj kvk kwk : A partir dela, segue kv + wk2 = (v + w) (v + w) = v v + 2v w + w w kvk2 + 2 kvk kwk + kwk2 = (kvk + kwk)2

kvk2 + 2 jv wj + kwk2

e, extraindo a raiz quadrada, obtemos a desigualdade triangular para a norma. Desta desigualdade se deduz a desigualdade triangular para distâncias d(v; w) = kv

wk = k(v

(w

u)

kv

u)k

uk+ku

wk = d(v; u)+d(u; w):

Exemplo 5.9 Para qualquer par de ênuplas ordenadas x e y; vale x y=

1 kx + yk2 4

1 kx 4

yk2 :

De fato, kx + yk2 = (x + y) (x + y) = kxk2 + 2x y + kyk2 e kx

yk2 = (x

y) = kxk2

y) (x

2x y + kyk2

Logo, kx + yk2

kx

yk2 = 4x y

provando a igualdade acima.

5.3

Ângulo entre dois vetores

Se v e w forem dois vetores não nulos de um espaço vetorial real V; segue da desigualdade de Cauchy-Schwartz que hv; wi kvk kwk Logo, existe um único número real

1:

no intervalo [0; ] para o qual

hv; wi = cos kvk kwk Notas de aula do Professor Faleiros

114

Produto interno

e hv; wi = cos kvk kwk :

Este número real é chamado de ângulo entre os vetores v e w: Se hv; wi = 0; diremos que v e w são ortogonais. Não se de…ne ângulo entre dois vetores se um deles for o vetor nulo. Entretanto, como h0; vi = 0 para todo vetor v de V; se diz que o vetor nulo 0 é ortogonal a todo vetor v de V: Exemplo 5.10 (Teorema de Pitágoras) Se v e w são vetores ortogonais então kv + wk2 = kvk2 + kwk2 : Prova. Temos kv + wk2 = (v + w) (v + w) = v v+ 2 v w + w w = kvk2 + kwk2 ; pois u w = 0: Exemplo 5.11 Os polinômios x e x2 são ortogonais no produto interno Z 1 f (x)g(x)dx: hf; gi = 1

Exemplo 5.12 O tr(A) designa o traço de uma matriz quadrada A: No espaço vetorial das matrizes reais quadradas de ordem n; a operação hA; Bi = tr(AT B) = tr(B T A) de…ne um produto interno. Tomando n = 2; as matrizes 1 0 1 1

A=

;

0 2 0 0

B=

são ortogonais neste produto interno. Teorema 5.13 (de Pitágoras) Se v e w forem vetores ortogonais, então kv + wk2 = kvk2 + kwk2 :

Exemplo 5.14 O conjunto fx; x2 g é ortogonal no espaço vetorial dos polinômios reais de grau menor ou igual a 2, em relação ao produto interno Z 1 hp; qi = p(x)q(x) dx: 1

como

2

kxk + x

2 2

x + x2

2

= =

Z

Z

2

1

x dx

+

1 1

2

1 2

x dx 1

2

(x + x2 ) dx 1

Z

=

=0+

4 9

4 9

veri…ca-se que vale o teorema de Pitágoras para estes dois polinômios. Notas de aula do Professor Faleiros

5.4 Bases ortogonais e ortonormais

5.4

115

Bases ortogonais e ortonormais

Seja V um espaço vetorial real com produto interno. Um conjunto de vetores de V é ortogonal se dois a dois os vetores deste conjunto são ortogonais. Um conjunto ortogonal no qual cada vetor tem norma 1 é chamado ortonormal. Sendo fv1 ; : : : ; vn g um conjunto ortogonal de vetores que não contém o vetor nulo, então vn v1 ;:::; g f kv1 k kvn k é ortonormal. Se G = fv1 ; v2 ; : : : ; vn g é um conjunto ortogonal de vetores não nulos de um espaço com produto interno, então G é linearmente independente. De fato, se c1 ; : : : ; cn forem escalares tais que c1 v1 + + cn vn = 0; multiplicando escalarmente os dois membros desta igualdade por vi ; obtemos ci hvi ; vi i = 0 o que implica em ci = 0: Como i é qualquer inteiro entre 1 e n; concluímos que c1 = c2 = = cn = 0; provando que G é linearmente independente. Num espaço vetorial real V com produto interno e dimensão n; todo conjunto ortogonal com n vetores, que não contém o vetor nulo, é uma base de V: Uma base formada por vetores ortogonais é chamada de base ortogonal. Uma base formada por vetores ortonormais é chamada de base ortonormal. Exemplo 5.15 O conjunto fv1 ; v2 ; v3 g do R3 ; onde v1 = (0; 1; 0); v2 = (1; 0; 1) e v3 = (1; 0; 1) é ortogonal em relação ao produto interno euclidiano. Suas normaspde…nidas pelo produto interno euclidiano são kv1 k = 1; kv2 k = p 2; kv3 k = 2: O conjunto v2 v3 v1 ; ; kv1 k kv2 k kv3 k

=

1 1 (0; 1; 0); p (1; 0; 1); p (1; 0; 1) 2 2

é ortonormal. Exemplo 5.16 Os vetores v1 = (1; 0; 0);

1 v2 = p (0; 1; 1); 2

1 v3 = p (0; 1; 1) 2

formam um conjunto ortonormal em relação ao produto interno euclidiano do R3 e, portanto, é uma base ortonormal do R3 :

5.5

Coordenadas numa base ortogonal

Se B = fv1 ; : : : ; vn g for uma base ortogonal de um espaço vetorial V com produto interno, dado um vetor v em V; existem escalares c1 ; : : : ; cn tais que Notas de aula do Professor Faleiros

116

Produto interno

v = c1 v1 + + cn vn : Efetuando o produto interno de v com vi ; para i = 1; 2; : : : ; n; obtemos hv; vi i = ci hvi ; vi i uma vez que hvj ; vi i = 0 para todo j 6= i: Explicitando ci ; segue ci =

hv; vi i hv; vi i = hvi ; vi i kvi k2

de onde se obtém v=

hv; v1 i v1 + kv1 k2

+

hv; vn i vn : kvn k2

Se a base for ortonormal, então kvi k = 1 e v = hv; v1 iv1 +

+ hv; vn ivn :

Exemplo 5.17 O conjunto B formado pelos vetores v1 = (0; 1; 0); v2 = ( 45 ; 0; 35 ); v3 = ( 35 ; 0; 54 ) é uma base ortonormal do R3 em relação ao produto interno euclidiano. As coordenadas do vetor v = (1; 2; 3) nesta base são c1 = hv; v1 i = 2; c2 = hv; v2 i = 45 + 95 = 1; c3 = hv; v3 i = 53 + 12 = 3 e, 5 desta forma, v = 2v1 + v2 + 3v3 e o vetor das coordenadas de v na base B é (2; 1; 3):

5.6

Produto interno numa base ortonormal

Se B = fv1 ; : : : ; vn g for uma base ortonormal de V; e v; w dois vetores de V tais que v= w=

+ 1 v1 +

+ +

1 v1

n vn ; n vn ;

então hv; wi = kvk2 = p d(v; w) = ( 1

1 1 2 1

+ ::: +

+ ::: +

2 1)

n n 2 n

+ ::: + (

n

Notas de aula do Professor Faleiros

2 n)

5.7 Complemento ortogonal

5.7

117

Complemento ortogonal

Seja W um subespaço de um espaço vetorial V com produto interno. Um vetor v de V é dito ortogonal a W se v for ortogonal a todos os vetores de W: O conjunto de todos os vetores de V ortogonais a W é denotado por W ? e chamado de complemento ortogonal de W: O complemento ortogonal de W é um subespaço vetorial de V: O espaço nulo f0g é o complemento ortogonal de V e vice-versa. Propriedades do complemento ortogonal Seja W um subespaço de um espaço vetorial V com produto interno. 1. O único vetor comum a W e a W ? é o 0: 2. Um vetor ortogonal a uma base de W é ortogonal a todo vetor de W: 3. Se a dimensão de W for …nita, o complemento ortogonal de W ? é W; isto é, (W ? )? = W: *** Escrever a prova *** 4. Seja A uma matriz m n: Então o espaço nulo de A e o espaço coluna de AT são complementos ortogonais com relação ao produto interno euclidiano no espaço vetorial das matrizes coluna reais com n linhas. De fato, sejam r1 ; r2 ; : : : ; rm as linhas de A que são as colunas de AT : A matriz coluna x pertence ao espaço nulo de A; se, e só se, Ax = 0; o que equivale a hr1 ; xi = = hrm ; xi = 0: Isto prova que x pertence ao núcleo de A se, e só se, pertencer ao complemento ortogonal do espaço coluna de AT : Exemplo 5.18 Seja W o subespaço do R5 gerado pelos vetores w1 = (2; 2; 1; 0; 1) w3 = (1; 1; 2; 0; 1)

w2 = ( 1; 1; 2; 3; 1) w4 = (0; 0; 1; 1; 1)

Vamos obter uma base para o complemento ortogonal de W: Dispomos os vetores como linhas de uma matriz 2 3 2 2 1 0 1 6 1 1 2 3 1 7 6 7: 4 1 1 2 0 1 5 0 0 1 1 1 T

1 0 0 0 O espaço nulo desta matriz é gerado pelo vetor 1 : Concluise que o complemento ortogonal de W é gerado pelo vetor (1; 1; 0; 0; 0): Notas de aula do Professor Faleiros

118

5.8

Produto interno

Projeção ortogonal

Seja fv1 ; : : : ; vn g uma base ortogonal de um subespaço W de um espaço vetorial real V com produto interno e v um vetor de V: O vetor w=

hv; v1 i v1 + hv1 ; v1 i

+

hv; vn i vn hvn ; vn i

pertence a W e é denominado projeção ortogonal de v em W: O vetor u = v w pertence ao complemento ortogonal de W e é chamado de componente de v ortogonal a W: Estes vetores são tais que que v = u + w: Quando a base fv1 ; : : : ; vn g de W for ortonormal, então a projeção ortogonal de v em W é w1 = hv; v1 iv1 + + hv; vn ivn : Exemplo 5.19 Considere no R3 o produto interno euclidiano. A projeção ortogonal de x = (x1 ; x2 ; x3 ) no espaço gerado por v1 = (1; 0; 2) e v2 = (0; 1; 1) é hx; v2 i x1 + 2x3 x2 + x3 hx; v1 i v1 + v2 = (1; 0; 2) + (0; 1; 1) hv1 ; v1 i hv2 ; v2 i 5 2 1 = (2x1 + 4x3 ; 5x2 + 5x3 ; 4x1 + 5x2 + 13x3 ): 10 Exemplo 5.20 Seja W o subespaço do R3 gerado pelos vetores v1 = (0; 1; 0) e v2 = ( 4=5; 0; 3=5): Se considerarmos o produto interno euclidiano do R3 ; o conjunto fv1 ; v2 g é uma base ortonormal de W: A projeção ortogonal de v = (1; 1; 1) em W é w = 1(0; 1; 0)

1=5( 4=5; 0; 3=5) = 1=25(4; 25; 3)

e o componente de v ortogonal a W é u=v

w = (1; 1; 1)

(4=25; 1; 3=25) = 1=25(21; 0; 28):

Seja fv1 ; : : : ; vn g uma base ortogonal de um subespaço W de um espaço vetorial V com produto interno. O operador T de…nido sobre V por T (v) =

hv; v1 i v1 + hv1 ; v1 i

+

hv; vn i vn hvn ; vn i

é linear e recebe o nome de projeção ortogonal sobre W: As projeções ortogonais são tais que T 2 = T: Transformações com esta propriedade são denominadas idempotentes ou projeções (não necessariamente ortogonais). Notas de aula do Professor Faleiros

5.9 Obtendo bases ortogonais

119

Exemplo 5.21 Consideremos o R2 com o produto interno euclidiano. O eixo 1 é gerado por e1 = (1; 0) e o eixo 2 é gerado por e2 = (0; 1): Os operadores lineares T1 (x1 ; x2 ) = (x1 ; 0) e T2 (x1 ; x2 ) = (0; x2 ) são as projeções ortogonais nos eixos 1 e 2; respectivamente. A reta x2 = x1 é gerada pelo vetor v = e1 + e2 = (1; 1): O operador linear de…nido no R2 por T (x) =

hx; (1; 1)i hx; vi v= (1; 1) hv; vi 2

é a projeção ortogonal na reta x2 = x1 : Sendo x = (x1 ; x2 ); obtemos T (x1 ; x2 ) =

1 (x1 + x2 ; x1 + x2 ) 2

Exemplo 5.22 Consideremos o R3 com o produto interno euclidiano. O plano 12 é gerado pelos vetores e1 = (1; 0; 0) e e2 = (0; 1; 0): O operador linear T12 de…nido em x = (x1 ; x2 ; x3 ) do R3 por T12 (x) = hx; e1 ie1 + hx; e2 ie2 = (x1 ; x2 ; 0) é a projeção ortogonal sobre o plano 12: As projeções sobre os planos 13 e 23 são, respectivamente, T13 (x1 ; x2 ; x3 ) = (x1 ; 0; x3 ) e T23 (x1 ; x2 ; x3 ) = (0; x2 ; x3 ) :

5.9

Obtendo bases ortogonais

Vamos descrever o processo de Gram-Schmidt, que permite obter bases ortogonais de espaços vetoriais de dimensão …nita. O nome é uma homenagem aos matemáticos que o desenvolveram: Jürgen Pederson Gram (dinamarquês, 1850 - 1916) e Erhardt Schmidt (alemão, 1876 - 1959). Este processo mostra como obter um conjunto ortogonal fw1 ; : : : ; wn g a partir de um conjunto linearmente independente qualquer fv1 ; : : : ; vn g: Comece de…nindo w1 = v1 : Em seguida tome w2 = v2 e escolha

12

12 w1

de modo que w2 se torne ortogonal a w1 : Se hw2 ; w1 i = 0; segue 12

=

hw1 ; v2 i hw1 ; w1 i

Em seguida, faça w3 = v3

13 w1

23 w2

Notas de aula do Professor Faleiros

120

Produto interno

e escolha 13 e 23 de modo a tornar w3 ortogonal a w1 e w2 : Aplicando estas duas condições, obtém-se 13

=

hw1 ; v3 i hw1 ; w1 i

e

23

=

hw2 ; v3 i : hw2 ; w2 i

Continuando com este processo, de…na wj = vj

1j w1

2j w2

j 1;j wj 1

e determine os escalares ij de modo a tornar wj ortogonal a wi ; para i = 1; 2; : : : ; j 1: Das condições de ortogonalidade obtemos ij

=

hwi ; vj i hwi ; wi i

para i = 1; 2; : : : ; j 1: Usando este processo, chega-se a um vetor w1 que pertence ao espaço gerado por v1 ; chega-se a um vetor w2 que pertence ao espaço gerado por v1 e v2 : Continuando com o processo até a etapa j; chega-se a um wj que pertence ao espaço gerado por v1 ; v2 ; : : : ; vj : Para obter uma base ortonormal usando o processo de Gram - Schmidt, basta dividir cada vetor por sua norma q1 =

w2 w3 w1 ; q2 = ; q3 = : kw1 k kw2 k kw3 k

O processo de Gram-Schmidt leva uma base fv1 ; : : : ; vn g em outra fq1 ; : : : ; qn g ortonormal de modo que, para todo k 1; fq1 ; : : : ; qk g é base do espaço gerado por fv1 ; : : : ; vk g e qk+1 é ortogonal ao espaço gerado por fv1 ; : : : ; vk g: Exemplo 5.23 Obtenha uma base ortogonal fw1 ; w2 ; w3 g do R3 a partir da base formada pelos vetores v1 = (1; 1; 1); v2 = (0; 1; 1); v3 = (0; 0; 1): Solução. Começamos por de…nir w1 = v1 = (1; 1; 1): Em seguida, toma-se w2 = v2 12 w1 ; onde 2 hw1 ; v2 i = ; 12 = hw1 ; w1 i 3 resultando que w2 = (0; 1; 1)

2 1 (1; 1; 1) = ( 2; 1; 1): 3 3

Finalmente, w3 = v3

13 w1

23 w2

Notas de aula do Professor Faleiros

5.10 Decomposição QR

121

onde 13

23

hw1 ; v3 i 1 = hw1 ; w1 i 3 hw2 ; v3 i 1=3 1 = = = hw2 ; w2 i 2=3 2 =

resultando em 1 (1; 1; 1) 3

w3 = (0; 0; 1)

5.10

11 1 ( 2; 1; 1) = (0; 1; 1): 23 2

Decomposição QR

Sejam c1 ; : : : ; cn vetores coluna m 1 linearmente independentes. Consideremos no espaço das matrizes reais m n o produto interno hx; yi = xT y: Podemos, mediante a utilização do processo de ortogonalização de GramSchmidt, obter um conjunto ortonormal fq1 ; : : : ; qn g de vetores coluna m 1: Calcule inicialmente 11

= jjc1 jj

e

q1 =

1

c1

11

e depois faça o índice j percorrer os inteiros de 2 a n e calcule = hqi ; cj i j j = jjcj 1 qj = (cj ij

para 1; j q1 1; j

i = 1; : : : ; j 1 j 1 ; j qj 1 jj

q1

j 1;j

qj 1 )

jj

A divisão é possível pois jj é diferente de zero para j = 1; : : : ; n: O jj seria zero para algum j; apenas se a coluna cj for uma combinação linear das colunas c1 ; : : : ; cj 1 ; o que não é o caso, por hipótese. Explicitando cj ; obtemos c1 = c2 = c3 = .. .

11 q1

+ 13 q1 +

12 q1

22 q2 23 q2

+

33 q3

Notas de aula do Professor Faleiros

122

Produto interno

Seja A = [c1 ; : : : ; cn ] uma matriz m n cujas colunas c1 ; : : : ; cn são linearmente independentes. Seja Q = [q1 ; : : : ; qn ] a matriz m n; cujas colunas são as matrizes q1 ; : : : ; qn obtidas no processo de ortonormalização dos vetores coluna de A: Desta forma, A = QR onde2n

2

6 6 6 R=6 6 4

11

12

1n

22

2n

0 0 .. .

0 .. .

0

0

3n

...

.. .

nn

3

7 7 7 7: 7 5

é uma matriz triangular superior invertível, uma vez que ii 6= 0 para i = 1; 2; : : : ; n: Podemos então enunciar o teorema conhecido como teorema da decomposição QR. Teorema 5.24 Seja A uma matriz m n cujas colunas formam um conjunto linearmente independentes de matrizes. Podemos realizar a fatoração A = QR; onde Q é uma matriz m n cujos vetores coluna formam um conjunto ortonormal e R é uma matriz n n triangular superior e invertível. Quando A for quadrada, Q é quadrada e seus vetores coluna formam um conjunto ortonormal no produto interno hx; yi = xT y: Uma matriz quadrada cujos vetores coluna formam um conjunto ortonormal são denominadas de matrizes ortogonais, que são invertíveis e sua inversa é a sua transposta. A inversa de uma matriz ortogonal é ortogonal e o determinante de uma matriz ortogonal é igual a 1 ou 1: Exemplo 5.25 Para obter a decomposição QR de 2 3 1 0 0 A=4 1 1 0 5 1 1 1

ortogonalize seus vetores coluna c1 ; c2 e c3 usando o processo de Gram-Schmidt obtendo os vetores coluna ortonormais 2 3 2 3 2 3 1 2 0 1 1 1 q1 = p 4 1 5 ; q2 = p 4 1 5 ; q3 = p 4 1 5 : 3 1 6 2 1 1 formando a matriz

2

p 1=p3 Q = 4 1=p3 1= 3

p 2=p 6 1=p6 1= 6

3 0p 1=p 2 5 1= 2

Notas de aula do Professor Faleiros

5.11 Matriz ortogonal

123

e a matriz dos coe…cientes obtidos do procedimento de Gram-Schmidt 2 3 hq1 ; c1 i hq1 ; c2 i hq1 ; c3 i 0 hq2 ; c2 i hq2 ; c3 i 5 R=4 0 0 hq3 ; c3 i p p 3 2 p 6 3 4p3 2p3 14 = 0 2 6 1p6 5 : 6 0 0 3 2

5.11

Matriz ortogonal

Uma matriz quadrada A é ortogonal quando A

1

= AT :

As matrizes A=

2

14 7

3 2 6 3 2 6

3 6 2 5 3

e

B=

cos sen

sen cos

são ortogonais. A inversa de uma matriz ortogonal é ortogonal. O produto de duas matrizes ortogonais é uma matriz ortogonal. O determinante de uma matriz ortogonal é igual a +1 ou igual a 1: Exemplo 5.26 A matriz 1 A= p 2

1 1 1 1

é ortogonal e det(A) = 1: Teorema 5.27 Seja A uma matriz real n n e hx; yi = xT y o produto interno euclidiano em Mn 1 (R): São equivalentes as seguintes a…rmações: 1. A é ortogonal. 2. hAx; Ayi = hx; yi para qualquer x e y em Mn 1 (R): 3. kAxk = kxk para qualquer x em Mn 1 (R): Notas de aula do Professor Faleiros

124

Produto interno

4. Os vetores linha de A formam um conjunto ortonormal de M1 relação ao produto interno hr1 ; r2 i = r1 rT2 : 5. Os vetores coluna de A formam um conjunto ortonormal de Mn relação ao produto interno hc1 ; c2 i = cT1 c2 :

n

em

1

em

Prova. Vamos provar que 2 implica em 1: Se hAx; Ayi = hx; yi para qualquer x e y em Mn 1 (R); então x; (AT A I)y = 0: Fazendo x = (AT A I)y; segue (AT A I)y; (AT A I)y = 0 ou (AT A I)y = 0: Como este sistema homogêneo de equações lineares deve ser satisfeito para todo y; AT A = I; mostrando que A é ortogonal. Para provar que 1 e 4 são equivalentes, considere as linhas r1 ; : : : ; rn as linhas de A; que serão as colunas de AT : A matriz A é ortogonal se, e só se, AAT = I: Esta igualdade se veri…ca se, e só se, 3 2 r1 rT1 r1 rT2 r1 rTn 6 r2 rT r2 rT r2 rTn 7 1 2 7 6 6 .. .. .. 7 = I 4 . . . 5 T T rn r1 rn r2 rn rTn Esta igualdade matricial se veri…ca se, e só se, as linhas fr1 ; r2 ; : : : ; rn g de A formarem um conjunto ortonormal de M1 n : Para provar que 1 e 5 são equivalentes, considere a igualdade AT A = I:

Teorema 5.28 Sejam B1 e B2 duas bases ortonormais de um espaço vetorial real V com dimensão …nita. A matriz de transição da base B1 para a base B2 é ortogonal. Prova. Sendo B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g as duas bases ortonormais de V; podemos escrever os vetores de B2 como combinação linear dos vetores de B1 e os vetores de B1 como combinação linear dos vetores de B2 n n X X wj = aij vi e vj = bij wi : i=1

i=1

Neste caso, M12 = [aij ] é a matriz de transição da base B1 para a base B2 e M21 = [bij ] é a matriz de transição da base B2 para a base B1 : Já se sabe que 1 os dois lados uma é a inversa da outra, Pn M21 = M12 : Multiplicando escalarmente P da igualdade wj = i=1 aij vi por vk chega-se a hwj ; vk i = ni=1 aij hvi ; vk i = T akj : Do mesmo modo se obtém bij = hwi ; vj i = aji ; provando que M21 = M12 ; 1 T de onde se conclui que M12 = M12 : A inversa de M12 é sua transposta e, portanto, ela é uma matriz ortogonal.

Notas de aula do Professor Faleiros

5.11 Matriz ortogonal

125

Exemplo 5.29 Sendo v1 = (1; 0); v2 = (0; 1); w1 = (3=5; 4=5); w2 = (4=5; 3=5) os conjuntos B1 = fv1 ; v2 g e B2 = fw1 ; w2 g são bases ortonormais do R2 em relação ao produto interno euclidiano. Como 3 w1 = v1 + 5 4 w2 = v1 5

4 v2 5 3 v2 ; 5

a matriz de transição da base B1 para a base B2 é M12 =

1 5

3 4

4 3

que é uma matriz ortogonal. Exemplo 5.30 Rotação em duas dimensões.. Seja B1 = fv1 ; v2 g uma base ortonormal de um espaço vetorial V de dimensão dois com produto interno. A base B2 = fw1 ; w2 g de…nida por w1 = v1 cos + v2 sen w2 = v1 sen + v2 cos é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz ortogonal cos sen M12 = : sen cos Exemplo 5.31 Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base ortonormal de um espaço vetorial V de dimensão três com produto interno. A base B2 = fw1 ; w2 ; w3 g de…nida por w1 = v1 cos + v2 sen w2 = v1 sen + v2 cos w3 = v3 é ortonormal e a matriz de mudança da base ortogonal 2 cos sen cos M12 = 4 sen 0 0 cujo determinante é igual a 1:

B1 para a base B2 é a matriz 3 0 0 5 1

Notas de aula do Professor Faleiros

126

Produto interno

Exemplo 5.32 Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base ortonormal de um espaço vetorial V de dimensão três com produto interno. A base B2 = fw1 ; w2 ; w3 g de…nida por w1 = v1 cos v3 sen w2 = v2 w3 = v1 sen + v3 cos é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz ortogonal 2 3 cos 0 sen 0 1 0 5 M12 = 4 sen 0 cos

cujo determinante é igual a 1:

Exemplo 5.33 Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base ortonormal de um espaço vetorial V de dimensão três com produto interno. A base B2 = fw1 ; w2 ; w3 g de…nida por w1 = v1 w2 = v2 cos + v3 sen w3 = v2 sen + v3 cos é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz ortogonal 2 3 1 0 0 sen 5 M12 = 4 0 cos 0 sen cos cujo determinante é igual a 1:

5.12

Mínimos quadrados

Sejam u; v; w três vetores de um espaço vetorial real V com produto interno. Vamos dizer que o vetor v está mais perto de u do que o vetor w se d(u; v) < d(u; w): Esta desigualdade é equivalente a ku vk < ku wk : Seja V um espaço vetorial real V com produto interno e W um subespaço de V com dimensão …nita. Vamos investigar qual é o vetor de W que está mais perto de um vetor x de V: Quando x está em W então ele é o vetor de W que está mais perto de x: Quando x não pertence a W; tomamos uma base ortonormal B = fv1 ; : : : ; vn g do subespaço W e um vetor genérico w = a1 v1 + + an vn em W: Que Notas de aula do Professor Faleiros

5.12 Mínimos quadrados

127

valores devemos atribuir aos reais a1 ; : : : ; an para w ser o vetor de W mais próximo de x? Ora, kx

wk2 = hx

w; x

= kxk2

= kxk2

wi

2hx; wi + kwk2 2a1 hx; v1 i

2an hx; vn i + a21 +

+ a2n

Esta é uma função quadrática em a1 ; : : : ; an que possui um único valor mínimo que ocorre no ponto onde as derivadas parciais em relação às variáveis a1 ; : : : ; an forem iguais a zero. Calculando estas derivadas parciais e igualando a zero, obtemos ai = hx; vi i:

O vetor de W mais próximo de x é

w = hx; v1 iv1 +

+ hx; vn ivn :

Esta é a projeção ortogonal de x sobre W: Existe uma outra maneira de resolver esta questão usando métodos puramente algébricos. Ao aproximar um vetor x de V por um vetor y de W; cometemos um êrro igual a x y: Quando x não está em W este erro é sempre diferente de zero. Sendo w a projeção ortogonal de x sobre W; kx

yk2 = k(x

w)

(y

Como x w é ortogonal a todo vetor de W e y teorema de Pitágoras kx

yk2 = k(x

w)

(y

w)k2 = ku

w)k2 : w pertence a W; vale o wk2 + ky

wk2

e obtemos ku

yk2 = ku

wk2 + ky

wk2

ku

wk2

pois ky wk2 0: Quando y é diferente de w; então ky wk2 > 0 e ku yk2 > ku wk2 : Portanto, o vetor de W que está mais perto de x é a sua projeção ortogonal sobre W: Usando apenas procedimentos algébricos, provamos o resultado que já havíamos provado usando o Cálculo Diferencial. Podemos dizer que a projeção ortogonal de x sobre W é a "melhor aproximação"de x por vetores de W e vale o teorema da melhor aproximação que é enunciado em seguida. Teorema 5.34 Seja W um subspaço de dimensão …nita de um espaço vetorial V com produto interno. Seja x um vetor de V: A projeção ortogonal de x sobre W; que denotamos por projW x; é a melhor aproximação de x em W; no seguinte sentido kx projW xk < kx yk para todo vetor y em W distinto da projeção ortogonal de x sobre W: Notas de aula do Professor Faleiros

128

5.13

Produto interno

Soluções de mínimos quadrados

É muito comum que alguns problemas físicos leve a um sistema Ax = b que deveria se consistente em teoria, mas que não o é porque "erros de medida"nas entradas de A e de b perturbem o sistema su…cientemente a ponto de criar inconsistência. Em tais situações procuramos um valor de x que chegue "tão perto quanto possível"de ser uma solução, no sentido que minimiza o valor de kAx bk em relação ao produto interno euclidiano de…nido no espaço das matrizes coluna reais por hx; yi = xT y: A quantidade kAx bk pode ser vista como uma medida do "erro"que resulta por considerar x uma solução aproximada do sistema Ax = b: Se o sistema é consistente e x é uma solução exata, o erro é zero, pois kAx bk = 0: Em geral, quanto maior o valor de kAx bk ; mais pobre é a aproximação x de uma solução do sistema. A matriz coluna x que minimiza kAx bk em relação ao produto interno euclidiano é chamado de solução de mínimos quadrados de Ax = b: O nome tem origem no seguinte fato: Seja e = Ax b o erro proveniente da aproximação x: Uma solução que minimiza kek = (e21 + + e2m )1=2 ; minimiza 2 2 2 kek = e1 + + em e daí segue o nome mínimos quadrados. Sendo A uma matriz m n e x uma matriz coluna n 1; sabemos que Ax é uma combinação linear das coluna de A e Ax = b possui solução quando b pertence ao espaço coluna de A: Vamos denotar este espaço coluna por W: Quando b não pertence a W; Ax = b não possui solução mas o sistema Ax = projW b possui. Quando x for uma solução do sistema Ax = projW b então b Ax = b projW b e, pelo teorema da melhor aproximação, kb

Axk = kb

projW bk < kb

A yk

para toda matriz coluna y para a qual Ay é diferente da projeção ortogonal de b sobre W: Como W é o espaço coluna de A; o seu complemento ortogonal W T é o espaço nulo de AT : Estando b Ax no espaço nulo de AT ; uma solução por mínimos quadrados de Ax = b é solução do sistema AT (b

Ax) = 0

ou AT Ax = AT b que é chamado de sistema normal associado a Ax = b: Assim, o problema de encontrar uma solução de mínimos quardados foi reduzido a um outro que consiste em encontrar uma solução exata do sistema normal associado. Observe que o sistema normal envolve n equações em n variáveis, é consistente e pode ter in…nitas soluções. Quando este for o caso, todas as suas soluções são soluções de mínimos quadrados de Ax = b: Notas de aula do Professor Faleiros

5.13 Soluções de mínimos quadrados

129

Podemos então enunciar Teorema 5.35 6.4.2 Para qualquer sistema linear Ax = b; o sistema normal associado AT Ax = AT b é consistente e todas as soluções do sistema normal são soluções de mínimos quadrados de Ax = b: Além disso, se W é o espaço coluna de A e x é qualquer solução de mínimos quadrados de Ax = b; então a projeção ortogonal de b em W é projW b = Ax: Teorema 5.36 Seja A uma matriz m n: Os vetores coluna de A são linearmente independentes se e só se AT A for invertível. Prova. Se os vetores coluna de A forem linearmente independentes e x for solução do sistema AT Ax = 0; então Ax está no espaço nulo de AT e no espaço coluna de A: Como um é o complemento ortogonal do outro, Ax só pode ser o vetor nulo, isto é, Ax = 0: Como os vetores coluna de A são linearmente independentes, x = 0: Mostramos que o sistema AT Ax = 0 possui apenas a solução trivial x = 0: Portanto, a matriz quadrada AT A é invertível. Se os vetores coluna de A forem linearmente dependentes, existe x não nulo tal que Ax = 0 e, consequentemente, AT Ax = 0: Portanto, AT A é singular.

Teorema 5.37 Se A é uma matriz m n com vetores coluna linearmente independentes, então para cada matriz b de tamanho n 1; o sistema linear Ax = b tem uma única solução de mínimos quadrados. Esta solução é dada por 1 T x = AT A A b: Além disso, se W é o espaço coluna de A; então a projeção ortogonal de b em W é 1 T projW b = Ax = A AT A A b: As duas fórmulas acima possuem várias aplicações teóricas, mas não são e…cientes para cálculos numéricos. As soluções de mínimos quadrados de Ax = b são melhor computadas por eliminação gaussiana ou eliminação de GaussJordan para resolver as equações normais e a projeção ortogonal de b no espaço coluna de A é melhor obtida calculando Ax onde x é a solução do sistema normal AT Ax = AT b: Em seguida, calcula-se Ax que é a projeção ortogonal de b sobre o espaço coluna de A: Notas de aula do Professor Faleiros

130

Produto interno

Exemplo 5.38 Encontre a solução de mínimos quadrados do sistema linear Ax = b dado por x1 + x2 = 4 3x1 + 2x2 = 1 2x1 + 4x2 = 3 e obtenha a projeção ortogonal de b no espaço coluna de A: Resolução. Aqui, 2

1 4 3 A= 2

3 1 2 5 4

e

2

3 4 b = 4 1 5: 3

Os vetores coluna de A são linearmente independentes e, portanto, a solução de mínimos quadrados é única. Temos AT A =

14 3 3 21

e

AT b =

1 10

e a solução de AT Ax = AT b é x1 = 17=95

e

x2 = 143=285:

A projeção ortogonal de b no espaço coluna de A é 2 3 92 1 4 439 5 : Ax = 285 470

Exemplo 5.39 Encontrre a projeção ortogonal do vetor u = ( 3; no subespaço do R4 gerado pelos vetores u1 = (3; 1; 0; 1);

u2 = (1; 2; 1; 1);

3; 8; 9)

u3 = ( 1; 0; 2; 1):

Resolução. Poderíamos resolver este problema ortonormalizando fu1 ; u2 ; u3 g e depois usar a fórmula da projeção ortogonal. Entretanto, o método a seguir é mais e…ciente. Forme a matriz A cujas colunas são formadas pelas entradas de u1 ; u2 e u3 e a matriz coluna b formada pelas entradas de u 2 3 2 3 3 1 1 3 6 1 2 6 3 7 0 7 7 6 7 A=6 e b = 4 0 1 4 8 5: 2 5 1 1 1 9 Notas de aula do Professor Faleiros

5.13 Soluções de mínimos quadrados

131

O sistema Ax = b não possui solução pois b não está no espaço coluna de A: Se Ax for a projeção ortogonal de b no espaço coluna de A; que denotaremos por W; então b Ax é ortogonal ao espaço coluna de A e está no espaço nulo de AT : Isto signi…ca que AT (Ax b) = 0: Sendo 2 3 2 3 11 6 4 3 0 5 AT A = 4 6 7 e AT b = 4 8 5 4 0 6 10 construímos o sistema normal AT Ax = AT b cuja solução é 2 3 1 x = 4 2 5: 1

A projeção ortogonal de b no espaço coluna de A é 2 3 2 3 3 1 1 2 1 6 1 2 6 0 7 6 7 4 5=6 2 projW b = Ax = 4 4 0 1 2 5 1 1 1 1

e assim a projeção de u no espaço gerado por fu1 ; u2 ; u3 g é

3 2 3 7 7 4 5 0

projW u = ( 2; 3; 4; 0):

De…nição 5.40 Se W é um subespaço de Rn ; a transformação P : Rn ! Rn que leva cada vetor x em Rm em sua projeção ortogonal projW x em W é chamada projeção ortogonal de Rm sobre W: A matriz canônica para a projeção ortogonal de Rn sobre W é [P ] = A(AT A) 1 AT onde A é construída usando qualquer base de W para vetores coluna. Exemplo 5.41 A matriz da projeção ortogonal de R3 sobre o plano xy é 2 3 1 0 0 [P ] = 4 0 1 0 5 : 0 0 0 Notas de aula do Professor Faleiros

132

Produto interno

Vamos mostrar que esta matriz é compatível com a fórmula [P ] = A (AT A) 1 AT : Os vetores (1; 0; 0) e (0; 1; 0) geram o plano xy: Com eles formamos a matriz A; cujas colunas são as entradas destes dois vetores 2 3 1 0 A=4 0 1 5 0 0 onde observamos que AT A = I: Vamos calcular [P ] = A (AT A) 2 3 2 3 1 0 1 0 0 1 0 0 [P ] = 4 0 1 5 =4 0 1 0 5 0 1 0 0 0 0 0 0

1

AT = AAT

que confere com o valor de [P ] posto no início.

Exemplo 5.42 Obtenha a matriz canônica da projeção ortogonal P de R2 sobre a reta r que passa pela origem e faz um ângulo com o eixo x positivo. O vetor direcional da reta é v = (cos ; sen ) e fvg é base do subespaço sobre o qual desejamos efetuar a projeção. Formamos a matriz A=

cos sen

e, considerando que AT A é a matriz identidade de tamanho 1 [P ] = AAT =

5.14

cos sen

cos

sen

=

cos2 cos sen

1; calculamos

cos sen sin2

Teorema sobre matriz inversível

Vamos resumir neste teorema as condições sob as quais uma matriz A de tamanho n n é invertível. Este é o teorema 6.4.5 do livro de Anton e Rorres de onde foram retiradas algumas redundâncias. Teorema 5.43 A…rmações equivalentes sobre a inversibilidade de uma matriz quadrada A: Seja A uma matriz real n n: As a…rmações abaixo são equivalentes: 1. A é inversível. 2. Ax = 0 admite apenas a solução trivial. Notas de aula do Professor Faleiros

5.14 Teorema sobre matriz inversível

133

3. A forma escalonada reduzida por linhas de A é a matriz identidade. 4. A é igual a um produto de matrizes elementares. 5. Ax = b é consistente para cada matriz b de tamanho n

1:

6. Ax = b tem exatamente uma solução para cada matriz b de tamanho n 1: 7. det(A) 6= 0: 8. Os vetores coluna de A são linearmente independentes. 9. Os vetores linha de A são linearmente independentes. 10. Os vetores coluna de A geram Mn 1 (R): 11. Os vetores linha de A geram M1

n (R):

12. Os vetores coluna de A formam uma base do Mn 1 (R): 13. Os vetores linha de A formam uma base do M1

n (R):

14. O complemento ortogonal do espaço nulo de A é o Rn : 15. O complemento ortogonal do espaço linha de A é o f0g: 16. AT A é inversível.

Notas de aula do Professor Faleiros

134

Produto interno

Notas de aula do Professor Faleiros

Capítulo 6 Autovalores e autovetores Neste capítulo vamos considerar que as entradas das matrizes podem ser números complexos. Desejando destacar que as entradas de uma matriz são números complexos, chame-a de matriz complexa. O conjunto das matrizes complexas m n será denotado por Mm n (C): As de…nições de igualdade de matrizes e as operações de adição e multiplicação de matrizes permanecem inalteradas. A de…nição de multiplicação de um escalar por uma matriz será mantida com a ressalva de que o escalar pode ser um número complexo. As propriedades de todas essas operações permanecem válidas. O conjunto Mm n (C) com as operações de adição de matrizes e multiplicação de um escalar por uma matriz é um espaço vetorial complexo. Aqui cabe comentar que um número real é um número complexo com a parte imaginária igual a zero. Consequentemente, muitos exemplos apresentados neste capítulo envolverão matrizes reais.

6.1

Autovalor e autovetor de uma matriz

Seja A uma matriz complexa n n: Um número complexo é um autovalor de A se houver uma matriz coluna complexa não nula x; de tamanho n 1; para a qual Ax = x: Tais matrizes não nulas x para as quais Ax = x são denominadas de autovetores de A associados ao autovalor : Sendo x um autovetor de A associado ao autovalor ; (A I)x = 0 onde I é a matriz identidade de tamanho n solução não trivial se, e só se, det( I

n: O sistema linear acima possui

A) = 0:

Notas de aula do Professor Faleiros

136

Autovalores e autovetores

Esta é uma equação polinomial em chamada de equação característica de A: O polinômio det( I A) possui grau n em e recebe o nome de polinômio característico de A: Observe que, obtido um autovalor ; qualquer solução não trivial de (A I)x = 0 é autovetor de A correspondente a : Deste modo, o autovetor x não é único. Como ele pertence ao núcleo do operador A I que é singular, sendo x um autovetor correspondente a ; então x também é um autovetor correspondente a ; para todo não nulo. Para determinar os autovalores de uma matriz A; primeiro determine as raízes do seu polinômio característico, que são os autovalores de A: Para cada autovalor encontrado, resolva a equação homogênena (A I)x = 0 que terá soluções não triviais. Os autovetores associados ao autovalor são os vetores não nulos do núcleo de A I: O núcleo da matriz A I é chamado de autoespaço de A correspondente ao autovalor : O autoespaço de uma matriz A de tamanho n n; correspondente ao autovalor ; é f x 2 Mn

1

: (A

I)x = 0 g:

Ele é formado pelos autovetores de A correspondente ao autovalor vetor nulo. O autoespaço é um subespaço vetorial de Mn 1 : Exemplo 6.1 O polinômio característico det( I 2 3 0 0 2 1 5 A=4 1 2 1 0 3

e pelo

A) da matriz

é 3 5 2+8 4 e suas raízes são 1 = 1 e 2 = 2: Para determinar os autovetores correspondentes a 1 = 1; montamos o sistema homogêneo (A 1 I)x = 0; que neste caso é 3 2 3 2 32 0 1 0 2 x1 5 4 4 1 1 5 4 1 x2 = 0 5 : 0 1 0 2 x3 e calculamos sua solução geral, que é gerada por v3 =

2 1 1

T

:

2 1 1 Todo autovetor de A correspondente ao autovalor 1 = 1 é da forma onde é um escalar não nulo. O autoespaço de A correspondente ao autovalor T 2 1 1 ; onde é um escalar 1 = 1 é formado pelos vetores da forma Notas de aula do Professor Faleiros

T

;

6.1 Autovalor e autovetor de uma matriz

137

qualquer. Observe que 1 = 1 é uma raiz simples do polinômio característico e o autoespaço correspondente a este autovalor tem dimensão 1: Para o autovalor 2 = 2; o sistema homogêneo (A 1 I)x = 0 é 2 32 3 2 3 2 0 2 x1 0 4 1 0 1 5 4 x2 5 = 4 0 5 1 0 1 x3 0 e sua solução geral é gerada por 2 3 1 v1 = 4 0 5 1

e

2

3 0 v2 = 4 1 5 : 0

Toda matriz da forma c1 v1 + c2 v2 está no autoespaço de A correspondente ao autovalor 2 = 2: Os vetores não nulos deste autoespaço são autovetores de A correspondente ao autovalor 2: Observe que 2 = 2 é uma raiz dupla do polinômio característico e seu autoespaço tem dimensão 2: Conhecendo a relação 1 ; 2 ; : : : ; k de todos os autovalores distintos de A; pode-se fatorar o seu polinômio característico, escrevendo-o na forma det( I

A) = (

e1 1) (

e2 2)

(

ek k)

Os expoentes e1 ; e2 ; : : : ; en são as multiplicidades algébricas dos autovalores 1 ; 2 ; : : : ; k : A dimensão do autoespaço de A correspondente a um determinado autovalor é chamada de multiplicidade geométrica do autovalor : No exemplo anterior, a multiplicidade algébrica de 1 = 1 é igual a 1 e sua multiplicidade geométrica também é igual a 1: Para o autovalor 2 = 2; sua multiplicidade algébrica e geométrica são ambas iguais a 2: Teorema 6.2 A multiplicidade geométrica de um autovalor é sempre menor ou igual à sua multiplicidade algébrica. Se A e B forem matrizes semelhantes, então existe P invertível tal que A = P 1 BP; de modo que det( I

A) = det( P 1 IP P 1 BP ) = det(P 1 ( I = det(P 1 ) det( I B) det(P ) = det( I

B)P ) B);

mostrando que matrizes semelhantes possuem o mesmo polinômio característico e, consequentemente, os mesmos autovalores. Se x é autovetor de A correspondente ao autovalor ; então P x é autovetor de B correspondente ao autovalor : Se y é autovalor de B correspondente ao autovalor ; então P 1 y é autovetor de A correspondente ao autovalor : Notas de aula do Professor Faleiros

138

Autovalores e autovetores 2

3 0 1 0 0 1 5é 3 8 2 Exemplo 6.3 O polinômio característico de A = 4 0 4 17 8 p p 3 são os autovalores de 17 4 = 0 e suas raízes 1 = 4; 2 = 2+ 3; 3 = 2 A: Os autovetores correspondentes a 1 ; 2 e 3 são, respectivamente, múltiplos de p 3 p 3 2 2 3 2 1 7 + 4p 3 7 4p 3 v1 = 4 4 5 ; v2 = 4 2 3 5 ; v3 = 4 2 + 3 5 : 16 1 1 Exemplo 6.4 Se uma matriz A = [aij ] de tamanho n perior ou inferior então seu polinômio característico é (

a11 )(

a22 ) 2

(

n for triangular su-

ann )

1=2 0 4 1 2=3 Exemplo 6.5 Os autovalores de A = 5 8 1=4:

3 0 0 5 são 1=2; 2=3 e 1=4

Uma matriz, mesmo real, pode ter um autovalor complexo. Isto ocorre quando o polinômio característico possuir raiz complexa. neste caso, os autovetores também serão complexos. Exemplo 6.6 Os autovalores de A =

2 5

1 2

são i e

i:

Exemplo 6.7 Determine os autovalores e autovetores da matriz A =

6.2

3 8

0 1

Autovalor e autovetor de um operador linear

Seja V um espaço vetorial complexo e T : V ! V uma transformação linear. Um número complexo é um autovalor de T se houver um vetor v não nulo, tal que T v = v: Os vetores não nulos v para os quais T v = v são denominados de autovetores de T associados ao autovalor : Seja B = fv1 ; : : : ; vn g uma base de um espaço vetorial complexo V com dimensão …nita e T : V ! V um operador linear. Se [T ] = [aij ] for a matriz Notas de aula do Professor Faleiros

:

6.2 Autovalor e autovetor de um operador linear

139

P de T na base B; então T (vj ) = ni=1 aij vi : Sendo v = x1 v1 + + xn vn um autovetor de T associado a ; então T (v) = v e ! ! ! n n n n n n n X X X X X X X xi vi = T xj vj = xj T (vj ) = xj aij vi = aij xj vi i=1

j=1

j=1

ou

n X

j=1

aij xj =

j=1

n X

i=1

i=1

j=1

xi

i=1

para j = 1; : : : ; n: Estas n igualdades escalares corresponde à igualdade matricial 2 32 3 2 3 a11 a1n x1 x1 6 .. .. 7 6 .. 7 = 6 .. 7 .. 4 . 4 . 5 . . 54 . 5 am1 amn xn xn que se resume a [T ]x = x onde x é a matriz de coordenadas de v na base B: Logo, é autovalor de uma transformação linear T se e só se for autovalor da matriz de T numa base B de V e v é um autovetor de T se e só se sua matriz x na base B for autovetor de A: Ao inclui o vetor nulo no conjunto de todos os autovetores de um operador T correspondentes ao seu autovalor ; obtemos o autoespaço de T correspondente ao autovalor : Exemplo 6.8 Encontre os autovalores e os autoespaços do operador linear T : R3 ! R3 de…nido por T (x1 ; x2 ; x3 ) = ( 2x3 ; x1 + 2x2 + x3 ; x1 + 3x3 ): A matriz de T em relação à base canônica do R3 é 2 3 0 0 2 1 5 [T ] = 4 1 2 1 0 3

cujos autovalores são a 1=1é

1

=1e

2

= 2: Uma base do autoespaço de [T ] associado 2 1 1

v3 =

e uma base do autoespaço de [T ] associado a v1 =

1 0 1

T

e

T

2

: =2é

v2 =

0 1 0

Notas de aula do Professor Faleiros

T

140

Autovalores e autovetores

A base do autoespaço de T associado a 1 = 1 é formada pelo vetor ( 2; 1; 1) e uma base do autoespaço de T associado a 2 = 2 é formada pelos vetores ( 1; 0; 1) e (0; 1; 0): Exemplo 6.9 Considere o operador linear T : R3 ! R3 de…nido por T (x1 ; x2 ; x3 ) = ( 2x3 ; x1 + 2x2 + x3 ; x1 + 3x3 ): Encontre uma base de R3 em relação à qual a matriz de T é diagonal. Exemplo 6.10 Determine os autovalores e autovetores da transformação linear T (x1 ; x2 ; x3 ) = (x1 ; x2 ; 0):

6.3

Potências de matrizes

*** Seja A uma matriz quadrada e k um número inteiro positivo. De…nimos A0 = I e Ak = (Ak 1 )A: Se Ax = x então A2 x =

2

x:

Logo, se x for autovetor de A correspondente a ; então x é autovetor de A2 correspondente a 2 : Podemos ir além, se x for autovetor de A correspondente a e p(t) for um polinômio, então p(A)x = p( )x e podemos a…rmar que, se for autovalor de A; então p( ) é autovalor de p(A): Se x for autovetor de A correspondente ao autovalor ; então x é autovetor de p(A) correspondente ao autovalor p( ): 2

Exemplo 6.11 Os vetores coluna 4 2

3 2 3 1 0 5 4 0 e 1 5 são autovetores de A = 1 0

3 0 0 2 4 1 2 1 5 correspondentes ao autovalor 2: Logo, estes mesmos vetores são 1 0 3 autovetores de A7 correspondentes ao autovalor 27 : Notas de aula do Professor Faleiros

6.4 Diagonalização

6.4

141

Diagonalização

De…nição 6.12 Uma matriz A é diagonalizável se existir uma matriz invertível P tal que P 1 AP é uma matriz diagonal. Dizemos que a matriz P diagonaliza A: Teorema 6.13 Seja A uma matriz n seguem:

n; são equivalentes as a…rmações que

1. A é diagonalizável; 2. A possui n autovetores linearmente independente; Para uma matriz n n possuir n autovetores linearmente independentes, a multiplicidade geométrica de cada autovalor de A deve ser igual à sua multiplicidade algébrica. O teorema anterior sugere um procedimento para diagonalizar uma matriz 1. Encontre n autovetores linearmente independente p1 ; : : : ; pn ; 2. Forme a matriz P = autovetores.

p 1 : : : pn

cujas colunas são formadas pelos

3. A matriz P 1 AP será diagonal e os elementos da diagonal serão exatamente os autovalores de A:

1; : : : ;

n

Exemplo 6.14 Para diagonalizar a matriz 2 3 0 0 2 1 5; A=4 1 2 1 0 3

determinamos as raízes da sua equação característica ( 1)( 2)2 = 0 para obter os autovalores 1 = 1 e 2 = 2: Resolvendo a equação (A i I)x = 0; para 1 e 2 ; obtemos os autovetores 2 3 2 3 2 3 2 1 0 v1 = 4 1 5 ; v2 = 4 0 5 e v3 = 4 1 5 : 1 1 0 O primeiro autovetor corresponde ao autovalor 1 = 1 e os outros dois a 2: Formamos com eles a matriz 2 3 1 0 2 1 5 P =4 0 1 1 0 1 Notas de aula do Professor Faleiros

2

=

142

Autovalores e autovetores

cujas colunas são v1 ; v2 e v3 e calculamos sua inversa 2 3 1 0 2 1 5: P 1=4 1 1 1 0 1 A matriz

2

3 2 0 0 P 1 AP = 4 0 2 0 5 0 0 1

é diagonal e os elementos da diagonal principal são os autovalores de A: Exemplo 6.15 A matriz 2

A=4

3 1 0 0 1 2 0 5 3 5 2

não é diagonalizável pois ela possui dois autovalores 1 = 1 e 2 = 2 e, associados a cada um deles, um único autovetor linearmente independente, que são 2 3 2 3 1 0 4 5 4 1 e v2 = 0 5 : v1 = 1 1

Como A possui apenas dois autovetores linearmente independente, ela não é diagonalizável. Pode-se veri…car que A não é diagonalizável analisando os postos das matrizes A 1I e A 2 I: Como o posto da matriz (A 1 I) é igual a 2; sua nulidade é igual a 1; mostrando que as bases do autoespaço de A associado a 1 possui um único autovetor. Como o posto da matriz (A 2 I) é igual a 2; sua nulidade é igual a 1; mostrando que as bases do autoespaço de A correspondente a 2 possui um único autovetor. Logo, A possui no máximo dois autovetores linearmente independentes. Teorema 6.16 Um conjunto formado por autovetores correspondentes a autovalores distintos é linearmente independente. Prova. Um conjunto fvg com um único autovetor é linearmente independente pois v 6= 0: Vamos supor, como hipótese de indução, que todo conjunto de autovetores fv1 ; : : : ; vr g; com 1 6 r < k; formado por autovetores de A correspondentes a autovalores distintos é linearmente independente. Provemos então que todo conjunto fv1 ; : : : ; vk g formado por autovetores correspondentes a autovalores distintos é linearmente independente. Notas de aula do Professor Faleiros

6.4 Diagonalização

143

Sejam c1 ; : : : ; ck escalares tais que c1 v1 + + ck vk = 0: Multiplique esta equação inicialmente por A e, em seguida, por k : Subtraindo um resultado do outro, segue c1 (

1

k )v1

+

+ ck 1 (

k 1

k )vk 1

+ ck (

k

k )vr+1

= 0:

Sendo nula a última parcela, chega-se a c1 (

1

k )v1

+

+ ck 1 (

k 1

k )vk 1

= 0:

Da independência linear de fv1 ; : : : ; vk 1 g e sendo os autovalores distintos, concluímos que c1 = = cr = 0: Daí, como vk 6= 0; segue que ck = 0; o que prova a independência linear de fv1 ; : : : ; vk g: Nota 6.17 Sejam 1 ; 2 ; : : : ; k os autovalores distintos de uma matriz A de ordem n: Para cada inteiro i entre 1 e k; a dimensão do auto-espaço correspondente ao autovalor i pode ser maior do que 1: Seja Bi uma base do auto-espaço correspondente ao autovalor i : A união de todas as bases Bi é um conjunto linearmente independente. Teorema 6.18 Se uma matriz A de tamanho n tos, então A é diagonalizável.

n tem n autovalores distin-

Prova. Se A tem n autovalores distintos, então possui n autovetores linearmente independentes e, portanto, A é diagonalizável. 2

3 0 1 0 0 1 5 possui três autovalores distinExemplo 6.19 A matriz A = 4 0 4 17 8 p p 3: Portanto, A é diagonalizável e existe tos, 1 = 4; 2 = 2 + 3 e 3 = 2 uma matriz P; cujas colunas são autovetores de A tal que 2 3 4 0p 0 0p 5 P 1 AP = 4 0 2 + 3 0 0 2 3

Matrizes triangulares superiores ou inferiores com entradas distintas na diagonal principal são diagonalizáveis. 2 3 1 2 4 0 6 0 3 1 7 7 7 é diagonalizável pois posExemplo 6.20 A matriz A = 6 4 0 0 5 8 5 0 0 0 2 sui quatro autovalores distintos e, consequentemente, quatro autovetores linearmente independentes. Notas de aula do Professor Faleiros

144

6.5

Autovalores e autovetores

Potência de uma matriz n; de…nimos A0 como sendo a matriz identi-

Se A é uma matriz quadrada n dade e

Ak = A k 1 A para todo número inteiro k > 0: Se P for invertível e B = P 1 AP; então Bk = P

1

Ak P

g(B) = P

1

g(A)P

e, sendo g(t) um polinômio,

Sendo A diagonalizável, existe P invertível e D diagonal tais que A = P DP e Ak = P 1 Dk P: 2 3 0 ::: 0 1 6 0 0 7 2 ::: 6 7 : Quando D é diagonal, ela é uma matriz da forma 6 .. . . . . .. 7 4 . 0 5 1

2

k 1

6 0 6 Neste caso, Dk = 6 .. 4 . 0 k

A =P

0

::: ::: .. .

k 2

0 0

1

0

0 0 .. .

k n

k

D P =P

7 7 7e 5

1

Sendo g(t) um polinômio, então

g(A) = P

1

g(D)P = P

Exemplo 6.21 Calcule A13

1

0

3

2 6 6 6 4

2 6 6 6 4

k 1

0 .. . 0

0 k 2

0 0

::: ::: .. . 0

0 0 .. . k n

3 0 0 2 onde A = 4 1 2 1 5 : 1 0 3

Notas de aula do Professor Faleiros

0

3

7 7 7 P: 5

g( 1 ) 0 ::: 0 0 g( 2 ) : : : 0 .. .. .. . . 0 . 0 0 0 g( n ) 2

0

3

7 7 7 P: 5

n

6.6 Diagonalização ortogonal

6.6

145

Diagonalização ortogonal

No espaço vetorial das matrizes coluna reais com n linhas, vamos considerar o produto interno euclidiano h x; y i = xT y onde x e y são matrizes coluna em Mn 1 (R): Se A é uma matriz quadrada de tamanho n; então h Ax; y i = x; AT y : e, quando A for simétrica, h Ax; y i = h x; Ay i : Uma matriz quadrada A é ortogonalmente diagonalizável se existir uma matriz ortogonal P tal que D=P

1

AP = P T AP

é uma matriz diagonal. Se diz neste caso que P diagonaliza A ortogonalmente. Se A for ortogonalmente diagonalizável, então A é simétrica. A recíproca também é verdadeira, como se enuncia no próximo teorema. Teorema 6.22 Seja A uma matriz simétrica n

n:

1. Os autovalores de A são reais. 2. Autovetores da A correspondentes a autovalores distintos são ortogonais. 3. A possui um conjunto ortonormal de n autovetores. 4. A é ortogonalmente diagonalizável Para diagonalizar uma matriz simétrica, siga os seguintes passos: Passo 1. Encontre uma base de cada auto-espaço de A: Passo 2. Use o processo de ortogonalização de Gram-Schmidt para obter uma base ortogonal de cada auto-espaço. Passo 3. Divida cada vetor dessas bases pelas suas normas para obter bases ortonormais dos auto-espaços. Passo 4. Forme a matriz P cujas colunas são os autovetores ortonormais obtidos. Esta matriz diagonaliza a matriz A: A matriz P T AP é diagonal. Notas de aula do Professor Faleiros

146

Autovalores e autovetores

Exemplo 6.23 Os autovalores de 2

3 4 2 2 A=4 2 4 2 5 2 2 4

são 1 = 2 e 2 = 8: O autovalor 1 = 2 possui multiplicidade algébrica 2 e seu autoespaço é gerado pelos autovetores 2 2 3 3 2 1 1 1 v1 = p 4 1 5 e v2 = p 4 1 5 : 2 6 0 2 Eles já foram ortonormalizados pelo processo de Gram-Schmidt. O autovalor 2 = 8; possui multiplicidade algébrica 1 e seu autoespaço é gerado por 2 3 1 1 4 5 1 : v3 = p 3 1

A matriz P que diagonaliza A é p 2 1=p2 P = 4 1= 2 0

p p 3 1=p6 1=p3 1=p6 1=p3 5 : 2= 6 1= 3

Notas de aula do Professor Faleiros

Referências Bibliográ…cas [BoCoFi]

J. L. Boldrini, S. I. R. Costa, V. L. Figueiredo e H. G. Wetzler, Álgebra Linear, Terceira Edição. Editora HARBRA Ltda, 1980

[CaDoCo]

C. A. Callioli, H. H. Domingues e R. C. F. Costa, Álgebra Linear e Aplicações, sexta edição. Editora Atual, 1990.

[Franklin]

Joel N. Franklin, Matrix Theory, Dover publications, Inc., 1993.

[Ho¤man]

Ho¤mann & Kunze, Álgebra Linear. Editora da USP com Editora Polígono.

[Kolman]

Bernard Kolman, Introdução à Álgebra Linear com Aplicações, sexta edição. Editora LTC, 1998.

[Lang]

Serge Lang, Álgebra Linear. Editora Edgard Blücher.

[Lawson]

Terry Lawson, Álgebra Linear. Editora Edgard Blücher, 1997. Acompanham este livro: Matlab Labs for Linear Algebra, Mathematica Labs for Linear Algebra, Maple Labs for Linear Algebra.

[Lipschutz] Seymour Lipschutz, Álgebra Linear. Coleção Schaum. Makron Books. [Nering]

Evar D. Nering, Linear Algebra and Matrix Theory. John Wiley & Sons, 1970.

[Nicholson] W. Keith Nicholson, Álgebra Linear, segunda ed. McGraw-Hill, 2004. [NobDan]

Ben Noble & James W. Daniel, Álgebra Linear Aplicada, segunda edição. Guanabara Koogan, 1986.

[Poole]

David Poole (Foi traduzido), Linear Algebra: A Modern Introduction (with CD-ROM) 2ed. Brooks Cole 2005. Notas de aula do Professor Faleiros

148

REFERÊNCIAS BIBLIOGRÁFICAS

[RoAn]

Chris Rorres e Howard Anton, Álgebra Linear com Aplicações, oitava edição. Editora Bookman, 2001.

[TrefBau]

Lloyd N. Trefethen and David Bau III, Numerical Linear Algebra. SIAM, Society for Industrial and Applied Mathematics, 1997.

Notas de aula do Professor Faleiros

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF