DICIONÁRIO DE ÁLGEBRA LINEAR

August 23, 2017 | Author: Guilherme Gomes | Category: Matrix (Mathematics), Eigenvalues And Eigenvectors, Graph Theory, Complex Number, Euclidean Vector
Share Embed Donate


Short Description

Download DICIONÁRIO DE ÁLGEBRA LINEAR...

Description

GLOSSÁRIO: UM DICIONÁRIO PARA ÁLGEBRA LINEAR Matriz de adjacência de um grafo. Matriz quadrada com aij = 1 quando existe uma arestado nodo i para o nodo j; caso contrário aij = 0. A = AT para um grafo não direcionado. Transformação Afim T(v) = Av + v o = transformação linear mais desvio. Lei Associativa (AB)C = A(BC). Os parênteses podem ser removidos para ler ABC. Matriz aumentada [ A b ]. Ax = b é passível de solução quando b está no espaço de coluna de A; então [ A b ] tem o mesmo posto de A. A eliminação em [ A b ] mantém as equações corretas. Retrosubstituição. Sistemas triangulares superiores são resolvidos em ordem reversa de x n até x 1 . Base para V. Vetores independentes v1 , ..., vd cujas combinações lineares geram qualquer v em V. Um espaço de vetor tem muitas bases! Grande fórmula para determinantes n por n. Det(A) é a soma de n! termos, um termo para cada permutação P das colunas. Cada termo é o produto abaixo da diagonal da matriz reordenada vezes det(P) = ± 1. Matriz de bloco. Uma matriz de blocos pode ser dividida em blocos matriciais por cortes entre as linhas e/ou entre as colunas. A multiplicação de bloco de AB é permitida se as formas dos blocos assim o permitirem (as colunas de A e as linhas de B devem constituir blocos coincidentes). Teorema de Cayley-Hamilton.

matriz zero.

Matriz M de Mudança de base. Os antigos vetores de base vj são combinações novos vetores de base. As coordenadas de relacionadas por d = M c. (Para Equação Característica

dos estão ).

. As n raízes são os autovalores de A.

Fatoração de Cholesky

para A positivo definida.

Matriz circulante C. Diagonais constantes se envolvem como em um desvio S cíclico. Cada circulante é . Cx = convolução c ∗ x. Autovetores em F. Co-fator Cij. Remover a linha i e a coluna j; multiplicar o determinante por

.

Foto coluna de Ax = b. O vetor b se torna uma combinação das colunas de A. O sistema é passível de resolução somente quando b estiver no espaço coluna C(A). Espaço coluna C (A) = espaço de todas as combinações das colunas de A. Matrizes que comutam AB = BA. Se diagonalizáveis, elas compartilham n autovetores. Matriz companheira. Coloque c1 , ..., cn na linha n e coloque n – 1 1´s ao longo da diagonal 1. A seguir . Solução completa x = xp + xn para Ax = b. (xp particular) + (xn no espaço nulo). Complexo conjugado

para qualquer número z = a + ib complexo. Então

1

.

2

Glossário

Número de condição . Em Ax = b, a mudança relativa é menor que cond (A) vezes a mudança relativa . Os números de condição medem a sensibilidade do resultado para alterações na entrada. Método de Gradiente Conjugado. A seqüência de passos (final do Capítulo 9) para resolver Ax = b positivo definida minimizando-se sobre subespaços crescentes de Krylov. Matriz de Covariância Σ. Quando variáveis aleatórias x i possuem mediana = valor médio = 0, suas covariâncias Σ i j são as médias de x i x j. Com médias a matriz Σ = média de é positiva (semi)definida; ela será diagonal se x i forem independentes. Regra de Cramer para Ax = b. Bj tem b substituindo a coluna j de A e x j =Bj/A. Produto vetorial u x v em R3 . O vetor perpendicular a u e v , extensão paralelogramo, computada como o “determinante” de [i j k; u1 u2 u3 ; v 1 v 2 v 3 ].

= área do

Desvio cíclico S. Permutação com s21 = 1, s32 = 1, ..., finalmente = 1. Seus autovalores são raízes n-ésimas de 1; autovetores são colunas da matriz F de Fourier. Determinante A = det(A). Definida por det I = 1, sinal contrário para troca de linha e linearidade em cada linha. Então A = 0 quando A for singular. Também AB =AB  e . A grande fórmula para det (A) tem uma soma de n! termos, a fórmula do co-fator usa determinantes de tamanho n – 1, volume da caixa = det(A). Matriz diagonal D. d i j = 0 se i ≠ j. Diagonal de bloco: zero fora de blocos quadrados Di i . Matriz diagonalizável A. Deve ter n autovetores independentes (nas colunas de S; automático com n. autovalores diferentes). Então matriz de autovalor. Diagonalização matriz de autovalor e S – matriz de autovetor. A deve ter n autovetores independentes para tornar S não inversível. Para todo inteiro k, temos Ak = SΛk S-1 . Dimensão do espaço vetorial dim (V) = número de vetores em qualquer base de V. Lei Distributiva A(B + C) = AB + AC. Adicionar e multiplicar, ou multiplicar e adicionar. Produto escalar . O produto escalar complexo é perpendiculares possuem produto escalar zero. (AB)ij = (linha i de A) ⋅ (coluna j de B).

. Vetores

Matriz escalonada U. A primeira entrada diferente de zero (o pivô) em cada linha vem depois do pivô na linha anterior. Todas as linhas zero vêm por último. Autovalor ? e autovetor x. Ax = ?x com x ≠ 0 de modo que det(A - ?I) = 0. Eighshow. Autovalores gráficos 2 por 2 e valores únicos (MATLAB ou Java). Eliminação. Uma seqüência de operações de linha que reduz A a uma triangular superior U ou a uma forma R reduzida = rref (A). Então A = LU com multiplicadores em L, ou PA = LU com trocas de linha em P, ou EA = R com um E inversível. Matriz de eliminação = Matriz elementar Ei j . A matriz de identidade com um (i ≠ j). Então Ei j A subtrai vezes a linha j de A da linha i .

na entrada i, j

Elipse (ou elipsóide) xTAx = 1. A deve ser positivo definida; os eixos da elipse são autovetores de A, de comprimento . (Para  x  = 1 os vetores y = Ax ficam na elipse exibidas pelo eigshow; comprimentos de eixo ). Exponencial

tem derivada

resolve u´= Au.

Glossário

3

Fatoração A = LU. Se a eliminação levar A até U sem troca de linhas, então a triangular inferior L com multiplicadores (e ) trará U de volta para A. Transformação Rápida de Fourier (FFT). A fatoração da matriz Fn de Fourier em matrizes Si vezes uma permutação. Cada Si precisa somente n/2 multiplicações, de modo que e podem ser calculadas com multiplicações. Revolucionária. Números de Fibonacci 0, 1, 1, 2, 3, 5, ... satisfazem Taxa de crescimento é o maior autovalor da matriz de Fibonacci

. .

Quatro Subespaços fundamentais de A = C (A), N (A), C (AT), N (AT). Matriz de Fourier F. As entradas dão colunas ortogonais Fc é a Transformada Discreta de Fourier (inversa) .

. Então y =

Colunas livres de A. Colunas sem pivôs; combinações de colunas precedentes. Variável livre xi . A coluna i não tem pivô na eliminação. Podemos dar quaisquer valores àsn - r variáveis livres, então Ax = b determina as r variáveis pivô (se solúvel!). Posto coluna completo r = n. Colunas independentes, N (A) = {0}, sem variáveis livres. Posto linha completo r = m. Linhas independentes, pelo menos uma solução para Ax = b, espaço coluna é todo de Rm. Posto completo significa posto coluna completo ou posto linha completo. Teorema Fundamental. O espaço nulo N (A) e o espaço de linha C (AT) são complementos ortogonais (subespaços perpendiculares de Rm com dimensões r e n – r) a partir de Ax = 0. Aplicado a AT, o espaço coluna C(A) é o complemento ortogonal de N (AT). Método de Gauss-Jordan. Inverter A por operações de linha em [A I] para atingir [I A-1 ]. Ortogonalização de Gram-Schmidt A = QR. Colunas independentes em A, colunas ortonormais em Q. Cada coluna qj de Q é uma combinação das primeiras colunas j de A (e reciprocamente, R é triangular superior). Convenção: diag (R) > 0. Grafo G. Conjunto de n nodos (ou vértices) conectados aos pares por m arestas. Um grafo completo tem todas as n(n-1)/2 arestas entre os nodos. Uma árvore tem somente n – 1 arestas e não tem ciclos. Um grafo dirigido tem a seta de direção especificada em cada aresta. Matriz de Hankel H. Constante ao longo de cada diagonal; hi j depende de i + j . Matriz de Hermit

. Complexo análogo de uma matriz simétrica:

.

Matriz de Hessenberg H. Matriz triangular com uma diagonal extra adjacente diferente de zero. Matriz de Hilbert hilb (n). Entradas mas extremamente pequena ? min e número de condição grande. Matriz de Hipercubos

. Positivo Definida ,

. A linha n + 1 conta cantos, bordas, faces, ... de um cubo em Rn.

Matriz identidade I (ou In ). Entradas diagonais = 1, entradas fora de diagonais = 0. Matriz de incidência de um grafo dirigido. A matriz m por n de incidência aresta-vértice tem uma linha para cada aresta (nodo i até nodo j), com entradas –1 e 1 nas colunas i e j. Matriz indefinida. Matriz simétrica com autovalores de ambos os sinais (+ e -). Vetores independentes v1 , ...vk . Sem combinação c1 v 1 + ... + ckv k = vetor zero a menos que todos ci = 0. Se os v são as colunas de A, a única solução para Ax = 0 será x = 0.

4

Glossário

Matriz inversa A-1 . Matriz quadrada com A-1 A = I e AA-1 = I. Sem inversão se det A = 0 e posto (A) < n e AX = 0 para um vetor x diferente de zero. Os inversos de AB e AT são B-1 A-1 e (A-1 )T . Fórmula de co-fator (A-1 )i j = Cj i / det A. Método iterativo. Uma seqüência de passos visando aproximar a solução desejada. Forma de Jordan J = M-1 AM. Se A tem s autovetores independentes, sua matriz de autovetores “generalizados” M dá J = diag(J1,..., Js). O bloco Jk é ? k Ik + Nk onde Nk tem 1 na diagonal 1. Cada bloco tem um autovalor ? k e um autovetor (1, 0, ..., 0). Leis de Kirchhoff. Lei da Corrente: a corrente líquida (o que entra menos o que sai) é zero em cada nodo. Lei da Voltagem: As diferenças de potencial (quedas de voltagem) somam a zero ao redor de cada ciclo. Produto de Kronecker (produto tensorial) A B. Blocos ai i B, autovalores ? p (A)? q(B). Subespaço de Krylov Kj(A,b). O subespaço gerado por b, Ab, ...,Aj-1 b. Métodos numéricos aproximam A-1 b por xj com resíduo b – Axj l nesse subespaço. Uma boa base para Kj exige somente multiplicação por A em cada passo. Solução com mínimos quadrados . O vetor que minimiza o erro Então é ortogonal a todas as colunas de A.

resolve

.

Inversa esquerda A+.. Se A tem uma posto completo coluna, então A+ = (A TA)-1 AT tem A+A = In. Espaço Nulo à esquerda N (AT). O espaço nulo de AT = “espaço nulo à esquerda” de A porque yT A = 0T. comprimento

. Raiz quadrada de xTx (Pitágoras em n dimensões).

Combinação linear

. Adição de vetor e multiplicação escalar.

Transformação linear T. Cada vetor v no espaço domínio transforma-se em T(v) no espaço imagem, e a linearidade exige . Exemplos: Multiplicação de matriz Av, diferenciação em espaços de função. v1,...vn

linearmente dependentes. Combinação linear com nem .

todos ci=0 que resulta em

Números de Lucas Ln = 2,1,3,4, ... satisfazem com autovalores da matriz de Fibonacci . Compare L0 = 2 com Fibonacci. Matriz de Markov M. Todas as e cada soma de coluna é 1. O maior autovalor k , as colunas de M aproximan o autovetor em estado estacionário M s = s > 0.

. Se

Multiplicação de Matriz AB. A entrada i, j de AB é (linha i de A) ⋅ (coluna j de B) = . Por colunas: Coluna j de AB = A vezes coluna j de B. Por linhas: linha i de A multiplica B. Colunas vezes linhas: AB = soma de (coluna k) (linha k). Todas essas definições equivalentes resultam da regra de que AB vezes x é igual a A vezes Bx. Polinômio mínimo de A. O polinômio de grau mais baixo com m(A) = matriz zero. As raízes de m são autovalores, e m(?) divide det (A – ?I). Multiplicação Ax = x 1 (coluna 1) + ... + x n (coluna n) = combinação de colunas. Multiplicidades AM e GM. A multiplicidade algébrica AM de um autovalor ? é o número de vezes em que ? aparece como raiz de det (A – ?I) = 0. A multiplicidade geométrica GM é o número de autovetores independentes (= dimensão do autoespaço para ?).

Glossário

5

Multiplicador entrada i,j,:

. A linha pivô j é multiplicada por = (entrada a eliminar) / (pivô j).

e subtraída da linha i para eliminar a

Rede. Um gráfico dirigido com constantes c1 , ..., cm associadas com as arestas. Matriz Nilpotente N. Alguma potência de N é a matriz zero, Nk = 0. O único autovalor é ? = 0 (repetido n vezes). Exemplos: matrizes triangulares com diagonal zero. Norma

de uma matriz. A e ; normas e

é a proporção máxima . Então e . Norma de Frobenius são as maiores somas de colunas e linhas de .

Equação normal . Fornece a solução de mínimos quadrados para Ax = b se A possuir posto completo n. A equação diz que (colunas de A)⋅ = 0. Matriz normal N. NNT = NTN, leva a autovetores ortonormais (complexos). Espaço nulo N (A) = Soluções de Ax = 0. Dimensão n – r = (n.° de colunas) – posto. Matriz de espaço nulo N. (As colunas de N são as n – r soluções especiais para As = 0. Matriz ortogonal Q. Matriz quadrada com colunas ortonormais, de modo que QTQ = I implica QT = Q-1 . Preserva extensão e ângulos, . Todos os , com autovetores ortogonais. Exemplos: Rotação, reflexão, permutação. Subespaços ortogonais. Cada v em V é ortogonal a cada w em W. Vetores ortonormais q1 , ...qn. Produtos escalares são se e . A matriz Q com essas colunas ortonormais tem QTQ = I. Se m = n então QT = Q-1 e q1 , ..., qn é uma base ortonormal para Rn : cada . Produto vetorial uvT = coluna vezes linha = matriz de posto um. Pivotamento parcial Na eliminação, o j-ésimopivô é escolhido como a maior entrada disponível (em valor absoluto) na coluna j. Então, todos os multiplicadores possuem . O erro de arredondamento é controlado (dependendo do número de condição de A). Solução particular xp . Qualquer solução para Ax=b; freqüentemente xp tem variáveis livres = 0. Matriz de Pascal PS = pascal(n). Matriz simétrica com entradas binomiais (formula). Todos os PS = PLPU contêm o triângulo de Pascal com det = 1 (veja índice para mais propriedades). Matriz de permutação P. Existem n! ordens de 1,...,n; os n! P têm as linhas de I nessas ordens. PA coloca as linhas de A nessa mesma ordem. P é produto de trocas Pi j de linha; P é par ou ímpar (detP = 1 ou –1) com base no número de trocas. Colunas pivô de A. Colunas que contêm pivôs depois da redução por linhas; não são combinações de colunas anteriores. As colunas de pivôs são a base para o espaço coluna. Pivô d. A entrada da diagonal (primeira diferente de zero) quando uma linha é usada na eliminação. Plano (ou hiperplano) em Rn . Soluções para aTx = 0 dão o plano (dimensão n – 1) perpendicular a a ≠ 0. Decomposição polar A = QH. Q ortogonal, positiva (semi)definida H. Matriz A positivo definida. Matriz simétrica com autovalores positivos e pivôs positivos. Definição: x TAx > 0 a menos que x = 0.

6

Glossário

Projeção p = a(aTb / aTa) na linha através de a. P = aaT / aTa tem posto 1. Matriz de projeção P sobre o subespaço S. Projeção p = Pb é o ponto mais próximo a b em S, erro e = b – Pb é perpendicular a S. P2 = P = PT, autovalores são 1 ou 0, autovetores estão em S ou S⊥ . Se as colunas de A = base para S então P = A (A TA)-1 AT. Pseudoinversa A+ (Inversa de Moore -Penrose). A matriz n por m que “inverte” A de espaço coluna de volta para espaço linha, com N (A+) = N (AT). A+ A e AA+ são as matrizes de projeção no espaço linha e no espaço coluna. Posto (A+) = Posto (A). Matriz aleatória rand (n) ou randn (n). O Programa MATLAB cria uma matriz com entradas aleatórias, uniformemente distribuídas em [0 1] para rand e com distribuição padronizada normal para randn. Matriz de posto um A = uvT ≠ 0. Espaços linha e coluna = linhas cu e cv. Posto r (A) = número de pivôs = dimensão do espaço coluna = dimensão do espaço linha. Quociente de Rayleigh q(x) = xT Ax/xTx para A simétrico: extremos são atingidos nos autovetores x para

. Esses .

Forma escalonada reduzida por linha R = rref(a). Pivôs = 1; zeros acima e abaixo dos pivôs; r linhas diferentes de zero de R fornecem uma base para o espaço linha de A. Matriz de reflexão Q = I - 2uuT. O vetor unitário v é refletido para Qu = -u. Todos os vetores x no espelho plano xTx = 0 permanecem inalterados porque Qx = x. A “Matriz de Householder” tem QT = Q-1 =Q. Inversa direita A+. Se A tem posto completo m de linha, então A+ = AT (AAT)-1 tem AAT = Im . Matriz de rotação R = Matriz ortogonal, autovalores

gira o plano por e

e R-1 = RT gira de volta por

.

, autovetores (1, ±i).

Aparência linha de Ax = b. Cada equação fornece um plano em Rn ; os planos se intersectam em x. Espaço linha C (AT) = todas as combinações de linhas de A. Vetores coluna por convenção. Ponto de sela de f (x 1 , ..., xn ). Um ponto no qual as primeiras derivadas de f são zero e a segunda matriz derivada ( = matriz Hessiana) é indefinida. Complemento de Schur S = D = CA-1 B. Aparece em eliminação de bloco em (formula). Desigualdade de Schwarz

. Então

Matriz semidefinida A. Semidefinida (positiva) significa simétrica com vetores x. Então, todos os autovalores ; não há pivôs negativos.

se A = CTC. para todos os

Matrizes similares A e B. Toda B = M-1 AM tem os mesmos autovalores de A. Método simplex de programação linear. O vetor de custo mínimo x* é encontrado movendo-se do canto para o canto de custo menor ao longo das arestas do conjunto viável (onde as restrições Ax= b e x ≥ 0 são satisfeitas). Custo mínimo no canto! Matriz singular A. Uma matriz quadrada que não tem inversa: det(A) = 0. Decomposição de Valor Único (SVD) (U ortogonal) vezes (Σ diagonal) vezes (VT ortogonal). Primeiras r colunas de U e de V são bases ortonormais de C(A) e de C(AT) com e valor único . As últimas colunas de u e de V são bases ortonormais dos T espaços nulos de A e de A.

Glossário

7

Matriz skew simétrica K. A transposta é –K, uma vez que Ki j = -Kj.i. Autovalores são imaginário puro, autovetores são ortogonais, é uma matriz ortogonal. Sistema solúvel Ax = b. O lado direito b está no espaço de coluna de A. Conjunto gerador v1, ...,vm para V. Todos os vetores em V são uma combinação de v1,...,vm. Soluções especiais para As = 0. Uma variável livre é si = 1, outras variáveis livres = 0. Teorema espectral A = Q? QT. A simétrico real tem ? i real e qi ortonormal com mecânica, o qi fornece os eixos principais. Espectro de A = o conjunto de autovalores {? 1,...,? n }. Raio espectral =

. Em

.

Base padrão para Rn . Colunas da matriz identidade n por n (escrito i, j, k em R3 ). Matriz de rigidez K. Se x fornecer os movimentos dos nodos em uma estrutura discreta, Kx fornecerá as forças internas. Com freqüência K = ATCA onde C contém constantes de mola da Lei de Hooke e Ax = deslocamentos (tensões) dos movimentos x. Subespaço S de V. Qualquer espaço vetorial dentro de V, incluindo V e Z = {vetor zero}. Soma V + W de subespaços. Espaço de todos (v em V) + (w em W). Soma direta: dim (V + W) = dim V + dim W quando V e W compartilham somente o vetor zero. Fatorações simétricas A = LDL T e A = Q? QT.. O número de pivôs positivos em D e os autovalores positivos em ? é o mesmo. Matriz simétrica A. A transposta é AT = A, e ai j = ai j . A-1 também é simétrica. Todas as matrizes da formação RT R e LDL T e Q?QT são simétricas. Matrizes simétricas possuem autovalores reais em ? e autovetores ortonormais em Q. Matriz de Toeplitz T. Matriz com diagonal constante, de modo que t i j depende somente de j – i. Matrizes de Toeplitz representam filtros lineares invariantes no tempo em processamento de sinais. Traço de A = soma das entradas da diagonal = soma de autovalores de A. Tr AB = Tr BA. Matriz transposta AT. Entradas (formula). AT é n por m, ATA é quadrada, simétrica, positivo semidefinida. As transpostas de AB e A-1 são BT AT e (AT)-1 . Desigualdade

triangular .

.

Para

normas

matriciais:

Matriz tridiagonal T: ti j = 0 se i - j > 1. T-1 tem posto 1 acima e abaixo diagonal. Matriz unitária

. Colunas ortonormais (análogo complexo de Q).

Matriz de VandermondeV. Vc = b fornece o polinômio em n pontos. e det V = produto de

com .

Vetor v em Rn . Seqüência de n números reais v = (v 1 , ..., v n ) = ponto em Rn . Adição de vetor. v + w = (v 1 + w1 , ..., v n + wn ) = diagonal do paralelogramo. Espaço vetorial V. Conjunto de vetores tal que todas as combinações cv + dw permanecem em V. As oito regras exigidas são fornecidas na Seção 3.1 para cv + dw. Volume da caixa. As linhas (ou colunas) de A geram uma caixa com volume det(A). Ondaletas (Ondas pequenas: wavelets) wj k (t) ou vetores wj k . Estendem e desviam o eixo de tempo para criar . Vetores de w00 = (1, 1, -1, -1) seriam (1, -1, 0,0) e (0,0,1, - 1).

8

Glossário

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF