Unidad 4 Algebra Lineal

November 12, 2017 | Author: BeethHoo Io | Category: Vector Space, Basis (Linear Algebra), Dimension, Euclidean Vector, Scalar (Mathematics)
Share Embed Donate


Short Description

Download Unidad 4 Algebra Lineal...

Description

INSTITUTO TECNOLOGICO SUPERIOR DE LA COSTA CHICA

Materia: Algebra Lineal Unidad IV Espacios Vectoriales

PROFESOR: ING. RAYMUNDO SANTIAGO MIRANDA ALUMNO: ROBERTO MENDEZ CHAVEZ CARRERA: ING. TIC’S SEMESTRE: TERCERO TURNO: MATUTINO

OMETEPEC GRO., A 22 DE NOVIEMBRE DE 2012 4.1 Definición de espacio vectorial y sus propiedades.

Un espacio vectorial (o espacio lineal) es el objeto básico de estudio en la rama de la matemática llamada álgebra lineal. A los elementos de los espacios vectoriales se les llama vectores. Sobre los vectores pueden realizarse dos operaciones: escalarse (multiplicarlos por un escalar) y sumarse. Estas dos operaciones se tienen que ceñir a un conjunto de axiomas que generalizan las propiedades comunes de las tuplas de números reales así como de los vectores en el espacio euclídeo. Un concepto importante es el de dimensión. Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales. La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente de los espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de Hilbert tienen una teoría más rica y complicada.Un espacio vectorial real V es un conjunto de objetos, denominados vectores, junto con dos operaciones binarias llamada suma y multiplicación por escala y que satisfacen los diez axiomas enumerados a continuación. Notación. Si x y y están en V y si α es un numero real, entonces la suma se escribe como x + y y el producto escalar de α y x como αx. Antes de presentar la lista de las propiedades que satisfacen los vectores de un espacio vectorial deben mencionarse dos asuntos de importancia. En primer lugar, mientras que pueden ser útil pensar en R2 o R3 al manejar un espacio vectorial, con frecuencia ocurre que el espacio vectorial parece ser muy diferente a estos cómodos espacios( en breve tocaremos este tema). En segunda instancia, la definición 1 ofrece una definición de un espacio vectorial real. La palabra “real” significa que los escalares que se usan son números reales. Seria igualmente sencillo definir un espacio vectorial complejo en lugar de reales. Este libro dedicado principalmente a espacios vectoriales reales, pero las generalizaciones a otros conjuntos escalares presentan muy poca dificultad.

Definición: sean K un cuerpo dado y V un conjunto no vacío, con reglas de suma y producto por un escalar que asignan a cada par u, vϵV una suma u+vϵV y a cada

par uϵV, kϵK un producto KuϵV. V recibe el nombre de espacio vectorial sobre K ( y los elementos de V se llaman vectores) y se satisfacen los siguientes axiomas. [A1 ] para toda terna de vectores u, v wϵV, ( u+v) + u + (u +w ). [A2 ] existe un vector en V, denotado por 0 denominado el vector cero, tal que u + 0= u para todo vector uϵV. Axiomas de un espacio vectorial

i. ii. iii. iv. v. vi. vii. viii. ix. x.

Si x ϵ V y y ϵ V, entonces x + y ϵ V (cerradura bajo a suma). Para todo x, y y z en V,(x + y) + z = x + (y + z)(ley asociativa de la suma de vectores). Existe un vector 0 ϵ V tal que para todo x ϵ V, x + 0 + x = x (el 0 se llama vector cero o idéntico aditivo). Si x ϵ V, existe un vector –x en ϵ V tal que x + (-x) = 0 (-x se llama inverso aditivo de x). Si x y y están en V, entonces x + y = y + x (ley conmutativa de la suma de vectores). Si x ϵ V y α es un escalar, entonces ax ϵ V (cerradura bajo la multiplicación por un escalar). Si x y y están en V y α es un escalar, entonces α(x + y) = αx + αy (primera ley distributiva). Si x ϵ V y α y β son escalares, entonces (α + β)x = αx + βx Si x ϵ V y α y β son escalares, entonces α (βx) = (α βx)(ley asociativa de la multiplicación por escalar). Para cada vector x ϵ V, 1x = x

Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas modernas de compresión de imágenes y sonido, o proporcionan el marco para resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales como tensores, que a su vez permiten estudiar las propiedades locales de variedades mediante técnicas de linealización. En matemáticas, un espacio vectorial es una estructura algebraica creada a partir de un conjunto no vacío, una operación interna (llamada suma, definida para los

elementos del conjunto) y una operación externa (llamada producto por un escalar, definida entre dicho conjunto y un cuerpo matemático), con 8 propiedades fundamentales. Del latín spatĭum, el espacio puede ser la extensión que contiene la materia existente, la capacidad de un lugar o la parte que ocupa un objeto sensible. Vectorial, por su parte, es lo perteneciente o relativo a los vectores. Este término, de origen latino, refiere al agente que transporta algo de un lugar a otro o a aquello que permite representar una magnitud física y que se define por un módulo y una dirección u orientación. La noción de espacio vectorial se utiliza para nombrar a la estructura matemática que se crea a partir de un conjunto no vacío y que cumple con diversos requisitos y propiedades iniciales. Esta estructura surge mediante una operación de suma (interna al conjunto) y una operación de producto entre dicho conjunto y un cuerpo. Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales. Los espacios vectoriales se derivan de la geometría afín, a través de la introducción de coordenadas en el plano o el espacio tridimensional. Alrededor de 1636, los matemáticos franceses Descartes y Fermat fundaron las bases de la geometría analítica mediante la vinculación de las soluciones de una ecuación con dos variables a la determinación de una curva plana. Para lograr una solución geométrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas operaciones sobre puntos, líneas y planos, que son predecesores de los vectores. Este trabajo hizo uso del concepto de coordenadas baricéntricas de August Ferdinand Möbius de 1827. La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis funcional, principalmente de los espacios de funciones. Los problemas de Análisis funcional requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios de Banach y los espacios de Hilberttienen una teoría más rica y elaborada. El origen de la definición de los vectores es la definición de Giusto Bellavitis de bipoint, que es un segmento orientado, uno de cuyos extremos es el origen y el otro un objetivo. Los vectores se reconsideraron con la presentación de los números complejos de Argand y Hamilton y la creación de los cuaterniones por este último (Hamilton fue además el que inventó el nombre de vector). 4.2 Definición de subespacio de un espacio vectorial y sus propiedades.

Subespacio vectorial Definición (Subespacio de R n) Un subconjunto V no vacio de Rn se llama subespacio (vectorial o lineal) de Rn si satisface las siguientes propiedades. 1.- si U Y V, entonces U+V están V. 2.-si C es cualquier escalar y U esta en V, entonces CU esta en V.

Las propiedades 1 y 2 implican que cualquier combinación lineal de elementos de V también están V. si un conjunto S no vacio de R n satisface la parte 1 la definición, se dice que S es cerrado bajo (o respecto a) a la suma (vectorial). Si S cumple la parte 2, se dice que S es cerrado bajo (o respecto a) a la multiplicación por escalares. Así, un subespacio de R n es un subconjunto cerrado bajo la suma vectorial y la multiplicación por escalares. Todo subespacio V de R

n

contiene el sector cero. 0 (V es un no vacio, de modo

que tiene al menos un elemento, por ejemplo u. pero entonces 0u=0 esta en V, según la parte 2 de la definición). EJEMPLO: 1 EXPLICACION 0+0=0

y

{0} Y Rn. son subespacio de Rn {0} es un subespacio de Rn por que

c0=o para toda c Є R

Rn Es un subespacio de Rn por que la suma de los vectores n cualesquiera es un vector n, y cualquier múltiplo escalar de un vector n es nuevo vector de n. {0} también se llama subespacio cero de Rn. {0} y Rn. son subespacios triviales de Rn.

EJEMPLO 2

V= {[

], X, Y Є R}

Es un subespacio de R3. EXPLICACION: v es un vector por que contiene al vector cero (suponiendo que x=y=0). La suma de dos vectores en V.

[

]+[

]=[

]

También esta en V. así se aplica la parte 1 de la definición. Cualquier múltiplo escalar de un vector en V. C [ ]= [

]

También V. entonces se aplica la parte 2 de la definición.

Por consiguiente, es un subespacio de R3. EJEMPLO 3 I.

V= {(x, y, x+y), x, y Є R} es un subespacio de R3.

EXPLICACION: V es un no vacio (¿Por qué? Sean V1= (x1, y1, x1+y1) y V2= (x2, y2, x2+y2) cualesquiera elemento de V y sea cualquier escalar entonces (X1, y1, x1+y1)+(X2, y2, x2+y2)=(x1+x2, y1+y2, (x1+x2)+(y1+y2) C(x1, y1, x1+y1)= (cx1, cy1, (cx1) + (cy1) Por consiguiente, V1+V2, cV1 Є V. entonces, V es un subespacio de R 3. TEOREMA 1 Un subconjunto no vacio H es un espacio vectorial V es un subespacio de V si se cumplen las dos reglas de cerradura. Este teorema demuestra que para probar si H es o no un subespacio de V, es suficiente verificar que x + y y a x están en H cuando x y y están en H y a es un escalar. Lo anterior dice que: Todo subespacio de un espacio vectorial V contiene al 0. En álgebra lineal, un subespacio vectorial es el subconjunto de un espacio vectorial, que satisface por sí mismo la definición de espacio vectorial con las mismas

operaciones

que

V.

Subespacio vectorial n (V,+,K,*) un espacio vectorial y S un subconjunto de V. S es subespacio vectorial de V si (S,+,K,*) es espacio vectorial en sí mismo, siendo + y * las mismas operaciones definidas en V. Criterio de subespacio El criterio para la verificación de que S es subespacio de V, es que ambas operaciones (+ entre elementos del conjunto S y * con escalares del cuerpo K) sean cerradas, es decir, den como resultado elementos que también pertenezcan a S. Propiedades Un espacio vectorial es un conjunto no vacío que cumple con estas tres condiciones: 1) El Punto Origen pertenece al conjunto. Ej: (0,0,0). 2) Sea K un número real y {v} un vector que pertenece al conjunto entonces K.v también pertenece al conjunto. 3) Sean {u} y {v} dos vectores que pertenecen al conjunto entonces u+v también pertenece al conjunto. Si estos tres axiomas se cumplen entonces el conjunto es un subespacio. Subespacio vectorial: Esto dice que si W es un sub conjunto del espacio vectorial V entonces este es un sub espacio de V. Si W es un espacio vectorial bajo las operaciones de suma y multiplicación por un escalar definidas en V. Para que W sea un sub espacio de V debe cumplir las propiedades de cierre de la suma y la multiplicación por un escalar también debe cumplir la ley del elemento neutro bajo la suma, el inverso bajo la suma y el neutro bajo la multiplicación por un escalar. Está claro que todo subespacio de un espacio vectorial contiene el vector cero, 0. De hecho, {0} es un subespacio propio, llamado subespacio trivial. Consideremos, por ejemplo, una ecuación lineal a, b, c, d 2 F. Si d 6= 0, entonces su conjunto de soluciones no puede ser un sub-espacio de F3 ya que x = y = z = 0 no será una solución, y por lo tanto los conjunto de soluciones no contienen 0 = (0, 0, 0) T . Por otro lado, como se señala a continuación, el conjunto solución de un sistema arbitrario homogéneo ax + by + cz = 0 es un subespacio de F3. Un subespacio W de V es un espacio vectorial sobre F por derecho propio. Sabemos por supuesto que W es un subconjunto no vacío de V, el cual es cerrado bajo la suma y la multiplicación escalar. Pero entonces W contiene 0, ya que 0W = 0 para cualquier w 2 W, y cada elemento w de W tiene su inverso aditivo -w en W, ya que -w = (−1) w. Pero el resto de los axiomas de espacio vectorial están en W, puesto que ya lo están en V. Por lo tanto, mantienen todos los axiomas del espacio vectorial en W.

4.3 PROPIEDADES DE VECTORES, COMBINACIÓN LINEAL, DEPENDENCIA E INDEPENDENCIA LINEAL Independencia lineal Se dice que un conjunto de vectores v1,…,vn de un espacio vectorial V es linealmente dependiente si hay c1v1  .....  cn vn  0 escalares c1,…,cn, no todos cero, tales que Se dice que v1,…,vn

es linealmente independientes si no es linealmente

dependiente. En otras palabras, la ecuación (4.1) implica que c1  ...  c n  0 . Si S es cualquier subconjunto de V (posiblemente infinito), solo lo llamaremos linealmente dependiente cuando contenga un subconjunto finito linealmente dependiente. En cualquier otro caso, S es linealmente independiente Ejemplos: 1.-

El

2  x  x ,2 x  x ,4  4 x  x  2

2

2

conjunto es linealmente dependiente

en



 

P3 porque4  4 x  x 2  2 2  x  x 2  2 x  x 2



2.- El conjunto A, B, Ces linealmente dependiente en M n porque A=B+C

A

1 1 2

B

0 3.-

Los

1

C

0

0 2 conjuntos

0 1 2

2

1, cos 2 x, cos xysenx, cos x, sen2 xson 2

linealmente dependientes en F(R),porque cos2 x 

1 1 .1  cos 2 xysen2 x  2senx cos x para toda x  R 2 2

4.- demuestre que el conjunto E11 , E12 , E21 , E22 es linealmente independiente en M22 SOLUCION sean

c1

0 1  0 0  0 0   0 0   c2   c  c 3 4  1 0 0 1    0 0  0 0 0 0       

1 0

 c1 c  3

c2  0 0   c4  0 0

Por consiguiente, c1  c 2  c3  c 4  0 DEPENDENCIA E INDEPENDENCIA LINEAL A continuación se definen las nociones de dependencia e independencia lineal. Estos conceptos juegan un papel dentro de la teoría del algebra lineal y de las matemáticas en general. DEFINICION: sea V un espacio vectorial sobre un cuerpo K. se dice que los vectores v1 ,..., v m  V son linealmente dependientes sobre K, o simplemente dependientes, si existen escalares a1 ,..., a m  K , no todos 0, tales que

a1v1  a 2 v 2  .... a m v m  0 En caso contrario se dice que los vectores son linealmente independientes sobre K, o simplemente independientes. Observemos que la relación (*) se verifica siempre si los a1 son todos 0. Si la relación solo se verifica en este caso, es decir,

a1v1  a 2 v 2  .... a m v m  0

Implica

a1  0,..... am  0

Los vectores serán linealmente independientes. Sin embargo, si (*) también es valida cuando uno de los ai no es 0, los vectores serán linealmente dependientes. Se dice que un conjunto v1 , v 2 ,...., v m  de vectores es linealmente dependiente o independiente según lo sean los vectores v1 , v 2 ,...., v m . Un conjunto infinito S de vectores es linealmente dependientes si existen vectores u1 ,..., u k en S que lo son; en caso contrario, S es linealmente independiente. Las siguientes observaciones derivan de las definiciones precedentes. NOTA 1: Si 0 es uno de los vectores v1 ,..., v m digamos v1  0 , los vectores deben ser linealmente dependientes, ya que 1v1  0v2  .....  0vm  1.0  0  ....  0  0

Y el coeficiente de v1 es distinto de 0. NOTA 2: cualquier vector no nulo v es por si solo linealmente independientes, debido a que kv  0, v  0

Implica

k 0

NOTA 3: si dos de los vectores v1 , v 2 ,...., v m son iguales, o si uno es un múltiplo escalar de otro, digamos v1  kv2 , los vectores son linealmente dependientes, puesto que

v1  kv2  0v3  ....  0v m  0 Y el coeficiente de v1 no es 0. Si a los elementos de una línea de una matriz cuadrada se les suma una combinación lineal de las líneas restantes, su determinante no varia. Normalmente una empresa está formada por una serie de divisiones de negocio que, por lo general, son un conjunto de parejas producto-mercado [p,m]. Así, por ejemplo, un banco puede tener una división de hipotecas (producto) para inmigrantes (mercado). O una de créditos (producto) para autónomos (mercado). O sea, tiene entre otras muchas, dos parejas que son [hipotecas para inmigrantes] y [créditos para autónomos]. A partir de estas parejas, la forma de “progresar” de una empresa, va, normalmente, en dos direcciones: Primero, a partir de unos pares [p,m], de productos y mercados ya existentes, se idean nuevos pares [p’,m’] de nuevos productos para nuevos mercados (o sea, lo que en marketing se conoce muy bien como matriz de Ansoff). Por ejemplo, en el caso del banco, la división de créditos puede idear una forma de créditos (nuevo producto) para estudiantes (nuevo mercado). En realidad, antes de llegar a ese extremo podría también puede encontrar nuevos mercados para un determinado producto [p,m’], o nuevos productos para un determinado mercado [p’,m]. Y segundo, a partir de los pares [p,m] actuales, se pueden indagar los conocimientos diferenciales de la organización, o sea, el know-how susceptible de ser explotado en nuevas direcciones. Estos conocimientos se deben sintetizar entonces en unas parejas conocimiento y marca [k,μ]. Así, por ejemplo, una empresa de juguetes que conoce bien las necesidades de las familias (conocimiento del mercado) y que es apreciada por ella (marca reconocida), puede ofrecerles muchos nuevos productos y servicios que vayan más allá de su limitado portafolio actual. Por ejemplo, puede idear para ellas un nuevo concepto de viajes familiares.

4.4 BASES Y DIMENSIÓN DE UN ESPACIO VECTORIAL, CAMBIO DE BASE Comenzando estableciendo dos caminos equivalentes para definir una base de un espacio vectorial V. Definición A: si un conjunto S=  u1, u2 …un  de vectores es una base de V si se verificaran las dos condiciones: 1.- u1, u2…un son linealmente independientes 2.- u1, u2…un generan V Definición B: Un con junto S= u1, u2…un  de dos vectores es una base de V si todo vector vV puede escribirse de forma única como combinación lineal de sus vectores. Se dice que un espacio vectorial es de dimensión finita n o que es n-dimensional, escrito

Dim V=n

Si V tiene una base como la anterior, con n elementos. La dimensión esta bien definida, a la vista del siguiente teorema. Teorema 1.- Sea un vector espacio vectorial de dimensiones finito. Entonces todas la bases de V tienen el mismo número de elementos. El espacio vectorial 0 tiene dimensiones 0, por definición. Cuando un espacio vectorial no es de dimensión finita, se dice que es de dimensión infinita. Ejemplo: consideremos el espacio vectorial M2,3 de todas las matrices 2x3 sobre un cuerpo K. las seis matrices siguientes forman una base M2,3: Con mayor generalidad en el espacio vectorial Mr,s de las matrices r x sse Ei,j la matriz cuya entrada ij es 1, siendo 0 las restantes. Todas la matrices E ij tales constituyen una base Mr,s denominada su base usual. Consecuentemente , dim Mr,s.. en particular e1= (1, 0, ...,0), …en =(0, 0, …,0, 1) forma la base usual de Kn a) considérenos el espacio vectorial Pn (t) de los polinomios de grado  n. lo polinomios 1t, t2, ….tn, forman una base de Pn (t) y por lo tanto dim Pn (t) = n +1. El teorema fundamental anterior sobre dimensión es una consecuencia del importante “lema de sustitución”

Lema: supongamos que  v1, v2 ,…vnque genera V y que w1, w2 …wm es linealmente independiente. En ese caso, mn y V esta generado por un conjunto w1, w2 …wm, v1, v2 ,…vn-,m

de la forma

Asi, en particular, n+1 o mas vectores en V son linealmente dependientes. Observemos, en el lema precedente, que hemos sustituido m vectores de conjunto generador por los m vectores independientes y aun conservamos un conjunto generador. Los teoremas enunciados a continuación se utilizaran con frecuencia: Teorema 2.- supongamos que S genera un espacio vectorial V i) cualquier numero máximo de vectores linealmente independiente s en S es una base de V ii) si se suprime de S todo vector que sea combinación lineal de los precendentes, los vectores que quedan constituyen una base de V Teorema 3.- sean V un espacio vectorial de dimensión finita y S=  u1, u2 …un  un conjunto de vectores linealmente independientes en V. En ese caso, S es parte de una base de V, es decir exteb¡nderse a una base de V Ejemplo: consideremos en R4 los cuatro vectores (1,1,1,1)

(0,1,1,1)

(0,0,1,1)

(0,0,0,1)

Notese que los vectores formaran una matriz escalonada, por lo que son linealmente independientes. Más aún, dado que dim R4 = 4, los vectores constituyen una base de R4 a) consideremos los n +1 polinomios en Pn (t): 2

1, t-1, (t-

n

1) …(t-1)

El grado de (t-1)k es K, luego ningún polinomio puede ser combinación lineal de los precedentes. Además, constituyen una base de P n (t) por que dim Pn (t)= n+1. El siguiente teorema nos da la relación básica entre la dimensión de un espacio vectorial y la de un subespacio.

Teorema 4.- sea W un subespacio de un espacio n-dimensional V. entonces dim Wn. si en particular, dim W= n, necesariamente W=V Ejemplo: Sea

W un subespacio de espacio vectorial real R3 =3; por

consiguiente, según el teorema 4, la dimensión de W solo puede ser 0, 1,2 ó 3. Podemos distinguir los casos: i) dim W=0, con lo que W=0, un punto ii) dim W=1, con lo que W es una recta por el origen iii)

dim W = 2, con lo que W es un plano por el origen.

iv)

Dim W= 3 con lo que W es un espacio R3 entero .

Un espacio vectorial sobre un cuerpo que se dice que tiene dimensión si existe una base de cardinal n. En un espacio vectorial, todas las bases tienen el mismo cardinal, lo que hace de la dimensión el primer invariante del álgebra lineal. El espacio vectorial trivial {0} tiene como dimensión 0 porque el conjunto vacío es su

base:

una

combinación

de

cero

vector

da

el

vector

nulo.

Intuitivamente hablando, la dimensión de un espacio vectorial nos dice cuántos elementos necesitamos para poder expresar cualquier elemento del espacio en términos de las combinaciones lineales de los primeros, i.e., cuántos elementos del espacio necesitamos para poder expresar todos los elementos del espacio como sumas de múltiplos de éstos elementos. Los espacios vectoriales de dimensión finita son muy comunes en muchas áreas de la ciencia, pero en matemáticas y física cuántica también aparecen casos importante de espacios vectoriales

de

dimensión

infinita.

Se dice que un conjunto de vectores D = {¯u1, ¯u2, ..., ¯un} forman una base del espacio vectorial V si los vectores de {D} pueden generar todo el espacio vectorial V y si dichos vectores son linealmente independientes. La dimensión del espacio vectorial V es igual al número de vectores que constituyen su base. De la misma manera, se dice que un conjunto de vectores E = {v1, v2,..., Vn} forman una base del subespacio vectorial S si los vectores de {E} pueden generar todo el subespacio vectorial S y si dichos vectores son linealmente independientes

4.5 ESPACIO VECTORIAL CON PRODUCTO INTERNO Y SUS PROPIEDADES. Sea V un espacio vectorial real. Supongamos que a cada par de vectores u, uЄ V se le asigna un numero real, denotado por.esta función se llama producto interno(real) en V si satisface las axiomas: [I1](Propiedad lineal)=a+b. [I2] propiedad simétrica u, v =

u ,u .

[I3] propiedad definida positiva u, u  0; y u, u  0 si y solo si u= 0 El espacio vectorial V se denomina entonces espacio (real) con producto interno. El axioma [I1] es equivalente a las dos condiciones:

a) u1  u2, u  u1, u  u2, u

y b) ku, u  k u, w

Usando [I1] y el axioma de simetría [I2] llegamos a

u, cv1  v2  cv1  du2, u  c u1, u  d u2, u  c u, u1  d u, u2 O equivalentemente, alas dos condiciones

a) u, v1  v2  u, v1  u, v2

y

b) u, kv  k u, v

Esto es, la función producto interno es también lineal en su segunda posición (variable) por inducción tendremos

a1u1  ...  arur, v  a1 u1, v  a2 u2, v  ... ar ur, v

y

u, b1v1  b2v2  ...  bsvs  b1 u, v1  b2 u, v2  ...  bs u, vs Combinar estas propiedades nos conducen a la formula general escrita a continuación: r

s

r

i 1

j 1

i 1

 aiui,  bjvj  

s

 aibj ui, vj j 1

Podemos hacer, por orden las siguientes observaciones: Nota 1: el axioma [I1] por si mismo implica 0,0  0v,0  0 v,0  0 En consecuencia, [I1],[I2],e[I3] son equivalentes a [I1],[I2] y el axioma : [I´3] si u ≠ 0, necesariamente u, u >0

O sea una función que satisface [I1],[I2],e[I3] es un producto interno. Nota 2: de acuerdo con [I3], u, u es no negativo y por lo tanto existe una raíz cuadrada real positiva .utilizamos la notación u 

u, u

el numero real

no

negativo u se determina la normal o longitud de u. Esta función satisface los axiomas de una norma para un espacio vectorial. Ejemplo 1.a) Sea V el espacio vectorial de las funciones reales continuas en el intervalo a ≤ t ≤ b. el siguiente es un producto interno en V: a

f , g   f (t ) g (t )dt b

Donde f(t) y g(t) son ahora funciones continuas cualquiera en [a,b]. b) Sea V nuevamente el espacio vectorial de las funciones reales continuas en el intervalo a≤ t ≤ b.si w(t) es una función continua dada ,positiva en [a,b] otro producto interno en V es: b

f , g   w(t ) f (t ) g (t )dt a

En este caso w(t) se denomina una función peso para el producto interno. Espacios vectoriales: Siempre que se utiliza el término “espacio” en un contexto matemático, se refiere a un espacio vectorial, es decir, real o n-espacio complejo, el espacio de funciones continuas en la recta, el espacio de operadores lineales adjuntos y así sucesivamente. Por lo tanto, es un hecho innegable, que este tema tiene su propia importancia en el campo de las matemáticas. Fijaremos el espacio vectorial de una manera más amplia, con una definición que contiene todos los conceptos relacionados. Sea F un campo y V un conjunto. Supongamos que hay una operación binaria sobre V llamada adición, la cual asigna a cada par de elementos a y b de V una suma única a + b V. Imagina también, que hay una segunda operación, llamada multiplicación escalar, que asigna a cualquier r F y a cualquier 2 V, un múltiplo escalar único ra V . Supongamos que tanto la suma como la multiplicación escalar satisfacen los siguientes axiomas: (1) La suma de los vectores es conmutativa. Es decir, a + b = b + a para todo a, b V.

(2) La suma de los vectores es asociativa. Es decir, (a + b) + c = a + (b + c) para todo a, b, c V. (3) Existe una identidad aditiva 0 V de manera que 0 + a = a para todos los a V. (4) Para todo a V, 1a = a, donde 1 es la identidad multiplicativa de F. (5) Por cada elemento v de V, hay un elemento -v tal que v + (-v) = 0. De este modo -v es un inverso aditivo de v. (6) La multiplicación escalar es asociativa. Si r, s F y a V, entonces (rs)a = r(sa). (7) La multiplicación escalar es distributiva. Si r, s F y a, b V, entonces r(a + b) = ra + rb, and (r + s)a = ra + sa. Propiedades i. (v, v) ≥ 0 ii. (v, v) = 0 si y sólo si v = 0. iii, (u, v +w) = (u, v)+ (u, w) iv. (u + v, w) = (u, w)+(v, w) v. (u, v) = (v, u) vi. (αu, v) = α(u, v) vii. (u, αv) = α(u, v) La barra en las condiciones (v) y (vii) denota el conjugado complejo. Producto Interno En matemáticas el producto escalar, también conocido como producto interno, interior o punto, es una operación definida sobre un espacio vectorial cuyo resultado es una magnitud escalar. El Producto Interno En esta sección introduciremos el concepto de producto interno entre vectores de Rn que, junto con las propiedades de espacio vectorial, enriquecerá notablemente su estructura. Además extenderemos estos conceptos a espacios de dimensión infinita.

4.6 BASE ORTONORMAL, PROCESO DE ORTONORMALIZACION DE GRAM SCHMIDT. Una base ortonormal por lo general no es una "base", es decir, en general no es posible escribir a cada elemento del espacio como una combinación lineal de un número finito de elementos de la base ortonormal. En el caso de dimensión infinita, esta distinción cobra importancia: la definición dada requiere solo que el span de una base ortonormal sea densa en el espacio vectorial, y no que iguale al espacio entero. Una base ortonormal de un espacio vectorial v no tiene sentido si el espacio no posee un producto interno. Un espacio de banach no tendrá una base ortonormal a no ser que sea un espacio de hilbert. 

El conjunto {e1=(1,0,0), e2=(0,1,0), e3=(0,0,1)} (la base canónica) forma una base ortonormal de r3. Demostración: mediante un cálculo directo se verifica que 〈e1, e2〉 = 〈e1, e3〉 = 〈e2, e3〉 = 0 y que ||e1|| = ||e2|| = ||e3|| = 1. Así, {e1, e2, e3} es un conjunto ortonormal. Para un (x,y,z) cualquiera en r3 tenemos Entonces, {e1,e2,e3} reconstruye r3 y por lo tanto tiene que ser una base. También puede demostrarse que la base estándar rotada alrededor de un eje que pasa por el origen o reflejada en un plano que pasa por el origen forma también una base ortonormal de r3. El conjunto {fn : n ∈ z} con fn(x) = exp(2πinx) forma una base ortogonal del espacio complejo l2([0,1]). Este es un resultado fundamental para el estudio de series de Fourier.  El conjunto {eb : b ∈ b} con eb(c) = 1 si b=c y 0 en caso contrario, forma una base ortonormal de l2(b).  Eigen funciones de un eigenproblema de sturm-liouville. 



 

En álgebra lineal, el proceso de ortogonalización de gram–schmidt es un algoritmo para construir, a partir de un conjunto de vectores linealmente independientes (base) de un espacio prehilbertiano (usualmente, el espacio euclídeo rn), otro conjunto ortonormal de vectores que genere el mismo subespacio vectorial. Este algoritmo recibe su nombre de los matemáticos jørgen pedersen gram y erhard schmidt. En matemáticas y análisis numérico, el método de ortogonalización de gram–schmidt de álgebra lineal es un método de ortogonalizar un conjunto de vectores en un espacio prehilbertiano, más comúnmente el espacio euclídeo rn. Ortogonalización en este contexto significa lo siguiente:

comenzamos con vectores v1,…, vk los cuales son linealmente independientes y queremos encontrar mutuamente vectores ortogonales u1,…, uk los cuales generan el mismo subespacio que los vectores v1, …, vk. Sea v un vector en el espacio vectorial V de dimensiones finitas, y sean B  v1 ,..., v n yB ,  v1, ,...., v n,  dos bases. A continuación definiremos una relación  vB yvB, entre . Como B, es una base, los elementos de B son combinaciones lineales de los elementos de B, Entonces hay escalares vi  a1i v1,  ...  a ni v n,

a11 , a12 ,..., a nn

tales que

i  1,2,.....,n

P es la matriz cuyo elemento (i,j) es aij Sean B  v1 ,..., v n yB ,  v1, ,...., v n, dos bases de un espacio vectorial de dimensión finita. Sea P la matriz n x n cuyas columnas son

v1 B ,...., vn B ,

,

P  v1 B , v2 B , ....vn B , 

Entonces P es invertible y esta es la única matriz en la que para todo v  V ,

vB

,

 PvB

PROCESO DE ORTONORMALIZACION GRAM-SCHMIDT En este párrafo describiremos un método muy importante, llamado proceso de Gram-Schmidt, que nos permite “ortogonalizar” cualquier base B de cualquier subespacio V de R; es decir, transformar a esta en una nueva base de V que tenga vectores ortogonales. Sea V cualquier subespacio de R” y B  v1 ,...., v k  cualquier base de V.se desea reemplazar en forma en forma gradual a los vectores

v1 ,....., v k por los vectores

u1 ,......, u k que sean ortogonales y que sigan formando una base V. primero, reemplazamos el conjunto v1 , v 2  por un conjunto ortogonal u1 ,u 2 tal que Gen

v1 , v 2 =Gen u1 ,u 2 .

Tan solo hacemos que u1 sea v1, y que u2, sea el

componente de v2 ortogonal a v1. Según la ecuación (8.15), u1 ,u 2 es ortogonal. Según la ecuación (8.13), v1 , v 2  y u1 ,u 2 tienen el mismo generador. También

u1  v1 u 2  v2 

Continuamos de la misma manera, para ortogonalizar el

v 2 .u1 u1 u1 .u1

conjunto u1 , u 2 , v3 . Sustituimos v3 por u3, el componente de v2 ortogonal a Gen

u1 ,u 2 . Entonces u1 , u 2 , u 3  es ortogonal y genera a Gen v1 , v2 , v3 además u 3  v3 

v3 .u1 v .u u1  3 2 u 2 Por inducción continuamos hasta que todo B queda u1 .u1 u 2 .u 2

reemplazado con u1 ,....., u k , que es ortogonal y genera al generador de B, cuya totalidad se encuentra en V. es el proceso. Teorema 16 proceso de Gram-Schmidt Todo subespacio V de Rn tiene al menos una base ortogonal y una base ortonormal. Si B  v1 ,....., v k  es cualquier base de V, entonces B ,  u1 ,....., u k  , es una base ortogonal, donde u1  v1 u 2  v2 

v 2 .u1 u1 u1 .u1

u 3  v3 

v 3 .u1 v .u u1  3 2 u 2 u1 .u1 u 2 .u 2

. . . u k  vk 

v k .u1 v .u 2 v k .u k 1 u1  k u 2 .... u k 1 u1 .u1 u 2 .u 2 u k 1 .u k 1

y

Genv1 ,.......,v i   Genu1 ,.......,u i , i  1,......,k

Una base ortonormal B” se obtiene normalizando B’:

 u u B"   1 ,......., k uk  u1

  

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF