Teoria Espacios Vectoriales Euclideos

December 21, 2018 | Author: Ana Sánchez Bravo | Category: Vector Space, Orthogonality, Euclidean Vector, Linear Map, Basis (Linear Algebra)
Share Embed Donate


Short Description

Download Teoria Espacios Vectoriales Euclideos...

Description

 Espacios vestoriales euclídeos. euclídeos. Proyecciones ortogonales. ortogonales. Mínimos cuadrados. cuadrados.

5. ESPACIOS VECTORIALES EUCLÍDEOS. PROYECCIONES ORTOGONALES. MÍNIMOS CUADRADOS. SUMARIO: INTRODUCCIÓN OBJETIVOS INTRODUCCIÓN TEÓRICA 1.- Espacio vectorial euclídeo. 2.- Ortogonalidad. Propiedades. 3.- Norma. Propiedades. 4.- Proyecciones en espacios euclídeos. 5.- Método de los mínimos cuadrados 6.- Ajuste de datos con el método de los mínimos cuadrados. PROBLEMAS RESUELTOS. BILIOGRAFÍA

M ATEMÁTICAS I

159

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

INTRODUCCION La estructura de espacio vectorial despliega una gran capacidad operativa cuando incorpora los conceptos de distancia y ángulo entre sus elementos. Para integrar estas dos cualidades métricas en un espacio vectorial es preciso definir en él un producto escalar, el cual otorga a dicho espacio el calificativo de euclídeo, de modo que a todo espacio vectorial dotado de un producto escalar se le denominará espacio vectorial euclídeo. Si se dota al espacio vectorial de un producto escalar se va a poder trasladar, al terreno de lo abstracto, las nociones de longitud y ángulo, en especial el concepto de ortogonalidad, sin que éstas pierdan las propiedades generales que les son inherentes. Antes de comenzar con el estudio de los espacios vectoriales euclídeos es preciso matizar que, en este curso, dicho estudio se limitará únicamente al caso de productos escalares sobre espacios vectoriales reales. Basándonos en la idea de ortogonalidad y proyección ortogonal, estudiaremos el método de los mínimos cuadrados, para resolver de forma aproximada sistemas de ecuaciones lineales incompatibles.

OBJETIVOS • Reconocer en una forma bilineal un producto escalar y manejar adecuadamente sus propiedades.

• Definir la norma asociada a cada producto escalar y demostrar sus propiedades.

• Obtener para cada vector del espacio su norma, módulo, y para cada par de vectores el ángulo que forman a partir del producto escalar.

160

M ATEMÁTICAS I

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

INTRODUCCION La estructura de espacio vectorial despliega una gran capacidad operativa cuando incorpora los conceptos de distancia y ángulo entre sus elementos. Para integrar estas dos cualidades métricas en un espacio vectorial es preciso definir en él un producto escalar, el cual otorga a dicho espacio el calificativo de euclídeo, de modo que a todo espacio vectorial dotado de un producto escalar se le denominará espacio vectorial euclídeo. Si se dota al espacio vectorial de un producto escalar se va a poder trasladar, al terreno de lo abstracto, las nociones de longitud y ángulo, en especial el concepto de ortogonalidad, sin que éstas pierdan las propiedades generales que les son inherentes. Antes de comenzar con el estudio de los espacios vectoriales euclídeos es preciso matizar que, en este curso, dicho estudio se limitará únicamente al caso de productos escalares sobre espacios vectoriales reales. Basándonos en la idea de ortogonalidad y proyección ortogonal, estudiaremos el método de los mínimos cuadrados, para resolver de forma aproximada sistemas de ecuaciones lineales incompatibles.

OBJETIVOS • Reconocer en una forma bilineal un producto escalar y manejar adecuadamente sus propiedades.

• Definir la norma asociada a cada producto escalar y demostrar sus propiedades.

• Obtener para cada vector del espacio su norma, módulo, y para cada par de vectores el ángulo que forman a partir del producto escalar.

160

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. euclídeos. Proyecciones ortogonales. ortogonales. Mínimos cuadrados. cuadrados.

• Reconocer diferentes expresiones para un producto escalar al considerarlo en bases diferentes. • Encontrar una base del espacio en la cual un producto escalar dado adopte la expresión más simple (expresión canónica).

• Conocer y utilizar con soltura el método de ortonormalización de Gram-Schmit.

• Determinar el complemento ortogonal de un subespacio. • Entender y calcular la proyección ortogonal de un vector sobre un subespacio.

• Comprender y manejar el método de los mínimos cuadrados.

M ATEMÁTICAS I

161

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

INTRODUCCION TEORICA 1. Espacio vectorial euclídeo. Un conjunto  E  es un espacio vectorial euclídeo n-dimensional si es un espacio vectorial real de dimensión n en el que se ha definido una operación:  f : E × E  ———— \ , verificando las siguientes propiedades:

1.  f ( x , y ) = f ( y , x ) ,

∀ x , y ∈ E 

2.  f ( λ x + µ y , z ) = λ f ( x , z ) + µ f ( y, z ) ,

∀λ , µ ∈ \  y ∀ x , y , z ∈ E 

3.  f ( x , λ y + µ z ) = λ f ( x , y ) + µ f ( x, z ) ,

∀λ , µ ∈ \  y ∀ x , y , z ∈ E 

4.  f ( x , x ) > 0, ∀x ≠ 0, x ∈ E  Esta operación recibe el nombre de producto escalar y la notación que vamos a utilizar es :  f ( x , y ) = x D y

1.1 Matriz Asociada al Producto Escalar Si  B = {e1, e2 ,…, en } es una base del espacio vectorial euclídeo  E , entonces la matriz asociada al producto escalar respecto a dicha base viene dada por:

⎛ e1 D e1 ⎜e De 2 1  A = ⎜ ⎜ " ⎜⎜ ⎝ en D e1 como ei D e j

el

e2 D e1

"

e2 D e2

"

"

"

en D e2

"

producto

= e j D ei , ∀i, j

escalar

e1 D en ⎞

⎟ ⎟ ≡ MATRIZ DE GRAM " ⎟ ⎟ en D en ⎟⎠ e2 D en

es

conmutativo,

sucede

que

y de ahí se obtiene que la matriz  A es simétrica,

es decir:

162

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

⎛ e1 D e1 ⎜e De 1 2 t   A = A = ⎜ ⎜ " ⎜⎜ ⎝ e1 D en

e2 D e1

"

en D e1 ⎞

e2 D e2

"

en D e2

"

"

e2 D en

"

⎟ ⎟ " ⎟ ⎟ en D en ⎟⎠

2. Ortogonalidad 2.1 Vectores ortogonales. Sea  E  un espacio vectorial euclídeo.

Dos vectores u

y v son

ortogonales si y sólo si u D v = 0 .

2.2 Proposición El vector 0 es el único vector ortogonal a todos los vectores del espacio.

2.3 Vector ortogonal a un subespacio. Un vector u es ortogonal a un subespacio S  de  E  si y sólo si, ∀ x ∈ S , uDx

= 0.

2.4 Proposición Un vector u es ortogonal a un subespacio S  de  E  si y sólo si es ortogonal a todos los vectores de una base de S  .

2.5 Subespacios ortogonales. Dos subespacios V  y W  de  E  son ortogonales si

∀ x ∈ V  , ∀ y ∈ W ⇒ x D y = 0 . 2.6 Proposición Para que dos subespacios V  y W  sean ortogonales es necesario y suficiente que los vectores de una base de V  sean ortogonales con los vectores de una base de W  .

2.7 Propiedades de la relación de ortogonalidad.

M ATEMÁTICAS I

163

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

Las principales propiedades de la relación de ortogonalidad son las siguientes: 1. Si S = {u1 , u2 ,", uk } es un sistema de vectores ortogonales dos a dos, ui ≠ 0 , ∀i = 1, 2,…, k  , entonces S  es un sistema libre. 2. Si V1 ,V 2 son dos subespacios de  E ,tal que V1 ⊂ V2 ,V1 ≠ V2   entonces existe un vector no nulo de V 2 ortogonal a todo el subespacio V 1. 3. Si V  es un subespacio vectorial de  E  de dimensión k < n , todo sistema libre formado con vectores de V  tiene como máximo k  vectores ortogonales dos a dos. 4. Si V  es un subespacio de  E , de dimensión k < n , el conjunto de todos los vectores ortogonales a V  es un subespacio de dimensión n − k  .

Dicho subespacio se denomina suplementario ortogonal o

complemento ortogonal de V  y se representa por V ⊥ . 5. Si V  es un subespacio de  E  entonces V ∩ V ⊥ = {0}.

6. Si V  es un subespacio de  E  entonces V ⊕ V ⊥ = E .

3. Longitud, norma o módulo de un vector. Se llama longitud, norma o módulo de un vector u , y se representa por u

ó

u

=+

u

a la raíz cuadrada positivo del producto escalar u D u , es decir, u Du

⋅:

 E ------------ \ + u ------------ u

NOTA: Si

164

u

=+

u Du

= 1 , se dice entonces que el vector

u

es unitario.

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

3.1 Propiedades de la norma. 1.

u

> 0 , ∀u ≠ 0

2.

u

= 0 ⇐⇒ u = 0

3.

λu

=

λ u

  λ ∈ \ . , ∀u ∈ E, ∀

4. ∀u ∈ E , u ≠ 0, u , es un vector unitario en la dirección de u . u

5. Desigualdad de Schwarz, ∀u , v ∈ E : −

u v

≤ u Dv ≤

u v

6. Desigualdades triangulares, ∀u , v ∈ E : a.

u

+v ≤

u

+

v

b.

u

−v ≥

u



v

3.2 Angulo que forman dos vectores. u,v ∈\ , u D v

Sean

n

el

producto escalar usual, es decir,

n

u Dv

= u v = ∑ ui vi t 

i =1

El ángulo α  que forman dos vectores u y v se define por medio de la expresión: cos(α ) = u D v u v

3.3 Proposición. Sean u , v ∈ \ n ; u , v ≠ 0 a) u y

v

son ortogonales ( u ⊥ v ) ⇐⇒ cos (α ) = 0 ⇐⇒ u t v = 0.

b) u y v son paralelos ( u // v ) ⇐⇒ cos(α ) = 0 ⇐⇒ u t v = ± u v .

3.4 Bases ortogonales y ortonormales. Una base de un espacio vectorial euclídeo es ortogonal si sus vectores

M ATEMÁTICAS I

165

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

son ortogonales dos a dos. Una base ortonormal es una base ortogonal de vectores unitarios.

3.5 Método de ortogonalización de Gram-Schmidt. Este método nos permite construir una base ortonormal a partir de una base cualquiera del espacio. Si  B = {e1 , e2 ,…, en } es una base de  E  , los vectores que se obtienen de la forma: c1

= e1

c2

= e2 − cc1DDec2 c1

c3

= e3 − cc1DD ec3 c1 − cc2 DD ce3 c2

1

1

1

1

2

2

""""""""""""""""""

cn

= en − cc1 DDec

n

1

1

c De

c De

c1 − c2 D cn c2 − .... − − c n−1D c n cn−1 2

2

n−1

constituyen una base ortogonal. Entonces  B∗ =

n−1

{

c1 c1

,

c2 c ,…, n c2 cn

} es una

base ortonormal.

4. Proyecciones en Espacios Euclídeos. 4.1 Proyección ortogonal de un vector sobre otro. Sea v ∈ E, v ≠ 0 . Todo vector u ∈ E  se descompone como: u

= uv DDvv v + w.

siendo el vector w un vector ortogonal a v . El vector

u Dv v Dv

v

es la proyección ortogonal de u sobre v .

4.2 Proyección Ortogonal de un vector sobre un subespacio S. Sea S  un subespacio de  E . Todo vector u de  E  se descompone de

166

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

manera única de la forma u = s + w , siendo s ∈ S  y w ortogonal a S  . El vector s es la proyección ortogonal de u sobre S  .

4.3 Expresión matricial del vector proyección sobre un subespacio. Sea u ∈ E . Sea S = L {a1 , a2 ,", ak } ( ai , linealmente independientes) un subespacio de  E , y sea  A la matriz cuyas columnas son las coordenadas de los vectores ai en una base  B de  E . El vector proyección, s , del vector u sobre S  viene dado por: s

= A( At A)

−1

At u

NOTAS: 1. La existencia de la matriz ( At  A)

−1

queda garantizada por ser

linealmente independientes los vectores ai , para i = 1, 2,…, k  . 2. Obsérvese que en el caso particular de dim(S ) = 1, S = L {v } , la expresión del vector proyección s s

de u

sobre S  sería:

= uv DDvv v = v ( v t v )−1 ( v t u ) −1

que corresponde a la forma s = A( At A) At u tomando  A la matriz columna de las coordenadas de v . En este caso v D v = At  A y u Dv

= At u .

4.5 Matriz Proyección asociada a un subespacio S. Sea S  un subespacio de  E  y  B = {a1 , a2 ,", ak } una base de dicho subespacio. Sea  A la matriz cuyas columnas son las coordenadas de los vectores ai en una cierta base de  E . La matriz proyección para el subespacio S  es la matriz:

M ATEMÁTICAS I

167

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

PS 

El producto PS  u

= A( At A) −1 At .

para cualquier vector

u ∈ E 

nos proporciona la

proyección ortogonal de u sobre el subespacio S  .

4.6 Teorema. Sea S  un subespacio vectorial de  E  y  BS = {a1 , a2 ,", ak } una base del mismo. Sea  B una base de  E  y  A la matriz n × k  , cuyas columnas son las coordenadas de los vectores ai respecto a la base  B . La matriz proyección: PS 

= A( At A)−1 At 

es la única matriz con la propiedad de que para todo vector u ∈ E  , el vector PS u es la proyección de u sobre S  .

NOTA: El teorema anterior nos dice que la matriz proyección es única, independiente de la base elegida en el subespacio.

4.7 Propiedades de la matriz proyección. La matriz proyección PS  satisface: 7. ( PS )2 = PS , es decir, PS  es idempotente. 8. ( PS )t  = PS  , es decir, PS  es simétrica.

4.8 Caracterización de las matrices proyección. La condición necesaria y suficiente para que una matriz n × n sea una matriz proyección es que sea idempotente y simétrica. En este caso, la matriz es la matriz proyección para el subespacio generado por sus columnas.

4.9 Matriz proyección utilizando bases ortonormales. Si  A es una matriz n × k  de columnas ortonormales,  At  A es la matriz

168

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

identidad. En esta propiedad simplifica en gran medida la expresión de la matriz proyección. Sea  E  un subespacio vectorial de dimensión n , S  un subespacio y  B = {a1, a2 ,", ak }

una base ortonormal del mismo. Si  A es la matriz

cuyas columnas son los vectores ai , entonces la matriz proyección para el subespacio S  , al ser  At  A = I  , es PS  = AAt .

5. Método de los Mínimos Cuadrados 5.1 Planteamiento del Problema. Trataremos de aplicar el estudio realizado sobre las proyecciones a problemas de análisis de datos, que nos conducen a sistemas con mayor número de ecuaciones que de incógnitas (sistemas sobredeterminados) que, normalmente, son incompatibles. A pesar de la no existencia de solución exacta en dichos sistemas. Los sistemas incompatibles surgen en situaciones reales y hay que intentar encontrar la ”mejor” solución posible. El problema será encontrar un vector que minimice el error que cometemos al suponer que dicho vector es la solución del sistema.

5.2 Método de los Mínimos Cuadrados. Sea el sistema  Ax = b , siendo  A una matriz m × n , con m > n , cuyas columnas son linealmente independientes, es decir, rang ( A) = n . Si b no es combinación lineal de las columnas de  A , el sistema lineal anterior  Ax

= b es incompatible. Se trata entonces de encontrar un vector

 x *

que minimice el vector error  Ax − b que para nosotros significará minimizar su norma euclídea:

M ATEMÁTICAS I

169

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

 Ax − b

= ( d1 , d2 ,…, dm ) = +

2

d1

+ d22 + …+ d m2 .

Pero minimizar su norma es equivalente a minimizar su norma al cuadrado, es decir,  Ax − b

2

= d12 + d22 + …+ d m2 .

Esta es la razón del nombre del método de los mínimos cuadrados. Para todo vector  x , el vector  Ax pertenece al subespacio S  generado por las columnas de  A ; además, el error  Ax − b es la distancia de b a  Ax

. Entonces, buscar la mejor solución  x * del sistema con el método

de los mínimos cuadrados, equivale a encontrar el vector x * , tal que la distancia de  Ax * a b sea la menor posible. De todos los vectores  Ax de S , el que minimiza  Ax − b es el vector proyección de b sobre S  , es decir el vector  A( At A)−1 At b , el vector  x * lo obtendremos de resolver:  Ax

= A( At A) −1 At  b .

Multiplicando la igualdad anterior por  At  queda: −1

 At Ax = ( At A)( At A) At b = At b

=   At b ,

Es decir x * , es la solución del sistema lineal compatible y determinado: t

 A Ax

= At b

(Nota: El sistema anterior es compatible y determinado ya que la matriz t 

 A A

es una matriz cuadrada de orden n, regular).

La solución del sistema anterior, al ser  A de rango máximo, es  x

170

*

= ( At A)

−1

A b, t 

que nos da la ”solución óptima” del sistema  Ax = b ,

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

en el sentido de mínimos cuadrados.

NOTA: Si

 A ∈ M m×n

tiene columnas ortonormales, la solución del

sistema  Ax = b por el método de los mínimos cuadrados es  x * = At  b , al ser  At  A = I 

6. Ajuste de datos con el método de mínimos cuadrados 6.1 Recta de ajuste de datos en el plano. Supongamos que partimos de una colección de datos

( xi , yi ) ,

i = 1, 2,…, m , que nos proporcionan un conjunto de puntos en el plano.

El

objetivo es hallar una función lineal  y = f ( x) , que represente lo mejor posible dichos valores. Geométricamente, significa que la gráfica de la función  y = f ( x) debe aproximarse lo más posible a la colección de puntos. El problema será determinar los valores de a y b tales que la recta  y = f ( x) = a + bx , denominada recta de ajuste, se adapte lo mejor posible

a nuestros datos. Sustituyendo ( xi , yi ) en la anterior igualdad se obtiene:  yi

= a + bxi , ∀i = 1, 2,…, m.

Salvo en el caso de que los datos estén sobre una recta del plano, se obtiene un sistema sobredeterminado incompatible que se puede expresar matricialmente: ⎛  y ⎜ 1 ⎜ ⎜  y ⎜ 2 ⎜ ⎜ # ⎜ ⎜ ⎜  ym ⎝

⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠

1 x1 ⎞⎟ ⎟ 1 x2 ⎟⎟ ⎛ a ⎞ = ⎟ ⎜ ⎟ ⇔  y = Ax ⇔ Ax = y # ⎟⎟ ⎝ b ⎠ ⎟ 1 x4 ⎟⎠ ⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜# ⎜ ⎜ ⎜ ⎝

M ATEMÁTICAS I

171

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

La solución que minimiza el error en términos de mínimos cuadrados es la solución del sistema  At Ax = At  y , que es: x * = ( At A)−1 At  y

NOTA: ( At  A) es invertible siempre que las columnas de

 A

sean

linealmente independientes, que, en este caso, equivale a decir que los valores  xi no sean todos iguales, es decir, que los puntos ( xi , yi ) no estén todos en una recta vertical.

6.2 Ajuste de datos en

\

n +1

por una función lineal.

Cuando los datos tienen más de dos componentes, se obtienen sistemas con más de dos incógnitas por lo general sobredeterminados. Supongamos que tenemos los datos:

( xk1 , xk 2, …, xkn ; yk ) , 

k = 1, 2, …, m,

m > n+1

y se quieren ajustar por la relación lineal  y = s0 + s1 x1 + " + sn xn . Se obtiene entonces el sistema:  yk

= s0 + s1 xk1 + " + sn xkn ,

k

= 1, 2,…, m.

Matricialmente se expresa como: ⎛  y ⎜ 1 ⎜ ⎜  y ⎜ 2 ⎜ ⎜ # ⎜ ⎜ ⎜  ym ⎝

⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠

=

1 1

⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜" ⎜ ⎜ ⎜ ⎝

1

x11

"

x21

"

"

"

xm1

"

⎞⎛s ⎟⎜ 0 ⎟⎜ x2 n ⎟⎟ ⎜⎜ s1 ⎟⎜ " ⎟⎟ ⎜⎜ # ⎟⎜ xmn ⎟⎠ ⎜⎝ sn

x1n

⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠

de forma abreviada  y = As ≡ As = y . Si rang ( A) = n + 1 , estamos ante un problema que se puede resolver con el método de los mínimos cuadrados, siendo la solución óptima la −1

solución del sistema  At As = At  y, que es s * = ( At A) At  y .

6.3 Otras funciones de ajuste.

172

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

En algunas ocasiones hay que recurrir a otras funciones, como las polinómicas o las exponenciales, para que la curva  y = f ( x) sea la que mejor se adapte a un conjunto de datos ( xi , yi ) . Así, por ejemplo, si el ajuste se realiza por una función polinómica  y = f ( x) = c0

+ c1 x + c2 x2 + " + cn xn ,

al sustituir los datos ( xi , yi ) en la igualdad anterior se obtiene el sistema:  yi

= c0 + c1 xi + c2 xi2 + " + cn xin ,

k

= 1, 2,…, m.

Matricialmente se expresa como: ⎛  y ⎞ ⎜ 1 ⎟ ⎜ ⎟ ⎜  y ⎟ ⎜ 2⎟ ⎜ ⎟ ⎜ # ⎟ ⎜ ⎟ ⎜ ⎟ ⎜  ym ⎟ ⎝ ⎠

=

⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜" ⎜ ⎜ ⎜ ⎝

1  x1 1  x2

x12

"

"

x22

1  xm xm2

" "

"

x1n ⎞⎟ ⎛⎜ c0 ⎞⎟

⎟⎜ ⎟ x2 ⎟⎟ ⎜⎜ c1 ⎟⎟ ⎟⎜ ⎟ " ⎟⎟ ⎜⎜ # ⎟⎟ ⎟⎜ ⎟ xmn ⎟⎠ ⎜⎝ cn ⎟⎠ n

⇔  y = Ac ⇔

Ac

=

y

siendo la solución óptima por el método de mínimos cuadrados la *

−1

solución del sistema  At Ac = At  y, que es c = ( At A) At  y .

M ATEMÁTICAS I

173

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

PROBLEMAS 1. Dado el espacio vectorial



de los polinomios de grado menor o

igual que 1 y el producto escalar: 1

 p1 ( x) • p 2 ( x) =

∫ p ( x) p ( x)dx . 1

2

Calcular la matriz asociada al

0

producto escalar respecto de la base  B = {1, x} SOLUCIÓN: Un producto escalar es un caso particular de forma bilineal simétrica, por lo tanto existe una matriz simétrica  A, asociada al producto escalar, respecto de cualquier base  B = {u , v } de V  . Dicha matriz vendrá dada

⎛u Du u D v ⎞ por: ⎜ ⎟. u v v v D D ⎝ ⎠ En este caso particular tenemos que: u = 1 y que v = x . Tal y como se ha definido el producto escalar, lo que sabemos es que: 1

1

0

0

1 D 1 = ∫ 1.1dx = ∫ dx = 1 1

1

0

0

1 D x = ∫ 1. xdx = ∫ xdx = 1/ 2 1

 x D x =

1

∫ x.xdx = ∫ x dx = 1/3 2

0

0

Luego, la matriz asociada al producto escalar en la base {1, x} es:

⎛ 1 1/ 2 ⎞ ⎜1/ 2 1/3 ⎟ ⎝ ⎠ 2. De un producto escalar definido en

174

\

2

respecto de la base

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

 B = {u , v } , se sabe que:

i) u D u

=2

ii ) u D (3u + v ) = 5 iii ) v D v

= 5(u D u )

a) Calcular la matriz asociada al producto escalar. b) Calcular (2, 3) D (1, 4) SOLUCIÓN: a)

⎛u Du ⎝u Dv

u Dv ⎞

 A = ⎜



v Dv ⎠

Tenemos que: u Du

=2

u D (3u + v ) v Dv

= 5 ⇒ 3(u D u ) + u D v = 5 ⇒ 6 + u D v = 5 ⇒ u D v = −1

= 5(u D u ) = 10

⎛ 2 −1⎞ La matriz asociada al producto escalar es:  A = ⎜ ⎟ ⎝ −1 10 ⎠ b)

⎛1⎞ ⎛ 2 −1⎞⎛ 1 ⎞ (2, 3) D (1, 4) = ( 2, 3)  A ⎜ ⎟ = ( 2, 3 ) ⎜ ⎟⎜ 4 ⎟ = 113 4 1 10 − ⎝ ⎠ ⎝ ⎠⎝ ⎠ 3. Sea

 E 

un espacio vectorial euclídeo de dimensión

subespacio vectorial de ortogonal de

 E ,





n

y



un

, el subespacio complemento

U  , calcular: ⊥

a)

dim(U ∩ U  

b)

dim(U

)

+ U  ⊥ )

SOLUCIÓN:

M ATEMÁTICAS I

175

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

a) Sabemos que la suma de U  y U ⊥ es directa, por tanto U ∩ U ⊥ = {0} con lo cual dim(U ∩ U  ⊥ ) = 0. b) Además de ser suma directa se tiene que, U ⊕ U ⊥ = V , directamente se obtiene que dim(U + U ⊥ ) = dim(V ) = n.

4.

Sea

F

ortonormal de

= {( x, y, z ) ∈ \3 / 2 x + y − z = 0} , calcular

una

base

F .

SOLUCIÓN: Primero hallaremos una base de F , si es ortogonal, bastaría con normalizar y el problema estaría resuelto, sino aplicaremos el método de Gram-Schmidt para transformarla en otra base de F  que sea ortonormal. F

= {( x, y, z ) ∈ \3 / 2 x + y − z = 0} = {( x, y, z) ∈ \3 / z = 2 x + y} = = {( x, y, 2 x + y) ∈ \3 / x, y ∈ \} =< (1, 0, 2), (0,1,1) >

Una base para F 

⎛1⎞ ⎛0⎞ es  B1 = {⎜⎜ 0 ⎟⎟ , ⎜⎜ 1 ⎟⎟} = {u1, u2 } que sus vectores no son ⎜ 2⎟ ⎜1⎟ ⎝ ⎠⎝ ⎠

ortogonales ya que u1t  ⋅ u2

⎛ 0⎞ = (1, 0, 2) ⎜⎜ 1 ⎟⎟ = 2 ≠ 0 ⎜1⎟ ⎝ ⎠

Aplicamos el método de Gram-Schmidt

⎛1⎞ ⎜ ⎟ v1 = u1 = 0 ⎜ ⎟ ⎜ 2⎟ ⎝ ⎠

176

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

⎛ 0 ⎞ ⎛ 1 ⎞ ⎛ − 52 ⎞ u ⋅v ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ v2 = u2 − 1 1 v1 = 1 − 52 0 = ⎜ 1 ⎟ ⎜ ⎟ ⎜ ⎟ v1 ⋅v1 ⎜1⎟ ⎜ 2⎟ ⎜ 1 ⎟ ⎝ ⎠ ⎝ ⎠ ⎝ 5 ⎠ t 



⎛ 1 ⎞ ⎛ − 25 ⎞ ⎜ ⎟⎜ ⎟  B2 = { 0 , ⎜ 1 ⎟} es una base ortogonal de ⎜ ⎟ ⎜ 2⎟ ⎜ 1 ⎟ ⎝ ⎠⎝ 5 ⎠

vectores de  B2 se obtiene

⎛ ⎜ ⎜  B3 = {⎜ ⎜ ⎜ ⎝

⎛ 1 ⎞ ⎜ 5⎟ ⎜ ⎟ 0 ⎟ , ⎜⎜ 2 ⎟ ⎜ 5 ⎟⎠ ⎜⎜ ⎝

−2 ⎞⎟ 30 ⎟ 5 ⎟} 30 ⎟⎟ 1 ⎟ 30 ⎟⎠



y normalizando los

que es una base ortonormal

de F .

5. Sea

F  ⊂

\

n

,



ortonormal de ortonormal de

\

 B1

F  n

una base ortonormal de

, demostrar que

F , B2

 B = B1 ∪ B2

una base

es una base

.

SOLUCIÓN: Sabemos que F ∩ F ⊥ = {0}, como el vector nulo no pertenece a ninguna base, los vectores de  B1 son linealmente independientes con los de  B2 . Si la dim(V ) = k   entonces dim(V ⊥ ) = n − k ,  luego una base de F  unida con una base de F ⊥ son k + (n − k ) = n vectores linealmente independientes de \ n , por tanto forman una base de

\

n

.

Por otra parte los vectores de  B1 son ortonormales, es decir, todos tienen norma igual a 1 y son ortogonales entre si, lo mismo ocurre con los vectores de  B2 y los vectores de  B1 respecto de los de  B2 también son ortogonales ya que los de  B1 son vectores de F  y los de  B2 lo son de

M ATEMÁTICAS I

177

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A. ⊥



.

En definitiva los vectores de  B están normalizados y son todos ortogonales entre si, forman una base ortonormal de

6. Dados los subespacios de

\

 x − y − 3 z = 0 ⎫ ⎧ = ⎨( x, y, z ) ∈ \3 / ⎬y 0  y z − = ⎩ ⎭

F2

= {( x, y, z ) ∈ \3 / x + y + z = 0} ⊥

dim( F1

n

.

3

F1

Calcular

\

∩ F2 )

SOLUCIÓN:

⎛ 1 −1 −3 ⎞ ⎟ = 3 − 2 = 1; 0 1 − 1 ⎝ ⎠

dim( F1 ) = 3 − rango ⎜

dim( F2 ) = 3 − rango (1

1 1) = 3 − 1 = 2;

 BF 1

= {(4, 1,1)} = {w1}

 BF 2

= {( −1,1, 0), (−1, 0,1)} = {v1 , v2}

F1⊥

= {x ∈ \3 / x t ·w1 = 0} = {( x, y, z) ∈ \3 / 4 x + y + z = 0}

 BF ⊥

= {(1, 0, −4), (0,1, −1)} = {u1 , u2}

1

Sabemos que

178

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

dim( F1⊥ ∩ F2 )

= dim( F1⊥ ) + dim( F2 ) − dim( F1⊥ + F2  ) = 2 + 2 − rango(u1 u2 v1 v2 ) = ⎛ 1 0 −1 −1⎞ = 4 − rango ⎜⎜ 0 1 1 0 ⎟⎟ = ⎜ −4 −1 0 1 ⎟ ⎝ ⎠ ⎛ 1 0 −1 −1 ⎞ = 4 − rango ⎜⎜ 0 1 1 0 ⎟⎟ = 4 − 3 = 1 ⎜ 0 0 −3 −3 ⎟ ⎝ ⎠ = 4 −3 =1

7. Un producto escalar en  B′

= {(1, 0,1) , ( 2,1, 0 ) , ( −1, 0,1)}

\

3

con respecto a la base

tiene

por

⎛ 2 1 2⎞ ⎜ ⎟ G = 1 3 1 , calcular la norma del vector ⎜ ⎟ ⎜ 2 1 4⎟ ⎝ ⎠

matriz v

asociada

que en la base

canónica tiene por coordenadas ( 4,1, −1) SOLUCIÓN: Lo primero que tenemos que hacer es expresar el vector v respecto a la base  B′ . Sabemos que la relación entre las coordenadas de un vector respecto de ambas bases es  x = Px ´ Sabemos que la matriz P cambio de base de  B ' a la base canónica es:

⎛ 4 ⎞ ⎛ 1 2 − 1⎞ ⎛⎜⎜ x′ ⎞⎟⎟ ⎛ 1 2 −1⎞ ⎜ 1 ⎟ = ⎜ 0 1 0 ⎟ ⎜  y′ ⎟ ⎜ ⎟ P = 0 1 0 , por lo tanto, se cumple que: ⎜ ⎟ ⎜ ⎟ ⎜⎜ ⎟⎟ ⎜ ⎟ ⎜ −1⎟ ⎜ 1 0 1 ⎟ ⎜⎜  z′ ⎟⎟ ⎜1 0 1 ⎟ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠⎝ ⎠ siendo ⎛⎜⎝ x′ , y′ , z ′ ⎞⎟⎠ las coordenadas de v respecto a la base  B ' . Por lo tanto:

M ATEMÁTICAS I

179

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A. −1

⎛ ′⎞ ⎜ x ⎟ ⎜ ⎟ ⎜ ′⎟ ⎜  y ⎟ ⎜ ⎟ ⎜⎜  z′ ⎟⎟ ⎝ ⎠

⎛ 1 2 −1 ⎞ ⎛ 4 ⎞ = ⎜⎜ 0 1 0 ⎟⎟ ⎜⎜ 1 ⎟⎟ = ⎜ 1 0 1 ⎟ ⎜ −1 ⎟ ⎝ ⎠ ⎝ ⎠

⎛ 12 −1 12 ⎞ ⎛ 4 ⎞ ⎛ 12 ⎞ ⎜ 0 1 0⎟⎜ 1 ⎟ = ⎜ 1 ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎜ − 1 1 1 ⎟ ⎜ −1⎟ ⎜ − 3 ⎟ ⎠ ⎝ 2⎠ ⎝ 2 2 ⎠⎝

Una vez que tenemos expresado el vector v respecto de la base  B , su norma será: v

=

v Dv

8. Si W

=

v t Gv

= ( 12

⎛ 12 ⎞ ⎛ 2 1 2 ⎞ ⎛ 12 ⎞ 1 − 23 ) ⎜⎜ 1 3 1 ⎟⎟ ⎜⎜ 1 ⎟⎟ = ( −1 2 −4 ) ⎜⎜ 1 ⎟⎟ = ⎜ 2 1 4 ⎟⎜ − 3 ⎟ ⎜− 3⎟ ⎝ ⎠⎝ 2 ⎠ ⎝ 2⎠

es un espacio vectorial de dimensión



= { x ∈V :

Ax

=0

es un subespacio vectorial de

V  .

n=5

y

Justificar

cuales de las siguientes afirmaciones son verdaderas y cuales falsas: a)



es el núcleo de la aplicación lineal

 f ( x ) = Ax

.

b)



dim(W 

 f : V

→ V  definida por

) coincide con el rango de  A .

c) Todas las filas de la matriz  A pertenecen a W  ⊥ d) Si

dim(W ) = 2 , el rango de  A

es 2.

SOLUCIÓN: Sabemos que: i)

Al estar W  definido como solución de un sistema de ecuaciones

homogéneo, dim(W ) = dim(V ) − rango( A) = n − rango( A) = 5 − rango( A) ii ) dim(W ) + dim(W ⊥ ) = dim(V ) 

a) Verdadera Para verlo, basta considerar la definición de núcleo de una aplicación lineal:

180

M ATEMÁTICAS I

15 2

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

Si tenemos la aplicación lineal:  f : V → V  definida por  f ( x ) = Ax , por definición Ker ( f ) = x ∈ V

de

núcleo

/ f (x ) = 0 =

x ∈V

se

/

Ax

tiene

que:

= 0} = W .  

b) Verdadera Tenemos que: dim(W ) + dim(W ⊥ ) = dim(V )

⇒ dim(W ) + dim(W ⊥ ) = n ⇒ ⇒ dim(W ⊥ ) = n − dim(W ) = n − ( n − rango( A)) = rango( A)

c) Verdadera Sabemos que para cada w ∈ W  , entonces:  Aw = 0 , por lo tanto, al multiplicar cada fila de la matriz  A por w , el resultado es 0 . En realidad esto es equivalente a decir que cada vector fila de la matriz  A multiplicado por el vector w , usando el producto escalar usual, nos da 0, es decir que cada vector fila de la matriz  A es ortogonal a todos los vectores de W  , por lo tanto cada vector fila de la matriz  A pertenece a W 



.

d) Falsa El subespacio vectorial W  se puede ver como el núcleo de la aplicación  f : V

→ V  definida por

 f ( x ) = Ax .

Por la fórmula de las dimensiones

sabemos que: dim(V ) = dim( Ker ( f )) + dim( Im( f  )) .

y también sabemos que dim( Im( f )) = rango( A).

Luego, como dim(V ) = 5 dim( Im( f )) = 5 − 2 = 3

M ATEMÁTICAS I

y

dim(W ) = dim( Ker ( f  )) = 2 ,

entonces

luego rango( A) = 3.

181

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

9. Sea de



un espacio vectorial euclídeo y

V  , U ⊥



un subespacio vectorial

el subespacio complemento ortogonal de

U  .

Justificar

cuales de las siguientes afirmaciones son verdaderas y cuales falsas: ⊥

a)

dim(U ) = dim(U  

b)

dim(U ∩ U  

c)

dim(U ∩ U

)



)=0



) = dim(V ) 

d) (U ⊥ )⊥ = {0 SOLUCIÓN: a) Falso Veamos el siguiente contraejemplo. Consideramos V  = \3 , espacio vectorial euclídeo con el producto escalar

( x1 , x2 , x3 ) ⋅ ( y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3 ,

usual, U  = U



y

el

subespacio

(1, 0,1) . Veamos cuál es su complemento ortogonal:

= {( x, y, z ) ∈ \3 : ( x, y, z ) ⋅ (1, 0, 1) = 0, con ⋅ el producto escalar usual} =

= {( x, y, z ) ∈ \3 : x + y = 0} = {( x, y, z ) ∈ \3 : x = − y} = (1, −1, 0 ) , ( 0, 0,1) dim(U ) = 1

y sin embargo dim(U ⊥ ) = 2 ≠ 1

b) Verdadera Una de las propiedades del subespacio complemento ortogonal nos dice U ⊕U ⊥

que:



U ∩ U 

= V 

de

donde

= {0 , o equivalentemente:

se

deduce

inmediatamente ⊥⎞ ⎟ ⎠

dim ⎛⎜⎝U ∩ U  

que

=0

c) Falsa

182

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

Sabemos que U ∩ U ⊥ = {0 , por lo tanto la dimensión de esta intersección nunca puede ser igual a la dimensión de de la hipótesis de que el espacio vectorial



porque se parte



es no nulo.



sea distinto del subespacio

d) Falsa. (U ⊥ ) ⊥ = U  , por lo tanto, siempre que nulo, (U ⊥ ) ⊥ ≠ {0} . v

vector de

que mejor se aproxima a



= (1,1, 0 ) ∉ F  , siendo

F  =

10. El vector

( 0,1,1) , (1, 3, −1) . Calcular el v

en el sentido de mínimos

cuadrados. SOLUCIÓN: El vector que mejor se aproxima a v en el sentido de mínimos cuadrados es su proyección ortogonal sobre F , dicha proyección ortogonal viene −1

dada por w = A( At A) At v siendo  A la matriz cuyas columnas son los vectores de la base que genera al subespacio F  .  NOTA :

Una condición necesaria para que exista la matriz ( At  A)

−1

es

que los vectores que definen las columnas de la matriz  A sean linealmente independientes, es decir, no basta con que generen a F  , es necesario que sean base de F  . −1

w = A( At A) At v −1

⎛0 1 ⎞⎡ ⎛ 0 1 ⎞⎤ ⎛1⎞ 0 1 1 0 1 1 ⎛ ⎞ ⎛ ⎞ ⎢ ⎥ ⎜1 3 ⎟ ⎜1⎟ = = ⎜⎜ 1 3 ⎟⎟ ⎢⎜ ⎟ ⎜ ⎟ ⎥ ⎜ ⎟ ⎜ ⎟ ⎜ 1 −1⎟ ⎢⎝ 1 3 −1⎠ ⎜ 1 −1⎟ ⎥ ⎝ 1 3 −1⎠ ⎜ 0 ⎟ ⎝ ⎠⎣ ⎝ ⎠⎦ ⎝ ⎠

M ATEMÁTICAS I

183

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

⎛ 0 1 ⎞ 11 ⎛1⎞ 1 − 0 1 1 ⎛ ⎞ ⎛ ⎞ ⎜1⎟ = = ⎜⎜ 1 3 ⎟⎟ ⎜ 181 1 9 ⎟⎜ ⎟ ⎜ ⎟ ⎜ 1 −1⎟ ⎝ − 9 9 ⎠ ⎝ 1 3 −1⎠ ⎜ 0 ⎟ ⎝ ⎠ ⎝ ⎠ ⎛0 1 ⎞ 1 ⎛− = ⎜⎜ 1 3 ⎟⎟ ⎜ 1 9 ⎜ 1 −1⎟ ⎝ 9 ⎝ ⎠

5 18 2 9

⎛1⎞ ⎞⎜ ⎟ 1 = − ⎟⎠ ⎜⎜ ⎟⎟ ⎝ 0⎠ 13 18 2 9

⎛ 1 ⎞ ⎛0 1 ⎞ 1 ⎜ 3 ⎟ ⎛ ⎞ ⎜ ⎟ = ⎜⎜ 1 3 ⎟⎟ ⎜ 61 ⎟ = ⎜ 7 ⎟ ⎜ 1 −1⎟ ⎝ 3 ⎠ ⎜ 6 ⎟ ⎝ ⎠ ⎜⎜ − 1 ⎟⎟ ⎝ 6⎠ Otra forma de enfocar y resolver el problema es sabiendo que el vector v

= (1,1, 0 ) ∉ F  , siendo

F

=< ( 0,1,1) , (1, 3, −1) >=< u1, u2 > , quiere decir

que el sistema:

⎛ 0⎞ ⎛ 1 ⎞ ⎛ 1⎞ ⎛ 0 1 ⎞ ⎛ ⎞ ⎛ 1⎞ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ α 1 ⎟ ⎜ ⎟ α1 ⎜ 1 ⎟ + α 2 ⎜ 3 ⎟ = ⎜ 1 ⎟ ⇒ ⎜ 1 3 ⎟ ⎜ ⎟ = ⎜ 1 ⎟ ⎜ ⎟ ⎜1⎟ ⎜ −1⎟ ⎜ 0 ⎟ ⎜ 1 −1⎟ ⎜⎝α 2 ⎟⎠ ⎜ 0 ⎟ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ es un sistema incompatible. Se plantea y resuelve el sistema  A Aα  = A v , t



obteniéndose

⎛ α  ⎞ ⎜ 1⎟ ⎜ ⎟ ⎜⎜ α  ⎟⎟ ⎝ 2⎠

⎛ 16 ⎞ = ⎜ 1 ⎟ que son las coordenadas de la ⎝3⎠

proyección ortogonal de v sobre F , el vector proyección de v sobre F  es por tanto  Aα  = (

⎛ α  ⎞ ⎜ 1⎟ u1 u2 ⎜ ⎟ ⎜⎜ α  ⎟⎟ ⎝ 2⎠

)

⎛ 0 1 ⎞ 1 ⎛ 13 ⎞ ⎛ ⎞ = ⎜⎜ 1 3 ⎟⎟ ⎜ 16 ⎟ = ⎜⎜ 76 ⎟⎟ . ⎜ 1 −1⎟ ⎝ 3 ⎠ ⎜ − 1 ⎟ ⎝ ⎠ ⎝ 6⎠

11. Sea el espacio vectorial

184

\

3

, y el subespacio

W  =

(1, 0,1) , ( 0,1,1) .

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

Si

u

= ( 4, 3, 0 ) ∈ \3 ,

aproxima a

u ∉ W  .

Calcular el vector de



que mejor se

en el sentido de mínimos cuadrados.

u

SOLUCIÓN: El vector de



que mejor se aproxima a u en el sentido de mínimos

cuadrados es su proyección ortogonal sobre

W  .

Dicha proyección

ortogonal viene dada por la siguiente expresión:  x

= A( At A)

−1

At u ,

siendo  A la matriz cuyas columnas son las

coordenadas de un sistema generador, linealmente independiente de

W  .

Por lo tanto, se tiene que: −1

 x

= A( At A)

−1



Au

⎛ 1 0⎞ ⎡ ⎛ 1 0 ⎞⎤ ⎛4⎞ 1 0 1 1 0 1 ⎛ ⎞ ⎛ ⎞ ⎜ 0 1 ⎟⎥ ⎜3⎟ = = ⎜⎜ 0 1 ⎟⎟ ⎢⎢⎜ ⎟ ⎜ ⎟ ⎥ ⎜ ⎟ ⎜ ⎟ ⎜ 1 1 ⎟ ⎢⎝ 0 1 1 ⎠ ⎜ 1 1 ⎟ ⎥ ⎝ 0 1 1 ⎠ ⎜ 0 ⎟ ⎝ ⎠⎣ ⎝ ⎠⎦ ⎝ ⎠ ⎛1 0⎞ ⎛ 4⎞ −1 2 1 1 0 1 ⎛ ⎞ ⎛ ⎞ ⎜ 3⎟ = = ⎜⎜ 0 1 ⎟⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ 1 1 ⎟ ⎝ 1 2 ⎠ ⎝ 0 1 1⎠ ⎜ 0 ⎟ ⎝ ⎠ ⎝ ⎠ ⎛1 0⎞ 2 ⎛ = ⎜⎜ 0 1 ⎟⎟ ⎜ 3 1 ⎜1 1⎟⎝− 3 ⎝ ⎠  x + y

12. Dado el sistema: − x + y 2 x + 3 y

⎛5⎞ ⎛ 4⎞ ⎜ 3 ⎟ 1 − 3 ⎞⎛ 1 0 1⎞ ⎜ ⎟ ⎜ 2 ⎟ ⎟⎜ 3⎟ = ⎜ 3 ⎟ 2 ⎟⎜ 0 1 1 ⎠⎜ 0⎟ ⎜ ⎟ 3 ⎠⎝ ⎝ ⎠ ⎜7⎟ ⎜ ⎟ ⎝ 3⎠ = 0⎫ ⎪ = 1 ⎬ , calcular la mejor solución por = 1 ⎪⎭

mínimos cuadrados. SOLUCIÓN:

M ATEMÁTICAS I

185

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

Si llamamos  A a la matriz de los coeficientes y

b

a la matriz de los

términos independientes del sistema anterior, como las columnas de  A son linealmente independientes, sabemos que la mejor solución por mínimos cuadrados viene dada por: −1

 x

= ( At A)

−1



Ab

⎡ ⎛ 1 1 ⎞⎤ ⎛0⎞ 1 1 2 − ⎛1 −1 2 ⎞ ⎜ ⎛ ⎞ ⎢ ⎥ ⎜1⎟ = = ⎢⎜ −1 1 ⎟⎟ ⎥ ⎜ ⎟ ⎟ ⎜ 1 1 3⎠⎜ 1 1 3 ⎠ ⎜⎜ ⎟⎟ ⎝ ⎝ ⎟ ⎢⎣ ⎝ 2 3 ⎠ ⎥⎦ ⎝1⎠

⎛ 0⎞ −1 ⎛ 6 6 ⎞ ⎛1 −1 2 ⎞ ⎜ ⎟ =⎜ ⎟ ⎜ ⎟ 1 = ⎝ 6 11⎠ ⎝1 1 3 ⎠ ⎜⎜ 1 ⎟⎟ ⎝ ⎠

⎛0⎞ 1 − 1 1 2 − ⎛ 11 ⎞⎛ ⎞ ⎜ ⎟ 30 5 ⎜ − 1 1 ⎟⎜1 1 3 ⎟ ⎜ 1 ⎟ = ⎠⎜1⎟ ⎝ 5 5 ⎠⎝ ⎝ ⎠

⎛ − 13 ⎞ ⎜ 30 ⎟ ⎜ 3⎟ ⎝ 5⎠

Luego, la mejor solución por mínimos cuadrados es:  x = − 13 30  y

e

= 3. 5

13. Utilizando el método de los mínimos cuadrados, calcular una

⎧2 x + y = 3 solución aproximada del sistema de ecuaciones ⎪⎨ x − 2 y = 0 ⎪ ⎩ 3 x − y = −2 SOLUCIÓN: La matriz de los coeficientes del sistema es

⎛2 1 ⎞ ⎜ ⎟ ,  A = 1 −2 ⎜ ⎟ ⎜ 3 −1 ⎟ ⎝ ⎠

rango( A) = 2.

⎛3⎞ La matriz de los términos independientes es b = ⎜⎜ 0 ⎟⎟ . ⎜ −2 ⎟ ⎝ ⎠

186

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

El sistema no tiene solución ya que

⎛2 1 3 ⎞ ⎜ ⎟ ∗ rango( A ) = rango( A | b) = rango 1 −2 0 = 3 ≠ 2 = rango( A) ⎜ ⎟ ⎜ 3 −1 −2 ⎟ ⎝ ⎠ Tenemos el sistema:

 Ax

= b , siendo

⎛ x ⎞ ⎟. ⎝  y ⎠

 x = ⎜

La solución óptima del sistema en el sentido de los mínimos cuadrados, es la solución del sistema

t

 A Ax

= At b como la matriz

 A

es de rango

−1

máximo, viene dada por:  x * = ( At A) At  b Es decir: −1

⎛ ⎛2 1 ⎞⎞ ⎛3⎞ 2 1 3 2 1 3 ⎛ ⎞ ⎛ ⎞ ⎜ ⎟ ⎜ 1 −2 ⎟ ⎜ 0 ⎟=  x * = ⎜ ⎜ ⎟ ⎜ ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎝ 1 −2 −1 ⎠ ⎜⎝ 3 −1 ⎟⎠ ⎟ ⎝ 1 −2 −1⎠ ⎜⎝ −2 ⎟⎠ ⎝ ⎠ ⎛2 ⎜ 25 ⎜1 ⎝ 25

1 ⎞ 25 ⎟ ⎛ 2 14 ⎟ ⎜ 1 75 ⎠ ⎝

⎛3⎞ 1 3 ⎞⎜ ⎟ 0 = −2 −1⎟⎠ ⎜⎜ ⎟⎟ ⎝ −2 ⎠  x1 + x2

14. Dado el sistema −3 x1 + x2 − x1 + x2

⎛1⎞ ⎜5⎟ ⎜ 14 ⎟ ⎜ ⎟ ⎝ 15 ⎠ = 0⎫ ⎪ = −1⎬ calcular la solución por = 1 ⎪⎭

mínimos cuadrados. SOLUCIÓN:

⎛ 1 1⎞ La matriz de coeficientes del sistema es  A = ⎜⎜ −3 1⎟⎟ , ⎜ −1 1 ⎟ ⎝ ⎠

M ATEMÁTICAS I

rango( A) = 2.

187

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

⎛1 1 0⎞ La matriz ampliada es  A∗ = ⎜⎜ −3 1 −1⎟⎟ , ⎜ −1 1 1 ⎟ ⎝ ⎠



rango( A

) = 3,

por tanto el sistema es incompatible, luego no tiene solución exacta. Se plantea el nuevo sistema  At Ax = At  b, siendo  x =

⎛ x ⎞ ⎜ 1⎟ ⎜ ⎟ ⎜⎜ x ⎟⎟ ⎝ 2⎠

⎛0⎞ y b = ⎜⎜ -1⎟⎟ , ⎜1⎟ ⎝ ⎠

para encontrar solución aproximada al sistema por el método de mínimos cuadrados, el nuevo sistema a resolver es:

⎛ 1 1⎞ ⎛ ⎞ ⎛0⎞  x − − 1 3 1 ⎛1 −3 −1⎞ ⎜ ⎛ ⎞ ⎜ ⎟ ⎟ 1 ⎜ ⎟ ⎜1 1 1 ⎟ ⎜ −3 1⎟ ⎜⎜⎜ x ⎟⎟⎟ = ⎜1 1 1 ⎟ ⎜ −1⎟ ⎝ ⎠ ⎜ −1 1 ⎟ ⎝ 2 ⎠ ⎝ ⎠⎜ 1 ⎟ ⎝ ⎠ ⎝ ⎠ 11 x1 − 3 x2 = 2 ⎫ 1 1 ⎬ cuya solución exacta es  x1 = 4 , x2 = 4 . −3 x1 + 3 x2 = 0 ⎭

15. Calcular la recta que mejor se ajusta en el sentido de mínimos cuadrados

al

conjunto

de

puntos

siguiente

{(−2, 2), ( −1, 0), (0, −1), (1, 4)}

SOLUCIÓN: Buscamos la recta,

 y = mx + n,

que mejor se ajuste al conjunto de

puntos, primero se intentará encontrar una recta que contenga a los cuatro puntos, si no existe, se buscará la que menor error cuadrático cometa. (−2, 2) → 2 (−1, 0) → 0 (0, −1) →−1 (1, 4) → 4

188

= −2m + n⎫ −2m + n = −1m + n⎪⎪ −m + n ⎬≡ n = 0m + n ⎪ m+n = 1m + n⎪⎭

= 2⎫ = 0 ⎪⎪ ⎬; = −1⎪ = 4 ⎪⎭

M ATEMÁTICAS I

 Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

⎛ −2 ⎜ −1 ∗  A = ⎜ ⎜0 ⎜⎜ ⎝1

1 1 1 1

2⎞ 0 ⎟⎟ , si hallamos una forma escalonada equivalente de  A∗ −1⎟ ⎟ 4 ⎟⎠

⎛ −2 ⎜0 obtenemos ⎜ ⎜0 ⎜⎜ ⎝0 ∗

rango( A

1 2⎞ 1 −1 ⎟⎟ , directamente se observa que rango( A) = 2 y 0 − 12 ⎟ ⎟ 0 0 ⎟⎠

) = 3 ⇒ Sistema incompatible, no hay una recta que pase por

los cuatro puntos. Se plantea el nuevo sistema

⎛ −2 ⎜ −1 Siendo  A = ⎜ ⎜0 ⎜⎜ ⎝1

 At Ax

= At b.

1⎞ ⎛2⎞ ⎜0⎟ 1⎟⎟ ⎛m⎞ , x = ⎜ ⎟ y b = ⎜ ⎟ y nos queda: ⎜ −1⎟ 1⎟ ⎝n⎠ ⎟ ⎜⎜ ⎟⎟ 1⎟⎠ ⎝4⎠

6m − 2 n = 0 ⎫ 3 1 ⎬ cuya solución exacta es m = 2 , n = 2 . −2m + 4n = 5⎭ La recta es por tanto  y = 1 x + 3 2 2

M ATEMÁTICAS I

189

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF