Gauss Seidel

December 17, 2023 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Gauss Seidel...

Description

INSTITUTO TECNOLÓGICO DE COSTA RICA ESCUELA DE INGENIERÍA ELECTRÓNICA LICENCIATURA EN INGENIERÍA ELECTRÓNICA CM-3201 MÉTODOS NUMÉRICOS Profesor: Ing. Marvin Hernández

GAUSS-SEIDEL, JACOBI, RELAJACIÓN Y CONVERGENCIA

I Semestre 2004

Métodos Iterativos para Sistemas de Ecuaciones Algebraicas Lineales Introducción Los métodos numéricos se dividen en dos categorías generales: métodos exactos y aproximados. Los primeros, como su nombre lo indica, buscan dar resultados exactos. No obstante, como están afectados por errores de redondeo, algunas veces dan resultados imprecisos. La magnitud del error de redondeo varía en cada sistema y depende de varios factores, tales como las dimensiones del sistema, su condición y el hecho de sí la matriz de coeficientes es dispersa o densa. Además, la precisión de la computadora afectará el error de redondeo. Se recomienda una estrategia de pivoteo en todo programa de computadora que realice métodos de eliminación exactos. Esa estrategia minimiza el error de redondeo y evita problemas como el de la división entre cero. Los algoritmos basados en la descomposición LU son los métodos que se eligen debido a su eficiencia y flexibilidad. La tabla 1 ofrece un resumen de las ventajas y desventajas en la solución de ecuaciones algebraicas lineales simultáneas. Dos métodos (el gráfico y la regla de Cramer) están limitados a pocas ecuaciones(< 3), de modo que tienen escasa utilidad para resolver problemas prácticos. Sin embargo, dichas técnicas son herramientas didácticas útiles para entender el comportamiento de los sistemas lineales en general. TABLA No. 1:

Comparación de las características de diversos métodos alternativos para encontrar soluciones de ecuaciones algebraicas lineales simultáneas

MÉTODO GRÁFICO

RANGO DE APLICACIÓN Limitado

COMPLEJIDAD DE LA PROGRAMACIÓN ---

Afectado por errores de redondeo

Limitado

---

---

Afectado por errores de redondeo

General

Moderada

---

Afectado por errores de redondeo

General

Moderada

Puede no converger si no es diagonalmente dominante

EXCELENTE

Apropiado solo para sistemas diagonalmente dominantes

FÁCIL

ESTABILIDAD ---

PRECISIÓN Pobre

Regla de Cramer

---

Eliminación de Gauss (con pivoteo parcial) Descomposición LU

Gauss_Seidel

COMENTARIOS Puede tomar más tiempo que el método numérico Excesiva complejidad de cálculo para más de tres ecuaciones

Método de eliminación preferido; permite el cálculo de la matriz inversa

Aunque los métodos de eliminación tienen gran utilidad, el uso de toda la matriz de los coeficientes puede ser limitante cuando se trate con sistemas dispersos muy grandes. Esto se debe a que gran parte de la memoria de la computadora se dedicaría a guardar ceros que no tienen significado. Para sistemas bandeados, hay técnicas para realizar métodos de eliminación sin tener que guardar todos los coeficientes de la matriz. La técnica aproximada por conocer como método de Gauss-Seidel, difiere de las técnicas exactas porque emplea un esquema iterativo para obtener, progresivamente, estimaciones más

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

2

cercanas a la solución. El efecto del error de redondeo es un punto discutible en el método de Gauss-Seidel, ya que se pueden continuar las iteraciones hasta que se obtenga la precisión deseada. Además, se pueden desarrollar versiones del método de Gauss-Seidel para utilizar de manera eficiente los requerimientos de almacenaje en computadora con sistemas dispersos. En consecuencia, la técnica de Gauss-Seidel es útil para grandes sistemas de ecuaciones, donde los requerimientos de almacenaje podrían llevar a problemas significativos con las técnicas exactas

Aplicaciones Las técnicas iterativas se emplean rara vez para resolver sistemas lineales de dimensión pequeña ya que el tiempo requerido para lograr una precisión suficiente excede al de las técnicas directas como el método de eliminación Gaussiana. Sin embargo, para sistemas grandes con un gran porcentaje de ceros, estas técnicas son suficientes en términos de almacenamiento en la computadora y del tiempo requerido. Los métodos de este tipo surgen frecuentemente en los sistemas con ecuaciones diferenciales, donde encontraríamos aplicaciones en todas las ramas de la ingeniería, así como en las Ciencias Sociales y la Economía. Estos métodos son útiles en la predicción del clima, donde el volumen de variables amerita el uso de extensas matrices.

Justificación Una forma de entender el uso de los métodos numéricos y su utilidad es precisamente comparándolos con los métodos directos, esta comparación se realiza en términos de operaciones realizadas, tales como sumas, restas, divisiones y multiplicaciones. Por tanto el entendimiento de esto conlleva a su uso práctico. Las siguientes tablas muestran las diferencias en cálculo de los métodos directos de Gauss y Gauss-Jordan. Tabla 2: Total de operaciones en el método de Eliminación de Gauss

N

Multiplicaciones/Divisiones

n

3



 3n 2  n / 3

Sumas / restas

 2n

3



 3n 2  5n / 6

3

17

11

10

430

375

50

44150

42875

100

343300

338250

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

3

Tabla 3: Total de operaciones en el método de Eliminación de Gauss-Jordan Multiplicaciones/Divisiones

n

n

3



 2n 2  n / 2

Sumas / restas

n

3



n /2

3

21

12

10

895

495

50

64975

62475

100

509950

499950

Tabla 4: Operaciones por iteración en los métodos Iterativos Multiplicaciones-Divisiones

n

 2n

2



1

Sumas / restas

 n n  1 

*por iteración

*por iteración

3

17

12

10

199

90

50

4999

2450

100

19999

9900

De la Tabla 4 podemos notar que n  50 los métodos iterativos empezarían a ser más efectivos que los métodos directos. Nótese, también que los cálculos en esta tabla corresponden a una iteración por tanto para que el método sea efectivo, dos aspectos deben ser tomados en consideración 1. La precisión requerida de los resultados 2. De la aproximación inicial que se escoja.

Marco Conceptual Jacobi, Gauss-Seidel, Relajación

Pagina de 32

4

Antes de considerar los métodos iterativos para resolver sistemas lineales, es necesario encontrar un método para medir cuantitativamente la distancia entre vectores, para poder determinar cuando la sucesión de vectores que resulta al usar una técnica iterativa converge a la solución. Norma vectorial: esta se define como la suma de las magnitudes de los componentes de un vector columna de dimensión n con componentes reales, esta definición en notación matemática se escribe como:

  





x1  x 2  

x3   .  .

x=





y la norma de x seria || x || =





n

i 1

xi2



1/ 2



 .   xn    Esta definición de norma es útil cuando se quiere saber la magnitud de las componentes de un vector. Pero cuando esta se aplica a los métodos numéricos es mejor utilizar el concepto de norma infinita, la cual es útil como criterio de paro para una aproximación. Esta se define como sigue: x   max x 1in i

Una técnica iterativa para resolver un sistema lineal Ax = b de n x n empieza con una aproximación inicial x(k) a la solución x, y genera una sucesión de vectores { x(k)}k = 0 hasta que se logre la aproximación requerida, que en términos de vectores se expresa como, { x(k)}k = . La mayoría de estas técnicas iterativas involucran un proceso que convierte el sistema Ax = b en un sistema equivalente de la forma x = Tx + b. Seleccionado un vector inicial x (0) la sucesión de vectores de solución aproximada se genera calculando. x(k) = T x(k - 1) + c

(1)

*

*el factor k solamente se utiliza para denotar el conteo de las iteraciones

Cabe destacar la similitud de esta ecuación con la x = g(x), que se utilizaba para el método iterativo del punto fijo. Dado esta similitud, posteriormente se analizará la convergencia de este método. Como se mencionó anteriormente estos métodos se aplican en los sistemas con gran cantidad de ceros, a la matriz resultante se le conoce como matriz esparcida.

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

5

Considere el circuito de la figura 1 como ejemplo de este tipo de matriz.

c

b

a

d

f

e

d

FIGURA 1: Circuito eléctrico con solución de matriz esparcida

31vb  10vc  0vd  0ve  6vf 2vb  8vc  3vd  3ve  0vf 0vb  vc  3vd  2ve  0vf 0vb  2vc  4vd  7ve  vf 12vb  0vc  15vd  0ve  47vf

 15 *V 0 0 0 0

Convirtiéndolo a la forma matricial se obtiene lo que se denomina una matriz esparcida.



vb 31 2

vc  10 8

vd 0 3

ve 0 3

vf   6  0 

 vd  ve   v f

0 0 12

1 2 0

3 4 15

2 7 0

0  1   47 



 v  b  vc

Jacobi, Gauss-Seidel, Relajación



Pagina de 32

6

Métodos Iterativos Estos son métodos para los cuales se da una aproximación al sistema de ecuaciones lineales y se obtiene una solución para este sistema. A diferencia de los métodos directos, los métodos iterativos podrían no producir una solución satisfactoria, aún cuando el determinante de los coeficientes de la matriz no sea cero. Entonces, para que estas técnicas funcionen se deben tener ciertas condiciones. 

El conjunto de ecuaciones debe tener una diagonal dominante. Esta es una condición necesaria pero no suficiente. Un sistema de ecuaciones se considera Diagonal Dominante cuando se cumple n

ai ,i   ai , j

(2)

j 1 j i

Es decir, Una condición suficiente para que se tenga una solución es que el valor absoluto de los coeficientes de la diagonal en cualquier ecuación debe ser mayor que la suma del valor absoluto de los otros coeficientes en esa ecuación.

Método de Jacobi Es un método de sustitución simultáneo, denominado desplazamiento simultáneo, el cual tien su origen en método iterativo de Punto Fijo. En el método de Jacobi el orden de operación de las ecuaciones es irrelevante dado que el método las trata en forma independiente, de allí su nombre como método de desplazamiento simultáneos, no obstante, se debe mantener la diagonal dominante en el sistema. Este método se puede ilustrar usando las siguientes ecuaciones. a11  x1  a12  x2  a13  x3  b1

a21  x1  a22  x2  a23  x3  b2 a31  x1  a32  x2  a33  x3  b3

(3)

El método comienza despejando las ecuaciones anteriores (3) para x1, x2 y x3 respectivamente e introduciendo el índice k que indicará el número de iteraciones, entonces,

x1

( k 1)

x2

Jacobi, Gauss-Seidel, Relajación

( k 1)

 a13  x3

(k )

b  a  x  a 23  x3  2 21 1 a 22

(k )



b1  a12  x2

(k )

a11 (k )

Pagina de 32

7

x3

( k 1)

(k )



b3  a31  x1  a32  x 2 a33

(k )

(4)

Además se requiere de un vector inicial x k = (x1 (k), x2 (k), x3 (k)) el cual representa la primera aproximación de la solución del sistema, con lo que se produce xk+1. El proceso se continúa hasta que | xk+1 – xk | 1 es conocido como sobre-relajación, se utiliza cuando la convergencia se mueve en la dirección correcta hacia la solución verdadera, pero con una velocidad demasiado lenta. Por lo tanto se pretende que con la ponderación mejore la aproximación al llevarla más cerca de la verdadera. La elección de  se especifica de forma empírica, generalmente este método no se utiliza para la solución de un solo sistema de ecuaciones. Es más usual cuando un sistema en estudio se debe resolver de manera repetitiva, una buena selección de  ayudará a mejorar significativamente la eficiencia del método.

Ejemplo 3 (Ejercicio 11.9 Pág. 321) Emplee el método de Gauss-Seidel con relajación para resolver (=0.90 y  a = 5%): -5 X1

+ 12 X3 = 80

4 X1

– 1 X2 – 1 X3 = - 2

6 X1

+ 8 X2

= 45

Si es necesario reordene las ecuaciones para que el sistema converja: Si lo pasamos al formato de una matriz y su vector de resultados, obtenemos lo siguiente: 12   x1   5  80   4  1  1  x     2    2    6   x3   45  8 Verificando el criterio de convergencia mediante la siguiente ecuación: n

ai ,i   ai , j j 1 j i

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

20

Resolviendo esta ecuación para un sistema de 3 x 3 obtenemos lo siguiente: a11  a12  a13 a 22  a 21  a 23 a 33  a31  a32

Convergencia: Esto quiere decir que el elemento diagonal debe ser mayor al elemento fuera de la diagonal para cada fila. Por tanto reorganizamos el sistema de la siguiente forma 4  1  1

 4  1  1  x1    2    6    8    x 2    45    5  80  12   x3 



8  6 12   5

Por lo tanto se puede asegurar la convergencia con este arreglo. Las siguientes fórmulas las utilizamos para encontrar X1, X2 y X3 en cada una de las iteraciones. x1 

b1  a12 x 2  a13 x3 a11

x2 

b2  a 21 x1  a 23 x3 a 22

x3 

b3  a31 x1  a32 x 2 a33

xi

nuevo

   xi

nuevo

 (1   )  xi

anterior

Para calcular el primer valor de X1, se asumirán X2 y X3 con valores cero. Entonces para X1, x1 

b1  a12 x 2  a13 x3 a11

 2    1  x 2    1  x3 4  2    1  0    1  0 x1  4 x1  0,50000 x1 

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

21

para calcular el valor de X2, se utilizará solamente el valor encontrado de X 1, dado que a23 es cero. b2  a 21 x1  a 23 x3 a 22

x2 

45   6   x1 8 45   6   (0,50000) x2  8 x 2  6,00000 x2 

para calcular el valor de X3, se utilizará solamente el valor encontrado de X 1, dado que a32 es cero. x3 

b3  a31 x1  a 32 x 2 a33

80    5  x1 12 80    5  ( 0,50000) x3  12 x3  6,45833 x3 

Entonces en la primera iteración x1  0,50000 x 2  6,00000 x3  6,45833

Para la segunda iteración, en el cálculo de X1 el valor de X2 y X3 serán los calculados en la primera iteración, seguidamente se le aplicará la ponderación con el factor . Entonces para X1, x1 

b1  a12 x 2  a13 x3 a11

 2    1  x 2    1  x3 4  2    1  6,0000    1  6,45833 x1  4 x1  2,61458 x1 

aplicando la ponderación

x1

nuevo

   x1

x1

nuevo

 0,9  2,61458  (1  0,9)  (0,50000)

x1

nuevo

 2,30313

nuevo

 (1   )  x1

anterior

para X2 se utiliza solamente el valor de X1 de la segunda iteración, dado que a23 es cero.

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

22

x2 

b2  a 21 x1  a 23 x3 a 22

45   6   x1 8 45   6   ( 2,30313) x2  8 x 2  3,89766 x2 

aplicando la ponderación nuevo

   x2

x1

nuevo

 0,9  3,89766  (1  0,9)  (6,00000)

x1

nuevo

 4,10789

x2

nuevo

 (1   )  x 2

anterior

para X3 se utiliza solamente el valor de X1 calculado en la segunda iteración, dado que a32 es cero. x3 

b3  a31 x1  a32 x 2 a33

80    5  x1 12 80    5  (2,30313) x3  12 x3  7,62630 x3 

aplicando la ponderación

x3

nuevo

   x3

x3

nuevo

 0,9  7,62630  (1  0,9)  (6,45833)

x3

nuevo

 7,50951

nuevo

 (1   )  x3

anterior

Entonces en la segunda iteración x1  2,30313 x 2  4,10789 x3  7,50951

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

23

Una vez obtenidos estos resultados, se debe calcular el error aproximado porcentual para cada uno de los resultados, para ello utilizamos la siguiente fórmula:

a 

xr

nuevo

 xr

xr

anterior

100%

nuevo

Para X1,  ax1   ax1 

x1

nuevo

 x1

x1

anterior

 100%

nuevo

2,30313  ( 0,50000)  100% 2,30313

 ax1  121,71%  5% Para X2,  ax 2   ax 2 

x2

nuevo

anterior

 x2

x2

nuevo

 100%

4,10789  6,00000  100% 4,10789

 ax 2  46,06%  5% Para X3,

 ax 3   ax 3 

x3

nuevo

 x3

x3

nuevo

anterior

 100%

7,50951  6,45833  100% 7,50951

 ax 3  14,00%  5% Dado que en las tres incógnitas el error aproximado porcentual es mayor a un 5% se debe hacer una nueva iteración. Se continúa realizando el mismo procedimiento con los nuevos valores de X obtenidos hasta que los errores aproximados porcentuales en las tres incógnitas sean menores que el 5%.

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

24

El resultado de estas iteraciones siguiendo el mismo procedimiento, se presenta en la Tabla 7. Tabla 7: Resultados de las iteraciones por el método de Gauss_Seidel con Relajación con un =0.9 del ejemplo 3 (ejercicio 11.9 pp. 321) Iteración

x1

x2

x3

 a x1

 a x2

 a x3

0

0,00000

0,00000

0,00000

1

-0,50000

6,00000

6,45833

2

2,30313

4,10789

7,50951

121,71%

46,06%

14,00%

3

2,39423

3,85719

7,64879

3,81%

6,50%

1,82%

4

2,37827

3,84289

7,65673

0,67%

0,37%

0,10%

Se resaltan los datos donde los errores obtenidos son menores que 5%, se logra un error aproximado porcentual menor en las tres incógnitas en la cuarta iteración. Por lo tanto los resultados aproximados que cumplen con la condición establecida son: x1  2,37827 x 2  3,84289 x3  7,65673

Si sustituimos estos valores en las ecuaciones originales para verificar los resultados obtenemos que: 17 *(2,37827)

– 2 *(3,84289) – 3 *(7,65673) = -1,98655

-5 *(2,37827)

+ 21 *(3,84289) – 2 *(7,65673) = 45,01271

-5 *(2,37827)

– 5 *(3,84289) + 22 *(7,65673) = 79,98941

Al calcular los porcentajes de error de estos resultados se obtiene lo siguiente: - 2 - (-1,98655)  100%  0,67% -2 45 - 45,01271   100%  0,03% 45 80 - 79,98941   100%  0,01% 80

ErrorEC1  ErrorEC2 ErrorEC3

De acuerdo con estos datos se puede observar que los resultados obtenidos son una aproximación muy buena de los valores verdaderos.

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

25

Si graficamos la convergencia de los datos por el método de Gauss-Seidel sencillo y el que posee relajación se puede observar lo siguiente:

Como se puede ver el método con relajación amortigua las oscilaciones en los resultados hacia la convergencia.

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

26

Ejercicios adicionales Siguiendo los mismos procedimientos se resolvieron las ecuaciones del ejercicio 11.1 de la página 320 por el método de Jacobi, el de Gauss-Seidel y el de Gauss-Seidel con relajación, con el fin de poder comparar los tres métodos. Se busca un error aproximado menor o igual al 5%. Sistema tridiagonal del ejercicio 11.1 2 X1

– 1 X2

= 124

-1 X1

+ 2 X2 – 1 X3 = 4 – 1 X2 + 2 X3 = 14

Si lo pasamos al formato de una matriz y su vector de resultados, obtenemos lo siguiente:  2 1   x1   124   1 2  1  x    4     2     14   1 2   x3  A continuación se presentan los resultados obtenidos utilizando Excel.

Ejemplo 4 Por el Método de Jacobi Fórmulas:

x1 

b1  a12 x2  a13 x3 a11

x2  a 

b2  a21 x1  a23 x3 a22 xr

nuevo

 xr

xr

x3 

b3  a31 x1  a32 x2 a33

anterior

nuevo

100%

Resultados obtenidos: Iteración

X1

x2

x3

 a x1

 a x2

 a x3

0

0,00000

0,00000

0,00000

1

62,00000

2,00000

7,00000

2

63,00000

36,50000

8,00000

1,587%

94,521%

12,500%

3

80,25000

37,50000

25,25000

21,495%

2,667%

68,317%

4

80,75000

54,75000

25,75000

0,619%

31,507%

1,942%

5

89,37500

55,25000

34,37500

9,650%

0,905%

25,091%

6

89,62500

63,87500

34,62500

0,279%

13,503%

0,722%

7

93,93750

64,12500

38,93750

4,591%

0,390%

11,075%

8

94,06250 96,21875

68,43750 68,56250

39,06250 41,21875

0,133%

6,301%

0,320%

2,241%

0,182%

5,231%

9

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

27

10

96,28125

70,71875

41,28125

0,065%

3,049%

0,151%

En amarillo se resaltan los resultados que indican un error aproximado menor o igual al 5%, esto es oscilante, hasta la décima iteración se consigue un error aproximado en las tres incógnitas que satisfaga el criterio de paro planteado. Por lo tanto los resultados aproximados que cumplen con la condición establecida son: x1  96,28125 x 2  70,71875 x3  41,28125

Ejemplo 5 Por el Método de Gauss-Seidel Fórmulas:

x1 

b1  a12 x2  a13 x3 a11

x2  a 

b2  a21 x1  a23 x3 a22 xr

nuevo

 xr

xr

x3 

b3  a31 x1  a32 x2 a33

anterior

nuevo

100%

Resultados obtenidos: Iteración

x1

x2

x3

 a x1

 a x2

 a x3

0

0,00000

1

62,00000

33,00000

23,50000

2

78,50000

53,00000

33,50000

21,019%

37,736%

29,851%

3

88,50000

63,00000

38,50000

11,299%

15,873%

12,987%

4

93,50000

68,00000

41,00000

5,348%

7,353%

6,098%

5

96,00000

70,50000

42,25000

2,604%

3,546%

2,959%

En amarillo se resaltan los resultados que indican un error aproximado menor o igual al 5%, se consigue en la quinta iteración un error aproximado en las tres incógnitas que satisfaga el criterio de paro planteado. Por lo tanto los resultados aproximados que cumplen con la condición establecida son: x1  96,00000 x 2  70,50000 x3  42,25000

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

28

Como se puede observar el resultado se obtuvo en la mitad de las iteraciones que se requirieron con el método de Jacobi.

Ejemplo 6 Por el Método de Gauss-Seidel con relajación Con  = 1,20 Fórmulas:

x1 

b1  a12 x2  a13 x3 a11

x2  xi

nuevo

b2  a21 x1  a23 x3 a22

   xi

nuevo

 (1   )  xi

nuevo

 xr

anterior

a 

xr

xr

x3 

b3  a31 x1  a32 x2 a33

anterior

100%

nuevo

Resultados obtenidos: Iteración

x1

x2

x3

 a x1

 a x2

 a x3

0

0,00000

0,00000

0,00000

1

62,00000

33,00000

23,50000

2

81,80000

58,98000

39,08800

24,205%

44,049%

39,879%

3

93,42800

70,11360

42,65056

12,446%

15,879%

8,353%

4

97,78256

72,63715

43,45218

4,453%

3,474%

1,845%

En amarillo se resaltan los resultados que indican un error aproximado menor o igual al 5%, se consigue en la cuarta iteración un error aproximado en las tres incógnitas que satisfaga el criterio de paro planteado. Por lo tanto los resultados aproximados que cumplen con la condición establecida son: x1  97,78256 x 2  72,63715 x3  43,45218

Como se observa el resultado se obtuvo en una iteración menos que cuando se utilizó el método sin relajación.

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

29

Haciendo un resumen de los resultados obtenidos en la siguiente tabla: Incógnita

Valores Iteraciones verdaderos

Valores aproximados Jacobi Seidel C/Relaj

Errores verdaderos Jacobi Seidel C/Relaj

X1

98,5

10

96,281

96,000

97,783

2,25%

2,54%

0,73%

X2

73,0

5

70,719

70,500

72,637

3,13%

3,42%

0,50%

X3

43,5

4

41,281

42,250

43,452

5,10%

2,87%

0,11%

Se puede observar entonces que el método de Jacobi es el que utiliza una mayor cantidad de iteraciones y que además tiene errores mayores con respecto al valor verdadero. En el caso de Seidel los errores son medianos, pero la cantidad de las iteraciones en mucho menor que en el caso de Jacobi. Para el caso en el que se utiliza Gauss-Seidel con relajación se obtienen valores más cercanos a los verdaderos con una cantidad de iteraciones menor. Sin embargo el inconveniente radica en la elección del valor de  para lo cual no hay un criterio establecido, más que la experiencia. Observando esto gráficamente en cada una de las variables:

Jacobi, Gauss-Seidel, Relajación

Pagina de 32

30

 En modo gráfico se observa que para las tres incógnitas con método de Jacobi los resultados son más oscilantes y convergen de forma más lenta.  Por el Método de Gauss-Seidel se da una convergencia relativamente rápida.  Si al Método de Gauss-Seidel le aplicamos relajación la convergencia es mucho más rápida hacia los valores verdaderos.

Síntesis La técnica aproximada por conocer como método de Gauss-Seidel, difiere de las técnicas exactas porque emplea un esquema iterativo para obtener, progresivamente, estimaciones más cercanas a la solución. El efecto del error de redondeo es un punto discutible en el método de Gauss-Seidel, ya que se pueden continuar las iteraciones hasta que se obtenga la precisión deseada. Además, se pueden desarrollar versiones del método de Gauss-Seidel para utilizar de manera eficiente los requerimientos de almacenaje en computadora con sistemas dispersos. En consecuencia, la técnica de Gauss-Seidel es útil para grandes sistemas de ecuaciones, donde los requerimientos de almacenaje podrían llevar a problemas significativos con las técnicas exactas. La desventaja del método de Gauss-Seidel es que no siempre converge o algunas veces converge de manera lenta a la solución verdadera. Es confiable sólo para aquellos sistemas que son diagonalmente dominantes. Sin embargo, los métodos de relajación contrarrestan tales desventajas. Además, como muchos sistemas de ecuaciones algebraicas lineales surgen de sistemas físicos que presentan dominancia diagonal, el método de Gauss-Seidel tiene gran utilidad para resolver problemas de ingeniería. En resumen, varios factores serán relevantes en la elección de una técnica para un problema en particular que involucre ecuaciones algebraicas lineales. No obstante, como se mencionó antes, el tamaño y la densidad del sistema son factores particularmente importantes en la determinación de su elección. La figura 2 se emplea para resumir los algoritmos para solucionar ecuaciones algebraicas lineales y proporciona una visión general, que será de gran ayuda para revisar y aclarar las principales diferencias entre los métodos.

Desplazamiento succesivo

Desplazamiento simultáneo

Primera iteración

Segunda iteración

Gauss-Seidel

Gauss-Seidel con relajación

Jacobi, Gauss-Seidel, Relajación

Iterativo de Jacobi

xinuevo  xinuevo  (1   ) xianterior

Pagina de 32

31

Figura 2: Resumen de pasos de los métodos iterativos Jacobi, Gauss_Seidel sin y con relajación

BIBLIOGRAFÍA Steven Chapra, Raymond Canale. “Métodos numéricos para ingenieros”, cuarta edición, 2003. pp 301-313, 320-321, 344-346. The

Jacobi Method, marzo 2004. http:/www.netlib2.cs.utk.edu/linalg/html_templates/node12.html)

The

Gauss_Seidel Method, marzo 2004. http:/www.netlib2.cs.utk.edu/linalg/html_templates/node14.html)

The

Successive Overrelaxation Method, marzo 2004. http:/www.netlib2.cs.utk.edu/linalg/html_templates/node15.html)

Jacobi, Gauss-Seidel, Relajación

(disponible

(disponible

(disponible

Pagina de 32

en

en

en

32

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF