REPUBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA DEFENSA UNIVERSIDAD NACIONAL EXPERIMENTAL DE LA FUERZA ARMADA NUCLEO CORO – EXTENSION PUNTO FIJO CATEDRA: OPTIMIZACION NO LINEAL
METODO DAVIDON-FLETCHER-POWELL METODO DE GRADIENTE CONJUGADO
REALIZADO POR: MEDINA G JOSE D C.I.: V.-19.928.787 6TO SEMESTRE ING. SISTEMAS “B” DICIEMBRE, 2011
Método de Davidon-Fletcher-Powell El método de Davidon-Fletcher-Powell ha sido y sigue siendo una técnica de gradiente ampliamente utilizada. El método tiende a ser robusto; esto es, típicamente tiende a tener un buen comportamiento en una amplia variedad de problemas prácticos. La mayor desventaja de este tipo de métodos es su necesidad de almacenar la matriz A de N × N. Desde la publicación de la formula de Davidon, se han propuesto varios métodos más que resultan de usar diferentes valores de β y z en la ecuación. Una de las dificultades prácticas comunes de estos métodos es la tendencia de a estar mal condicionada, lo que causa una mayor dependencia a un procedimiento de reinicialización. También se puede decir que es un método cuasi-Newton, para minimizar una función f en . Consiste en generar aproximaciones sucesivas de la inversa del Hessiano de la función f. Se define:
En cada iteración se genera:
Con
.
El procedimiento es el siguiente: Paso 0: Partir con cualquier matriz
Paso 1: Tomar
definida positiva y algún
, con
Paso 2: Calcular
Paso 3: Tomar
y obtener
,
y
y
Método Gradiente Conjugado Es un método iterativo no estacionario que permite resolver sistemas lineales bajo la restricción de que la matriz de coeficientes sea simétrica y definida positiva, o sea, simétrica y con valores propios positivos. Está basado en subespacios de Krylov. Cabe destacar que no requiere una factorización de la matriz, ni es dependiente de parámetros definidos por el usuario, como sucede con otros métodos iterativos. El método de gradiente conjugado converge a un mínimo de una función cuadrática en un número finito de iteraciones. El procedimiento general para localizar un mínimo de una función en una dirección requiere: localizar el intervalo donde se encuentra y reducir el intervalo. 1.
La primera dirección de búsqueda es el gradiente descendente
2.
Tomar un paso y escoger una razón de aprendizaje para minimizar la función a lo largo de la dirección búsqueda.
3.
Seleccione la siguiente dirección de búsqueda de acuerdo a:
Dónde:
Si el algoritmo no ha convergido regrese al paso 2.
Método de Gradiente Conjugado solución de Ecuaciones Normales 1.
Inicialice los componentes del vector de pesos con valores arbitrarios pequeños.
2.
Ajustar k=0, Calcular la dirección inicial del conjugado de ganancia .
3.
Determine el coeficiente del vector conjugado. Donde
4.
Actualice el vector de pesos
y el vector
5.
Determine el nuevo vector de ganancia.
6.
Determine la nueva dirección del gradiente conjugado.
7.
Ajuste Si,
y pruebe la condición de salida. ir al paso 3, de otra forma detener.
Thank you for interesting in our services. We are a non-profit group that run this website to share documents. We need your help to maintenance this website.