Programacion No Lineal PDF

August 19, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Programacion No Lineal PDF...

Description

UNIVERSIDAD DE ORIENTE NÚCLEO ANZOÁTEGUI EXTENSIÓN REGIÓN CENTRO – SUR ANACO ESCUELA DE INGENIERIA Y CIENCIAS APLICADAS DEPARTAMENTO DE SISTEMAS

PROGRAMACION NO LINEAL

Profesor(a): Carmen Salas

Autores: Franco, José C.I. 21.042.561 Solé, Alexis C.I. 20.712.443

Anaco, Diciembre de 2013

INDICE

Introducción

3

1. Método De Multiplicadores de Lagrange

4

1.1 Ejemplo 1

6

1.2 Ejemplo 2

7

1.3 Ejemplo 3

9

2. Condiciones de Karush- Kuhn- Tucker

10

2.1 Condiciones Necesarias de Primer Orden

11

2.2 Condiciones de Regularidad o Cualificación de las Restricciones

12

2.3 Condiciones Suficientes

13

3. Programación Cuadrática

13

4. Programación Geométrica

19

4.1 Programación Geométrica Restringida

20

4.2 Programación Geométrica No restringida

20

5. Programación Separable

23

Conclusión

26

Referencias Bibliográficas

27

INTRODUCCION La programación no lineal forma parte de la investigación de operaciones y también, como la programación lineal, tiene como finalidad proporcionar los elementos para encontrar los puntos óptimos para una función objetivo. En este planteamiento, tanto la función objetivo como las restricciones son no lineales. Se presenta un problema de programación no lineal cuando tanto la función objetivo que debe optimizarse, como las restricciones del problema, o ambas, tienen forma de ecuaciones diferenciales no lineales, es decir, corresponden a ecuaciones cuyas variables tienen un exponente mayor que.

La programación no lineal, es el proceso de resolución de un sistema de igualdades y desigualdades sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con una función objetivo a maximizar o minimizar, cuando alguna de las restricciones o la función objetivo no son lineales. Los problemas de programación no lineal son más difíciles de resolver que los lineales. Estas dificultades aparecen incluso en el caso más simple como el de optimizar una función de una variable en R sin restricciones.

Existen diferentes métodos para resolver los problemas no lineales, el presente trabajo se centrara en explicar y ejemplificar algunos de ellos.

3

1. METODO DE MULTIPLICADORES DE LAGRANGE.

En los problemas de optimización, el método de los multiplicadores de Lagrange, llamados así en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una para cada restricción, son llamadas multiplicadores de Lagrange. El método dice que los puntos donde la función tiene un extremo condicionado con k restricciones, están entre los puntos estacionarios de una nueva función sin restricciones construida como una combinación lineal de la función y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores.

La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientes de la función sean iguales a cero.

Consideremos un caso bidimensional. Supongamos que tenemos la función, f (x, y), y queremos maximizarla, estando sujeta a la condición:

Donde c es

una

constante.

Podemos

nivel de f dadas por

4

visualizar

las curvas

de

Para varios valores de dn, y el contorno de g dado por g(x, y) = c. Supongamos que hablamos de la curva de nivel donde g = c. Entonces, en general, las curvas de nivel de f y g serán distintas, y la curva g = c por lo general

intersecará

y

cruzará

muchos

contornos

de f.

En

general,

moviéndose a través de la línea g=c podemos incrementar o disminuir el valor de f. Sólo cuando g=c (el contorno que estamos siguiendo) toca tangencialmente (no corta) una curva de nivel de f, no se incrementa o disminuye el valor de f. Esto ocurre en el extremo local restringido y en los puntos de inflexión restringidos de f.

Un ejemplo familiar puede ser obtenido de los mapas climatológicos, con sus curvas de nivel de presión y temperatura (isóbaras e isotermas respectivamente):

el

extremo

restringido

ocurrirá

donde

los

mapas

superpuestos muestren curvas que se tocan.

Geométricamente traducimos la condición de tangencia diciendo que los gradientes de f y g son vectores paralelos en el máximo. Introduciendo un nuevo escalar, λ, resolvemos [f(x, y) - λ (g(x, y) − c)] = 0 Para λ ≠ 0.

Una vez determinados los valores de λ, volvemos al número original de variables y así continuamos encontrando el extremo de la nueva ecuación no restringida.

5

De

forma

tradicional, eso es:

satisfaciendo la condición porque restricción, pero los ceros de

para todo (x, y) es igual a cero en la

F(x, y) están todos en

Sea f (x) una función definida en un conjunto abierto n-dimensional {x ∈ Rn}. Se definen s restricciones gk (x) = 0, k=1,..., s, y se observa (si las restricciones son satisfechas) que:

Se procede a buscar un extremo para h

lo que es equivalente a

Los multiplicadores desconocidos λk se determinan a partir de las ecuaciones con las restricciones y conjuntamente se obtiene un extremo para h que al mismo tiempo satisface las restricciones (i.e.gk =0), lo que implica que f ha sido optimizada El método de multiplicadores de Lagrange es generalizado por las condiciones de Karush-Kuhn-Tucker.

Ejemplo #1 Supongamos que queremos encontrar la distribución probabilística discreta con máxima entropía. Entonces 6

Podemos usar los multiplicadores de Lagrange para encontrar el punto de máxima entropía (dependiendo de las probabilidades). Para todo k desde 1 hasta n, necesitamos

lo que nos da

Derivando estas n ecuaciones, obtenemos

Esto muestra que todo pi es igual (debido a que depende solamente de λ). Usando la restricción ∑k pk = 1, encontramos

Esta (la distribución uniforme discreta) es la distribución con la mayor entropía.

Ejemplo #2 Determinar los puntos en la esfera cercanos al punto

la distancia al punto

7

que están más :

Para hacer más sencilla la operación se maximiza o minimiza el cuadrado de la distancia:

la restricción:

De acuerdo con el método de los multiplicadores de Lagrange, se resuelven las ecuaciones "

"y"

" y el resultado es:

(1) (2) (3) (4) La manera más sencilla de resolver estas ecuaciones es dejar x, y, z en función de

y luego sustituimos en la ecuación (4).

De la ecuación (1) obtenemos si

se observa que

no se puede realizar la operación. Lo mismo sucede con la ecuación (2) y (3)

Sustituyendo en la ecuación (4) 8

≠ 1 porque

se obtiene que y entonces los puntos (x, y, z) son :

y se

puede

observar

que

el

punto

es Ejemplo #3

Restricciones:

Aplicar el método:

9

más

cercano

entonces

2. CONDICIONES DE KARUSH- KUHN- TUCKER. Un modelo de Programación Lineal (PNL) es aquel donde las variables de decisión se expresan como funciones no lineales ya sea en la función objetivo y/o restricciones de un modelo de optimización. Esta característica particular de los modelos no lineales permite abordar problemas donde existen economías o des- economías de escala o en general donde los supuestos asociados a la proporcionalidad no se cumplen. Las condiciones que establecen las condiciones de optimalidad de KKT permiten resolver modelos de PNL con restricciones mediante la activación progresivas de las restricciones del modelo. Una restricción activa es aquella que se cumple en igualdad. Para cualquier problema de programación lineal si un punto es óptimo es porque

cumple

estas condiciones. Para programación no lineal las

condiciones de KKT son necesarias y suficientes para la optimalidad cuando la función objetivo, las restricciones de igualdad se encuentran ante apropiadas condiciones de convexidad. Consideremos el siguiente problema general:

10

, , Donde

es

la

función

objetivo

restricciones de desigualdad y con

y el

número

de

a

minimizar,

son

las

son las restricciones de igualdad,

restricciones

de

desigualdad

e

igualdad,

respectivamente. Las condiciones necesarias para problemas con restricciones de desigualdad fueron publicadas por primera vez en la tesis de máster de W. Karush, aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W. Tucker.

Condiciones Necesarias de Primer Orden

Supongamos es y

que y

.

diferenciables en el

las

la

función objetivo, por ejemplo, a minimizar, funciones

Además,

de

restricción

supongamos punto

. Si

existe constantes,

son continuamente

es un mínimo local, entonces y

11

que

son

tales que

Condiciones de Regularidad o Cualificación de las Restricciones

En la condición necesaria anterior, el multiplicador dual

puede ser igual

a cero. Este caso se denomina degenerado o anormal. La condición necesaria no tiene en cuenta las propiedades de la función sino la geometría de las restricciones. Existen una serie de condiciones de regularidad que aseguran que la solución no es degenerada (es decir 

). Estas incluyen:

Cualificación de la restricción de independencia lineal (CRIL): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes en



.

Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes positivos en



.

Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad, el rango en el entorno de



es constante.

Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones de igualdad, si es linealmente dependiente positivo en

entonces es linealmente

dependiente positivo en el entorno de linealmente existe

dependiente distintos

que

)

12

. (

es

positivo de

cero

si tal



Condición

de

Slater:

restricciones que

de

para

un

desigualdad,

problema existe

únicamente un

punto

con tal

para todo

Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque CRMF no es equivalente a CRRC. En la práctica, se prefiere cualificación de restricciones más débiles ya que proporcionan condiciones de optimalidad más fuertes.

Condiciones Suficientes Sea

la

función

restricción las funciones

objetivo

y

las

funciones

sean funciones convexas y de afinidad,

constantes

Entonces el punto

y

sea

un

y

punto

de

sean .

Si

existen

tales que:

es un mínimo global.

3. PROGRAMACION CUADRATICA.

Existen diferentes tipos de problemas de programación cuadrática, los cuales se pueden clasificar en: Problemas cuadráticos de minimización sin restricciones, requieren minimizar la función cuadrática f (x) sobre el espacio completo.

13

Problemas cuadráticos de minimización sujetos a restricciones de igualdad, requieren minimizar la función objetivo f (x) sujeta a restricciones lineales de igualdad Ax = b. Problemas cuadráticos de minimización sujetos a restricciones lineales de desigualdad. Requieren minimizar la función objetivo f (x) sujeta a restricciones lineales de desigualdad Ax = b, también puede contener restricciones de igualdad. Problemas de optimización de redes cuadráticas. Son problemas cuadráticos

en los que las restricciones son restricciones de baja

conservación sobre una red pura generalizada. Problemas cuadráticos convexos. Son cualquiera de los mencionados arriba, en el cual la función objetivo a ser minimizada, f (x) es convexa. Problemas

cuadráticos

no

convexos.

Son

cualquiera

de

los

mencionados arriba, en el cual la función objetivo a ser minimizada, f (x) es no convexa. Problemas de complementariedad lineal. Son problemas especiales con un sistema de ecuaciones en variables no negativas, en el cual las variables están formadas en varios pares llamados pares complementarios.

Históricamente, las funciones cuadráticas fueron prominentes porque proveían modelos locales simples para funciones no lineales generales. Una función cuadrática, es la función no lineal más simple, y cuando es usada como una aproximación para una función no lineal general, esta puede capturar la información importante de la curvatura, lo que una aproximación lineal no puede.

14

El uso de aproximaciones cuadráticas para resolver problemas con funciones no lineales generales se remonta mucho tiempo atrás. Entre los métodos más destacados, tenemos al método de Newton y el método de gradiente conjugado.

Para la programación cuadrática se pueden encontrar mínimos locales, mínimos globales, puntos estacionarios o de KKT, (son los que satisfacen las condiciones de KKT del problema).

En problemas convexos de programación cuadrática, todo punto KKT o mínimo local, es un mínimo global.

Consideremos un problema de programación no lineal cuya función objetivo es la suma de términos de la forma del

el grado

término

Un

problema de programación no lineal, cuyas restricciones son lineales y cuya función

objetivo

forma

es

la

suma

de

términos

de

la

(en la cual cada término tiene un grado de 2,

1 o 0) es un problema de programación cuadrática.

Vamos a ilustrar de manera general el método de WOLFE para resolver problemas de programación cuadrática: Se define un problema de programación cuadrática como:

Con sus restricciones:

15

Donde

(Vector en

con componentes continuas), C es un vector

de precios con n componentes, Q es una matriz de n x n, simétrica y positiva definida, es decir, de

recursos

para toda

con m componentes, A es

, excepto X = 0, b es el vector una

matriz dem*ncoeficientes

tecnológicos y 0 es un vector con n ceros. El problema de optimización anterior tiene restricciones lineales, si Q es una matriz nula se convierte en un problema de programación lineal. Como Q es positiva definida, implica que W es una función estrictamente convexa y por lo tanto el mínimo si existe es global; si Q es negativa definida, W es estrictamente cóncava y si el máximo existe es global. A continuación se escribe el problema en notación algebraica, se le aplican los multiplicadores de Lagrange, se verifican las condiciones necesarias y suficientes de Karush – Kuhn- Tucker que deben existir en un óptimo global. El método de Wolfe sigue con la reescritura del problema original como un problema de programación lineal con holguras complementarias; éste último problema es equivalente al problema original. El problema de programación

lineal

a

resolver será

de 2(m

+ n)n variables, m

+

nrestricciones lineales y m + n restricciones de holgura complementaria. Ejemplo: Resolver el siguiente problema de programación cuadrática por el método de Wolfe:

16

Aplicando los multiplicadores de Lagrange tenemos:

Las primeras derivadas parciales son:

El problema de programación lineal equivalente al original de acuerdo al método Wolfe es:

Con las siguientes restricciones de holgura complementaria:

17

Utilizando el método Simplex se tiene que la solución básica inicial es:

En la primera iteración entra

y sale X1 (es de aclarar que aunque

el Simplex escoge 1 y 2 para entrar a la base antes que lo haga X2, 1 y 2 no son aceptables, ya que Y1 y Y2 son positivos). El punto extremo luego de recalcular es:

En la tercera iteración no pueden entrar a la base 1 y 2 y Y1 y Y2 son positivas; el Simplex toma como siguiente candidato a 1 y de salida Y1; el punto extremo después de iterar es:

En la última iteración (V1 = 0 y V2 = 0) debe entrar X1 pero no puede porque 1 es positivo; el siguiente elemento a entrar a la base es 1 el cual reemplaza a V2 Luego De recalcular (pivotear) el punto extremo es:

La solución anterior corresponde al óptimo:

18

4. PROGRAMACION GEOMETRICA Un programa geométrico es un problema de optimización de la forma Minimizar

tal que

Donde

son posinomios y

son monomios.

Hay

que subrayar que al hablar de programación geométrica (al contrario que en otras disciplinas), un monomio se define como una función con

definido como

donde: y

.

Tiene múltiples aplicaciones, como el dimensionamiento de circuitos y la estimación paramétrica vía regresión logística en estadística. Los programas geométricos no son por regla general problemas de optimización convexa, pero pueden transformarse en ellos mediante un cambio de variables y una transformación de las funciones objetivo y de restricción.

Definiendo

, , donde

si

es el posinomio

19

el

monomio

. De la misma forma,

Entonces donde

, y

. Tras el cambio de variables, el

posinomio se convierte en una suma de exponenciales de funciones afines. La Programación geométrica soluciona un caso especial de problemas de Programación No lineal. Este método resuelve al considerar un problema dual asociando los siguientes dos tipos de Programación No lineal: 1. Problema geométrico no restringido:

2. Problema geométrico restringido:

Donde

es

real,

para

toda

i=1,………...,n;

j=1,……….……,m; k=0,1,2,………...,p; supone para ambos casos “n, m y p” son finitas, los exponentes no tienen restricciones de signo, las funciones toman la forma de un polinomio, excepto que los exponentes pueden ser negativos; por esta razón y porque todas las

;

se

denominan posinomiales. La Programación Geométrica fue diseñada por Duffin, Peterson y Zener.

20

La lógica de la Programación Geométrica se basa en la desigualdad de Cauchy (desigualdad de media aritmética - geométrica):

El método de solución consiste en calcular las primeras derivadas parciales de

de la función objetivo se obtiene la ecuación:

De las primeras derivadas parciales iguales a cero se escribe la relación:

Donde aij son los coeficientes positivos, m es el número de variables y n el número de términos. Generalmente, el número de términos determina el número de factores de peso y el número de variables independientes señala el número de ecuaciones.

Cuando n = m + 1, se dice que el problema tiene cero grados de dificultad. Cuando n - (m + 1)> 0, es un problema que no se puede resolver mediante Programación Geométrica. Finalmente se resuelven los sistemas de

21

ecuaciones simultáneas planteadas y se obtiene la solución del problema. Ejemplo:

Ejercicio. Encontrar la cantidad económica de pedido de un producto, es decir, se debe decidir qué cantidad del artículo conviene almacenar periódicamente;

los

costos

totales

asociados

al

producto

y

su

almacenamiento se pueden expresar CT = CCI + CHP + VC donde

Donde:

La función objetivo tiene la siguiente formula general:

De tal modo que al resolver el anterior sistema de ecuaciones simultáneas llegamos a que 1 = 2 y la variable Q* debe ser tal que haga que los dos términos de la función objetivo sean iguales:

22

5. PROGRAMACION SEPARABLE.

Una función

es separable si se puede expresar como la

suma de n funciones de una sola variable decir,

, es Un caso especial de

programación separable ocurre cuando las funciones

son convexas,

resultando así un espacio convexo de solución; además la función

es

convexa en caso de minimización y cóncava en caso de maximización.

No existe un algoritmo único para solucionar problemas de programación convexa; en general los algoritmos conocidos se pueden clasificar así: 1. Algoritmos de gradiente, en estos casos se modifica de alguna manera el procedimiento de búsqueda del gradiente para evitar que la trayectoria de búsqueda penetre la frontera de restricción. 2. Algoritmos secuenciales no restringidos, incluye los métodos de función de penalización y de función barrera; estos algoritmos convierten el problema de optimización restringida

original en una sucesión de problemas de

23

optimización no restringida, cuyas soluciones óptimas convergen a la solución óptima del problema original. 3. Algoritmos de Aproximación Secuencial, incluye métodos de aproximación lineal y aproximación cuadrática; estos algoritmos sustituyen la función objetivo no lineal por una sucesión de aproximaciones lineales o cuadráticas. Para

problemas

de

optimización

linealmente

restringidos,

estas

aproximaciones permiten la aplicación repetida de los algoritmos de programación lineal o cuadrática.

A continuación resolvemos un problema de programación separable aplicando el método de la base restringida.

El método de aproximación nos sugiere que las variables separables son:

K 1

0

0

0

2

1

1

2

3

2

16

8

4

3

81

18

Luego:

24

Entonces el problema original por aproximación se convierte en:

El tablero simplex inicial corresponde a:

Donde S1 es una variable de holgura (relleno). La solución óptima por el Simplex a este problema equivalente es: de

.

Luego

es:

25

el

óptimo

en

términos

CONCLUSIÓN Los problemas prácticos de programación matemática con frecuencia incluyen un comportamiento no lineal que deba tomarse en cuenta. A veces es posible reformular las no lineales para que se ajusten al formato de programación lineal, como en los problemas de programación separable. Sin embargo, muchas veces es necesario usar formulaciones de programación no lineal.

Al contrario del caso del método simplex para programación lineal, no existe un algoritmo eficiente que se pueda utilizar para resolver todos los problemas de programación no lineal.

De hecho, algunos de estos problemas no se pueden resolver de modo satisfactorio por ningún método, pero se han hecho grandes progresos en ciertas

clases

importantes de problemas que incluyen programación

cuadrática, convexa y algunos tipos especiales de no convexa.

Se dispone de una gran variedad de algoritmos que casi siempre tienen un buen desempeño en estos casos.

El método de multiplicadores de Lagrange es generalizado por las condiciones de Karush-Kuhn-Tucker.

26

REFERENCIAS BIBLIOGRAFICAS

 Investigación de Operaciones por Taha, H. [Libro Digital]. Disponible: http://books.google.co.ve/books?id=3oHztjMSuL8C&printsec=frontcover&dq= investigacion+de+operaciones+taha&hl=es&sa=X&ei=x6CeUp-JBozmkAeH1 oHYDg&sqi=2&ved=0CCwQ6AEwAA#v=onepage&q=investigacion%20de%2 0operaciones%20taha&f=false. [Consulta: 2013, Diciembre 2]  Introducción a la Investigación de Operaciones por Lieberman, G y Hiller, F. [Libro

Digital].

Disponible:

http://books.google.co.ve/books?id=3

oHztjMSuL8C&printsec=frontcover&dq=investigacion+de+operaciones+taha& hl=es&sa=X&ei=x6CeUp-JBozmkAeH1oHYDg&sqi=2&ved=0CCwQ6AEwAA #v=onepage&q=investigacion%20de%20operaciones

%20taha&f=false

[Consulta: 2013, Diciembre 2]  Optimización

No

Lineal.

.

[Página

Web

en Línea]. Disponible

http://www.buenastareas.com/ensayos/Optimizacion-No-Lineal/282688.html. [Consulta: 2013, Diciembre 1]

27

en

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF