Programacion No Lineal PDF
August 19, 2022 | Author: Anonymous | Category: N/A
Short Description
Download Programacion No Lineal PDF...
Description
UNIVERSIDAD DE ORIENTE NÚCLEO ANZOÁTEGUI EXTENSIÓN REGIÓN CENTRO – SUR ANACO ESCUELA DE INGENIERIA Y CIENCIAS APLICADAS DEPARTAMENTO DE SISTEMAS
PROGRAMACION NO LINEAL
Profesor(a): Carmen Salas
Autores: Franco, José C.I. 21.042.561 Solé, Alexis C.I. 20.712.443
Anaco, Diciembre de 2013
INDICE
Introducción
3
1. Método De Multiplicadores de Lagrange
4
1.1 Ejemplo 1
6
1.2 Ejemplo 2
7
1.3 Ejemplo 3
9
2. Condiciones de Karush- Kuhn- Tucker
10
2.1 Condiciones Necesarias de Primer Orden
11
2.2 Condiciones de Regularidad o Cualificación de las Restricciones
12
2.3 Condiciones Suficientes
13
3. Programación Cuadrática
13
4. Programación Geométrica
19
4.1 Programación Geométrica Restringida
20
4.2 Programación Geométrica No restringida
20
5. Programación Separable
23
Conclusión
26
Referencias Bibliográficas
27
INTRODUCCION La programación no lineal forma parte de la investigación de operaciones y también, como la programación lineal, tiene como finalidad proporcionar los elementos para encontrar los puntos óptimos para una función objetivo. En este planteamiento, tanto la función objetivo como las restricciones son no lineales. Se presenta un problema de programación no lineal cuando tanto la función objetivo que debe optimizarse, como las restricciones del problema, o ambas, tienen forma de ecuaciones diferenciales no lineales, es decir, corresponden a ecuaciones cuyas variables tienen un exponente mayor que.
La programación no lineal, es el proceso de resolución de un sistema de igualdades y desigualdades sujetas a un conjunto de restricciones sobre un conjunto de variables reales desconocidas, con una función objetivo a maximizar o minimizar, cuando alguna de las restricciones o la función objetivo no son lineales. Los problemas de programación no lineal son más difíciles de resolver que los lineales. Estas dificultades aparecen incluso en el caso más simple como el de optimizar una función de una variable en R sin restricciones.
Existen diferentes métodos para resolver los problemas no lineales, el presente trabajo se centrara en explicar y ejemplificar algunos de ellos.
3
1. METODO DE MULTIPLICADORES DE LAGRANGE.
En los problemas de optimización, el método de los multiplicadores de Lagrange, llamados así en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. Estas nuevas variables escalares desconocidas, una para cada restricción, son llamadas multiplicadores de Lagrange. El método dice que los puntos donde la función tiene un extremo condicionado con k restricciones, están entre los puntos estacionarios de una nueva función sin restricciones construida como una combinación lineal de la función y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores.
La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientes de la función sean iguales a cero.
Consideremos un caso bidimensional. Supongamos que tenemos la función, f (x, y), y queremos maximizarla, estando sujeta a la condición:
Donde c es
una
constante.
Podemos
nivel de f dadas por
4
visualizar
las curvas
de
Para varios valores de dn, y el contorno de g dado por g(x, y) = c. Supongamos que hablamos de la curva de nivel donde g = c. Entonces, en general, las curvas de nivel de f y g serán distintas, y la curva g = c por lo general
intersecará
y
cruzará
muchos
contornos
de f.
En
general,
moviéndose a través de la línea g=c podemos incrementar o disminuir el valor de f. Sólo cuando g=c (el contorno que estamos siguiendo) toca tangencialmente (no corta) una curva de nivel de f, no se incrementa o disminuye el valor de f. Esto ocurre en el extremo local restringido y en los puntos de inflexión restringidos de f.
Un ejemplo familiar puede ser obtenido de los mapas climatológicos, con sus curvas de nivel de presión y temperatura (isóbaras e isotermas respectivamente):
el
extremo
restringido
ocurrirá
donde
los
mapas
superpuestos muestren curvas que se tocan.
Geométricamente traducimos la condición de tangencia diciendo que los gradientes de f y g son vectores paralelos en el máximo. Introduciendo un nuevo escalar, λ, resolvemos [f(x, y) - λ (g(x, y) − c)] = 0 Para λ ≠ 0.
Una vez determinados los valores de λ, volvemos al número original de variables y así continuamos encontrando el extremo de la nueva ecuación no restringida.
5
De
forma
tradicional, eso es:
satisfaciendo la condición porque restricción, pero los ceros de
para todo (x, y) es igual a cero en la
F(x, y) están todos en
Sea f (x) una función definida en un conjunto abierto n-dimensional {x ∈ Rn}. Se definen s restricciones gk (x) = 0, k=1,..., s, y se observa (si las restricciones son satisfechas) que:
Se procede a buscar un extremo para h
lo que es equivalente a
Los multiplicadores desconocidos λk se determinan a partir de las ecuaciones con las restricciones y conjuntamente se obtiene un extremo para h que al mismo tiempo satisface las restricciones (i.e.gk =0), lo que implica que f ha sido optimizada El método de multiplicadores de Lagrange es generalizado por las condiciones de Karush-Kuhn-Tucker.
Ejemplo #1 Supongamos que queremos encontrar la distribución probabilística discreta con máxima entropía. Entonces 6
Podemos usar los multiplicadores de Lagrange para encontrar el punto de máxima entropía (dependiendo de las probabilidades). Para todo k desde 1 hasta n, necesitamos
lo que nos da
Derivando estas n ecuaciones, obtenemos
Esto muestra que todo pi es igual (debido a que depende solamente de λ). Usando la restricción ∑k pk = 1, encontramos
Esta (la distribución uniforme discreta) es la distribución con la mayor entropía.
Ejemplo #2 Determinar los puntos en la esfera cercanos al punto
la distancia al punto
7
que están más :
Para hacer más sencilla la operación se maximiza o minimiza el cuadrado de la distancia:
la restricción:
De acuerdo con el método de los multiplicadores de Lagrange, se resuelven las ecuaciones "
"y"
" y el resultado es:
(1) (2) (3) (4) La manera más sencilla de resolver estas ecuaciones es dejar x, y, z en función de
y luego sustituimos en la ecuación (4).
De la ecuación (1) obtenemos si
se observa que
no se puede realizar la operación. Lo mismo sucede con la ecuación (2) y (3)
Sustituyendo en la ecuación (4) 8
≠ 1 porque
se obtiene que y entonces los puntos (x, y, z) son :
y se
puede
observar
que
el
punto
es Ejemplo #3
Restricciones:
Aplicar el método:
9
más
cercano
entonces
2. CONDICIONES DE KARUSH- KUHN- TUCKER. Un modelo de Programación Lineal (PNL) es aquel donde las variables de decisión se expresan como funciones no lineales ya sea en la función objetivo y/o restricciones de un modelo de optimización. Esta característica particular de los modelos no lineales permite abordar problemas donde existen economías o des- economías de escala o en general donde los supuestos asociados a la proporcionalidad no se cumplen. Las condiciones que establecen las condiciones de optimalidad de KKT permiten resolver modelos de PNL con restricciones mediante la activación progresivas de las restricciones del modelo. Una restricción activa es aquella que se cumple en igualdad. Para cualquier problema de programación lineal si un punto es óptimo es porque
cumple
estas condiciones. Para programación no lineal las
condiciones de KKT son necesarias y suficientes para la optimalidad cuando la función objetivo, las restricciones de igualdad se encuentran ante apropiadas condiciones de convexidad. Consideremos el siguiente problema general:
10
, , Donde
es
la
función
objetivo
restricciones de desigualdad y con
y el
número
de
a
minimizar,
son
las
son las restricciones de igualdad,
restricciones
de
desigualdad
e
igualdad,
respectivamente. Las condiciones necesarias para problemas con restricciones de desigualdad fueron publicadas por primera vez en la tesis de máster de W. Karush, aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W. Tucker.
Condiciones Necesarias de Primer Orden
Supongamos es y
que y
.
diferenciables en el
las
la
función objetivo, por ejemplo, a minimizar, funciones
Además,
de
restricción
supongamos punto
. Si
existe constantes,
son continuamente
es un mínimo local, entonces y
11
que
son
tales que
Condiciones de Regularidad o Cualificación de las Restricciones
En la condición necesaria anterior, el multiplicador dual
puede ser igual
a cero. Este caso se denomina degenerado o anormal. La condición necesaria no tiene en cuenta las propiedades de la función sino la geometría de las restricciones. Existen una serie de condiciones de regularidad que aseguran que la solución no es degenerada (es decir
). Estas incluyen:
Cualificación de la restricción de independencia lineal (CRIL): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes en
.
Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes positivos en
.
Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad, el rango en el entorno de
es constante.
Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones de igualdad, si es linealmente dependiente positivo en
entonces es linealmente
dependiente positivo en el entorno de linealmente existe
dependiente distintos
que
)
12
. (
es
positivo de
cero
si tal
Condición
de
Slater:
restricciones que
de
para
un
desigualdad,
problema existe
únicamente un
punto
con tal
para todo
Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque CRMF no es equivalente a CRRC. En la práctica, se prefiere cualificación de restricciones más débiles ya que proporcionan condiciones de optimalidad más fuertes.
Condiciones Suficientes Sea
la
función
restricción las funciones
objetivo
y
las
funciones
sean funciones convexas y de afinidad,
constantes
Entonces el punto
y
sea
un
y
punto
de
sean .
Si
existen
tales que:
es un mínimo global.
3. PROGRAMACION CUADRATICA.
Existen diferentes tipos de problemas de programación cuadrática, los cuales se pueden clasificar en: Problemas cuadráticos de minimización sin restricciones, requieren minimizar la función cuadrática f (x) sobre el espacio completo.
13
Problemas cuadráticos de minimización sujetos a restricciones de igualdad, requieren minimizar la función objetivo f (x) sujeta a restricciones lineales de igualdad Ax = b. Problemas cuadráticos de minimización sujetos a restricciones lineales de desigualdad. Requieren minimizar la función objetivo f (x) sujeta a restricciones lineales de desigualdad Ax = b, también puede contener restricciones de igualdad. Problemas de optimización de redes cuadráticas. Son problemas cuadráticos
en los que las restricciones son restricciones de baja
conservación sobre una red pura generalizada. Problemas cuadráticos convexos. Son cualquiera de los mencionados arriba, en el cual la función objetivo a ser minimizada, f (x) es convexa. Problemas
cuadráticos
no
convexos.
Son
cualquiera
de
los
mencionados arriba, en el cual la función objetivo a ser minimizada, f (x) es no convexa. Problemas de complementariedad lineal. Son problemas especiales con un sistema de ecuaciones en variables no negativas, en el cual las variables están formadas en varios pares llamados pares complementarios.
Históricamente, las funciones cuadráticas fueron prominentes porque proveían modelos locales simples para funciones no lineales generales. Una función cuadrática, es la función no lineal más simple, y cuando es usada como una aproximación para una función no lineal general, esta puede capturar la información importante de la curvatura, lo que una aproximación lineal no puede.
14
El uso de aproximaciones cuadráticas para resolver problemas con funciones no lineales generales se remonta mucho tiempo atrás. Entre los métodos más destacados, tenemos al método de Newton y el método de gradiente conjugado.
Para la programación cuadrática se pueden encontrar mínimos locales, mínimos globales, puntos estacionarios o de KKT, (son los que satisfacen las condiciones de KKT del problema).
En problemas convexos de programación cuadrática, todo punto KKT o mínimo local, es un mínimo global.
Consideremos un problema de programación no lineal cuya función objetivo es la suma de términos de la forma del
el grado
término
Un
problema de programación no lineal, cuyas restricciones son lineales y cuya función
objetivo
forma
es
la
suma
de
términos
de
la
(en la cual cada término tiene un grado de 2,
1 o 0) es un problema de programación cuadrática.
Vamos a ilustrar de manera general el método de WOLFE para resolver problemas de programación cuadrática: Se define un problema de programación cuadrática como:
Con sus restricciones:
15
Donde
(Vector en
con componentes continuas), C es un vector
de precios con n componentes, Q es una matriz de n x n, simétrica y positiva definida, es decir, de
recursos
para toda
con m componentes, A es
, excepto X = 0, b es el vector una
matriz dem*ncoeficientes
tecnológicos y 0 es un vector con n ceros. El problema de optimización anterior tiene restricciones lineales, si Q es una matriz nula se convierte en un problema de programación lineal. Como Q es positiva definida, implica que W es una función estrictamente convexa y por lo tanto el mínimo si existe es global; si Q es negativa definida, W es estrictamente cóncava y si el máximo existe es global. A continuación se escribe el problema en notación algebraica, se le aplican los multiplicadores de Lagrange, se verifican las condiciones necesarias y suficientes de Karush – Kuhn- Tucker que deben existir en un óptimo global. El método de Wolfe sigue con la reescritura del problema original como un problema de programación lineal con holguras complementarias; éste último problema es equivalente al problema original. El problema de programación
lineal
a
resolver será
de 2(m
+ n)n variables, m
+
nrestricciones lineales y m + n restricciones de holgura complementaria. Ejemplo: Resolver el siguiente problema de programación cuadrática por el método de Wolfe:
16
Aplicando los multiplicadores de Lagrange tenemos:
Las primeras derivadas parciales son:
El problema de programación lineal equivalente al original de acuerdo al método Wolfe es:
Con las siguientes restricciones de holgura complementaria:
17
Utilizando el método Simplex se tiene que la solución básica inicial es:
En la primera iteración entra
y sale X1 (es de aclarar que aunque
el Simplex escoge 1 y 2 para entrar a la base antes que lo haga X2, 1 y 2 no son aceptables, ya que Y1 y Y2 son positivos). El punto extremo luego de recalcular es:
En la tercera iteración no pueden entrar a la base 1 y 2 y Y1 y Y2 son positivas; el Simplex toma como siguiente candidato a 1 y de salida Y1; el punto extremo después de iterar es:
En la última iteración (V1 = 0 y V2 = 0) debe entrar X1 pero no puede porque 1 es positivo; el siguiente elemento a entrar a la base es 1 el cual reemplaza a V2 Luego De recalcular (pivotear) el punto extremo es:
La solución anterior corresponde al óptimo:
18
4. PROGRAMACION GEOMETRICA Un programa geométrico es un problema de optimización de la forma Minimizar
tal que
Donde
son posinomios y
son monomios.
Hay
que subrayar que al hablar de programación geométrica (al contrario que en otras disciplinas), un monomio se define como una función con
definido como
donde: y
.
Tiene múltiples aplicaciones, como el dimensionamiento de circuitos y la estimación paramétrica vía regresión logística en estadística. Los programas geométricos no son por regla general problemas de optimización convexa, pero pueden transformarse en ellos mediante un cambio de variables y una transformación de las funciones objetivo y de restricción.
Definiendo
, , donde
si
es el posinomio
19
el
monomio
. De la misma forma,
Entonces donde
, y
. Tras el cambio de variables, el
posinomio se convierte en una suma de exponenciales de funciones afines. La Programación geométrica soluciona un caso especial de problemas de Programación No lineal. Este método resuelve al considerar un problema dual asociando los siguientes dos tipos de Programación No lineal: 1. Problema geométrico no restringido:
2. Problema geométrico restringido:
Donde
es
real,
para
toda
i=1,………...,n;
j=1,……….……,m; k=0,1,2,………...,p; supone para ambos casos “n, m y p” son finitas, los exponentes no tienen restricciones de signo, las funciones toman la forma de un polinomio, excepto que los exponentes pueden ser negativos; por esta razón y porque todas las
;
se
denominan posinomiales. La Programación Geométrica fue diseñada por Duffin, Peterson y Zener.
20
La lógica de la Programación Geométrica se basa en la desigualdad de Cauchy (desigualdad de media aritmética - geométrica):
El método de solución consiste en calcular las primeras derivadas parciales de
de la función objetivo se obtiene la ecuación:
De las primeras derivadas parciales iguales a cero se escribe la relación:
Donde aij son los coeficientes positivos, m es el número de variables y n el número de términos. Generalmente, el número de términos determina el número de factores de peso y el número de variables independientes señala el número de ecuaciones.
Cuando n = m + 1, se dice que el problema tiene cero grados de dificultad. Cuando n - (m + 1)> 0, es un problema que no se puede resolver mediante Programación Geométrica. Finalmente se resuelven los sistemas de
21
ecuaciones simultáneas planteadas y se obtiene la solución del problema. Ejemplo:
Ejercicio. Encontrar la cantidad económica de pedido de un producto, es decir, se debe decidir qué cantidad del artículo conviene almacenar periódicamente;
los
costos
totales
asociados
al
producto
y
su
almacenamiento se pueden expresar CT = CCI + CHP + VC donde
Donde:
La función objetivo tiene la siguiente formula general:
De tal modo que al resolver el anterior sistema de ecuaciones simultáneas llegamos a que 1 = 2 y la variable Q* debe ser tal que haga que los dos términos de la función objetivo sean iguales:
22
5. PROGRAMACION SEPARABLE.
Una función
es separable si se puede expresar como la
suma de n funciones de una sola variable decir,
, es Un caso especial de
programación separable ocurre cuando las funciones
son convexas,
resultando así un espacio convexo de solución; además la función
es
convexa en caso de minimización y cóncava en caso de maximización.
No existe un algoritmo único para solucionar problemas de programación convexa; en general los algoritmos conocidos se pueden clasificar así: 1. Algoritmos de gradiente, en estos casos se modifica de alguna manera el procedimiento de búsqueda del gradiente para evitar que la trayectoria de búsqueda penetre la frontera de restricción. 2. Algoritmos secuenciales no restringidos, incluye los métodos de función de penalización y de función barrera; estos algoritmos convierten el problema de optimización restringida
original en una sucesión de problemas de
23
optimización no restringida, cuyas soluciones óptimas convergen a la solución óptima del problema original. 3. Algoritmos de Aproximación Secuencial, incluye métodos de aproximación lineal y aproximación cuadrática; estos algoritmos sustituyen la función objetivo no lineal por una sucesión de aproximaciones lineales o cuadráticas. Para
problemas
de
optimización
linealmente
restringidos,
estas
aproximaciones permiten la aplicación repetida de los algoritmos de programación lineal o cuadrática.
A continuación resolvemos un problema de programación separable aplicando el método de la base restringida.
El método de aproximación nos sugiere que las variables separables son:
K 1
0
0
0
2
1
1
2
3
2
16
8
4
3
81
18
Luego:
24
Entonces el problema original por aproximación se convierte en:
El tablero simplex inicial corresponde a:
Donde S1 es una variable de holgura (relleno). La solución óptima por el Simplex a este problema equivalente es: de
.
Luego
es:
25
el
óptimo
en
términos
CONCLUSIÓN Los problemas prácticos de programación matemática con frecuencia incluyen un comportamiento no lineal que deba tomarse en cuenta. A veces es posible reformular las no lineales para que se ajusten al formato de programación lineal, como en los problemas de programación separable. Sin embargo, muchas veces es necesario usar formulaciones de programación no lineal.
Al contrario del caso del método simplex para programación lineal, no existe un algoritmo eficiente que se pueda utilizar para resolver todos los problemas de programación no lineal.
De hecho, algunos de estos problemas no se pueden resolver de modo satisfactorio por ningún método, pero se han hecho grandes progresos en ciertas
clases
importantes de problemas que incluyen programación
cuadrática, convexa y algunos tipos especiales de no convexa.
Se dispone de una gran variedad de algoritmos que casi siempre tienen un buen desempeño en estos casos.
El método de multiplicadores de Lagrange es generalizado por las condiciones de Karush-Kuhn-Tucker.
26
REFERENCIAS BIBLIOGRAFICAS
Investigación de Operaciones por Taha, H. [Libro Digital]. Disponible: http://books.google.co.ve/books?id=3oHztjMSuL8C&printsec=frontcover&dq= investigacion+de+operaciones+taha&hl=es&sa=X&ei=x6CeUp-JBozmkAeH1 oHYDg&sqi=2&ved=0CCwQ6AEwAA#v=onepage&q=investigacion%20de%2 0operaciones%20taha&f=false. [Consulta: 2013, Diciembre 2] Introducción a la Investigación de Operaciones por Lieberman, G y Hiller, F. [Libro
Digital].
Disponible:
http://books.google.co.ve/books?id=3
oHztjMSuL8C&printsec=frontcover&dq=investigacion+de+operaciones+taha& hl=es&sa=X&ei=x6CeUp-JBozmkAeH1oHYDg&sqi=2&ved=0CCwQ6AEwAA #v=onepage&q=investigacion%20de%20operaciones
%20taha&f=false
[Consulta: 2013, Diciembre 2] Optimización
No
Lineal.
.
[Página
Web
en Línea]. Disponible
http://www.buenastareas.com/ensayos/Optimizacion-No-Lineal/282688.html. [Consulta: 2013, Diciembre 1]
27
en
View more...
Comments