optimización dinamica

August 8, 2018 | Author: Angelo Amaro Diaz | Category: Calculus Of Variations, Mathematical Optimization, Equations, Derivative, Function (Mathematics)
Share Embed Donate


Short Description

Descripción: ....

Description

1. CONCEPTOS FUNDAMENTALES DE LA O PTIMIZACIÓN DINÁMICA LA OPTIMIZACIÓN: La optimización es un tema predominante en el análisis económico. Por esta razón, los métodos de cálculo clásicos de encontrar extremos libres y limitados y las

técnicas

más

recientes

de

programación

matemática

ocupan

un

lugar importante en el kit de herramienta de uso diario de los economistas. Útil como son, estas herramientas sólo son aplicables a los problemas de optimización estáticas. La solución buscada en este tipo de problemas por lo general consiste en " una sola magnitud óptima para cada variable de elección, tales como el nivel óptimo de producción por semana y el precio óptimo para cobrar por un producto. No llama a un calendario de acción secuencial óptimo.

LA DINÁMICA ECONÓMICA: Permite el estudio de los hechos que anteceden a un fenómeno económico, el fenómeno en sí, las repercusiones o consecuencias de dicho fenómeno, así como su interrelación. La dinámica económica permite el estudio de hechos y fenómenos en forma cambiante, estudiando aspectos generales de los mismos, así como analizando concretamente la forma en que se desarrollan los diversos aspectos económicos

LA OPTIMIZACIÓN DINÁMICA Estudia la obtención de la solución óptima de sistemas dinámicos que evolucionan en el tiempo; a estos sistemas se trata de guiar o controlar de manera óptima a lo largo de un horizonte temporal dado de acuerdo a un objetivo fijado ya que son susceptibles de influencia mediante decisiones externas.

La optimización dinámica, como su nombre indica, estudia la optimización dinámica de sistemas dinámicos, es decir, la optimización de sistemas que evolucionan en el tiempo, se trata de guiar o controlar el sistema de manera óptima a lo largo de un horizonte temporal dado, de acuerdo aún objetivo previamente fijado. Veamos algunos ejemplos que puede ayudar a una primera compresión. Un problema de optimización dinámica plantea la cuestión de cuál es la magnitud óptima de una variable de elección en cada período de tiempo dentro del período de planificación (caso de tiempo discreto) o en cada punto de tiempo en un intervalo de tiempo dado, digamos [0, 21 (caso de tiempo continuo). Incluso es posible considerar un horizonte de planificación infinito, de modo que el intervalo de tiempo correspondiente es [0, co) - literalmente, "de aquí a la eternidad. " La solución de un problema dinámico de optimización sería por lo tanto tomar la forma de una trayectoria temporal óptima para cada variable de elección, detallando el mejor valor de la variable actual, tomar fila, y así sucesivamente, hasta el final del período de planificación. A lo largo de este libro, vamos a utilizar el asterisco para denotar optimalidad. En particular, la trayectoria temporal óptima de un (- tiempo continuo) variable y se denota por Y *(t)

2. HISTORIA DE OPTIMIZACIÓN DINÁMICA Se puede considerar que la optimización dinámica tiene raíces en el cálculo de

variaciones, la teoría clásica de control y la programación lineal y no lineal (Bryson 1999) El cálculo de variaciones surgió en el siglo XVIII y recibió en los trabajos de Euler (1707-1783) y de LaGrange (1736-1813) la forma de una teoría matemática rigurosa. Tras algunos trabajos previos Euler público en 1744 el libro Método de búsqueda de líneas curvas con propiedad de máximos o mínimo, o la resolución del problema isoperimétrico tomado en su sentido más amplio, que es el primer libro en la historia sobre el cálculo de variaciones.

En 1755 Lagrange comunico a Euler el método general analítico, creado por él, en el que introduce la variación de una función y en donde extiende a las variaciones las reglas del cálculo diferencial. Esta idea de variaciones daría el nombre a la nueva disciplina. Otras aportaciones importantes al cálculo de variaciones se deben a Legendre (1752-1833), Jacobi (1804-1851), Hamilton (1805-1865), Weierstrass (181518979.Bolza (1857-1942) y Bliss (1876-1951). El cálculo de variaciones se aplicó, tras su descubrimiento, sobre todo en física, especialmente en mecánica. El desarrollo sistemático de la teoría de control se inició en Estados Unidos alrededor de 1930 en el campo de las ingenierías eléctrica y mecánica. Hasta 1940, aproximadamente, los sistemas de control construidos eran sistemas de regulación: la velocidad de un motor o de una turbina hidráulica debían ser mantenidas en un entorno de un valor constante. Los diseños trataban de evitar inestabilidad. Durante la segunda guerra mundial aparecieron sistemas de control en los que la transición era más importante que la quietud: Es la clase de los servomecanismos, sistemas de persecución por ejemplo: el sistema de control para un arma de fuego requerida para alcanzar un objetivo móvil, con la ayuda de un radar. Se descubrió que gran parte de la teoría necesaria para el diseño de tales sistemas ya había sido desarrollado en el campo de la ingeniería de la comunicación. Aparecer la llamada teórica clásica de control, basada fundamentalmente en el dominio frecuencia.se comprobó que las ecuaciones diferenciales o en diferencias que describían la dinámica del sistema eran a menudo intratables, pero pasando el dominio frecuencia a través de la transformada de Laplace o z- transformada se producían resultados algebraicos a partir de los cuales se podían inferir características del sistema; sin embargo, esta teoría presentada serias limitaciones pues restringía el estudio a sistemas lineales con una sola variable de entrada y una de salida, e invariantes en el tiempo. Por otra parte, había que considerar, en determinados problemas, otros criterios que valorasen la evolución del sistema.

Los conceptos de controlabilidad y observabilidad introducidos por Kalma (1960) así como los métodos de optimización de Belma (1957) y Pontryagin (1962), fueron el srcen de lo que se conoce como teoría moderna de control o teoría del control óptimo, basada en la descripción de un sistema según el enfoque del espacio de los estados. Los nuevos avances y sus aplicaciones no sólo caían en el campo de la ingeniería, sino también en el de la economía, biología, medicina, ciencias sociales. En esos años tuvieron lugar las aplicaciones más importantes del control óptimo al programa espacial americano. En economía, aparecen en los años cincuenta y sesenta del siglo xx algunas aportaciones que utilizan la teoría de control, aunque se trata de contribuciones aisladas. En los años sesenta se utilizan ya sistemáticamente técnica de control óptimo en la investigación de la teoría de crecimiento. A partir de 1970 hay ya gran interés por la teoría de control en distintos campos de la economía, tanto en trabajos teóricos como empíricos, y desde entonces proliferan los trabajos sobre el tema, que ha sido el instrumento básico para describir el comportamiento de individuos y empresas cuando la actividad económica se desarrolla a través del tiempo. En economía de la empresa se utilizan estas técnicas, con muy buenos resultados, para el estudio de problema como, por ejemplo, control de inventarios, selección de inversiones, mantenimiento y reemplazando de máquinas, planificación de la producción, política de publicidad, etc. Todo ellos desde la segunda mitad de los años sesenta. En macroeconomía hubo en los años setentas gran interés por la utilización de la teoría de control Kendri 1976 analiza alrededor de noventas aplicaciones.

3. CARACTERÍSTICAS PRINCIPALES DE LOS PROBLEMAS DE OPTIMIZACIÓN DINÁMICA Aunque optimización dinámica se expresa sobre todo en términos de una secuencia de tiempo, también es posible contemplar el horizonte de planificación como una secuencia de etapas en un proceso económico. En ese caso, la optimización dinámica puede ser vista como un problema de toma de decisiones de múltiples etapas. La característica que distingue, sin embargo, permanece el hecho de que la solución óptima implicaría más de un valor único para la variable de elección.

DECISIÓN MULTIETAPAS El carácter de múltiples etapas de optimización dinámica se puede ilustrar con un ejemplo simple discreta. Supongamos que una empresa se dedica a la transformación de una determinada sustancia a partir de un estado inicial A (estado de materia prima) en un estado Z terminal (estado de productos acabados) a través de un proceso de producción de cinco etapas. En cada etapa, la empresa se enfrenta el problema de elegir entre varios subprocesos alternativas posibles, cada uno que implica un coste específico. La pregunta es: ¿Cómo debe la empresa de seleccionar la secuencia de subprocesos a través de las cinco etapas con el fin de minimizar el costo total. En la figura. 1.1, se expone un problema por el trazado de las etapas horizontalmente y verticalmente los estados. El estado A inicial se muestra por el punto más a la izquierda (al comienzo de la etapa 1), el estado del terminal de Z se muestra por el punto más a la derecha (al final de la etapa 5). El resto de los puntos B, C,..., K muestran los diversos estados intermedios en los que la sustancia puede transformarse durante el proceso. Estos puntos (A, B,…, Z) se denominan vértices. Para indicar la posibilidad de transformación del estado A al estado B, trazamos un arco desde el punto A al punto. El otro arco AC muestra

Que la sustancia también se puede transformar en estado C en lugar de estado B. Cada arco se le asigna un valor específico - en el presente ejemplo, un costo se muestra en un círculo en la figura. 1.1. La decisión de la primera etapa es si para transformar la materia prima en el estado B (a un costo $ 2) o en estado C (a un costo de $ 4), es decir, si elegir arco AB o de arco de CA. Una vez que se toma la decisión, surgirá otro problema de la elección en la etapa 2, y así sucesivamente, hasta que se alcanza el estado de Z. Nuestro problema es elegir una secuencia conectada de arcos que van de izquierda a derecha, comenzando en A y que termina en Z, de tal manera que la suma de los valores de los arcos de componentes se reduce al mínimo. Tal secuencia de arcos constituirá una trayectoria óptima. El ejemplo en la figura. 1.1 es lo suficientemente simple para que una solución se pueda encontrar mediante la enumeración de todos los caminos admisibles de la A a la Z y escoger el que tiene los valores de arco mínimos totales. Para problemas más complicados, sin embargo, se necesita un método sistemático de ataque. Esto lo discutiremos más adelante cuando introducimos la programación dinámica en la Sección. 1.4. Por el momento, sólo vamos a notar que la solución óptima para el presente ejemplo es el ACEHJZ camino, con US $ 14 como el

costo mínimo de producción. Esta solución sirve para señalar un hecho muy importante: Un procedimiento miope de una etapa - en -un-tiempo optimización no lo hará en el rendimiento general de la trayectoria óptima. Por ejemplo, un fabricante de decisión miope habría elegido arco AB sobre el arco de CA en la primera etapa, debido a que el primero implica sólo la mitad del costo de este último, sin embargo, en el lapso de cinco etapas, la más costosa de arco de la primera etapa de CA debe ser seleccionado en su lugar. Es precisamente por esta razón, por supuesto, que un método que puede tener en cuenta todo el período de planificación debe ser desarrollado.

LA VERSIÓN VARIABLE CONTINUA El ejemplo en la figura. 1.1 se caracteriza por una variable etapa discreta, que toma sólo valores enteros. Además, se supone que la variable de estado para tomar valores que pertenece a un pequeño conjunto finito, {A, B,..., Z). Si estas variables son continuas

Podemos en cambio tener una situación tal como se muestra en la figura. 1.2, donde, por ejemplo, nos hemos basado sólo cinco posibles caminos de la A a la Z. Cada camino posible es visto ahora a viajar a través de un número infinito de etapas en el intervalo [0, TI. También hay un número infinito de estados en cada

ruta, siendo cada estado el resultado de una elección particular hecho en una etapa específica. Para ser concretos, visualicemos la fig. 1.2 para ser un mapa de un terreno abierto, con la variable de fase que representa la longitud, y la variable de estado que representa la latitud. Nuestro trabajo asignado es la de transportar una carga desde el punto A a Z ubicando un costo mínimo al seleccionar una ruta de viaje apropiado. El coste asociado con cada posible camino depende, en general, no sólo de la distancia recorrida, sino también de la topografía en ese camino. Sin embargo, en el caso especial donde el terreno es completamente homogéneo, de manera que el coste de transporte por milla es una constante, el problema de menor costo simplemente se reducirá a un problema de más corta distancia. La solución en este caso es un camino recto, bien, porque este camino implica el menor costo total (tiene el valor de ruta más baja). La solución de la línea recta es, por supuesto, bien conocido, hasta el punto de que uno por lo general lo acepta sin exigir para ver una prueba de ello. Para la mayoría de los problemas descritos en lo que sigue, la variable etapa representar el tiempo; luego las curvas de la fig. 1.2 representará trayectoria en el tiempo. Como ejemplo concreto, consideremos una empresa con un capital social inicial igual a A en el tiempo 0, y un capitel stock objetivo predeterminado igual a Z momento T. Muchos planes alternativos de inversión durante el intervalo de tiempo [0, TI son capaces de alcanzar el objetivo de capital en el momento T. y cada plan de inversiones implica un camino capital específico e implica un potencial de beneficio específico para la empresa. En este caso, podemos interpretar las curvas de la figura. 1.2 como posibles caminos de capital y sus valores de ruta como los beneficios correspondientes. El problema de la empresa es identificar el plan de inversión, de ahí la capital camino - que produce el máximo beneficio potencial. La solución del problema, por supuesto, dependerá crucialmente de cómo el beneficio potencial está relacionado y determinado por la configuración de la ruta del capital.

De la discusión anterior, debe quedar claro que, independientemente de si las variables son discretas o continuas, un tipo simple de problema de optimización dinámica contendría los siguientes ingredientes básicos: a. Un determinado punto inicial y un punto final determinado; b. Una serie de trayectorias admisibles desde el punto inicial hasta el punto terminal; c. Un conjunto de valores de ruta de acceso que sirven como índices de rendimiento (costo, beneficio, etc.) asociados a los diversos caminos; y d. Un objetivo que se ha especificado para maximizar o minimizar el valor de la ruta o el índice de rendimiento mediante la elección de la ruta óptima.

4. ENFOQUES ALTERNATIVOS PARA LA OPTIMIZACIÓN DINÁMICA Para abordar el problema anteriormente indicado de optimización dinámica, hay tres enfoques principales. Anteriormente hemos mencionado el cálculo de variaciones y programación dinámica. El restante, la generalización moderna de cálculo de variación, va bajo el nombre de teoría de control óptimo. Vamos a dar una breve reseña de cada uno.

CÁLCULO DE VARIACIONES

El cálculo de variaciones data del listón del siglo 17, el cálculo de variaciones es el enfoque clásico del problema. Uno de los primeros problemas que se plantea es el de la determinación de la forma de una superficie de revolución que encontrar la menor resistencia cuando se mueve a través de algún medio resistente (una superficie de revolución con el área mínima). Isaac Newton resolvió este problema y declaró sus resultados en su Principia, publicado en 1887. Otros los matemáticos de la época (por ejemplo, a Juan ya Jacobo Bernoulli) también estudiaron los problemas de carácter similar.

Estos problemas pueden ser representados por la siguiente formulación general:

Maximizar o minimizar Sujeto a:

Y

y (0)=A

(dado)

y (T)=Z

(T, Z dado)

Tal problema, con un funcional integral en una sola variable de estado, con puntos inicial y terminal completamente especificados, y sin limitaciones, se conoce como el problema fundamental (o problema más simple) de cálculo de variaciones. Con el fin de hacer este tipo de problemas significativos, que, es necesario que el funcional integrable (es decir, la integral debe ser convergente). Supondremos se cumple esta condición cuando escribimos una integral de la forma general. Además, supondremos que todas las funciones que aparecen en el problema son continuas y continuamente diferenciables. Se necesita esta hipótesis porque la metodología básica que subyace a la de las variaciones se asemeja mucho a la del cálculo diferencial clásico. La principal diferencia es que, en lugar de tratar con el dx diferencial que cambia el valor de y = f (x), ahora vamos a hacer frente a la " variación " de toda una curva y (t) que afecta el valor de la funcional V [y]. Se presenta el problema básico de cálculo de control de variaciones con la deducción de las condiciones necesarias y suficientes de optimalidad. El resultado fundamental es la ecuación de Euler. En cualquier problema de cálculo de variaciones, a cada función admisible se le asigna un número real, lo cual se establece a partir de un funcional. Un funcional es una aplicación, cuyo dominio es un conjunto de funciones, y cuyo rango es un subconjunto de R.

a. Conceptos Previos de Formulación del Problema de Cálculo de Variaciones: En el caso que nos ocupa, consideramos funcionales J cuyo dominio es el conjunto Ω

  Veamos algunos ejemplos sencillos de funcionales: 1) A cada función, le hacemos corresponder.



    

Como,

   x es una función continua por lo que es integrable, y por tanto,  es

un número real. Se trata por tanto de un funcional. 2) Para

  , sea   . En este caso no se trata de un funcional pues la

derivada de una función derivable es en general otra función, y no es un número real. 3) Para

   sea

      

En este caso es un funcional pues, al ser derivable, la derivada de en el punto medio del intervalo en el que está definida, existe y es un número real.

b.

Formulación del Problema de Cálculo de Variaciones:

A continuación, se define el problema de cálculo de variaciones para el caso escalar, con extremos fijos. Sea la función F una función de tres variables, de clase C (es decir que posee todas las derivadas parciales primeras y segundas, y son continuas). Se considera el siguiente funcional:



   ̇ 

aquella función verificando que



 con respecto a  Se trata de encontrar  con derivadas primera y segunda continuas   ,       , siendo  dados, para la que el

En donde es la función derivada de

      ̇          

funcional alcance el valor máximo (o el valor mínimo). El problema, por tanto, en el caso de maximización es

En donde recordamos que

                 Por tanto, para este problema, el conjunto factible (llamado conjunto de funciones admisibles) es

  {          } Como es habitual en optimización, el considerar solo el máximo (o el mínimo) de la función objetivo, en este caso del funcional objetivo, no supone ninguna pérdida de generalidad, ya que

    Y, además, el elemento  que minimiza  es el mismo  que maximiza . c.

Condición necesaria de primer orden. Ecuación de Euler:

La condición que vamos a obtener, llamada condición o ecuación de Euler, es la más importante del cálculo de variaciones. Su deducción es muy sencilla y

fácilmente comprensible, pues se apoya en la programación matemática de funciones diferenciales. Si

 es un máximo local, entonces en  se verifica la siguiente condición: ̇    ̇ ̇       

Que es la ecuación de Euler, donde  es la derivada parcial de con respecto a su primera variable y ̇ es la derivada parcial de con respecto a su segunda



 

̇





variable . 

EJERCICIO:

Obtener las funciones que verifiquen las condiciones necesarias de máximo local del siguiente problema:



    ̇     ̇   ̇

En este caso,  Calculemos sus derivadas con respecto a

   ̇

De donde: 

 y a ̇ :   ̇ ̇

   ̇   En este caso queda así: ̈  , es decir ̈  Como la ecuación de Euler es

Integrando ambos miembros de la igualdad, se obtiene:

Que es el único extremal.

̈      

Al imponer ahora las condiciones inicial y final, se obtiene.

            

Por lo que el máximo solo puede alcanzarse en la función

           

TEORÍA DEL CONTROL ÓPTIMO El estudio continuado de problemas de variaciones ha llevado al desarrollo del método más moderno de teoría de control óptimo. En la teoría de control óptimo, el problema de optimización dinámica es visto como que consta de tres (en lugar de dos) tipos de variables. Aparte de la variable tiempo t y la variable de estado y (t), se tiene en cuenta una variable de control u (t). De hecho, es el último tipo de variable. Que da la teoría de control óptimo de su nombre y ocupa el lugar central en este nuevo enfoque de la optimización dinámica. Para centrar la atención en la variable de control implica que la variable de estado es relegado a una posición secundaria. Esto sólo sería aceptable si la decisión sobre una vía de control u (t), una vez dada una condición inicial de y, determinar de forma inequívoca un camino y- variable de estado (t) como un subproducto. Por esta razón, un problema de control óptimo debe contener una ecuación que relaciona Y para U:

Tal ecuación, llamada ecuación de movimiento (o la ecuación de transición o ecuación de estado), muestra cómo, en cualquier momento del tiempo, dado el valor de la variable de estado, la elección del planificador de que impulsará la variable de estado y en el tiempo. Una vez que hemos encontrado el camino de variables de control óptimo u * (t), la ecuación de movimiento haría posible la construcción de la relacionadas a la ruta variable de estado óptima 30 (t). El problema de control óptimo correspondiente al cálculo de variaciones problema (1.8) es la siguiente: maximizar o minimizar

Tenga en cuenta que, en (1.9), no sólo el objetivo funcional contienen es como un argumento, sino que también ha cambiado de V [y] para V [ u). Esto refleja el hecho de que ahora es el instrumento fundamental de optimización. Sin embargo, este problema de control está íntimamente relacionado con el cálculo de las variaciones - problema (1.8). De hecho, mediante la sustitución de y (t) con u (t) , y la adopción de la ecuación diferencial y (t) U (t) como la ecuación de movimiento , se obtiene inmediatamente (1.9) . El avance más significativo en la teoría de control óptimo se conoce como el principio del máximo. Este principio se asocia comúnmente con el matemático ruso LS Pontryagin, aunque un matemático estadounidense, Magnus R. Tlestenes, producido de forma independiente un trabajo comparable en un informe de la Rand Corporation en 1949.2 La omnipotencia de este principio radica en su capacidad para tratar directamente con ciertas restricciones en la variable de control. En concreto, permite el estudio de los problemas en los que los valores admisibles de la variable de control se están confinados a otras cerradas, delimitadas convexas fijar bien. Por ejemplo, el conjunto de t puede ser el intervalo cerrado (0, 13, 0 requiriendo su (t) 5 1 durante todo el período de planificación. Si la propensión marginal a ahorrar es la variable de control, por ejemplo, a continuación, con una restricción

, puede

muy bien ser apropiado. En suma, el problema abordado por la teoría de control óptimo es (en su forma simple) el mismo que en (1.9), excepto que una restricción adicional, u (t) ɛ U. para

puede ser añadido a la misma. En este sentido, el

problema de control (1.9) constituye un caso especial (sin restricciones) cuando el juego U control es toda la recta real. a. Conocimientos básicos: Control óptimo es definido como un control admisible que maximiza el funcional objetivo. La teoría de control óptimo constituye una generalización del cálculo de variaciones. Este método fue desarrollado por el matemático ruso L.S Pontryagin, a fines de la década de los cincuenta. Este matemático desarrollo la condición de

primer orden al problema del control óptimo, la cual se denomina principio máximo. Diferencia del cálculo de variaciones, en el problema de control optimo se incorpora tanto la variable de control (u) como la variable de estado (y).Además, las dos variables se encuentran relacionadas mediante la ecuación de movimiento g.).El ( objetivo del control óptimo es determinar las trayectorias de las variables de control y estado que optimicen un funcional objetivo:

  ∫ () Sujeto a:   ()           Maximizar:

Este problema es muy similar al del cálculo de variaciones. El control óptimo se ha venido aplicando en la formulación de problemas económicos desde mediados de los años sesenta. Los trabajos pioneros fueron los de Koopmans y Cass, en los cuales se modela el crecimiento óptimo de una economía a lo largo del tiempo .El planteamiento de este modelo macroeconómico es simple. Por una parte, el funcional objetivo es la suma de las utilidades futuras de la sociedad:



 

  

 

Por otro lado, en cada periodo, la economía está sujeta a una restricción: la producción debe destinarse a consumo o a inversión bruta en capital .De esta manera:

      Donde la función de producción

     depende del capital (k),  representa la

variación del stock de capital con respecto al tiempo o la inversión neta en capital,

 la tasa de depreciación y  la depreciación del capital. Esta constituye la ecuación de movimiento, y relaciona el consumo (variable de control) con el capital existente en la economía (variable de estado).

En este tipo de problema de optimización dinámica se asume que existe un “dictador benevolente” (denominado planificador social), a quien le interesa

maximizar el bienestar de la sociedad y decide las asignaciones de consumo y capital en la economía.

De este modo, el problema que enfrenta el planificador social es el siguiente: Maximizar:



   sujeto a:           

 

  

 Dado)

A partir del problema (22) se obtiene la senda optima de tres variables: el consumo, EL CAPITAL (K) y la producción agregada (

 .

Una revisión detallada de la teoría de control optimo se encuentra en el capítulo III .En el desarrollo de la teoría y las aplicaciones se considerara el caso de una variable de control (u) y estado (y). b. Desarrollo del tema control óptimo: La teoría del control óptimo, mediante la cual pueden desarrollarse problemas de optimización intertemporal más complejos. El problema básico de optimización intertemporal más complejos .El problema básico de control óptimo a resolver es el siguiente:

  ∫    Sujeto a: ́        ( Dado)    ( Libre) Maximizar:

      Tal como se mencionó en el primer capítulo, en el problema de control optimo intervienen básicamente tres tipos de variables: el tiempo (t), la variable de estado (y) y la variable de control (u) .Algunos ejemplos económicos de variables de control y estado podrían ser la emisión monetaria y la inflación, o el gasto en publicidad y las ventas de una empresa. En estos casos, la primera variable, la de control, está sujeta a la decisión del agente que enfrenta el problema de optimización intertemporal, mientras que la segunda variable, la de estado, refleja el resultado de las decisiones tomadas sobre la variable de control. La trayectoria de la variable de estado se encuentra determinada a través de la ecuación de movimiento o ecuación de estado, en la cual se relaciona la variación de la variable de estado con respecto al tiempo (

́

) con las variables “t”, “y” y “u” a

través de la función g ( .). Una vez seleccionado el valor óptimo de la variable de control en un instante del tiempo, la función g (.) determinar la dirección de crecimiento de la variable de estado y, de este modo, su trayectoria en el tiempo. De esta manera, cuando el agente optimizador selecciona la senda optima de la variable de control, afecta tanto de manera directa el funcional objetivo mediante la variable “u”, como de manera indirecta a través de la variable “y”, que se encuentra definida por la

ecuación de movimiento. Por otra parte, en el problema (1) se considera un valor libre de y (T).Esta característica se debe a que en la derivación de la condición de primer orden del problema de control optimo, se hace referencia a sendas de control factibles, similares a las empleadas en la demostración de la ecuación de Euler. A través de la ecuación de movimiento, cada senda de control factible posee una correspondiente trayectoria factible de la variable de estado. En este sentido, si el problema tuviera un valor terminal

  

dado, las sendas de control factibles

no serian arbitrarias, sino que estarían predeterminadas para que satisfagan el

valor terminal de la variable de estado .De este modo, un valor terminal libre permite derivar la condición de primer orden del problema de control óptimo. Con respecto a la variable de control, esta se encuentra restringida al conjunto Ω,

que por lo general es un conjunto compacto y convexo .Esta restricción abre la posibilidad de que existan soluciones de esquina en el problema de optimización, a diferencia de los problemas de cálculo de variaciones, en los cuales solo se admiten soluciones interiores. En algunos problemas no se establecen [), por lo que se omite la condición u restricciones a la senda de control (Ω=] (t) .

 



Una de las ventajas que presenta la técnica de control optimo , es que no requiere necesariamente la continuidad y diferenciabilidad de las sendas de las variables de control y de estado en todo el horizonte de tiempo(0 , T).Para el caso de la senda optima de control , basta con que se sea continua por tramos o piecewisecontinuous .Este requisito implica que la trayectoria de la variable de control puede presentar un número determinado de puntos con discontinuidades , siempre y cuando en dichos puntos no tome un valor infinito. c. CONDICION DE PRIMER ORDEN: principio del máximo: Así como el cálculo de variaciones presenta una similitud con la optimización estática sin restricciones, el control óptimo vendría a ser equivalente a un problema de optimización estática sujeta a restricciones. En dicho caso, el problema puede resolverse mediante el método de los multiplicadores de Lagrange .A partir de la función objetivo, la restricción y una variable auxiliar λ, conocida como multiplicador de Lagrange, se conforma una nueva función, denominada Lagrangiana .Los valores que resuelven el problema una nueva función, denominada Lagrangiana .Los valores que resuelven el problema se determinan a partir de la optimización de esta función. De igual forma, en el control optimo a partir de la función intermedia f (t , y , u) , la ecuación de movimiento y una variable auxiliar λ(t) , de nominada variable de coestado , se determina la función hamiltoniana del siguiente modo:

́    

       



Para determinar la senda de las variables de control y estado que resuelven el problema , a partir de la función Hamiltoniana se emplea una condición de primer

orden , denominada principio de máximo .A continuación , se derivaran las condiciones del principio del máximo y se desarrollaran algunas aplicaciones. d. Principio del máximo:



Las sendas u (t) y (t) y resuelven el problema (1) si satisfacen las condiciones del principio del máximo establecidas para la función Hamiltoniana (2)

    b) ́    c)     d)    a)

     

La primera condición establece que el Hamiltoniana debe ser maximizado con respecto a la variable de control, sujeto a la restricción dada por el conjunto Ω. La

maximización del Hamiltoniana puede brindar básicamente dos tipos de soluciones: una solución al interior de conjunto Ω o una solución en el co ntorno. Asumiendo que el conjunto de control es igual a Ω= (

 ) y H es una función

que depende de manera no lineal de “u”, entonces nos encontraríamos en una

situación como la presentada .En este caso, para maximizar H, en el punto A se debe cumplir que la primera derivada con respecto a la variable de control sea igual a cero y que el Hamiltoniano sea cóncavo con respecto a “u”

    

 
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF