Libro Williamc Contro Robusto Con LMIs

September 1, 2017 | Author: Christian Ferrer Mendoza | Category: Vector Space, Infinity, Matrix (Mathematics), Mathematical Concepts, Physics & Mathematics
Share Embed Donate


Short Description

Download Libro Williamc Contro Robusto Con LMIs...

Description

Apuntes sobre control robusto y multiobjetivos de sistemas Williams Colmenares M., Universidad Sim´on Bol´ıvar Departamento de Procesos y Sistemas Fernando Tadeo R., Universidad de Valladolid Departamento de Ingenier´ıa de Sistemas y Autom´atica

Editorial Equinoccio. Editorial de la Universidad Sim´on Bol´ıvar Colecci´on Paraninfo

A Teresa y Hugo A Luisa Elena, Luis Carlos, Bruno, Daniel e Isabella

´Indice general

I. An´ alisis de sistemas con m´ ultiples objetivos I.1. Controladores multiobjetivo . . . . . . . . . . . . . I.2. Sobre la norma de se˜ nales y sistemas . . . . . . . . I.3. Evaluaci´on de las normas 2 e infinito de un sistema I.4. Desigualdades matriciales lineales . . . . . . . . . . I.5. Estabilidad robusta y desempe˜ no nominal . . . . . II. An´ alisis y s´ıntesis de controladores para sistemas II.1. Introducci´on . . . . . . . . . . . . . . . . . . . II.2. Especificaciones de funcionamiento . . . . . . II.3. An´alisis `1 . . . . . . . . . . . . . . . . . . . . II.4. Soluci´on mediante programaci´on lineal . . . . II.5. Control de un reformador de hidr´ogeno . . . . II.6. M´etodo de c´alculo basado en LMIs . . . . . . II.7. Resumen del cap´ıtulo . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

1 1 2 6 8 12

con saturaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

33 33 34 37 38 43 51 54

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

III. S´ıntesis de controladores mediante programaci´ on semidefinida III.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . III.2. Estabilidad cuadr´atica . . . . . . . . . . . . . . . . . . . . . III.3. Sistemas con incertidumbre acotada en norma . . . . . . . . III.4. Sistemas poli´edricos . . . . . . . . . . . . . . . . . . . . . . III.5. Condiciones menos conservadoras . . . . . . . . . . . . . . . III.6. Dise˜ no por realimentaci´on de la salida . . . . . . . . . . . . III.7. Sistemas ciertos . . . . . . . . . . . . . . . . . . . . . . . . . III.8. Sistemas con incertidumbre acotada en norma . . . . . . . . III.9. Sistemas con incertidumbre poli´edrica . . . . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

55 55 56 58 61 63 64 64 69 79

IV. Sintonizaci´ on robusta de controladores industriales IV.1. Introducci´on . . . . . . . . . . . . . . . . . . . . IV.2. Los algoritmos PID . . . . . . . . . . . . . . . . IV.3. PID v´ıa LMIs iterativas . . . . . . . . . . . . . IV.4. El algoritmo ILMI . . . . . . . . . . . . . . . . IV.5. Comparaci´on de t´ecnicas de entonaci´on . . . . IV.6. Enfoque frecuencial . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

89 89 90 90 91 93 95

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

i

A. Factorizaci´ on coprima 101 A.1. Factorizaci´on coprima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 A.2. Parametrizaci´on de Youla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

ii

Presentaci´on

Este libro es sobre programaci´on convexa aplicada al control. En particular, de la programaci´on lineal y la semidefinida. Recientes desarrollos han despertado mucho inter´es en este campo, entre ellos mencionamos los asociados con la teor´ıa de control robusto y los m´etodos num´ericos de puntos interiores. La primera, permite estudiar en un marco unificado la incertidumbre sobre el sistema y sobre las perturbaciones externas. Los segundos permiten resolver de manera muy eficiente problemas convexos. Adem´as, y esperamos convencer de ello al lector que con paciencia avance por el libro, es muy grande el campo de las aplicaciones de la programaci´on convexa en el control. En estos apuntes nos concentramos en el dise˜ no de sistemas de control para sistemas lineales invariantes en el tiempo, a los que imponemos m´ ultiples objetivos en el desempe˜ no del lazo –cerrado– de control (e.g., estabilidad, rapidez, atenuaci´on, sensibilidad). De particular inter´es son aquellos sistemas en los que la incertidumbre en el modelo o las perturbaciones externas son de tal magnitud que deben tenerse en consideraci´on expl´ıcitamente. As´ı, en el trabajo analizamos sistemas con incertidumbre surgida de imperfecciones del modelo, t´ıpicamente representada por una funci´on de transferencia que afecta globalmente al sistema en estudio. Adem´as, analizamos incertidumbre asociada con los par´ametros y de muy alta estructura. En cuanto a las perturbaciones, al contrario del enfoque tradicional que presupone la forma y s´olo desconoce el momento en la que afectar´a al sistema, u ´nicamente asumiremos conocida alguna cota superior (e inferior si es el caso) de ella (e.g., energ´ıa, amplitud, ruido blanco). En el caso de sistemas inciertos, estudiamos sistemas con incertidumbre acotada en norma y con incertidumbre poli´edrica. Ambos tipos con implicaciones pr´acticas importantes. El enfoque de partida es el cuadr´atico, esto es, siempre buscamos una funci´on de Lyapunov com´ un a todos los modelos que pueda tener un sistema. Desde el enfoque cuadr´atico, se derivan condiciones mucho menos conservadoras al encontrar ya no una sino diferentes funciones de Lyapunov. Ambos enfoques se basan en una representaci´on del sistema en variables de estado. Esto pone al alcance del dise˜ nador herramientas sumamente poderosas de an´alisis y s´ıntesis de compensadores. Ventaja adicional de este marco (variables de estado) es que no se hace ninguna distinci´on en el tratamiento de sistemas MIMO o SISO. En esa parte del trabajo (sistemas con incertidumbre) revisamos una serie de resultados de la ahora muy conocida teor´ıa del control robusto y ponemos ´enfasis en un enfoque integrador de la misma. Uno de los aportes de este trabajo es sin duda la soluci´on ofrecidas al dise˜ no con objetivos m´ ultiples cuando no todos los estados est´an disponibles y solamente una parte de ellos puede retroalimentarse, us´andose para control. Todos nuestros aportes est´an basados en el dise˜ no de un controlador din´amico. Tanto en el tratamiento de la incertidumbre como en el caso de las perturbaciones, el logro de los objetivos de

control se eval´ ua a trav´es de la “norma” de una funci´on de transferencia. Observe que hasta ac´a no hemos hecho ninguna distinci´on entre sistemas continuos y discretos; la raz´on es, que en general, se desarrollar´an resultados para ambos tipos de sistemas con el enfoque propuesto (normas). Notable excepci´on es la norma ` 1 cuyo ´ambito b´asicamente son los sistemas discretos y a cuyo estudio dedicamos un cap´ıtulo entero. A trav´es de esta norma, se resuelve el problema de control robusto en el que la incertidumbre se describe en t´erminos de magnitud. Las herramientas fundamentales de desarrollo son las desigualdades matriciales lineales, que se obtienen de una aplicaci´on de la f´ormula del complemento de Schur. Con ellas se puede formular una serie importante de problemas como uno de programaci´on convexa. De esta manera, problemas del ´ambito de H ∞ , H2 , `1 , ubicaci´on de polos en regiones, pasividad y otro buen n´ umero, encuentran un marco com´ un de planteamiento. De all´ı que, en ocasiones, hablemos de “dise˜ no multiobjetivos de sistemas”, ya que especificar condiciones de desempe˜ no del tipo antes mencionado significa sumar (en realidad intersectar) colecciones de desigualdades matriciales lineales en b´ usqueda de un punto factible, el controlador. Tambi´en importante, en este trabajo proponemos un par de enfoques para entonar controladores industriales con estructura est´andar, siempre en el ´ambito de la programaci´on convexa. El objetivo del libro es poner al alcance del lector conocimiento y t´ecnicas de la programaci´on lineal y semidefinida que se aplican al an´alisis y dise˜ no de sistemas de control. Como la lista de aplicaciones es extensa, en muchos casos hacemos demostraci´on rigurosa de algunos resultados y dejamos al lector el desarrollo de la extensi´on a otros casos; por ejemplo, se demuestra estabilidad y se deja para el lector las demostraciones de ubicaci´on de polos, H2 , etc. El libro est´a originalmente pensado para cursos electivos de pre y postgrado en sistemas de control, espec´ıficamente sobre aplicaciones de la programaci´on convexa o de m´etodos num´ericos en control. Tambi´en puede usarse en cursos b´asicos de sistemas de control, como complemento a las muy conocidas t´ecnicas anal´ıticas de dise˜ no de controladores, en cursos de sistemas multivariables y de control robusto. En el cap´ıtulo I se sientan las bases te´oricas que justifican los resultados presentados en los cap´ıtulos subsiguientes. En el cap´ıtulo II se presentan aplicaciones de la programaci´on lineal al c´alculo de controladores con restricciones de saturaci´on, basadas en la norma `1 . En el cap´ıtulo III se presentan algunas aplicaciones de la programaci´on semidefinida al c´alculo de controladores H∞ , H2 y ubicaci´on de polos. En el cap´ıtulo IV se presentan algunas aplicaciones espec´ıficas al c´alculo de controladores tipo Proporcional, Integral, Derivativo, ello por lo extendido del uso de este tipo de controladores. Los cap´ıtulos II, III y IV son independientes y, completado el estudio del cap´ıtulo I, el lector interesado puede ir directamente a cualquiera de ellos. Este libro es fruto de la intensa cooperaci´on cient´ıfica que hemos sostenido entre la Universidad Sim´on Bol´ıvar en Caracas, la Universidad de Valladolid en Valladolid y el Laboratoire d’Analyses et Architecture des System`es (LAAS) en Toulouse. En particular, los autores desean expresar su agradecimiento a los colegas Ernesto Granado, Omar P´erez, Jacques Bernussou, C´esar de Prada, Francisco del Valle, Maite Ur´ıa, Rosalba Lamanna. A la Jefa de la Secci´on de Producci´on de la Editorial Equinoccio, Margarita Oviedo por su desprendido apoyo y a Jos´e Manuel Guilarte de la Editorial por su paciente correcci´on del estilo del libro. Igualmente, agradecemos a las instituciones que hicieron posible esa cooperaci´on, a saber, los programas CYTED - RIII, PCP Automatique y Optimizaci´on de Sistemas y FEDER y al FONACIT. Finalmente agradecemos el financiamiento de la publicaci´on que realiza el Ministerio de Educaci´on y Ciencia Espa˜ nol, a trav´es del proyecto DPI2004-07444-C04-02 y a la Universidad Sim´on Bol´ıvar a trav´es de la Editorial Equinoccio y de la Direcci´on de Extensi´on. Williams Colmenares en Caracas y Fernando Tadeo en Valladolid

iv

CAP´ITULO

I

An´alisis de sistemas con m´ultiples objetivos

I.1.

Controladores multiobjetivo

El dise˜ no de estrategias de control que aseguren un n´ umero de objetivos (especificaciones) en un lazo de control ha sido objeto de intensa investigaci´on y estudio, pasando en los u ´ltimos 50 a˜ nos de ser un campo intuitivo y de sentido com´ un (“de ingenio”) [Cor96], [AH95], a uno riguroso y formal en el que matem´aticos e ingenieros encuentran tierra f´ertil. Dentro de las disciplinas que conforman los sistemas de control, el estudio de los sistemas lineales invariantes en el tiempo ha conocido enormes avances y cambios en los paradigmas de su estudio, en parte por su simplicidad y propiedades que permiten la aplicaci´on de poderosas herramientas matem´aticas y en parte porque esos resultados pueden ser aplicados a un importante n´ umero de sistemas, incluyendo algunos muy complejos (e.g., multimodelos [CGP98], no lineales [BA95], etc). De esta manera, el dise˜ no de controladores para sistemas lineales ha evolucionado desde reglas muy simples de sintonizaci´on [ZN42], ajustes de margen de fase y de ganancia [Kuo95], [PH96], dise˜ no basado en representaciones de estado como ubicaci´on de polos [PH96], control ´optimo, [AM89], LQG/LTR [DS81], dise˜ no basado en el margen del m´odulo (u operador diferencia de retorno) [DFT92], basado en los valores singulares y control robusto [San89], [MZ89], [DGK89], llegando hasta los paradigmas basados en la manipulaci´on de normas (de se˜ nales o de sistemas) y dentro de los que podemos mencionar H∞ , H2 , L1 , `1 . Este enfoque se ve fortalecido con la posibilidad de ubicar los modos de un sistema, no en puntos exactos del plano “s”, sino m´as bien en regiones del mismo (t´ecnicas denominadas de root clustering) y a lo que tambi´en denominaremos ubicaci´on de polos [CGP96]. Todo ello encuentra adem´as un medio integrado de formulaci´on en las desigualdades matriciales lineales (LMIs) [Boy94] que surgen de la f´ormula del complemento de Schur, esto es, los problemas antes mencionados pueden formularse como un conjunto de esas desigualdades (LMIs). Si, como demostraremos, los controladores H2 aseguran un buen rechazo al ruido y los controladores H∞ funcionan bien aun en presencia de incertidumbre asociada com din´amicas no modeladas y reflejadas sobre todo en altas frecuencias o en presencia de perturbaciones no conocidas pero acotadas en energ´ıa y si el agrupamiento de polos permite especificar algunas caracter´ısticas de la respuesta temporal del sistema, entonces entendemos c´omo

“el dise˜ no de controladores multiobjetivos” se refiere a una estrategia de control que permite, de manera expl´ıcita, establecer todas (o algunas) de esas especificaciones —antes mencionadas— en el c´alculo del controlador. Observe que la lista de especificaciones no es agotadora y que, adicionalmente, pueden incluirse otras especificaciones como cero error en estado estacionario (offset), estructura del controlador, etc., aunque ya no como LMIs y de all´ı que su inclusi´on conlleve un tratamiento especial en cada caso. Adicionalmente, bajo el mismo enfoque puede considerarse incertidumbre param´etrica en el modelo, esto es, incertidumbre en bajas frecuencias normalmente asociada con variaci´on —o desconocimiento— en los par´ametros del modelo. En este texto nos proponemos presentar una visi´on integrada del dise˜ no de controladores multiobjetivo, con particular ´enfasis en los casos en los que aparece incertidumbre param´etrica en los sistemas. Aunque la aplicaci´on a sistemas perfectamente conocidos tiene no poca importancia, la extensi´on a ese tipo de sistemas ciertos en la mayor´ıa de los casos es inmediata y hace del enfoque una herramienta aun mas poderosa para el dise˜ no de controladores. En este trabajo entenderemos como controlador multiobjetivos a aquel que satisface simult´aneamente ciertos criterios de desempe˜ no (performance/prestaci´on) medidos a trav´es de:

la norma H2 la norma H∞ la ubicaci´on de polos la norma `1 . Sin embargo, a´ un no hemos definido formalmente tales elementos de medida, de all´ı que este primer cap´ıtulo lo consagremos a sentar las bases de tal meta, es decir, las definiciones y demostraciones que luego ser´an usadas en todo el resto del trabajo. Cuando nos referimos a una representaci´on de estados, nos referimos a un sistema como el descrito en (I.1), basado en una representaci´on en variables de estado de un sistema (LTI), que en su forma gen´erica es: x(t) ˙ = Ax(t) + Bu(t) + B1 w(t) y(t) = Cx(t) + Dw(t) z(t) = C1 x(t) + D1 u(t)

(I.1)

donde x(t) ∈ IRn es el vector de estados, u(t) ∈ IRm es el vector de control, w(t) ∈ IRnw es el vector de perturbaciones externas, y(t) ∈ IRp es el vector de salidas medibles y z(t) ∈ IRnz es el vector de salidas a controlar. Las matrices A, B, B1 , C, C1 , D, D1 son matrices reales de dimensiones apropiadas que pueden o no ser matrices constantes.

I.2.

Sobre la norma de se˜ nales y sistemas

Las normas son operaciones matem´aticas (funciones) realizadas sobre un operando (un vector, una matriz, una se˜ nal, un sistema, etc.) que nos permiten compararla con sus similares (otro vector, matriz, etc.). En ese sentido, son m´etricas (medidas) que dan informaci´on sobre el tama˜ no del elemento al cual se le aplica la norma. De particular inter´es para este texto son las normas de se˜ nales y sistemas. Para facilitar la presentaci´on de las normas que usaremos de se˜ nales y sistemas, comenzamos con las de vectores y matrices.

2

Norma de vectores y matrices Sea Cn el espacio lineal de los n´ umeros complejos de dimensi´on n. Diremos x ∈ C n implicando: x = (x1 , x2 , . . . , xn ) con xi ∈ C Las normas m´as comunes en Cn est´an dadas por: 4

kxkp = (|x1 |p + |x2 |p + . . . + |xn |p )1/p

p = 1, 2, ∞

donde |xi | es la magnitud de xi y kxk∞ se interpreta como: m´ax |xi |. i

La norma kxk2 , cuando x ∈ IRn , es simplemente la longitud euclideana del vector x. Sea ahora Cn×n , el espacio de matrices en n × n con elementos en C. Normas comunes de A ∈ C n×n son (i = 1, . . . , n; j = 1, . . . , n): n X |aij | kAk1 = m´ax j

i=1

kAk∞ = m´ax i

y la norma espectral

n X j=1

|aij |

kAk2 = m´ax σi (A) = σ ¯ (A) i

donde σi (A) es el valor singular i-´esimo de A, que se calcula de la forma: q σi (A) = λi (AH A)

y AH es el conjugado hermitiano de A –transpuesto m´as complejo conjugado de la matriz–. Podemos observar que, de acuerdo con la definici´on, todos los valores singulares son n´ umeros reales.

Normas de se˜ nales y sistemas Sea Y (s) una funci´on de C → Cn y sea Ln2 el conjunto de todas las funciones de dimensi´on n para las que la siguiente cantidad es finita: · ¸1/2 Z ∞ 1 4 kY (s)k2 = Y (jω)H Y (jω)dω (I.2) 2π −∞ (I.2) define la norma-2 de la funci´on Y (s). Para el caso en el que Y (s) no tenga polos en el semiplano derecho (cerrado), el teorema de Parseval nos da el equivalente en el dominio del tiempo de esa norma. Para ello, sea Y (s) la transformada de Laplace de y(t). Entonces se cumple que: kY (s)k2 = ky(t)k2 =

·Z



y(t)T y(t)dt 0

¸1/2

.

En el caso de que el sistema Y (s) sea una matriz de sistemas (funciones) de dimensiones m × n se tiene que: 4

kY (s)k2 =

·

1 2π

Z

∞ −∞

£ ¤ T r Y (jω)H Y (jω) dω

¸1/2

.

3

Observe que Y H (jω) = Y (−jω)T . Si Y (s) ∈ Lm×n entonces 2 4

kY (s)k∞ = sup σ ¯ (Y (jω))

(I.3)

ω

donde σ ¯ es el valor singular m´aximo, esto es: σ ¯ (Y (jω)) = m´ax i

q

λi (Y (jω)H Y (jω))

El siguiente teorema establece que la norma infinita es la norma inducida de la norma 2.

Teorema I.1 ([MZ89] y [San89]) Consideremos el sistema (I.1) en el que la perturbaci´ on –w(t)– es cero y sean Y (s) y U (s) las transformadas de y(t) y u(t). M´ as a´ un, sea Y (s) = G(s)U (s), esto es, G(s) = C(sI −A) −1 B. Entonces: ky(t)k2 = kG(s)k∞ ku(t)k2

(I.4)

La demostraci´on de este teorema puede encontrarse en las referencias mencionadas en el enunciado y se basa en el hecho de que el lado izquierdo de (I.1) en general sobreestima a ky(t)k2 , pero si no hay restricci´on en la se˜ nal de control u(t) salvo la de su cota en la norma 2, siempre puede construirse una se˜ nal u(t) ∈ L m (de hecho una 2 sinusoide modulada por una exponencial decreciente) tal que esa cota superior sea alcanzada.

Observaci´ on I.1 Observe que (I.4) puede interpretarse como que la norma infinita de la funci´ on de transferencia entre “u(t)” y “y(t)” en el sistema (I.1) da la m´ axima amplificaci´ on de la energ´ıa de la se˜ nal de entrada u(t).

Ejemplo normas 2 e infinito

Se desea calcular la norma infinito y 2 del siguiente sistema: G(s) =

1 s+5

Para el c´alculo de la norma 2 se puede usar el teorema de Parseval, esto es: kG(s)k2 = kg(t)k2 donde g(t) es la respuesta al impulso de G(s), esto es: g(t) = e−5t

t≥0

entonces kG(s)k2 =

µZ

∞ 0

{e−5t e−5t }dt

¶1/2

=−

En el caso de la norma infinito, se sabe que: kG(s)k∞ = sup |G(jω)| = sup √ ω

4

ω

¯∞ 1 −10t ¯¯ 1 e =√ . ¯ 10 10 0 1 = 0,2. + 52

ω2

Ejemplo valores singulares Considere el sistema: G(s) =

1 s2 + 9

µ

s −5



se desea dibujar la evoluci´on de sus valores singulares cuando ω toma valores en el intervalo [0, ∞). Igualmente, se desean esos mismos valores para G11 (s) y G12 (s). Hay que determinar tambi´en el valor de la norma infinito. Note que en el caso de las transferencias G11 (s) y G22 (s) la respuesta graficada es simplemente el diagrama de bode, siendo como son funciones de transferencia SISO. Un programa en Matlab que calcula y grafica los valores singulares se lista a continuaci´on: s=tf(’s’) g11=s/(s^2+9) g12=-5/(s^2+9) G=[g11;g12] sigma(G,’k’,g11,’r’,g12,’b’) y la gr´afica de los valores singulares vs frecuencia se muestra en la figura (I.1). 60

40 G(ω) y G12(ω)

Valores singulares

20 G(ω) y G (ω) 11

0

−20

−40 G11(ω) G12(ω)

−60

−80 −1 10

0

1

10

10

2

10

Frecuencia (rad/s)

Figura I.1.: Evoluci´on de los valores singulares.

Observe que en ω = 3 los valores singulares no est´an definidos, i.e., kG(s)k∞ = kG11 (s)k = kG12 (s)k = ∞. En realidad hemos abusado del lenguaje, porque para ese sistema la norma infinita no existe, siendo que no es finita o, dicho de otra manera, la norma infinita no es de ninguna utilidad para este sistema. Consideremos ahora sistemas discretos lineales invariantes en el tiempo y sea x(k) una funci´on (secuencia) de II → IRn . La norma `p de x se define como [DD95]: ! p1 Ã∞ X p |x(k)|p ) kxkp = k=0

5

si esa cantidad es finita. En la ecuaci´on anterior, | · |p es la norma p del vector x(k) e II es el conjunto de los n´ umeros enteros. De particular inter´es son las normas donde p = 1, 2, ∞ y, en el caso de que p = ∞, esa norma se define como: kxk∞ = sup m´ax |xi (k)| ω

i

Finalmente, enunciamos sin demostraci´on el lema sobre la descomposici´on en valores singulares tomado de [GL95]: Lema I.1 Para cualquier matriz compleja Q ∈ IRm×p , existen matrices unitarias Y y U en m × x y p × p y una matriz real Σ tal que:

Q=Y

·

Σ 0 0 0

¸

UH

(I.5)

en el que Σ = diag(σ1 , . . . , σr ) con σ1 ≥ σ2 ≥ . . . ≥ σr ≥ 0 y m´ın(m, p) ≥ r. Adem´ as σi son los valores singulares de Q. Cuando Q es real, el par (Y, U ) pueden escogerse ortonormales. La expresi´ on (I.5) es com´ unmente denominada descomposici´ on en valores singulares de Q.

I.3.

Evaluaci´ on de las normas 2 e infinito de un sistema

En la secci´on previa hemos introducido brevemente las definiciones de normas 2 e infinito de se˜ nales y sistemas. Salvo en muy pocos casos, estas definiciones no nos proporcionan un medio eficaz para el c´alculo de tales normas. En esta secci´on presentamos un conjunto de medios que nos permiten el c´alculo de esas normas, en sistemas lineales con representaci´on de estados. Con este prop´osito, consideremos una representaci´on simplificada del sistema (I.1) y tengamos al sistema lineal invariante en el tiempo (LTI): x(t) ˙ = Ax(t) + Bu(t) (I.6) y(t) = Cx(t) donde x(t) ∈ IRn es el vector de estados, u(t) ∈ IRm es el vector de entradas (control) y y(t) ∈ IRp es el vector de salidas medibles del sistema. A, B, C son matrices constantes de dimensiones apropiadas.

Es f´acil demostrar que la funci´on de transferencia del sistema [PH96] es: G(s) =

Y (s) = C(sI − A)−1 B U (s)

(I.7)

Los siguientes teoremas nos dan las herramienta de c´alculo de esas normas que buscamos.

Teorema I.2 ([ZK88]) Para el sistema (I.6), las siguientes proposiciones son equivalentes: 1.

A es una matriz estable y kG(s)k∞ ≤ γ

2.

Existe una matriz P definida positiva tal que AT P + P A + γ −2 P BB T P + C T C < 0

6

(I.8)

Demostraci´ on: Una comprobaci´on muy sencilla de que (2) ⇒ (1) est´a inspirada en las propiedades del operador diferencia de retorno (return difference operator) que se hace en [AM89] y es como sigue: cambiando el signo de la desigualdad (I.8) y sumando y restando sP con s = jω y ω la frecuencia en la que ocurre la norma infinito de G, tenemos que: (−sI − A)T P + P (sI − A) − γ −2 P BB T P − C T C > 0, (I.9)

multiplicando la derecha de (I.9) por (sI − A)−1 B y a la izquierda por su transpuesto complejo conjugado (hermitiano) resulta en: B T P (sI − A)−1 B + B T (−sI − AT )−1 P B −γ −2 B T (−sI − AT )−1 P BB T P (sI − A)−1 B ≥ (I.10) B T (−sI − AT )−1 C T C(sI − A)−1 B

a la derecha de la desigualdad (I.10) reconocemos kG(s)k2∞ y recordando que:

[γI − γ −1 B T P (sI − A)−1 B]H [γI − γ −1 B T P (sI − A)−1 B] ≥ 0, la proposici´on (1) sigue. La demostraci´on de que (1) ⇒ (2) puede encontrarse en la cita antes enunciada. Teorema I.3 ([San89] [PSG92]) Consideremos al sistema (I.6) y sea A una matriz hurwitz (estable), entonces kG(s)k22 = T r(CLc C T ) = T r(B T Lo B)

(I.11)

donde Lc es el gramiano de controlabilidad y Lo es el gramiano de observabilidad y satisfacen: ALc + Lc AT + BB T A T Lo + L o A + C T C

= 0 = 0

(I.12)

Demostraci´ on: Sin p´erdida de generalidad, nos limitaremos a los sistemas de una entrada y una salida (SISO). Igualmente, como ambas demostraciones son similares nos limitaremos a la asociada al gramiano de controlabilidad. En tal sentido, recordemos que: Z ∞

4

T

eAt BB T eA t dt

Lc =

0

donde

eAt = I + At + . . . + luego se cumple que:

A n tn + ... n!

d(eAt ) = AeAt = eAt A dt

ahora bien, T

CLc C =

Z



T

CeAt BB T eA t C T dt 0

pero recordemos que la transformada inversa de G(s) es L−1 (G(s)) = g(t) = CeAt B y entonces CLc C T = y por el teorema de Parseval

Z

∞ 0

g(t)g(t)T dt = kg(t)k22

kG(s)k22 = kg(t)k22 = CLc C T por otra parte

ALc + Lc AT + BB T = R ∞ At R∞ T T Ae hBB T eA t dt +i 0 eAt BB T eA t AT dt + BB T = 0R T T ∞ d T eAt BB T eA t dt + BB T = eAt BB T eA t |∞ 0 + BB 0 dt −BB T + BB T = 0.

7

Ejemplo En el sistema que se describe a continuaci´on, se desea calcular las normas 2 e infinito de: G(s) =

s s2 + s + 1

el listado de un programa de MATLAB que las calcula se muestra a continuaci´on s=tf(’s’) G_tf=s/(s^2+s+1) G=ss(G_tf) Lc=gram(G,’c’) [a,b,c]=ssdata(G) Norma2=c*Lc*c’ Lo=gram(G,’o’) OtraN2=b’*Lo*b Respuesta=bode(G); NormaInf=max(Respuesta) obteni´endose: kG(s)k2 = I.4.

p

0,5

y

kG(s)k∞ = 1.

Desigualdades matriciales lineales

Una desigualdad matricial lineal (LMI por sus siglas en ingl´es, Linear Matrix Inequality) tiene la forma [Boy94]: F (x) = F0 +

m X

x i Fi > 0

(I.13)

i=1

donde x ∈ IRm es la variable y las matrices sim´etricas Fi (=FiT ∈ IRn×n ), i = 0, . . . , m son dadas. La desigualdad en (I.13), entendi´endose como que F (x) es una matriz definida positiva, i.e., u T F (x)u > 0 para todo u ∈ IRn diferente de cero. Observaci´ on I.2 Hay que se˜ nalar que pueden tenerse desigualdades matriciales lineales no estrictas si la desigualdad es del tipo ≥. Una caracter´ıstica interesante es que desigualdades matriciales (convexas) no lineales pueden ser convertidas a LMIs a trav´es de la f´ormula del complemento de Schur y que detallamos a continuaci´on. Lema I.2 ([Boy94]) Las siguientes proposiciones son equivalentes: 1. S1 =

8

2.

P > 0 y R − QT P −1 Q > 0 o ´

3.

R > 0 y P − QR−1 QT > 0

µ

P QT

Q R



>0

(I.14)

Demostraci´ on: Surge del hecho de que siendo (I.14) definida positiva (> 0), entonces P y R tambi´en lo son. Construyendo la matriz de transformaci´on T1 , regular (con autovalores todos diferentes de cero, de hecho todos iguales a uno): µ ¶ I −P −1 Q T1 = (I.15) 0 I entonces S2 =

µ

P 0

0 R − QT P −1 Q



= T1T S1 T1 .

(I.16)

siendo que S1 es definida positiva y T1 regular (de hecho tambi´en definida positiva), entonces S2 > 0. Por otro lado, si S2 > 0 entonces P y R son definidas positivas, siendo que T1 es regular, entonces: S1 = (T1T )−1 S2 T1−1

(I.17)

de donde surge que S1 > 0 y la primera proposici´on del lema (I.14) queda demostrada. Podemos proceder de manera similar con la proposici´on 2 del Lemma (I.14) si definimos la matriz de transformaci´on:

T2 =

µ

I −R−1 QT

0 I



.

(I.18)



0 y QT P −1 Q − R < 0 o ´

3.

R > 0 y QR−1 QT − P < 0.

−P QT

Q −R

En conclusi´on, las LMI (I.14) y (I.19) son equivalentes a sus contrapartes no lineales.

Observaci´ on I.3 Hacemos notar que en una LMI las variables son matrices que aparecen en forma lineal en la desigualdad. Una vez escrita como una LMI, podemos invocar con certeza la convexidad de la desigualdad, lo que muchas veces no es aparente de las desigualdades no lineales.

Observaci´ on I.4 Una vez escrita una desigualdad matricial como una LMI, existen herramientas poderosas para la resoluci´ on de tales problemas, como por ejemplo el “Toolbox de LMIs de Matlab”, [GNL95], que utiliza m´etodos (e.g., del elipsoide [Win94]) que aprovechan la estructura particular de las LMI para su resoluci´ on.

En un sentido m´as amplio, los problemas formulados en t´erminos de desigualdades matriciales lineales, no son m´as que problemas de programaci´on semidefinida, los que a su vez son una generalizaci´on de los muy conocidos problemas de programaci´on lineal en las que las restricciones de desigualdad son reemplazadas por desigualdades generalizadas correspondientes al cono de matrices semidefinidas [PL03].

9

En su forma primal pura, un problema de programaci´on semidefinida se define como el problema de optimizaci´on: m´ın traza(CX) sujeto a traza(Ai X) = bi ∀i = 1, . . . , m, (I.20) X≥0 donde X ∈ Sn , el espacio de matrices reales y sim´etricas en n × n, b ∈ IRm y C, A1 , . . . , Am ∈ Sn , son matrices sim´etricas dadas. En este libro presentaremos una serie de resultados sobre el an´alisis y s´ıntesis de controladores H ∞ , H2 y de ubicaci´on de polos en regiones que encuentran un marco com´ un en su formulaci´on a trav´es de LMIs, esto es, como un problema de programaci´on semidefinida. As´ı por ejemplo la desigualdad (I.8) puede escribirse como la siguiente LMI en P > 0: µ T ¶ A P + P A + CT C P B 0

(I.22)

2. AP + P AT + BB T < 0

(I.23)

Demostraci´ on: En efecto, si la segunda condici´on (I.23) es satisfecha, se cumple que P > L c , por lo que kGk22 = CLc C T ≤ CP C T pero la LMI de la condici´on (I.22) implica que CP C T < γI.

Observaci´ on I.5 Cuando no hay incertidumbre en el modelo se puede, con la introducci´ on de una variable matricial adicional W , conseguir el m´ınimo de esa norma [GPS92] y que por supuesto coincide con el que arroja el enfoque, digamos cl´ asico, del control o ´ptimo [AM89].

En lo sucesivo nos referiremos a un controlador H2 (o H∞ ) como aquel que hace que la norma 2 (o infinito) de la funci´on de transferencia del sistema a lazo cerrado, cumpla con alguna especificaci´on (usualmente cota superior) dada. Podemos notar que el problema de dise˜ no de un controlador que satisfaga criterios en ambas normas (H 2 y H∞ ) puede formularse como una colecci´on de LMIs.

10

Ejemplo

Consideremos una vez m´as el sistema del ejemplo de la secci´on (I.3) y calculemos cotas para sus normas 2 e infinito. El listado MATLAB, destinado al c´alculo de una matriz P para una cota superior —digamos 1.01— de la norma infinito, se muestra a continuaci´on. Se hace uso del toolbox de desigualdades matriciales lineales.

num=[1 0]; den=[1 1 1]; [a,b,c,d]=tf2ss(num,den); gamma=1.01; setlmis([]); p=lmivar(1,[2 1]); lmiterm([1 1 1 p],a’,1,’s’); lmiterm([1 1 1 0],c’*c); lmiterm([1 2 1 p],b’,1); lmiterm([1 2 2 0],-gamma^2); lmiterm([-2 1 1 p],1,1); eje14=getlmis; [tmin,popt]=feasp(eje14); p=dec2mat(eje14,popt,1)

% % % % %

LMI LMI LMI LMI LMI

#1: #1: #1: #1: #2:

a’*p+p*a c’*c b’*p -gamma p

y una matriz P que verifica la condici´on (I.21) esta dada por P =

µ

1,0047 0,0037

0,0037 1,0054



√ por otra parte, el listado MATLAB del c´alculo de una matriz P > 0, para una cota superior de 0,501 de la norma 2, se muestra a continuaci´on. De nuevo se utiliza el toolbox de desigualdades matriciales lineales.

num=[1 0]; den=[1 1 1]; [a,b,c,d]=tf2ss(num,den); gamma=0.501; setlmis([]); p=lmivar(1,[2 1]); lmiterm([-1 1 1 0],gamma); lmiterm([-1 2 1 p],1,c’); lmiterm([-1 2 2 p],1,1); lmiterm([2 1 1 p],a,1,’s’); lmiterm([2 1 1 0],b*b’); lmiterm([-3 1 1 p],1,1); eje142=getlmis; [tmin,popt]=feasp(eje142); p=dec2mat(eje142,popt,1)

% % % % % %

LMI LMI LMI LMI LMI LMI

#1: #1: #1: #2: #2: #3:

gamma^2 p*c’ p a*p+p*a’ b*b’ p

siendo una matriz P > 0 que verifica (I.22) y (I.23): P =

µ

0,5006 −0,0003

−0,0003 0,5008



11

I.5.

Estabilidad robusta y desempe˜ no nominal

El dise˜ no de sistemas de control que aseguren un buen desempe˜ no del lazo, en presencia de incertidumbre en el modelo y/o de perturbaciones persistentes de las cuales s´olo se conozca una cota en su energ´ıa, ha sido objeto de intensa investigaci´on desde finales de la d´ecada de los 70’s. En efecto, el control robusto es una teor´ıa que ha alcanzado madurez y que goza de amplia aceptaci´on, dada su caracter´ıstica de manejo expl´ıcito del conocimiento de la incertidumbre y de las perturbaciones externas. En esta secci´on presentamos las bases sobre las que se fundamenta esta teor´ıa y que, de una manera muy simple, pueden resumirse en: bajo suposiciones adecuadas, tanto el problema de estabilidad robusta como el de desempe˜ no nominal pueden formularse como uno de determinaci´ on de un controlador H ∞ . Para facilitar la presentaci´on de los resultados de la teor´ıa de control robusto, primero nos limitaremos al caso de sistemas de una entrada y una salida (SISO), para luego extrapolar esos resultados al caso multivariable a trav´es de los valores singulares de matrices.

Sistemas de una entrada y una salida Consideremos al sistema de la figura (I.2), cuya funci´on de transferencia y(s)/r(s) viene definida por: T (s) =

pc , 1 + pc

(I.24)

que tradicionalmente se conoce como funci´on complementaria. d(t) u(t)

e(t)

r(t)

y(t) c(s)

+

p(s)

+

(-)

Figura I.2.: Lazo cl´asico de control.

De nuevo, en relaci´on con la figura (I.2), la funci´on de transferencia e(s)/r(s) (´o y(s)/d(s)) viene dada por: S(s) =

1 , 1 + pc

(I.25)

que tradicionalmente se denomina como funci´on de sensibilidad, ya que es la funci´on que determina (en el dominio de la frecuencia) la sensibilidad del lazo de la figura (I.2) a cambios en la planta p(s). Evidentemente, S(s) + T (s) = 1, y de all´ı el nombre de T (s). Antes de entrar en el tema de estabilidad robusta, consideremos la estabilidad del lazo representado en la figura I.2 y demos algunas definiciones. Definici´ on I.1 El lazo representado en la figura (I.2) es internamente estable si toda funci´ on de transferencia, entre una entrada y una salida del sistema, es estable.

12

Consideremos ahora cualquier realizaci´on m´ınima de T (s) de la forma: x˙ y

= Acl x + Bcl r = Ccl x + Dcl r

Lema I.4 ([San89]) El sistema de la figura (I.2) es internamente estable si y s´ olo si los autovalores de la matriz Acl est´ an en el semiplano izquierdo abierto. Esto es, que la matriz Acl es hurwitz. Siendo Acl la matriz de estados (o din´amica) de cualquier funci´on de transferencia del lazo de la figura (I.2), la ubicaci´on de sus autovalores determina la de los polos de cualquier funci´on de transferencia. Si entendemos por robustez la capacidad de un sistema a lazo cerrado para responder adecuadamente ante perturbaciones externas y/o variaciones en el modelo de la planta, tradicionalmente dicha robustez se asegura ante incertidumbre en el modelo dise˜ nando sistemas con amplios m´argenes de fase (φ m ) y de ganancia (gm ) [PH96]. En la figura (I.3) se muestran sobre un diagrama de Nyquist, en forma gr´afica, tales m´argenes.

Figura I.3.: Margen de fase φm y de ganancia gm de un sistema SISO.

El margen de ganancia (gm ) permite afrontar incertidumbre en la ganancia del proceso a controlar. En relaci´on con la figura (I.4), esto significa alg´ un escalar β del que s´olo se conocen sus cotas m´aximas. El margen de fase (φm ) permite hacer frente a cambios —incertidumbre— en la fase. En relaci´on con la figura (I.4), alg´ un escalar φ del que s´olo se conocen sus valores extremos. De modo que la planta real es la suma de la planta nominal (p(s)) y la incertidumbre (βe−φs ). sistema real

r(t) +

c(s) u(t)

βe−φs

p(s)

y(t)

(-)

Figura I.4.: Representaci´on cl´asica de lazo incierto.

Hay que hacer notar que los enfoques de margen de fase o de ganancia presuponen que s´olo hay desconocimiento en uno de los dos par´ametros, i.e., la magnitud (β) o la fase (φ), no en ambos. En general se presenta incertidumbre en los dos y es f´acil generar casos en los que, aun teniendo excelentes m´argenes de fase y ganancia, una peque˜ na variaci´on simult´anea en ambos —magnitud y fase– sobre los valores nominales, genera plantas inestables.

13

De all´ı la idea de utilizar una nueva medida que conjugue variaciones simult´aneas en magnitud y fase. Surge el margen del m´odulo como nueva medida de robustez, basada en el operador diferencia de retorno. En relaci´on con el lazo cl´asico que se muestra en la figura (I.2), definiremos al operador diferencia de retorno (O(ω)) para una frecuencia dada (ω), como la distancia desde el punto (−1, 0) —o ejπ — en el plano “s”, al diagrama de Nyquist correspondiente a esa frecuencia y que es equivalente al inverso de la magnitud de la funci´on de sensibilidad evaluada en esa frecuencia, esto es: O(ω) = |S(jω)−1 | = |1 + p(jω)c(jω)| El margen del m´odulo se define como: Mm = m´ın O(ω) ω

Mm determina la distancia m´as cercana, en el diagrama de Nyquist, al punto (−1, 0) del plano “s”, esto es, el punto m´as cercano a encerrar el (-1,0) y por ende, a convertir al lazo en inestable. M m permite afrontar incertidumbre en magnitud y fase simult´aneamente en un lazo. En la figura (I.5) mostramos gr´aficamente un ejemplo del operador.

Figura I.5.: Operador diferencia de retorno.

A continuaci´on presentamos un resultado b´asico de la teor´ıa de control robusto basado en esto u ´ltimo.

Estabilidad robusta Para poder establecer qu´e condiciones se requieren para garantizar la robustez de un sistema ante incertidumbre en el modelo de la planta, primero debemos establecer un modelo adecuado de la incertidumbre a considerar. En el caso de margen de fase y de ganancia, la robustez la establecen esos m´argenes en la forma de l´ımites soportables de variaci´on. Es relativamente sencillo, a trav´es de ensayos en el sistema, obtener cotas para la incertidumbre en la magnitud y para la incertidumbre en la fase de un sistema dado. Sin embargo, ello conducir´ıa a una cantidad innumerable de “formas” de la incertidumbre para las que ser´ıa muy dif´ıcil desarrollar una teor´ıa general. En vista de que cualquiera que sea la forma de la incertidumbre del sistema, siempre, de manera m´as o menos conservativa, ella puede ser aproximada por una circunferencia, en el paradigma de control robusto, ´esta es la

14

descripci´on m´as com´ un de la incertidumbre y equivale a suponer que se conocen los l´ımites m´aximos de desviaci´on de la magnitud sobre un valor nominal, pero se desconoce totalmente la fase. En relaci´on con el diagrama de la figura (I.2) supondremos que la planta real es descrita por:

y entonces,

p(s) = pn (s) + la (s)

(I.26)

|p(jω) − pn (jω)| ≤ l¯a (ω)

(I.27)

esquem´aticamente podemos llevar esta incertidumbre al diagrama de Nyquist del sistema, tal como se muestra en (I.6).

Figura I.6.: Modelo de la incertidumbre.

Se desprende de la descripci´on de la incertidumbre que, para una frecuencia ω dada, ¯la (ω) es la cota m´axima de la magnitud de la incertidumbre y que no hay informaci´on sobre la fase (incertidumbre total en la fase). A t´ıtulo de ejemplo, consideremos un sistema de control de temperatura de un tanque de agua, que tenga circulaci´on de agua permanente y nivel constante. El agua es calentada a trav´es de unas resistencias el´ectricas. El ejemplo lo tomamos de [Qui04]. La funci´on de transferencia entre la potencia suministrada y la temperatura del agua se determinan de manera experimental, dando escalones de potencia en la entrada y observando la respuesta en la salida. Se realizan 4 pruebas, dos escalones positivos y dos negativos resultando las 4 funciones de transferencia que describimos a continuaci´on: G1 (s) = G2 (s) = G3 (s) = G4 (s) =

0,6125 −32s 254s+1 e 0,75 −25s 215s+1 e 0,7 −20s 100s+1 e 0,6 −34s 200s+1 e

Promediando las ganancias, las constantes de tiempo y los retrasos obtenemos como sistema nominal: Gn (s) =

0, 6656 −28s e 192s + 1

de donde es muy f´acil generar una funci´on m´axima de desviaci´on —en magnitud— para cada frecuencia. En la figura (I.7) hemos incluido la respuesta en frecuencia de magnitud de los sistemas encontrados con ensayos y la respuesta del sistema nominal obtenido promediando los par´ametros. En la figura (I.8) se muestra, para el ejemplo anterior, la diferencia entre la magnitud de la respuesta en frecuencia de los sistemas obtenidos en las pruebas menos la del sistema nominal. Ello para determinar una cota superior al error en todo el rango de frecuencias.

15

0

−10

−20 |G (jω)| Magnitud (dB)

n

−30

−40

−50

−60 −6 10

−5

10

−4

10

−3

10 Frecuencia (rad/s)

−2

10

−1

10

0

10

Figura I.7.: Diagramas de Bode de sistema de calentamiento.

En forma normalizada, com´ unmente denominada descripci´on multiplicativa de la incertidumbre, la expresi´on (I.26) puede escribirse como: p(s) = pn (s)(1 + δ(s)W (s)) (I.28) donde |δ(s)| < 1 es una funci´on de transferencia que representa la incertidumbre, de la que s´olo se conoce que su magnitud es menor que uno y W (s) es la funci´on de peso que recoge para cada frecuencia y de forma normalizada, la cota m´axima de la magnitud de la incertidumbre. Observe que cuando δ(s) es cero, no hay incertidumbre y la planta p(s) es precisamente la nominal —p(n)—. De (I.28) es claro que: |W (jω)| =

¯ ¯ ¯la (ω) ¯ p(jω) ¯ ≥ ¯¯ − 1¯¯ |pn (jω)| pn (jω)

En la figura (I.9) hemos colocado los valores normalizados del error, esto es: (l a (w)/|Gn (jω)|). Observamos que, bajo esta descripci´on de incertidumbre, ya no tenemos un solo modelo del sistema (digamos el nominal) sino, m´as bien, una familia (infinita) de ellos. La condici´on de estabilidad para toda la familia de sistemas, estabilidad robusta, viene dada por el siguiente resultado:

Teorema I.4 ([San89] y [MZ89]) Consideremos al sistema de la figura (I.2) en el que la planta p(s) es descrita por la familia de modelos (I.28) y los cuales tienen el mismo n´ umero de polos en el semiplano derecho. Adem´ as, sea c(s) un controlador que estabiliza la planta nominal pn (s). Entonces toda la familia de modelos ser´ a estabilizado por el controlador c(s) si y s´ olo si kW (s)T (s)k∞ = sup |W (jω)T (jω)| ≤ 1

(I.29)

ω

donde T (s) es la funci´ on complementaria definida en (I.24).

Demostraci´ on: Es conveniente considerar que la familia de modelos del sistema de la figura (I.2), que satisfacen (I.28), forman un conjunto representado por P. El sistema de la figura (I.2) es estable si y s´olo si para todo 16

0.2

0.18

Magnitud del error. la(ω)=|Gi(jω)−Gnjω)|

0.16

|G (jω)−G (jω)| 3

n

0.14

0.12

0.1

0.08

0.06

0.04

0.02

0 −6 10

−5

10

−4

10

−3

10 Frecuencia (rad/s)

−2

10

−1

10

0

10

Figura I.8.: Magnitud de la incertidumbre para cada frecuencia.

miembro p(s) ∈ P se cumple que la ecuaci´on 1 + p(s)c(s) = 0 no tiene ra´ıces en el semiplano derecho cerrado (que denominaremos C+ ). Luego ello es equivalente a: 1 + pn (s)c(s)[1 + W (s)δ(s)] 6= 0 ∀|δ| < 1 y s ∈ C+ ⇐⇒ 1 + pn (s)c(s) 6= δ(s)W (s)pn (s)c(s) ∀|δ| < 1 y s ∈ C+ ⇐⇒ |1 + pn (s)c(s)| ≥ |W (s)pn (s)c(s)| s = jω; ω ∈ [0, ∞) ⇐⇒ |T (s)W (s)| ≤ 1 s = jω; ω ∈ [0, ∞) ⇐⇒ kW (s)T (s)k∞ ≤ 1

(I.30)

Este resultado, fundamental para la teor´ıa de control robusto, tiene una interpretaci´on gr´afica en el diagrama de Nyquist (ver figura (I.10)). En efecto, en (I.30) el t´ermino |W (s)pn (s)c(s)| = ¯la (ω)|c(s)| no es m´as que el radio de la circunferencia que determina el tama˜ no de la incertidumbre (para cada frecuencia) y entonces se infiere que una condici´on necesaria y suficiente para estabilidad robusta es que, para cualquier frecuencia, la distancia del −1 al diagrama nominal de Nyquist, i.e. la magnitud del Operador diferencia de retorno, sea mayor que ese radio (que acota la incertidumbre en esa frecuencia). En otros t´erminos y visto que toda la familia de sistemas tiene el mismo n´ umero de polos en el semiplano derecho, la condici´on de estabilidad robusta implica que la “banda” de Nyquist, determinada por la familia de sistemas, no encierra al −1. En (I.30) se us´o el hecho derivado del teorema del m´aximo m´odulo que se˜ nala que: kF (s)k∞ =

sup Re{s}>0

|F (s)| = sup |F (jω)|, ω

es decir, que el m´aximo de una funci´on continua en un conjunto cerrado y acotado ocurre en su frontera. Podemos incluir esquem´aticamente la representaci´on de la incertidumbre multiplicativa en la descripci´on cl´asica del lazo realimentado. Ello se muestra en la figura (I.11). En relaci´on con la misma figura (I.11), observe que el resultado para la estabilidad robusta es equivalente a “abrir” el lazo en los dos extremos del bloque de la incertidumbre (δ(s)) y verificar que la funci´on de transferencia W (s)T (s) entre d(t) y z(t), nuevas entrada y salida al abrir el lazo, est´a acotada en magnitud. La incertidumbre multiplicativa, representada por W (s), es s´olo una forma entre muchas para describir lo que desconocemos en un lazo. Las funciones W (s) tienen normalmente la forma mostrada en la figura (I.12). La incertidumbre es m´as peque˜ na en bajas frecuencias y crece a medida que la frecuencia aumenta. Es importante

17

Magnitud del error normalizada. W(ω)=|Gi(jω)−Gn(jω)|/|Gn(jω)|

3.5

3 |G3(jω)/Gn(jω)−1| 2.5

2

1.5

1

0.5

0 −6 10

−5

−4

10

10

−3

10 Frecuencia (rad/s)

−2

10

−1

10

0

10

Figura I.9.: Magnitud de la incertidumbre para cada frecuencia, normalizada.

Figura I.10.: Condici´on de an´alisis de estabilidad robusta.

mencionar que de la funci´on de incertidumbre W (s), lo u ´nico importante es su magnitud. La consideramos como una funci´on de transferencia s´olo por tener una representaci´on consistente de un lazo de control (figura I.11) La condici´on de estabilidad robusta impone que la funci´on complementaria T (s) satisfaga: |T (jω)| < |W (jω)|−1

∀ω

luego, un modelo poco ajustado de la incertidumbre puede imponer cotas extremadamente restrictivas (muy peque˜ nas) en la funci´on complementaria y, por ende, en el controlador. De la misma forma que la magnitud de la incertidumbre debe ser lo m´as entallada posible, a fin de evitar ser excesivamente conservadores en el dise˜ no del control, el mismo razonamiento se extiende a la “topolog´ıa” del modelo de la incertidumbre. d(t)

z(t) δ(s)

W (s)

e(t)

r(t)

y(t)

u(t)

+

c(s)

pn (s)

+

(-)

Figura I.11.: Representaci´on del lazo con incertidumbre multiplicativa.

18

Figura I.12.: Modelo de variaci´on de la incertidumbre.

Hasta ahora hemos mencionado dos tipos, a saber: Aditiva: p(s) = pn (s) + δ(s)W (s)

|δ(s)| < 1

Multiplicativa: p(s) = pn (s)(1 + δ(s)W (s))

|δ(s)| < 1.

Adem´as, entre otras, tambi´en podemos representar la incertidumbre como [San89], [DFT92]: p(s) = pn (s)(1 + δ(s)W (s))−1 p(s) = pn (s)(1 + δ(s)W (s)pn (s))−1 ; algunas son equivalentes y, en cualquiera que sea la representaci´on, la estabilidad robusta viene determinada por la norma infinita de alguna funci´on de transferencia. En la tabla (I.1) se recogen las equivalencias [San89], [DFT92]. Tabla I.1.: Equivalencias entre medidas de incertidumbre p(s) = pn (s)(1 + δ(s)W (s)) kW (s)T (s)k∞ ≤ 1 p(s) = pn (s) + δ(s)W (s) kW (s)p−1 n (s)T (s)k∞ ≤ 1 −1 p(s) = pn (s)(1 + δ(s)W (s)) kW (s)S(s)k∞ ≤ 1 p(s) = pn (s)(1 + δ(s)W (s)pn (s))−1 kW (s)pn (s)S(s)k∞ ≤ 1 Cualquiera que sea su representaci´on, la incertidumbre que afecta al sistema siempre lo hace de manera global y de all´ı que reciba com´ unmente en la literatura ese nombre, i.e., incertidumbre global o no estructurada. Si, por el contrario, podemos identificar c´omo las diferentes fuentes de incertidumbre afectan elementos particulares del sistema, entonces estar´ıamos frente a una incertidumbre estructurada. Como ejemplo podemos mencionar modelos de incertidumbre de baja y alta frecuencia y que se traducen en una representaci´on de la forma: 1 + δ1 (s)W1 (s) p(s) = pn (s) 1 + δ2 (s)W2 (s) |δ1 (s)|, |δ2 (s)| < 1. 19

Menci´on particular hacemos sobre aquellos casos en los que el modelo es obtenido a partir de leyes f´ısicas que gobiernan al sistema y en los que, por ende, se puede relacionar a los par´ametros de la funci´on de transferencia con alg´ unos elementos f´ısicos reales, como por ejemplo, di´ametro de una tuber´ıa, peso espec´ıfico de un fluido, etc. Si esos par´ametros f´ısicos se ven afectados sensiblemente durante la operaci´on normal del sistema, ello va a implicar no un modelo sino una familia de ellos. Este caso de incertidumbre altamente estructurada recibir´a el nombre de incertidumbre param´etrica y normalmente ocurre en bajas frecuencias. Tambi´en se le conoce como incertidumbre poli´edrica. A continuaci´on presentamos dos ejemplos de sistemas inciertos y la funci´on (W (s)) que acota el m´aximo de la incertidumbre para cada frecuencia.

Ejemplo de c´ alculo de la representaci´ on de la incertidumbre Consideremos al sistema: G(s) =

1e−τ s s+1

con una incertidumbre en el retardo del sistema 0 ≤ τ ≤ 0,2. El sistema nominal es: Gn (s) =

1 s+1

Se debe cumplir, para acotar la incertidumbre, que: ¯ ¯ ¯ G(s) ¯ ¯ ¯ ¯ Gn (s) − 1¯ ≤ kW (s)k (cota m´axima de incertidumbre)

esto es:

¯ −τ s ¯ ¯e − 1¯ ≤ kW (s)k

(I.31)

Para el peor caso τ = 0,2, con un poco de ensayo y error obtenemos que: W (s) =

2s . s+1

(I.32)

Observe que con esta funci´on de transferencia (I.32), en ω = 2 ya tenemos un 20 % de desconocimiento y en ω = 0,6 el desconocimiento es total. La gr´afica de la respuesta frecuencial de (I.31) y (I.32) se muestran en la figura (I.13). Para el c´alculo del control H∞ la planta generalizada resulta: · ¸ · ¸· ¸ z(s) 0 Gn (s) d(s) = e(s) −W (s) −Gn (s) u(s) o, expl´ıcitamente:

·

z(s) e(s)

¸

=

·

0 −2s s+1

1 s+1 −1 s+1

¸·

d(s) u(s)

¸

La representaci´on de estados del mismo sistema resulta: ¸ ¸ · ¸ · ¸· ¸ · · 0 1 x1 (t) −1 0 x˙1 (t) u(t) d(t) + + = 1 0 x2 (t) 0 −1 x˙2 (t) 20

10

5 W(ω)

Magnitud del error normalizada

0

−5

−10 |e−j0,2ω−1|

−15

−20

−25

−30

−35

−40 −1 10

0

1

10

2

10 Frecuencia (rad/s)

3

10

10

Figura I.13.: Respuesta frecuencial de la incertidumbre y su umbral.

y

·

z(t) e(t)

¸

=

·

0 2

1 −1

¸·

x1 (t) x2 (t)

¸

+

·

0 −2

¸

d(t)

El control sugerido —que calculamos con una de las t´ecnicas que desarrollaremos en cap´ıtulos posteriores— es: −5,012 × 10−8 s2 + 0,03328s − 0,003325 C(s) = s2 + 3,333 × 106 s + 65,84 El diagrama de bloques para efectos de la atenuaci´on de perturbaci´on queda como se muestra en la figura (I.14). z(t)

d(t)

W (s)

e(t) r(t)

y(t)

u(t)

+

c(s)

Gn (s)

+

(-)

Figura I.14.: Atenuaci´on de perturbaciones.

La funci´on de transferencia entre d(s) y z(s) con el controlador propuesto es: Tdz =

−W (s)C(s)Gn (s) 1 + C(s)Gn (s)

y la respuesta frecuencial de esa funci´on de transferencia se muestra en la figura (I.15).

Ejemplo caso calentador Retomamos el ejemplo de [Qui04], s´olo en lo que respecta al c´alculo de la funci´on W (s).

21

−160

−180 |T (jω)| dz

Magnitud (dB) T

dz

−200

−220

−240

−260

−280

−300

−6

−4

10

10

−2

10

0

2

4

10 10 Frecuencia (rad/s)

6

10

10

8

10

Figura I.15.: Respuesta frecuencial sistema a lazo cerrado Tdz .

A partir de (I.9) es f´acil generar la funci´on: W (s) =

0,13(s/0,001 + 1) (s/0,024 + 1)

En (I.16) mostramos la respuesta frecuencial de W (s) —en magnitud— as´ı como los errores normalizados de los cuatro sistemas, i.e., |Gi (s) − Gn (s)|/|Gn (s)|, i=1,2,3,4. 3.5

3

Magnitud del error normalizada

W(ω) 2.5

2

1.5

1

0.5

0 −6 10

−5

10

−4

10

−3

10 Frecuencia (rad/s)

−2

10

−1

10

0

10

Figura I.16.: Respuesta en frecuencia de los errores y su umbral W (s). Ejemplo calentador.

Desempe˜ no nominal Consideremos el lazo de control de (I.2) en el que el sistema p(s) es perfectamente conocido y u ´nico. El desempe˜ no de un sistema se mide, entre otros y en el ´ambito del control cl´asico, como la capacidad de seguir una

22

referencia determinada r(t) o de rechazar una perturbaci´on de forma conocida d(t) en la salida del sistema y(t). En el primer caso el desempe˜ no podemos medirlo a trav´es de la se˜ nal de error: e(s) =

r(s) = S(s)r(s) 1 + p(s)c(s)

y en el segundo a trav´es de la salida: y(s) = S(s)d(s); en ambos casos se desea hacer “peque˜ na” la funci´on de sensibilidad a fin de tener el desempe˜ no deseado. En el marco del control cl´asico la se˜ nal a seguir (o rechazar) es conocida —un escal´on, una rampa, una par´abola, un impulso— y lo que es verdaderamente desconocido es el momento en el que la se˜ nal (de perturbaci´on) ser´a aplicada al sistema. Recordemos, por ejemplo, la clasificaci´on en tipos de sistemas (0, 1, 2, . . .) para fines de eliminaci´on de las desviaciones en estado estacionario —tambi´en conocido como offset– [Kuo95] o el bien conocido hecho de que el modelo de la se˜ nal de referencia o perturbaci´on, seg´ un sea el caso, debe estar incluido en el controlador [AM89]. La suposici´on de que la se˜ nal externa (perturbaci´on o referencia) es conocida a priori es poco realista y, en general, hay m´as conocimiento sobre la familia a la que pertenece la se˜ nal; v´ease por ejemplo [MZ89] p. 21. Bajo esta perspectiva, en la que s´olo se conoce el conjunto al que pertenece la se˜ nal, el paradigma de control robusto plantea el rechazo de perturbaciones como la garant´ıa de atenuaci´on de esa caracter´ıstica com´ un del conjunto de se˜ nales (e.g., energ´ıa, cota m´axima, etc.) En el marco del control robusto, la bien conocida teor´ıa de H∞ , por ejemplo, eval´ ua el desempe˜ no nominal en t´erminos de las energ´ıas de las se˜ nales de perturbaci´on y de salida controlada. Es as´ı que: Definici´ on I.2 ([San89]) Sea γ un escalar mayor que cero, dado. El desempe˜ no nominal del sistema de la figura (I.2) se eval´ ua como la capacidad del controlador c(s) de acotar la energ´ıa de la se˜ nal de salida del sistema a lazo cerrado (ky(t)k2 < γ) para toda posible perturbaci´ on con energ´ıa acotada kd(t)k2 < β. La condici´on de existencia de un controlador que satisface la especificaci´on de desempe˜ no nominal viene dada por el siguiente teorema. Sin p´erdida de generalidad supondremos que γ y β son iguales a uno. Teorema I.5 ([DD95]) El sistema de control de la figura (I.2) satisface la condici´ on de desempe˜ no nominal si y s´ olo si kS(s)k∞ ≤ 1 Demostraci´ on: Surge de manera inmediata del hecho que la norma infinita es la norma inducida de la norma 2 (ver teorema (I.4)) y entonces ky(t)k2 = kS(s)k∞ kd(t)k2 . En este punto se imponen algunas observaciones. Observaci´ on I.6 Resultar´ıa un problema “mal condicionado” en la mayor´ıa de los casos si dejamos el problema de desempe˜ no nominal tal y como fue formulado, esto es: ¯ ¯ ¯ ¯ 1 ¯ ¯ ≤ 1 ∀ω kS(s)k∞ = ¯ 1 + p(s)c(s) ¯

ya que en general el producto p(s)c(s) es estrictamente propio para sistemas f´ısicos reales, i.e., l´ım p(s)c(s) = 0

s→∞

23

y entonces a muy altas frecuencias el problema de encontrar un controlador c(s) que haga el trabajo en toda la gama de frecuencias puede resultar imposible. Por otra parte, en general s´ olo interesa satisfacer el criterio de desempe˜ no en la gama de frecuencias asociadas al ancho de banda del sistema p(s) —siendo ´estas las se˜ nales que verdaderamente lo afectan— dejando “libre” al resto. Adicionalmente, aunque s´ olo hemos supuesto conocida la energ´ıa m´ axima de las entradas (perturbaci´ on o referencia) es posible que adem´ as exista alg´ un tipo de conocimiento del ancho de banda de ellas y que pudiera reflejarse como una funci´ on de peso o filtro en la entrada de esas se˜ nales. Esquem´ aticamente, ambos pesos se pueden representar como lo ilustra la figura (I.17), lo que se traduce en el nuevo criterio de desempe˜ no nominal d(t)

r(t)

W1 (s)

c(s)

yˆ(s)

y(t)

u(t)

+

p(s)

+

W2 (s)

(-)

Figura I.17.: Sistema con pesos (filtros) en entradas y salidas.

kW1 (s)S(s)W2 (s)k∞ ≤ 1

o

kW (s)S(s)k∞ ≤ 1;

en W (s) se recogen lo que denominaremos las bandas de insensibilidad del dise˜ no. Una buena selecci´ on de los pesos puede resultar en un compensador m´ as “suave” con ganancias m´ as peque˜ nas. Observaci´ on I.7 El criterio de desempe˜ no nominal desarrollado no es gen´erico y est´ a asociado con las se˜ nales de entrada y salida seleccionadas. Si hubi´esemos escogido otras entradas y/o salidas, hubi´eramos obtenido la cota superior de la norma infinita de otra funci´ on de transferencia. Esto u ´ltimo s´ı es un hecho general, esto es, al igual que la estabilidad robusta de un sistema, el desempe˜ no nominal se eval´ ua —o analiza— calculando la norma infinita de alguna funci´ on de transferencia asociada al lazo, siempre que los par´ ametros de medici´ on sean las energ´ıas de la se˜ nal de perturbaci´ on y la se˜ nal de salida. Si los par´ ametros fuesen otros —diferentes de energ´ıa— otra ser´ıa la norma (v´ease por ejemplo [SGC97]). Observaci´ on I.8 En el caso de estabilidad robusta, si no se satisface el criterio (I.29) entonces existe un subconjunto de modelos del sistema que no podr´ an ser estabilizados por el compensador propuesto, i.e. el lazo cerrado ser´ a inestable para algunos modelos. En el caso del desempe˜ no nominal, si no se satisface kW (s)S(s)k∞ ≤ γ para un γ dado, s´ olo implica que el criterio es muy restrictivo y no puede alcanzar ese nivel de desempe˜ no. No obstante y asumiendo que el lazo puede estabilizarse, siempre existir´ a alg´ un γ s > γ a partir del cual s´ı podr´ a obtenerse un controlador.

Ejemplo an´ alisis de desempe˜ no Consideremos el sistema:

5e−3s . 10s + 1 Utilizando el criterio de sintonizaci´on de Ziegler y Nichols [Kuo95] se obtiene un controlador PI con K c = 0,6 y Ti = 10. Se desea evaluar la atenuaci´on que presenta este controlador a perturbaciones d(t) que entran al sistema tal como se muestra en la figura (I.18). Gn (s) =

24

d(t) y(t)

r(t) Kc (1 +

+

1 Ti s )

Gn (s)

+

(-)

Figura I.18.: Evaluaci´on de Entonaci´on Cl´asica.

La funci´on de transferencia entre d y y resulta: Tdy (s) =

Gn (s) 1 + GP I (s)Gn (s)

donde GP I (s) = Kc (1 +

1 ). Ti s

Aproximando el retardo por un Pade de primer orden ([Kuo95]) y dibujando el bode del sistema simplificado, se obtiene la gr´afica de la figura (I.19), de donde es f´acil determinar que: 2.5

|T (jω)|=|G (jω)|/|1+G (jω)PI(jω)| dy

n

n

Magnitud de T

dy

2

1.5

1

0.5

0 −2 10

−1

0

10

10

1

10

Frecuencia (rad/sec)

Figura I.19.: Atenuaci´on con un PI

kTdy (s)k∞ = 2,4657 Aunque en el caso de desempe˜ no nominal no puede generalizarse sobre un resultado en particular, a simple vista pareciera que el controlador propuesto no presentar´a un buen rechazo a perturbaciones para frecuencias entre 0,1 y 1. Un programa de Matlab para el c´alculo de esta norma infinito del sistema aproximado se muestra a continuaci´on: K=5;T=10;Td=3; nn=K;dn=[T 1]; [nr,dr]=pade(Td,1);

25

ns=conv(nn,nr);ds=conv(dn,dr); Kc=0.9*T/Td/K;Ti=Td/.3; nc=Kc*[Ti 1];dc=[Ti 0]; [n,d]=feedback(ns,ds,nc,dc,-1); [mag,pha,w]=bode(n,d); Amplifica=max(mag) semilogx(w,mag)

El paradigma de control robusto En el caso de estabilidad robusta con incertidumbre multiplicativa a la salida del sistema a controlar, ubicaci´on que no tiene ninguna importancia en sistemas SISO pero s´ı la tiene en los MIMO, podemos representar al sistema como en la figura (I.11), con |δ(s)| < 1 y W (s) el modelo de la cota superior de la incertidumbre. Para fines de an´alisis, sabemos que hay estabilidad robusta si y s´olo si ¯ ¯ ¯ W (jω)p(jω)c(jω) ¯ ¯≤1 ¯ kW (s)T (s)k∞ = ¯ 1 + p(jω)c(jω) ¯

∀ω

lo que es equivalente a analizar el desempe˜ no nominal entre d(t) y z(t) del sistema de la figura (I.14) y, entonces, el problema de la estabilidad robusta (I.11) o el de desempe˜ no nominal (I.17) pueden representarse esquem´aticamente, como en la figura (I.20) donde p˜(s) es el sistema (multivariable) generalizado, e(t) es la salida medible

z(t)

d(t) u(t)

p˜(s)

e(t)

c(s) Figura I.20.: Paradigma de dise˜ no de control robusto. del sistema, y se desea determinar un compensador c(s) tal que: kTdz (s)k∞ ≤ 1 siendo Tdz (s) la funci´on de transferencia entre d(t) (la perturbaci´on) y z(t). Observe que hemos preferido, como es usual en control robusto, usar la se˜ nal e(t) como salida medible, en lugar de y(t), por ser la primera la que est´a directamente actuando sobre el controlador. El esquema que se muestra en la figura (I.20) representa el paradigma cl´asico de dise˜ no de control robusto, siendo adem´as el m´as usado. Si se dispone (o se ha calculado) un controlador y lo que se desea es analizar su desempe˜ no, entonces el paradigma pasa a ser el de la figura (I.21), donde, de nuevo, p˜(s) es la planta generalizada y |δ(s)| < 1 representa la incertidumbre. Es f´acil transformar el esquema de las figuras (I.11) y (I.14) a aquellos de las figuras (I.20) y (I.21).

26

e(t)

r(t)

p˜(s)

d(t)

z(t)

δ(s) Figura I.21.: Paradigma de an´alisis de control robusto.

Sistemas con m´ ultiples entradas y m´ ultiples salidas Para el caso de los sistemas multivariables, nos serviremos del paradigma de control representado en (I.21). Las relaciones entre la salida y la entrada del sistema son dadas por: ¸ ¸· ¸ · · r(s) G11 (s) G12 (s) z(s) (I.33) = d(s) G21 (s) G22 (s) e(s) | {z } P˜

siendo P˜ la planta generalizada.

Para el caso multivariable, las salidas y/o las entradas pueden o no ser vectores. As´ı, por ejemplo, para el sistema de la figura (I.22), si definimos a la dupla (r(t) y d(t)) como las entradas y a (z(t) y e(t)) como las salidas, tendremos que: ¸· ¸ · ¸ · r(s) z(s) T −T W1 (I.34) = d(s) W2 S −W2 SW1 e(s) donde

S(s) = [I + p(s)c(s)]−1 T (s) = p(s)c(s)[I + p(s)c(s)]−1

con las correspondientes equivalencias en las ecuaciones (I.33) e (I.34). e(t)

z(t)

W2 (s) r(t)

d(t)

W1 (s) y(t)

u(t)

+

c(s)

p(s)

+

(-)

Figura I.22.: Sistema multivariables.

Desempe˜ no nominal Revisemos ahora los conceptos de estabilidad robusta y desempe˜ no nominal a la luz del paradigma de control y para sistemas multivariables, y para ello consideremos al sistema de la figura (I.21). En ese caso el desempe˜ no

27

nominal est´a determinado por un controlador c(s) que asegura que: kek2 < 1

∀r(t) : krk2 ≤ 1

cuando δ = 0. Teorema I.6 ([San89]) La condici´ on necesaria y suficiente para desempe˜ no nominal es: kG21 (s)k∞ < 1 Demostraci´ on: Cuando la incertidumbre es nula (δ = 0) tenemos que: kek22

= = ≤ =

kG21 (s)r(s)k22 Z ∞ rH (jω)GH 21 (jω)G21 (jω)r(jω)dω −∞ Z ∞ σ ¯ 2 (G21 (jω ∗ )) rH (jω)r(jω)dω

(I.35) (I.36) (I.37)

−∞

σ ¯ 2 (G21 (jω ∗ ))

(I.38)

con r H (jω) = r T (−jω) y σ ¯ (G21 (jω)) ocurre en w = w ∗ . Finalmente, la cota superior es alcanzada exactamente si escogemos, por ejemplo r(t) = e −εt cos w∗ t con ε > 0 para que r(t) ∈ L2 . Estabilidad robusta Para verificar la condici´on de estabilidad robusta, supondremos que el sistema es estable internamente y que σ ¯ (δ) ≤ 1

(I.39)

la condici´on de estabilidad robusta multivariable viene dada por: Teorema I.7 ([San89]) El sistema de la figura (I.21) es estable para toda perturbaci´ on δ que satisface (I.39) si y s´ olo si kG12 k∞ < 1 Demostraci´ on: La funci´on de transferencia entre r e y es (operando en (I.33)): Tre = G22 (I − G12 δ)−1 G11 + G21 y entonces, para un δ dado, la estabilidad del sistema es determinada por: (I − G12 δ)−1 ya que, por hip´otesis, el sistema (I.33) es internamente estable. Ahora bien, la estabilidad de (I − G12 δ)−1 es equivalente a: det(I − G12 δ)) 6= 0

∀s ∈ C+ .

(I.40)

Supongamos que σ ¯ (G12 ) < 1. Recordando algunas propiedades de los valores singulares de una matriz, sabemos que: ¯ (G12 δ) > 1 − σ ¯ (G12 ) σ(I − G12 δ) ≥ 1 − σ 28

luego si σ ¯ (G12 ) < 1 entonces

∀s ∈ C+

det(I − G12 δ) 6= 0

∀s ∈ C+ .

Supongamos ahora que σ ¯ (G12 ) ≥ 1 para alguna s∗ y hagamos una descomposici´on en valores singulares G12 = U ΣV ∗ , tomemos δ = αV U ∗ y α =

1 σ ¯ (G12 ) ,

entonces det(I − G12 (s∗ )δ = det[V (I − αΣ)U ∗ ] = 0

para el primer autovalor (recordando que los valores singulares est´an ordenados en Σ). Finalmente, por el teorema del m´aximo m´odulo ¯ (G12 (s)) = sup σ ¯ (G(jω)) = kG12 k∞ . sup σ ω

s∈C+

Los sistemas multivariables, al igual que los SISO, pueden ser evaluados en su desempe˜ no y estabilidad en el marco de la norma infinita. Otras medidas de desempe˜ no pueden igualmente imponerse al sistema. Algunas como la norma 2 permiten evaluar el impacto de condiciones iniciales, al reflejar esas condiciones en el sistema como una funci´on impulso δ(t) de magnitud adecuada [PH96]. Tambi´en la misma norma permite evaluar el efecto del ruido blanco, tambi´en cuantificable como una funci´on impulso con varianza conocida [San89]. Las medidas de rechazo de perturbaciones presentadas, en modo alguno agotan las formas de evaluaci´on del desempe˜ no. Cl´asicamente, el desempe˜ no se eval´ ua en t´erminos de los tiempos de establecimiento, de crecimiento, m´aximo sobrepico, comportamientos sobre o subamortiguados, etc. [Kuo95], estando estas cualidades del sistema ´ıntimamente relacionadas con la ubicaci´on de los polos del sistema de lazo cerrado. La ubicaci´on de polos en regiones convexas ha recibido tambi´en la atenci´on de un n´ umero de investigadores [GJ81] [ChG96] y ese problema tambi´en puede formularse como uno de desigualdades matriciales lineales (LMIs) en la matriz de Lyapunov P , siempre que la regi´on pueda describirse como una regi´ on LMI y que formalmente definimos de la forma: Definici´ on I.3 ([ChG96]) Una regi´ on LMI es cualquier regi´ on convexa R que pueda describirse de la forma: R = z ∈ C : L + zM + z¯M T < 0 donde L = LT y M son matrices constantes reales de las mismas dimensiones. Ejemplos importantes de tales regiones LMI son: 1.

Semiplano a la izquierda de x0 (figura (I.23)). R = z ∈ C : z + z¯ + 2x0 < 0 Cuando x0 = 0 da el semiplano izquierdo abierto.

2.

Semiplano a la derecha de x0 (figura (I.24)) R = z ∈ C : z + z¯ + 2x0 > 0

3.

Cono con v´ertice en 0 (figura (I.25)). ½ µ sin θ(z + z¯) R= z∈C: cos θ(¯ z−z

cos θ(z − z¯) sin θ(z + z¯)



umax 34

Limitaci´on en la se˜ nal de control

r(z) +

e(z)

u0 (z)

K(z)

u(z)

y(z) G(z)

(−)

Figura II.1.: Sistema de control con saturaci´on en la se˜ nal de control.

Matem´aticamente se tratar´ıa de comprobar si la amplitud m´axima de la se˜ nal de control u[i] es menor que el valor de saturaci´on umax . Expres´andolo en funci´on de normas, ser´ıa equivalente a comprobar que la norma pico-a-pico de la se˜ nal de control sea menor que el valor de saturaci´on, para el conjunto de consignas esperables: m´ax

r posibles

kuk∞ ≤ umax .

Si la variaci´on m´axima de las referencias es rmax , por definici´on de la norma `1 esta comprobaci´on puede expresarse como: kTru0 k1 rmax ≤ umax . Donde Tru0 denota la funci´on de transferencia de r a u0 , que en el caso del sistema realimentado de la figura II.1 es simplemente K(1 + KG)−1 , o sea, el sistema no se satura siempre que ° ° °K(1 + KG)−1 ° ≤ umax . 1 rmax Resulta entonces que, dados una planta y un controlador, puede comprobarse de forma sencilla si el actuador pudiera saturarse para un conjunto de consignas esperables. Para ello basta calcular la norma ` 1 de la funci´on de transferencia K(1 + KG)−1 . Si esta norma es menor que el valor de saturaci´on no se alcanzar´ıa la saturaci´on.

Limitaciones de velocidad y aceleraci´ on en actuadores Adem´as de saturaci´on, muchos actuadores reales presentan adem´as (por razones f´ısicas o de seguridad) limitaciones en la velocidad y/o aceleraci´on m´axima que pueden alcanzar. En muchos casos resulta, entonces, necesario limitar el esfuerzo de control, entendiendo ´este como la variaci´on de la se˜ nal de control. Estas limitaciones pueden expresarse tambi´en en relaci´on con la norma `1 de determinadas funciones de transferencia:

Limitaciones de velocidad Si la variaci´on m´axima permitida de la se˜ nal de control recibida por el actuador es V max en cada per´ıodo de muestreo, el sistema no sobrepasar´a este l´ımite en la variaci´on de la se˜ nal de control si se cumple que: m´ax

ku[i] − u[i − 1]k ≤ Vmax .

m´ax

° ° °(1 − z −1 )u°

r posibles

O lo que es lo mismo: r posibles



≤ Vmax ,

que puede convertirse a una condici´on sobre la norma `1 de la funci´on de transferencia de r a u0 = u[i] − u[i − 1] (Tru0 = (1 − z −1 )K(1 + KG)−1 ) : ° ° °(1 − z −1 )K(1 + KG)−1 ° ≤ Vmax . 1 35

Limitaciones de aceleraci´ on De forma an´aloga al caso de la velocidad, si la variaci´on m´axima permitida de la variaci´on de la se˜ nal de control recibida por el actuador es Amax en cada per´ıodo de muestreo, no se superar´a este l´ımite siempre que: m´ax

r posibles

ku[i] − 2u[i − 1] + u[i − 2]k ≤ Amax .

O lo que es lo mismo: m´ax

r posibles

° ° °(1 − z −1 )2 u°



≤ Amax ,

que puede convertirse a una condici´on sobre la norma `1 de Tru0 = (1 − z −1 )2 K(1 + KG)−1 (funci´on de transferencia de r a u0 = u[i] − 2u[i − 1] + u[i − 2]): ° ° °(1 − z −1 )2 K(1 + KG)−1 ° ≤ Amax 1 Puede aplicarse un argumento similar a cualquier otra limitaci´on en la se˜ nal de control, que en general se expresar´a como: ° ° °H(z −1 )K(1 + KG)−1 ° ≤ Amax . 1 Rechazo de perturbaciones Si en vez de un problema de seguimiento de una consigna variable, lo que tratamos de resolver es un problema de regulaci´on en presencia de perturbaciones, puede plantearse matem´aticamente como calcular la desviaci´on m´axima de la salida regulada para cualquier perturbaci´on posible (que supondremos acotada en magnitud). Si el sistema de control corresponde al de la figura II.2, el error de seguimiento m´aximo (e max ) ser´a el m´aximo valor del error e[i] para el conjunto de perturbaciones posibles n[i]. Siguiendo el mismo razonamiento, puede expresarse matem´aticamente este problema como calcular γ que cumple: emax = m´ax kuk∞ que por definici´on de la norma `1 ser´a ° ° emax = kTne k1 knk∞ = °Wd K(1 + KG)−1 °1 nmax .

Es decir, el error de seguimiento m´aximo viene dado por el producto del tama˜ no de la perturbaci´on m´axima, por la norma `1 de Wd K(1 + KG)−1 . n(z)

Wd (z) Limitaci´on en la se˜ nal de control

e(z) (−)

K(z)

u0 (z)

u(z)

y(z) G(z)

+

Figura II.2.: Sistema de control con perturbaci´on a la salida y saturaci´on en la se˜ nal de control.

36

II.3.

An´ alisis `1

Hemos visto hasta ahora c´omo ciertas especificaciones de funcionamiento pueden expresarse en t´erminos de la m´axima variaci´on de ciertas se˜ nales (salidas medibles, se˜ nales de control, se˜ nales de error), por efecto de ciertas se˜ nales aplicadas al sistema (consignas, perturbaciones y ruidos de medida), cuya amplitud m´axima puede conocerse. De esta forma se ha visto como consecuencia l´ogica el c´alculo de la norma ` 1 para comprobar estas especificaciones de funcionamiento. Hemos mostrado tambi´en c´omo el problema de an´alisis de robustez puede expresarse en la norma `1 de determinadas funciones de transferencia.

Ejemplo de an´ alisis `1 En este ejemplo num´erico se desea comprobar si el sistema de la figura II.1 pudiera alcanzar saturaci´on al 3z−1 2z−1 y la planta G = (2z−1)(4z−1) . aplicar una consigna de amplitud m´axima 2, siendo el controlador K = 3z−1 Tal como se ha mencionado anteriormente, este requerimiento equivale a comprobar la siguiente condici´on sobre la norma `1 : ° ° °K(1 + KG)−1 ° ≤ umax = 3 1 rmax 2 en este caso, sustituyendo K y G por su expresi´on en z −1 , resulta: ° ° ° (2z − 1)(4z − 1) ° ° ° ° 4z(3z − 1) ° = 0,9583 1

Como 0,9583 < 32 , significa eso que podemos asegurar que el actuador no se saturar´a. De hecho, la consigna podr´ıa tener de amplitud m´axima 2 ∗ 1,5/0,9583 ≈ 3,13 y podr´ıamos seguir asegurando que el actuador no se satura.

Estabilidad robusta

El objetivo es mostrar c´omo la norma `1 puede utilizarse tambi´en para resolver problemas de estabilidad robusta: en su formulaci´on general se trata de comprobar si el sistema en lazo cerrado de la figura II.3 es estable, aun en presencia de la incertidumbre en el sistema ∆, que se supone acotada en la norma ` 1 (|∆|1 ≤ 1), pudiendo ser variante en el tiempo. A partir del teorema de peque˜ na ganancia es posible demostrar que el sistema en lazo cerrado es estable si y s´olo si kM k1 < 1, donde M es la funci´on de transferencia entre la salida de la incertidumbre y su entrada.

Figura II.3.: Problema de estabilidad robusta para incertidumbres no-estructuradas.

37

Ejemplo de an´ alisis de estabilidad robusta Se trata de comprobar si el sistema en lazo cerrado de la figura II.4 es estable, aun en presencia de una incertidumbre multiplicativa directa en la entrada del 100 %. La condici´on obtenida a partir del teorema de peque˜ na ganancia es: ° ° °KG(I + KG)−1 ° ≤ 1. 1 Si G =

3z−1 (2z−1)(4z−1)

yK=

2z−1 3z−1 ,

entonces

° ° °KG(I + KG)−1 ° = 0,25 < 1 1

Esto significa que puede asegurarse la estabilidad robusta del sistema realimentado, aun en presencia de esta incertidumbre en el sistema. ∆

r(z) +

e(z)

K(z)

u(z)

y(z) +

G(z)

(−)

Figura II.4.: Problema de estabilidad robusta para incertidumbre multiplicativa directa.

II.4.

Soluci´ on mediante programaci´ on lineal

Planteamiento del problema de optimizaci´ on Hemos visto hasta ahora c´omo, para comprobar si un sistema de control cumple unas determinadas condiciones de funcionamiento, basta con comprobar una condici´on sobre una norma. Por ello, el dise˜ no de controladores ´optimos para sistemas con se˜ nales limitadas en amplitud se expresar´ıa como el problema de encontrar un controlador que minimize la norma de la funci´on de transferencia entre las correspondientes entradas y salidas: m´ın

K estabilizantes

kHT (K)k1 ≤ 1

donde M (K) es una determinada funci´on de transferencia que relaciona determinadas entradas y salidas, depende del controlador a dise˜ nar (K) y H es una funci´on de transferencia constante (una funci´on de peso). Por ejemplo, si tratamos de minimizar las variaciones de la se˜ nal de control se tratar´a de calcular el controlador que minimice: ° ° m´ın °(1 − z −1 )K(1 + KG)−1 °1

es decir: H(z) = (1 − z −1 ), M (K) = K(1 + KG)−1 .

La formulaci´on tradicional [DD95] se basa en aplicar la parametrizaci´on de Youla, expresando el controlador K como K = X−QN on de transferencia estable. La optimizaci´on se realiza entonces Y +QD , donde Q es cualquier funci´ en funci´on del par´ametro Q, lo que tiene la ventaja de que las funciones de transferencia caracter´ıstica resultan ser afines en Q, y por lo tanto, f´aciles de optimizar (para detalles, consultar el Ap´endice A). Aqu´ı en cambio presentamos una formulaci´on alternativa, basada en optimizar directamente las respuestas impulsionales de las funciones de transferencia caracter´ısticas [TG03]. Esta variaci´on da una soluci´on m´as natural de estos problemas de optimizaci´on, para dise˜ nadores no familiarizados con parametrizaciones de Youla. Sin

38

embargo, debemos hacer constar que, al tener generalmente las respuestas impulsionales ´optimas un n´ umero infinito de t´erminos, nunca obtendremos el regulador ´optimo, s´olo una aproximaci´on a ´el (por otra parte suficiente en la mayor parte de los casos pr´acticos).

Conversi´ on a un problema de programaci´ on lineal Por simplicidad, comenzamos la presentaci´on para el caso de optimizaci´on de una u ´nica funci´on de transferencia SISO. La idea principal del m´etodo se basa en trabajar directamente con los coeficientes de la respuesta impulsional de la funci´on de transferencia a minimizar Φ = {Φ[i]}. Efectivamente, hemos visto c´omo los problemas con restricciones se pueden expresar en funci´on de la suma (en valor absoluto) de los coeficientes de la respuesta impulsional (que no es otra cosa que la norma `1 ). El problema de optimizaci´on puede expresarse entonces como: m´ın

K estabilizantes

kΦk1 =

m´ın

K estabilizantes

∞ X i=1

|Φ[i]|

donde Φ[i] son los coeficientes de la respuesta impulsional que tratamos de optimizar, con la restricci´on adicional de que el controlador K no puede cancelar ning´ un cero inestable de la planta G (lo que har´ıa K inestable, que siempre es indeseable). Tampoco K deber´ıa cancelar ning´ un polo inestable de la planta (pues la cancelaci´on no ser´ıa efectiva en cuanto la planta sufriera una peque˜ na variaci´on, haciendo el sistema en lazo cerrado inestable; esto es, el sistema no tendr´ıa estabilidad interna). Esto lo representaremos matem´aticamente como la restricci´on de que KG debe valer 0 en los ceros inestables de la planta e ∞ en los polos inestables de la planta. Por ejemplo, en el caso de que quisi´eramos minimizar el error de seguimiento en presencia de perturbaciones, el objetivo ser´ıa minimizar la sensibilidad S = 1/(1 + KG). Denotando los ceros inestables de la planta G como {zk } y los polos inestables como {pk }, las restricciones de interpolaci´on ser´ıan:

Por ejemplo, si la planta fuese G = interpolaci´on ser´ıan:

S(zk ) = 1/(1 + 0) = 1

∀k

S(pk ) = 1/(1 + ∞) = 0

∀k

(z−3) (z−2)(z−0,5) ,

entonces z1 = 3, p1 = 2 con lo que las restricciones de

S(3) = 1 S(2) = 0 En cambio, si la funci´on a optimizar resultase ser la sensibilidad complementaria T = KG/(1 + KG), las restricciones de interpolaci´on ser´ıan: T (zk ) = 0 ∀k T (pk ) = 1 ∀k que para nuestro ejemplo ser´ıan T (3) = 0 S(2) = 1 En general, para asegurar la estabilidad interna del sistema de control a dise˜ nar se deber´an cumplir las siguientes restricciones de interpolaci´on: M (zk ) = αk ∀k M (pk ) = βk ∀k 39

donde αk y βk corresponden a los valores (constantes) resultantes de sustituir los ceros o polos en la funci´on de transferencia. Como se ha mencionado antes, si expresamos esta funci´on de transferencia gen´erica Φ en P t´erminos de su ∞ respuesta impulsional Φ = {Φ[i]}, por definici´on de la transformada z de un sistema (Φ(z) = i=0 Φ[i]z −i ) y seg´ un la f´ormula de c´alculo de una norma `1 como la suma en valor absoluto de los t´erminos de una respuesta impulsional, la norma ell1 resulta ser: ∞ X m´ın |Φ[i]| Φ[i]

i=0

Para tener en cuenta las restricciones de interpolaci´on basta utilizar el hecho de que el valor de una funci´on de transferencia Φ en un punto ak , dada su respuesta impulsional {Φ[i]}, es: Φ(ak ) =

∞ X Φ[i] i=0

aik

Resulta entonces que el problema de optimizaci´on puede expresarse como: m´ın

∞ X i=0

|Φ[i]|

sujeto a ∞ X Φ[i]

= αk ∀k

∞ X Φ[i]

= βk ∀k

zki

i=0

i=0

pik

Este problema de minimizaci´on puede transformarse a un problema de programaci´on lineal est´andar haciendo el cambio de variable Φ[i] = Φ[i]+ − Φ[i]− , donde aseguraremos que las nuevas variables sean siempre positivas: Φ[i]− ≥ 0 y Φ[i]+ ≥ 0 y una de ellas siempre 0 (esto se conseguir´a normalmente pesando de alguna forma el valor de estos nuevos coeficientes). Resulta entonces el nuevo problema de optimizaci´on: m´ın

∞ X ¡

Φ[i]+ + Φ[i]−

i=0

¢

sujeto a ∞ X Φ[i]+ i=0

zki

∞ X Φ[i]+ i=0

pik



∞ X Φ[i]−

= αk ∀k



∞ X Φ[i]−

= βk ∀k

i=0

i=0

zki

pik

En principio ´este es un problema de programaci´on lineal con infinitas variables, pero normalmente puede truncarse, suponiendo que la respuesta impulsional es finita. Para ello basta reemplazar el ∞ en la expresi´on anterior por un valor finito N (que puede aumentarse hasta obtener buena convergencia). Resulta entonces un problema de programaci´on lineal de dimensi´on finita, que puede resolverse utilizando software de programaci´on lineal (por ejemplo la funci´on lp o linprog en Matlab), como mostraremos posteriormente en el ejemplo detallado del reformador de hidr´ogeno.

40

Una vez resuelto el problema de optimizaci´on lineal, basta deshacer los cambios de variables realizados para obtener el controlador: Primero los coeficientes de la respuesta impulsional ´optima se obtendr´ıan a partir de la soluci´on ´optima del problema de programaci´on lineal: Φ[i] = Φ[i]+ − Φ[i]− y el controlador ´optimo se calcula despejando K de la f´ormula de la funci´on de transferencia caracter´ıstica utilizada. As´ı, si la funci´on a optimizar es la sensibilidad S = 1/(1 + KG), el controlador ser´ıa: K=

1−Φ . GΦ

Teniendo en cuenta que la funci´on de transferencia en z correspondiente a la respuesta impulsional es Φ[z] = Pn [z] −k , resulta el controlador ´optimo: , si la planta expresada como cociente de polinomios en z es G = ndGG[z] 0 Φ[i]z K=

P dG (1 − Φ[i]z −k ) P nG ( Φ[i]z −k )

Para obtener el controlador definitivo basta cancelar ceros y polos (si se ha realizado correctamente siempre se cancelar´an los que hayamos introducido en las restricciones de interpolaci´on, con lo que desaparecen del controlador), y realizar la reducci´on de orden correspondiente, si fuese necesario.

Problema multibloque Hemos visto c´omo es posible resolver el problema de dise˜ no de controladores en presencia de restricciones, en el caso de que el objetivo sea minimizar una u ´nica funci´on de transferencia. Sin embargo, en problemas pr´acticos el objetivo puede ser minimizar varias matrices de transferencia de forma simult´anea. Presentaremos la t´ecnica multibloque mediante un ejemplo num´erico basado en resolver un problema de sensibilidad mixta, donde el dise˜ nador debe considerar situaciones de compromiso entre requerimientos a baja y altas frecuencias, que se pueden transformar como un problema de optimizaci´on en paralelo de dos funciones de transferencia caracter´ısticas, como pueden ser la sensibilidad, la sensibilidad al control o la sensibilidad complementaria. Por ejemplo, un problema de sensibilidad mixta que trate de minimizar la sensibilidad y la Sensibilidad al Control puede expresarse como: ° ° ° (I + KG)−1 ° ° m´ın ° −1 ° K ° K(I + KG) 1 Este problema de sensibilidad mixta presenta la ventaja frente a otros en que evita que el controlador cancele los ceros y polos estables de la planta, como luego comprobaremos en un ejemplo.

Pues bien, la soluci´on se obtiene de forma an´aloga al caso de un bloque, definiendo Φ 1 = (I + KG)−1 y Φ2 = K(I + KG)−1 : ° ° ° Φ1 ° ° m´ın ° ° Φ2 ° 1 La principal diferencia en este caso es que ser´a necesario a˜ nadir restricciones de factibilidad que aseguren que al optimizar se tenga en cuenta que el controlador K es el mismo para las dos funciones de transferencia. En el ejemplo que estamos desarrollando esto significa que Φ1 + GΦ2 = 1.

41

− + − Al sustituir Φ1 y Φ2 por sus respuestas impulsionales Φ1 [i] = Φ+ 1 [i] − Φ1 [i] y Φ2 [i] = Φ2 [i] − Φ2 [i], estas restricciones de factibilidad dan lugar a un n´ umero infinito de restricciones. En efecto, si la planta expresada [z] , resulta la siguiente relaci´on: como cociente de polinomios en z es G = ndGG[z] − + − dG ∗ (Φ+ 1 + Φ1 ) + nG ∗ (Φ2 + Φ2 ) = dG

donde ∗ significa convoluci´on. Al desarrollar la convoluci´on se obtiene un conjunto infinito de restricciones, f´acilmente desarrollable en t´ermino de los coeficientes de numerador y denominador de la planta.

Ejemplo En el caso de que nG = n0 z + n1 y dG = z + d1 , con p1 = d1 > 1, z1 = n1 /n0 > 1 en t´erminos de los elementos de las respuestas impulsionales, esta relaci´on se transformar´ıa en el siguiente conjunto de restricciones de factibilidad: − (Φ+ [0] + Φ− [0]) + n0 (Φ+ 2 [1] + Φ2 [1]) = d0 − + − + − + − d1 (Φ+ 1 [0] + Φ1 [0]) + (Φ1 [1] + Φ1 [1]) + n1 (Φ2 [0] + Φ2 [0]) + n0 (Φ2 [1] + Φ2 [1]) = d1 − + − + − + − d1 (Φ+ 1 [1] + Φ1 [1]) + (Φ1 [2] + Φ1 [2]) + n1 (Φ2 [1] + Φ2 [1]) + n0 (Φ2 [2] + Φ2 [2]) = 0 − + − + − + − d1 (Φ+ 1 [i] + Φ1 [i]) + d1 (Φ1 [i + 1] + Φ1 [i + 1]) + n1 (Φ2 [i] + Φ2 [i]) + n0 (Φ2 [i + 1] + Φ2 [i + 1]) = 0 ∀i > 1

En cuanto a las condiciones de interpolaci´on, en este caso inicialmente ser´ıan las siguientes: Φ1 (zk ) = 1 ∀k Φ1 (pj ) = 0 ∀j Φ2 (pj ) = 0 ∀j Sin embargo, en este caso las restricciones de interpolaci´on resultan ser redundantes, pues las restricciones de factibilidad crean relaciones entre las restricciones de interpolaci´on. As´ı en nuestro ejemplo, al tener como restricci´on de factibilidad Φ1 + GΦ2 = 1, si la evaluamos en los ceros de la planta resulta autom´aticamente que Φ1 (zk ) = 1, y si la evaluamos en los polos Φ2 (pj ) = 0, con lo que se comprueba que no hace falta incluir estas restricciones de interpolaci´on, pues ya est´an incluidas autom´aticamente en las de factibilidad. Esta redundancia hace que sea siempre recomendable comprobar si es posible eliminar algunas de las restricciones (de hecho en la mayor parte de los problemas multibloque correctamente formulados las restricciones de interpolaci´on resultan redundantes). En definitiva, el problema de optimizaci´on resultante para este ejemplo, suponiendo que las respuestas impulsionales son finitas de longitud N , ser´ıa m´ın

− + − Φ+ 1 [i],Φ1 [i],Φ2 [i],Φ2 [i]

m´ ax

Ã

N X ¡

Φ+ 1 [i]

+

Φ− 1 [i]

+

Φ+ 2 [i]

i=0

+

¢ Φ− 2 [i]

!

sujeto a N N X X Φ+ Φ− 1 [i] 1 [i] − = γj i i p p 1 1 i=0 i=0

− (Φ+ [0] + Φ− [0]) + n0 (Φ+ 2 [1] + Φ2 [1]) = d0 − + − + − + − d1 (Φ+ 1 [0] + Φ1 [0]) + (Φ1 [1] + Φ1 [1]) + n1 (Φ2 [0] + Φ2 [0]) + n0 (Φ2 [1] + Φ2 [1]) = d1 − + − + − + − d1 (Φ+ 1 [i] + Φ1 [i]) + d1 (Φ1 [i + 1] + Φ1 [i + 1]) + n1 (Φ2 [i] + Φ2 [i]) + n0 (Φ2 [i + 1] + Φ2 [i + 1]) = 0 ∀i > 0

42

II.5.

Control de un reformador de hidr´ ogeno

En esta secci´on presentamos el dise˜ no de un controlador utilizando las t´ecnicas de programaci´on lineal presentadas en el cap´ıtulo para un sistema industrial, lo que nos permitir´a comprobar las ventajas de utilizar estas t´ecnicas para resolver problemas reales.

Problema de control del reformador de hidr´ ogeno El problema a resolver es el control de un reformador de hidr´ogeno en una planta petroqu´ımica, cuyo esquema se muestra en la figura II.5. El objetivo de este sistema es la producci´on de hidr´ogeno por cat´alisis a partir de hidrocarburos a los que se ha eliminado previamente el azufre. Para generar el hidr´ogeno los hidrocarburos se mezclan con vapor supercalentado justo antes de entrar en los tubos del reformador, donde un catalizador de n´ıquel calentado a alta temperatura (sobre 750o C) produce el hidr´ogeno. La alta temperatura necesaria para acelerar la reacci´on se produce quemando combustible en el reformador.

Figura II.5.: Esquema del reformador de hidr´ogeno. El sistema de control trata de mantener la temperatura deseada del catalizador bas´andose en modificar la cantidad de combustible que alimenta al reformador. Para ello se dispone de medidas de temperatura del catalizador y del flujo de combustible, y asimismo de una v´alvula controlada por ordenador que regula el flujo de combustible. Al disponer de un u ´nico actuador y dos medidas, la estructura de control se basa en la estructura en cascada que se muestra en la figura II.6. perturbaci´ on

r(z)

y(z) + (−)

K(z)

+

controladordeflujo

v´alvula

G(z)

+

(−)

Figura II.6.: Sistema de control en cascada del reformador de hidr´ogeno.

43

En el proceso real existen fuertes perturbaciones, tales como variaciones del flujo de combustible, variaciones de su calidad, variaciones de la temperatura del vapor, etc. La perturbaci´on m´as dif´ıcil de corregir corresponde a la temperatura del vapor, que modifica de una forma muy r´apida la temperatura del catalizador. El sistema de control trata de atenuar lo m´as posible esta perturbaci´on actuando sobre la referencia del lazo de control de flujo de combustible. En este ejemplo u ´nicamente nos planteamos el dise˜ no de un controlador para el lazo exterior que elimine de forma adecuada las variaciones de la temperatura del catalizador, actuando sobre la referencia del lazo de control de combustible. Este u ´ltimo se considera adecuado, por lo que se mantendr´an sus valores y caracter´ısticas. Debemos puntualizar que no se dispone de una medida fiable de la temperatura del vapor de entrada, lo que hace inadecuado utilizar un compensador feedforward que elimine las perturbaciones; adem´as la planta es de fase no-m´ınima. Esta reduci´on de las perturbaciones debe realizarse entonces por realimentaci´on.

Modelo del sistema Un modelo simplificado del sistema se obtuvo a partir de modelado e identificaci´on del sistema a partir de medidas obtenidas del sistema real [Sh96]. El modelo calculado corresponde a la funci´on de transferencia entre la referencia del flujo de combustible y la temperatura de salida, incluyendo las din´amicas impuestas por el lazo interior de control de flujo. G=

££ ¤ −0,032 [z + 0,2453] [z − 0,623257] [z + 0,999] [z − 15,4484] z 2 + 1,576432z + 3,074984 z [z + 0,58958] [z − 0,615995] [z + 0,81983] [z − 0,910085] [z 2 + 0,838534z + 0,320120]

Puede comprobarse en este modelo que la planta es estable, pero de fase no m´ınima, con tres ceros fuera del c´ırculo unidad (en z = 15,45, y z = −0,79 + −1,57j). El modelo de perturbaci´on se obtuvo por identificaci´on, resultando ser: £ ¤ 0,03 [z + 0,1216]2 + 0,6900822 z 2 Wd = 3 z [z + 0,58958] [z − 0,615995] [z + 0,81983] [z − 0,910085] [z 2 + 0,838534z + 0,320120]

Sensibilidad mixta Para resolver problemas pr´acticos basados en minimizaci´on de una norma ` 1 el problema de sensibilidad mixta: ° ° ¡ ¢ ° WS I ¡+ KG−1 ¢ ° ° m´ın ° ° WM KG I + KG−1 ° 1

fue propuesto y result´o en [DP87]. Estudiado en m´as detalle en [ST93]. Las principales dificultades de esta soluci´on vienen dadas por la cancelaci´on de ceros y polos estables por el controlador, y el excesivo esfuerzo de control. Para resolver estos problemas hemos propuesto [TG00] la soluci´on del problema de sensibilidad mixta alternativo: ° ¡ ¢ ° ° WS I + GK −1 ° ° ¡ ¢ ° m´ın ° −1 ° WM K I + GK 1 En efecto, con esta estrategia el controlador no cancela necesariamente los ceros y polos estables del controlador. Adem´as, desde el punto de vista de la ingenier´ıa se sabe que es m´as adecuado considerar en la optimizaci´on los esfuerzos de control, que pueden reducirse directamente al a˜ nadir en la optimizaci´on un peso sobre la sensibilidad al control.

Este problema puede resolverse seg´ un los m´etodos vistos en la secci´on anterior, convirti´endose a un problema de programaci´on lineal semi-infinita:

44

° ° ° Φ1 ° ° ° m´ın ° Φ2 °

−1 sujeto a WS−1 Φ1 + WM Φ2 G = 1

1

Dise˜ no del problema de optimizaci´ on El objetivo principal del sistema de control a dise˜ nar es reducir el efecto de las perturbaciones sobre la salida. En t´erminos de se˜ nales el objetivo puede expresarse como la minimizaci´on de la desviaci´on m´axima que alcanza la salida por efecto de las perturbaciones, que es precisamente kSnk∞ . Si el efecto de la perturbaci´on sobre la salida viene filtrado por la funci´on de transferencia Wd , el problema de dise˜ no puede expresarse entonces como el problema de calcular un controlador que minimice kSWd k1 . Adem´as debemos asegurar que la se˜ nal de control sea razonable. Para ello incluimos en la minimizaci´on el efecto¡ de la perturbaci´ on sobre la se˜ nal de control, que vendr´a determinada por la sensibilidad al control ¢ M = K I + GK −1 . El controlador se calcula entonces resolviendo el problema de sensibilidad mixta: ° ° m´ın ° °

¢ ¡ WS I¡ + GK −1 ¢ WM K I + GK −1

° ° ° °

1

Selecci´ on de pesos Observando las componentes en frecuencia del modelo de las perturbaciones se comprueba c´omo, en el sistema objeto de estudio, las perturbaciones siguen siendo importantes hasta frecuencias cercanas a 0,02 rad/s, afectando directamente a la salida. Con el fin de reducir las perturbaciones hasta una frecuencia cercana a 0,02 rad/s, ser´ıa necesario que la frecuencia de corte de la sensibilidad estuviera sobre esta frecuencia. Es decir, la funci´on de peso a utilizar para dise˜ nar S deber´a tener un cero cerca de esta frecuencia. El problema que presenta esta elecci´on es que esta frecuencia resulta ser superior al ancho de banda del sistema en lazo abierto. Resulta entonces que el ancho de banda en lazo cerrado debe ser mayor que en lazo abierto, lo que u ´nicamente puede conseguirse haciendo la ganancia del controlador grande entre ambas frecuencias (Green y Limebeer, 1995). Significar´a esto que el controlador amplificar´a las frecuencias comprendidas entre las frecuencias de corte en lazo abierto y en lazo cerrado. Esto debe hacerse con precauci´on para evitar excesivos esfuerzos de control y asegurar la estabilidad del sistema en lazo cerrado. Se debe alcanzar entonces una soluci´on de compromiso entre la frecuencia de corte de S y la amplificaci´on de altas frecuencias que presentar´a M . Esta situaci´on es dif´ıcil de conseguir por m´etodos cl´asicos, por lo que un m´etodo de dise˜ no de controladores robustos mediante optimizaci´on (tal como la optimizaci´on ` 1 ) es ideal para resolver el problema. En este caso se puede conseguir estos requerimientos mediante la selecci´on adecuada de los pesos sobre las funciones de transferencia a minimizar. En este ejemplo en particular los pesos se han elegido tal como se muestran en la figura II.7. La selecci´on concreta se realiz´o de la siguiente manera:

Peso sobre la sensibilidad al control WM :

45

Figura II.7.: Pesos seleccionados para el dise˜ no `1 .

Saturaci´ on-L´ımite en amplitud del actuador En el sistema de control en cascada que controla el reformador de hidr´ogeno, se sabe que el flujo de combustible puede variar respecto al valor nominal como mucho entre −6,89 y +1,51. Significa esto que en condiciones normales de funcionamiento el sistema de control debe de ser capaz de rechazar las perturbaciones sin llegar a saturarse. Es decir, kuk∞ ≤ 1,51, para el conjunto de perturbaciones posibles. Debemos ahora describir estas posibles perturbaciones. En este caso las perturbaciones se encuentran normalizadas: kdk ∞ ≤ 1. En definitiva, se deber´a cumplir que: m´ax kuk∞ ≤ 1,51

kdk∞ ≤1

Se ha visto previamente c´omo este problema puede formularse como una condici´on sobre la norma ` 1 de la funci´on de transferencia entre d y u. En este caso la funci´on de transferencia de d a u es M G d (con M la sensibilidad al control): ° ° ° Gd ° ° °M ° 1,51 ° ≤ 1 1

L´ımite en la velocidad del actuador En este problema se impone una variaci´on m´axima de la se˜ nal de control entre instantes de muestreo del 2 % de su valor pico-a-pico, esto es, 0,168 unidades. Teniendo en cuenta que la funci´on de transferencia desde d hasta u es M Gd , tal como se ha mostrado anteriormente esta condici´on puede expresarse en la norma ` 1 seg´ un: ° ° −1 ° Gd (1 − z ) ° ° ≤1 °M ° ° 0,168 1

Finalmente se escoge una funci´on de peso sobre la sensibilidad al control W M tal que a cada frecuencia acote los dos factores multiplicativos de M en las condiciones obtenidas por saturaci´on y limitaci´on en la variaci´on del actuador. Es decir: ¯ ¯ ¯ Gd ¯ ¯ |WM |z=ejω ≥ ¯¯M 1,51 ¯ |WM |z=ejω

46

z=ejω

¯ ¡ ¢ ¯ ¯ Gd 1 − z −1 ¯¯ ¯ )¯ ≥ ¯(M ¯ ¯ 0,168

z=ejω

Adem´as, esta funci´on de peso se elige de forma que su valor absoluto en el rango de frecuencias bajas y medias sea lo m´as peque˜ no posible compatible con las restricciones anteriores. A altas frecuencias se disminuye el peso para permitir aumentar M entre el ancho de banda del sistema en lazo abierto y el ancho de banda del sistema en lazo cerrado. La amplitud del peso elegido se muestra en la figura II.8, donde el peso elegido corresponde a la transformada bilineal de: 0,003 WM (s) = (s + 0,01)(s + 0,02)

Figura II.8.: Selecci´on del peso sobre la Sensibilidad al Control

Peso sobre la sensibilidad al control WS Para elegir este peso se parte de las especificaciones de dise˜ no: la frecuencia de corte de S(z = e jw ) debe estar alrededor de 0,01 rad/seg. Como S debe reducir las perturbaciones de baja frecuencia tanto como sea posible, debe adem´as incluir un integrador. Para evitar sobrepicos de alta frecuencia en S, se debe pesar a altas frecuencias.

C´ alculo del controlador Una vez seleccionado el problema (sensibilidad mixta alternativo) y los pesos a utilizar, se puede resolver el correspondiente problema de programaci´on lineal. En nuestro caso utilizamos la Toolbox de optimizaci´on en Matlab para el c´alculo del controlador. El controlador resultante se redujo de orden hasta un controlador de orden 4, con funci´on de transferencia: K=

[z − 1,03795] [z − 0,88451] [z − 0,65138] [z + 0,20540] [z − 1] [z − 0,390547] [z 2 − 0,097448z + 0,280517]

La respuesta en frecuencia del controlador resultante se compara con la del controlador completo en la figura II.9. En la figura II.10 se comparan las respuestas salto en lazo cerrado. Puede comprobarse c´omo la aproximaci´on realizada es correcta, afectando s´olo a altas frecuencias y no significativamente a la respuesta salto. Las funciones de transferencia caracter´ısticas del sistema en lazo cerrado se muestran en la figura II.11. Es posible comprobar c´omo la forma de estas funciones de transferencia es adecuada: el ancho de banda del sistema

47

Figura II.9.: Respuesta en frecuencia del controlador.

Figura II.10.: Respuesta salto en lazo cerrado.

es ahora de 0,000218 rad/s, lo que significa que se filtrar´an las perturbaciones por debajo de esta frecuencia, como est´abamos buscando. Adem´as, la sensibilidad complementaria no presenta sobrepico, por lo que no lo presentar´a la respuesta salto del sistema. El sobrepico que presenta la sensibilidad al control se debe a la necesidad de aumentar el ancho de banda del sistema en lazo cerrado respecto al de lazo abierto, para poder rechazar las perturbaciones. El c´odigo en Matlab que permite calcular ´este controlador se muestra a continuaci´on: m=20; %Longitud de la respuesta impulsional tol=1e-5; % Definici´ on de la planta kg=-0.032 zg=[-0.2453 0.623257 -0.9999 15.4484 -0.788216+1.566429j ... -0.788216-1.566429j]’; pg=[-0.58958 0.615995 -0.81983 0.910085 -0.419267+0.379915j ... -0.419267-0.379915j]’; % Planta G=ng/dg [ng,dg]=zp2tf(zg,pg,kg) % Definici´ on de los ceros fuera del c´ ırculo unidad zi=[15.4484 -0.788216+1.566429j]’; Ts=30; w=logspace(-4,-1,256); % Peso de S

48

Figura II.11.: Funciones de transferencia caracter´ısticas.

[nw2,dw2]=c2dm(5*[1/0.01 1],[1/10 1],Ts,’matched’) % Peso de M [nw1,dw1]=c2dm(0.5*[1 0.01],[1 1e-6],Ts,’matched’) % Polinomios auxiliares para pol1=conv(conv(dw1,nw2),dg); pol2=conv(conv(nw1,dw2),ng); pol3=conv(conv(nw1,nw2),dg);

evaluar las restricciones de factibilidad mpol1=length(pol1); mpol2=length(pol2); mpol3=length(pol3);

% Restricciones sobre la NORMA A=[-1 ones(1,m) ones(1,m) zeros(1,m) zeros(1,m) -1 zeros(1,m) zeros(1,m) ones(1,m) ones(1,m)]; b=[0;0]; Aeq=[];beq=[]; % restricciones de FACTIBILIDAD: S+GM=I Apol1=zeros(m+mpol1-1,m); Apol2=zeros(m+mpol2-1,m); for i=1:m, Apol1(i:i+mpol1-1,i)=pol1’; Apol2(i:i+mpol2-1,i)=pol2’; end Aeq= [Aeq zeros(size(Apol1,1),1) Apol1 -Apol1 Apol2 -Apol2]; beq=[beq pol3’ zeros(size(Apol1,1)-mpol3,1)]; % funcion de coste a minimizar f=eye(1,4*m+1); % RESOLUCION DEL PROBLEMA DE PROGRAMACION LINEAL [phiopt,FVAL,EXITFLAG,OUTPUT,LAMBDA]=linprog(f,A,b,Aeq,beq,zeros(size(f)),... Inf*ones(size(f))’,zeros(size(f))); gamma=phiopt(1); % C´ alculo de la Sensibilidad ´ optima S=(phi(+)-phi(-))/W1 phi1=phiopt(2:m+1)’-phiopt(m+2:2*m+1)’; % Eliminaci´ on de coeficientes esp´ ureos en phi1 while (abs(phi1(length(phi1))) 0, soluciones de la LMI:   An S + SATn + Bn RT + RBnT + εDDT + γ −2 B1 B1T SC1T SE1T + RE2T  0 de perturbaci´on si y s´olo si existen matrices P > 0 y K tales que (An + Bn K + DF E1 + DF E2 K)T P + P (An + Bn K + DF E1 + DF E2 K)+ γ −2 P B1 B1T P + C1T C1 < 0 pero ello es equivalente, denominando a E = E1 + E2 K, [Pet87]: 1 (An + Bn K)T P + P (An + Bn K) + εP DD T P + E T E + γ −2 P B1 B1T P + C1T C1 < 0 ε

(III.6)

para alg´ un ε > 0. En su forma dual III.6 toma la forma (S = P −1 y R = SK T ): 1 An S + SATn + RBnT + Bn RT + εDDT + SE T ES + γ −2 B1 B1T + SC1T C1 S < 0 ε III.7 puede escribirse como una LMI de la forma:  An S + SATn + RBnT + Bn RT + γ −2 B1 B1T + εDDT  E2 R T + E 1 S C1 S

SE1T + RE2T −εI 0

 SC1T 0 0

An S + SATn + εDDT + Bn RT + RBnT + B1 B1T E2 R T + E 1 S

(III.9) SE1T + RE2T −εI



0 tales que el problema de optimizaci´ on tiene soluci´ on. M´ as a´ un, la ley de control viene dada por u = Kx con K = RT S −1 .

59

Observaci´ on III.7 Observemos que la cota superior (costo garantizado) es obtenida de un proceso de optimizaci´ on, por lo que el conservadurismo introducido no ser´ a mayor. Observaci´ on III.8 El bloque (1, 1) de la matriz III.10 asegura, adem´ as, la estabilidad interna del sistema a lazo cerrado. Observaci´ on III.9 Para el caso sin incertidumbre, la segunda condici´ on se limitar´ıa al t´ermino (1, 1) del III.10. Pasemos ahora a escribir las condiciones para la ubicaci´on de polos del sistema en consideraci´on con un c´ırculo de la forma III.3.

Im(s) r Re(s) -α

Figura III.3.: Circunferencia.

Corolario III.2 Existe una ley de control u = Kx tal que el sistema III.3 tiene todos sus polos ubicados en la figura III.3, para todo A ∈ A y B ∈ B si y s´ olo si existen matrices S > 0 y R y un escalar ε > 0 tales que: µ ¶ S εD >0 εDT εI   −rS + εDD T An SBn RT + αI 0 (III.11)  SATn + RBnT + αI −rS SE1T + RE2T  < 0 0 E1 S + E 2 R T −εI m´ as a´ un la ganancia viene dada por K = RT S −1 .

Observaci´ on III.10 El conjunto de desigualdades es lineal (convexo) con respecto a sus variables (S, R, ε) y por lo tanto es un conjunto de LMIs. Observaci´ on III.11 La ubicaci´ on de polos en circunferencias tales como las descritas tiene sus implicaciones inmediatas en los sistemas discretos de la forma: xk+1 uk

= =

Axk + Buk Kuk

(III.12)

donde A = An + DF E1 , B = Bn + DF E2 y An , Bn , D, F, E como descrito anteriormente. As´ı, por ejemplo, con α = 0 y r = 1 III.11 se convierte en la condici´ on de estabilidad —cuadr´ atica— de III.12. Observaci´ on III.12 Para el caso sin incertidumbre, las condiciones se reducen a S > 0, en la primera LMI de III.11 y las primeras dos filas y columnas de la segunda.

60

III.4.

Sistemas poli´ edricos

Consideremos ahora la familia poli´edrica de sistemas x(t) ˙ = Ax(t) + Bu(t) + B1 w(t) z(t) = C1 x(t)

(III.13)

donde x ∈ IRn es el vector de estados, u ∈ IRm es el vector de control, w ∈ IRnw es el vector de perturbaciones externas y z ∈ IRnz es el vector de salidas controladas. B1 y C1 son matrices constantes conocidas que determinan c´omo afecta la perturbaci´on al sistema y la parte de ´el que queremos controlar. Las matrices de din´amica y de entrada —A, B— son matrices reales no conocidas, que pueden o no ser constantes y de las que s´olo se conoce que pertenecen a los conjuntos poli´edricos A ∈ A = Co{A1 , A2 , . . . , Ar } B ∈ B = Co{B1 , B2 , . . . , Bs } donde Co = envolvente convexo (Convex hull). Evidentemente Ai , i = 1, . . . , r y Bj , j = 1, . . . , s son los v´ertices de los hiperpoliedros A, B. Al igual que para los sistemas con incertidumbre acotada en norma, se busca una ley de control, realimentaci´on lineal de los estados u = Kx, tal que el sistema a lazo cerrado sea internamente estable y que la norma infinita de la funci´on de transferencia entre w y z sea menor que un escalar positivo γ, esto es, kTwz k∞ < γ para todo A ∈ A y B ∈ B. De nuevo, buscamos un controlador que asegure γ-atenuaci´on de las perturbaciones. El siguiente teorema nos da las condiciones de existencia de un tal controlador. Teorema III.2 El sistema III.13 es cuadr´ aticamente estabilizable por una ley de control de realimentaci´ on lineal de los estados (u = Kx), si y s´ olo si existen matrices S > 0 y R tales que ¶ µ Ai S + SATi + RBjT + Bj RT + γ −2 B1 B1T SC1 0 tal que: (A + BK)T P + P (A + BK) + γ −2 P B1 B1T P + C1T C1 < 0

(III.15)

∀A ∈ A y B ∈ B. En forma dual —S = P −1 y R = SK T — la desigualdad III.15 resulta AS + SAT + BRT + RB T + γ −2 B1 B1T + SC1T C1 S < 0 ∀(A, B) ∈ (A, B). Pero III.16 puede escribirse bajo la forma de LMI, esto es, ¶ µ AS + SAT + BRT + RB T + γ −2 B1 B1T SC1T 0 SC1T S T T T Ai S + SAi + Bj R + RBj + B1 B1T < 0

(III.18)

∀i = 1, . . . , r j = 1, . . . , s. Sea W ∗ la soluci´ on —si existe una— del problema convexo definido. Consideremos el sistema III.13. Existe una ley de control u = Kx que asegura √ kTwz k2 < γ = Tr W ∗ si y s´ olo si existen matrices W, S > 0 y R tales que el problema convexo tiene soluci´ on. Observaci´ on III.17 De nuevo, aunque la familia de sistemas es infinita, s´ olo es necesario evaluar la condici´ on en un n´ umero finito de puntos. Observaci´ on III.18 La condici´ on III.18 tambi´en garantiza la estabilidad cuadr´ atica del sistema III.13 y el caso sin incertidumbre es obtenido haciendo i = 1 y j = 1. Nos resta escribir las condiciones de ubicaci´on de polos, por ejemplo en c´ırculos como en la figura III.3. Corolario III.4 Existe una ley de control u = Kx que ubica todos los polos de cualquier miembro de la familia de sistemas III.13 en la circunferencia de la figura III.3, si y s´ olo si existen matrices S > 0 y R tales que: µ ¶ −rS Ai S + Bj RT + αI X −1 = (X − U XU

(III.31)

65

Definamos T de la forma: T =

·

Y VT

¸

I 0

Sin p´erdida de generalidad, podemos asumir que V 6= 0 ya que, de tener V autovalores iguales a cero, siempre podr´ıa hacerse una descomposici´on en valores singulares de V : V = Mv ΣMu reemplazando Σ por Σ∗ donde se han reemplazado los autovalores en cero por ε > 0 suficientemente peque˜ nos, de modo que V ∗ = Mv Σ∗ Mu y la nueva matriz P˜ ∗ tambi´en cumplir´a con la desigualdad III.30 para alg´ un ε suficientemente peque˜ no [IS94]. Si V 6= 0 entonces T es una matriz regular, i.e., tiene inversa. Si multiplicamos a la derecha de III.30 por T T y a la izquierda por T , lo cual preserva la desigualdad, obtenemos:   µ

Y I

V 0

y que resulta en: µ

Y I

V 0

¶ µ A   B  cC |

¶µ

BCc Ac

¶T µ

{z Υ

X UT

U ˆ X

¶ }

XA + AT X + U BCc + CcT BcT U ∆T

µ Y +Υ  T V  T

∆ Ω

¶µ

Y VT

I 0

I 0



0

(III.45)

M´ as aun, un compensador viene dado por: Ac Cc Bc donde

A − Bc C − BCc + S −1 CcT B T P + DD T P − S −1 Q1 + γ −2 B1 B1T P 1 −1 T 2 R1 B P S −1 C T R2−1

= = =

(III.46)

1 Q1 = −{AT P + P A − P BR1 −1 B T P + εP DD T P + E T E + γ −2 P B1 B1T P + C1T C1 } ε

Demostraci´ on - Suficiencia: Recordemos que 1 εP DDT P + E T E ≥ P DF E + E T F T DT P. ε para todo ε > 0. Ahora bien, el sistema en lazo cerrado formado a partir de (III.43) y (III.44) puede escribirse como: ¶ ¶ µ ¶µ µ A + DF E −BCc x x˙ = xc x˙c Bc C Ac haciendo e = x − xc ,

µ

x˙ e˙



=

µ

A + DF E − BCc A + DF E − BCc − Bc C − Ac

Reemplazando Ac por su expresi´on (III.46), obtenemos ¶ ¶ ½ µ µ D x˙ F (E = An + D e˙ donde



An = 

A − BCc −S −1 CcT B T P − DD T P + S −1 Q1 − γ −2 B1 B1T P

BCc Ac + BCc

0)

¾µ

x e

¶µ

x e



.



BCc A − Bc C + S −1 CcT B T P + DDT P − S −1 Q1 + γ −2 B1 B1T P

Pero sabemos que si existe una matriz Pg = Pg T > 0 tal que: ¶ ¶ ½ µ µ D B1 (B1T (DT DT ) + γ −2 ATn Pg + Pg An + Pg ε B1¾ ½ µ T ¶D µ T ¶ E C1 1 (E 0) + (C1 0) < 0. ε 0 0



.

¾ B1T ) Pg +

(III.47)

entonces el sistema es cuadr´aticamente estabilizable con atenuaci´on γ de perturbaci´on. Tengamos ahora: ¶ µ P 0 > 0, Pg = 0 W −1 − P El t´ermino a la izquierda de la desigualdad III.47 pasa a ser ¶ µ Ξ Q1 Q1 Ψ 70

(III.48)

donde

Ψ = (A − Bc C)T S + S(A − Bc C) + CcT B T P + P BCc + εSDD T P + εP DD T S+ εSDDT S − 2Q1 + γ −2 SB1 B1T P + P B1 B1T S + γ −2 SB1 B1T S Ξ=

(A − BCc )T P + P (A − BCc ) + εP DD T P + 1ε E T E + γ −2 P B1 B1T P + C1T C1

recordando que −{AT P + P A − P BR1 −1 B T P + εP DD T P + 1ε E T E + γ −2 P B1 B1T P + C1T C1 }

Q1 = y si definimos:

H = {W −1 A + AT W −1 − C T BcT S − SBc C + 1ε E T E + εW −1 DDT W −1 + γ −2 W −1 B1 B1T W −1 + C1T C1 } entonces

(A − Bc C)T S + S(A − Bc C) + CcT B T P + P BCc + εSDD T P + εP DD T S+ εSDDT S − 2Q1 + γ −2 SB1 B1T P + γ −2 P B1 B1T SP + γ −2 SB1 B1T S = H − Q1

y podemos escribir III.48 bajo la forma:

µ

−Q1 Q1

Q1 H − Q1



.

Esta matriz es definida negativa si Q1 > 0 y H < 0. En consecuencia, la desigualdad III.47 se satisface si (A − BCc )T P + P (A − BCc ) + εP DD T P + 1ε E T E + γ −2 P B1 B1T P + C1T C1 < 0 AT W −1 + W −1 A − C T BcT S − SBc C + εW −1 DDT W −1 + 1 T −2 W −1 B1 B1T W −1 + C1T C1 < 0 εE E + γ

(III.49) (III.50)

Utilizando argumentos sacados del teorema de Finsler [Pet87], III.49 y III.50 son, respectivamente, equivalentes a las condiciones 1 y 2 del teorema III.5 con Bc y Cc , las expresiones “cl´asicas” de las ganancias de control y de filtraje. Necesidad: Sea A˜ =

µ

A Bc C

−BCc Ac



B˜1 =

µ

B1 B1T 0

El sistema en lazo cerrado III.43 y III.44 resulta µ ¶ ½ µ DF E x˙ ˜ A+ = 0 x˙c y = (C1 0)

0 0

0 0

¶¾ µ



C˜1 =

x xc



+

µ

µ

C1T C1 0

B1 0



0 0



.

w

(III.51)

y en consecuencia III.43 es cuadr´aticamente estable con atenuaci´on γ > 0 de perturbaci´on si y solamente si existen matrices ¶−1 ¶ µ µ P1 P2 W1 W2 −1 ˜ ˜ = >0 = P = W P2 T P3 W2 T W3 tales que A˜T P˜ + P˜ A˜ + P˜

µ

DF E 0

0 0

Si III.52 es satisfecha, entonces [Pet87] ¶ µ D (DT A˜T P˜ + P˜ A˜ + εP˜ 0



+

µ

E T F T DT 0

0)P˜ +

1 ε

µ

ET 0

0 0



˜ = P˜ −1 , si multiplicamos III.53 a ambos lados por W µ T ¶ µ ¶ E ˜ ˜ + ε D (DT ˜ A˜T + A˜W ˜ + 1W (E 0)W W 0 0 ε



(E

P˜ + γ −2 P˜ B˜1 P˜ + C˜1 < 0.

0) + γ −2 P˜ B˜1 P˜ + C˜1 < 0,

˜ C˜1 W ˜ < 0. 0) + γ −2 B˜1 + W

(III.52)

(III.53)

(III.54)

71

ˆ = Extrayendo los t´erminos superior izquierdo de las matrices III.53 y III.54, colocando Pˆ = W1 −1 > 0 y W P1 −1 > 0 y utilizando el teorema de Finsler recobramos la primera y segunda condici´on del teorema III.5 en Pˆ ˆ . Ahora bien, seg´ yW un el lema de inversi´on de matrices [AM89], tenemos que: P1 − W1 −1 = P2 P3 −1 P2 T ≥ 0 ˆ −1 − Pˆ ≥ 0. Esta u y por lo tanto W ´ltima desigualdad puede ser satisfecha estrictamente. De hecho, seg´ un el lema ˆ , ellas lo ser´an igualmente 2 de [SMN90], si las condiciones (1) y (2) del teorema III.5 son satisfechas en Pˆ y W ˆ y P < Pˆ . para las matrices W < W Observaci´ on III.24 Las condiciones enunciadas en el teorema III.5 no nos proveen de un medio de c´ alculo para la determinaci´ on del compensador dado en III.46. Sin embargo, podemos notar que la primera condici´ on es convexa con respecto a (P −1 , R1−1 , ε) o, igualmente, con respecto a (ε−1 P −1 , R1−1 , ε−1 ). La segunda es convexa con respecto a (W −1 , R2−1 , ε−1 ) o con respecto a (εW −1 , R2−1 , ε). La u ´ltima es convexa con respecto a (W −1 , −1 P ). Desgraciadamente, el conjunto de las 3 desigualdades no forma una “representaci´ on” convexa y otros m´etodos, como por ejemplo [Gar93] [GSK94] o [IS95], que toman en cuenta la naturaleza particular (convexidad con respecto a ε y ε−1 ) de este problema, deben ser utilizados. Observaci´ on III.25 Una condici´ on necesaria y suficiente puede encontrase tambi´en en el trabajo [XFS92], pero bajo la hip´ otesis de que el compensador din´ amico es dado. Observaci´ on III.26 Para la demostraci´ on del teorema III.5, nos hemos alejado un poco de las LMIs, y hemos seguido un enfoque m´ as bien constructivo, siguiendo la demostraci´ on original de [CGP97]. Igual comentario se aplica a la forma del compensador III.44 en el que se introdujo un signo (-). Las condiciones III.45 del teorema III.5 tambi´en pueden escribirse bajo la forma de LMIs las cuales recogemos en el siguiente corolario (con X = P −1 y Y = W −1 ): Corolario III.8 Sea γ > 0 un escalar dado. El sistema III.43 es cuadr´ aticamente estabilizable con atenuaci´ on γ de perturbaci´ on, si y solamente si existen matrices X, Y, R1−1 , R2−1 definidas positivas y un escalar ε > 0 tales que el siguiente conjunto de LMIs es satisfecho:   AX + XAT − BR1−1 + εDDT + γ −2 B1 B1T XE T XC1T 1)  EX −εI 0  0 dado, para todo posible F ∈ F, i.e., kTwz k22 ≤ γ

∀F ∈ F

lo que normalmente conocemos como costo garantizado [EP98]. Todos los resultados que presentaremos pueden ser extendidos a la ubicaci´on de polos en discos centrados en alg´ un escalar real α con radios r. Adem´as, todas las matrices asociadas con la salida medible y t pueden incluir incertidumbre (con algunas condiciones sobre la forma como afectan al sistema –matrices D y F –). Igualmente pueden ser considerados controladores no estrictamente propios. Hemos escogido la estructura del sistema y la del controlador como en (III.56) y (III.57) para mantener las demostraciones mucho m´as simples. Cuando aplicamos el control (III.57) para cerrar el lazo, obtenemos:         ¶ µ ¶ µ ¶ ¶ ¶ µ µ µ A BCc xt D B1 xt+1 = wt + F (E1 E2 Cc ) + Bc C A c x ˆt 0 0 x ˆt+1  | {z }     | | | | {z } {z } {z } {z }   ˜ E ˜ x ˜ ˜1 A B µ ¶ D˜ xt zt = (C1 D12 Cc ) ˆt | {z } x

(III.58)

˜1 C

o agrupando t´erminos:

x ˜t+1 zt

= =

˜ E)˜ ˜ xt + B ˜ 1 wt (A˜ + DF C˜1 x ˜t

(III.59)

Nuestra soluci´on del problema est´a basada en el concepto de disco-estabilidad cuadr´atica, cuya definici´on es: Definici´ on III.3 ([GB95]) El sistema (III.59) es cuadr´ aticamente disco estabilizable (d − estabilizable), si existe una matriz sim´etrica definida negativa P > 0 tal que: ˜ E) ˜ T P (A˜ + DF ˜ E) ˜ −P 0, H2 garantizado si: kTwz k22 ≤ γ

∀F ∈ F

donde Twz es la funci´ on de transferencia entre w - z en (III.59), dada por: ˜1 , ˜ E) ˜ −1 B Twz = C˜1 (δI − A˜ − DF

δ = el operador de retardo

. Recordemos ahora que:

˜1 ) ˜ T Lo (F )B kTwz k22 = Traza(B 1 75

donde Lo (F ) satisface: ˜ E) ˜ T Lo (F )(A˜ + DF ˜ E) ˜ − Lo (F ) + C˜1T C˜1 = 0 (A˜ + DF

(III.60)

El siguiente teorema nos aporta condiciones equivalentes “ciertas” de la existencia de l´ımites superiores de la norma H2 de sistema (III.59).

Teorema III.6 ([GB95]) El sistema(III.59) es cuadr´ aticamente d−estable si existe una matriz sim´etrica P > 0 y un escalar ε > 0 tal que ˜D ˜ T )−1 A˜ − P + ε−1 E ˜T E ˜ + C˜ T C˜1 < 0 A˜T (P −1 − εD | 1{z }

(III.61)

˜ Q

Observaci´ on III.27 En [GB95] el resultado es formulado en t´erminos de una matriz Q que puede ser escogida ˜ + cualquier arbitrariamente y de una ecuaci´ on discreta de Riccati. Con una selecci´ on apropiada de Q (e.g., = Q matriz definida positiva “peque˜ na”) se obtiene (III.61).

El l´ımite superior de la norma H2 es funci´on de la soluci´on P de la desigualdad de Riccati (III.61). De hecho, satisfacci´on de (III.61) es equivalente a [GB95]: ˜ E) ˜ T P (A˜ + DF ˜ E) ˜ − P + C˜1T C˜1 < 0 (A˜ + DF

(III.62)

al comparar (III.60) y (III.62) P > Lo , y por lo tanto: Traza(B1T Lo (F )B1 ) ≤ Traza(B1T P B1 ) En t´erminos de desigualdades matriciales, la existencia de una matriz P > 0 y un escalar ε > 0 tal que: µ µ

P −1 ˜T B

˜D ˜T −P −1 + εD T A˜

1

˜1 B γI



>0

y

A˜ −1 ˜ T ˜ −P + ε E E + C˜1T C˜1

(III.63) ¶

0 tal que el siguiente conjunto de desigualdades matriciales lineales tiene soluci´ on:   Y I Y B1  I X B1  > 0 y (III.69) B1T Y B1T εγI   −I 0 E 1 E1 X + E 2 L 0 0 0  ? −ε−1 I C1 C1 X + D12 L 0 0 0    T T T T  ? ? −Y −I A Y +C H A 0     ? ? ? −X Z XAT + LT B T 0  (III.70)   0 y de una ganancia L, de manera que: (A − LC)T W + W (A − LC) < 0. Recordemos que la estabilidad cuadr´atica est´a determinada por la existencia de P = P T > 0 y K tales que (A − BK)P + P (A − BK)T < 0 79

para todo el dominio de la incertidumbre. Consideremos ahora un observador de Luenberger [ORe83] para el sistema III.72 “nominal” z˙ u

= An z + Bn u + L(y − Cn z) = −Kz

(III.74)

donde z ∈ IRn . Definiendo e = x − z, tenemos e˙ = (An − LCn + ∆B K)e + (∆A − ∆B K − L∆C )x. Sea ∆ = ∆A − ∆B K − L∆C , el sistema a lazo cerrado puede escribirse como: ¶ ¶µ ¶ µ µ x A − BK BK x˙ = e ∆ An − LCn + ∆B K e˙

(III.75)

(III.76)

donde, de acuerdo con nuestra hip´otesis de estabilidad y detectabilidad, las ganancias L y K son tales que existen matrices P > 0 y W > 0 tales que FS (P, A, B) = (A − BK)T P + P (A − BK) < 0; FO (W, A, C, ) = (A − LC)T W + W (A − LC) < 0; notamos que ∀α > 1,

FS (αP, A, B) < FS (P, A, B) FO (αW, A, C) < FO (W, A, C).

∀A, B ∈ A, B ∀A, C ∈ A, C.

y

(III.77)

(III.78)

Podemos ahora caracterizar la estabilidad local del sistema (III.72). Teorema III.8 ([CPM94]) Si el par incierto (A, B) es cuadr´ aticamente estabilizable y el par incierto (C T , AT ) es cuadr´ aticamente detectable, entonces siempre existe una vecindad alrededor de la tripleta (A n , Bn , Cn ) tal que el sistema (III.72) es cuadr´ aticamente estabilizable por un compensador de la forma (III.74). Demostraci´ on: Supongamos que existe una matriz de Lyapunov del sistema (III.76) de la forma µ ¶ P˜ 0 Pg = ˜ 0 W por lo tanto (x

T

T

e ) +Pg



µ

A − BK ∆

A − BK ∆

¶T BK Pg An − LCn − ∆B K ¶ ¶¾ µ x BK < 0, e An − LCn − ∆B K

(III.79)

(III.80)

lo que podemos escribir como ˜ xT {(A − BK)T P˜ + P˜ (A − BK)}x + eT {(An − LCn − ∆B K)T W T T T ˜ (An − LCn + ∆B K)}e + 2e {K B P + W ˜ ∆}x < 0. +W Sin embargo, y entonces teniendo adem´as que:

80

(III.81)

(P˜ BKe + x)T (P˜ BKe + x) ≥ 0 2eT {K T B T P˜ }x ≤ xT x + eT K T B T P˜ P˜ BKe

(III.82)

˜ ∆}x ≤ xT x + eT W ˜ ∆∆T W ˜e 2eT {W

(III.83)

y de all´ı que la desigualdad (III.80) se satisface si 1) 2)

(A − BK)T P˜ + P˜ (A − BK) + 2I < 0 y ˜ +W ˜ (An − LCn ) + K T B T P˜ P˜ BK (An − LCn )T W ˜ ∆∆W ˜ +W ˜ ∆B K + K T ∆B W ˜ < 0. +W

(III.84)

Pero dado que el sistema es estabilizable y detectable cuadr´aticamente, siempre existen β > 0, γ > 0 y ρ m > 0 tales que (A − BK)T βP + βP (A − BK) + 2I < 0 y (An − LCn )T γW + γW (An − LCn ) + β 2 K T B T P P BK+ (III.85) ρm (γ 2 W ∆∆W + γW ∆B K + K T ∆B T γW ) < 0. Esta afirmaci´on se basa en el hecho de que las incertidumbre son acotadas y, por ende, los t´erminos en el u ´ltimo de los par´entesis son igualmente acotados. As´ı, el sistema es cuadr´aticamente estable en una vecindad de la tripleta nominal (An , Bn , Cn ) definida por: k∆Ak ≤ ρm ρ1 ;

k∆Bk ≤ ρm ρ2 ;

k∆Ck ≤ ρm ρ3

En el teorema (III.8) demostramos que, si el sistema es cuadr´aticamente estabilizable y detectable, siempre podemos encontrar una vecindad de la tripleta (An , Bn , Cn ) que puede efectivamente ser estabilizada por un compensador del tipo “observador de Luenberger”. M´as a´ un, en la demostraci´on no se ha impuesto ninguna condici´on en la tripleta (An , Bn , Cn ) sino que se encuentre en el dominio de incertidumbre. Por lo tanto, podemos afirmar que en la vecindad de no importa qu´e tripleta (A, B, C) del dominio, siempre podremos satisfacer (III.85) y asegurar que el sistema a lazo cerrado es asint´oticamente estable. Sin embargo, hay que se˜ nalar que es necesario conocer las matrices (A, B, C) para construir el compensador, lo que impone problemas pr´acticos evidentes. Un resultado adicional que se deriva del teorema (III.8) es el siguiente: Corolario III.9 Dado que en el caso de los sistemas lineales precisamente conocidos la desigualdad (III.85) siempre se satisface, para alg´ un β > 0 y γ > 0, entonces esos sistemas siempre admiten como matriz de Lyapunov una matriz de la forma µ ¶ βP 0 Pg = >0 (III.86) 0 γW

en la representaci´ on en (xT eT )T , y donde P y W son las matrices que “estabilizan y detectan” cuadr´ aticamente al sistema. Podemos igualmente demostrar que otras matrices diagonales en bloques son tambi´en posibles matrices de Lyapunov del sistema cierto, por ejemplo: ¶ µ εP 0 >0 0 W −1 − εP para ε suficientemente peque˜ no. Como antes, W y P son las matrices que “estabilizan” y que “detectan” al sistema.

Hacemos ´enfasis en el hecho de que Pg es una matriz de Lyapunov en una cierta vecindad alrededor del sistema conocido (A, B, C), y que lo ser´a para el sistema a lazo cerrado con un compensador como el de (III.74). Esto es, el compensador no estabilizar´a u ´nicamente al sistema conocido sino tambi´en en una vecindad alrededor de (A, B, C). Bas´andonos en esta constataci´on vamos a presentar, en lo que sigue, una estrategia que explota la naturaleza convexa del problema poli´edrico cuando se fija una de las variables desconocidas. La estrategia busca un m´aximo local de la incertidumbre que puede efectivamente ser estabilizada.

81

S´ıntesis de compensadores por programaci´ on lineal Antes de presentar la estrategia, formulemos precisamente el problema a considerar a partir del sistema siguiente: x˙ = Ax + Bu y = Cx donde x ∈ IRn , u ∈ IRm e y ∈ IRp representan, respectivamente, los vectores de estado, control y salida medible. A ∈ A, B ∈ B y C ∈ C donde A, B, C son subconjuntos poli´edricos no vac´ıos de IR n×n , IRn×m y IRp×n respectivamente. Los v´ertices de esos poliedros son {A1 , A2 , . . . , Ar }, {B 1 , B 2 , . . . , B s } y {C 1 , C 2 , . . . , C t }. D est´a definido como el poliedro en el que los v´ertices son todas las combinaciones posibles de la tripleta (A j , B k , C l ) con j = 1, . . . , r, k = 1, . . . , s, l = 1, . . . , t. Para simplificar la notaci´on, indexaremos los v´ertices con i = 1, . . . , q, q = rst y en consecuencia D es el envoltorio convexo (Convex Hull Co) de las tripletas (A i , Bi , Ci ), es decir D = Co{(Ai , Bi , Ci ), i = 1, . . . , q}. Sea (Ac , Bc , Cc ) un punto cualquiera en D y finalmente definimos al subconjunto θ(·, ·) de D como θ(D, ε) = Co {((1 − ε)(Ac , Bc , Cc ) + ε(Ai , Bi , Ci )) i = 1, . . . , q}

0 ≤ ε ≤ 1.

(III.87)

Claramente, tenemos θ(D, 0) = (Ac , Bc , Cc ) θ(D, 1) = D

y

El problema que abordamos es el siguiente: m´ax ε tal que el sistema x˙ = Ax + Bu y = Cx z˙ = F z + Gy u = −Kz

(III.88)

es cuadr´aticamente estable para todo (A, B, C) ∈ θ(D, ε), esto es, que encontraremos matrices F ∈ IR n×n , G ∈ IRn×p y K ∈ IRm×n que estabilizan el subconjunto “m´aximo” de D (y que medimos en este caso con la ayuda de ε). El sistema III.88 puede ser escrito en funci´on de las variables ¶ µ x x ˜= e donde e = x − z, de la forma donde A˜ =

µ

A A

0 0

(III.89)

˜ F˜ C) ˜ x ˜˙ = (A˜ + B ¶

˜= B

µ

0 −I

−B −B



C˜ =

µ

(III.90) I C

−I 0



F˜ =

µ

F K

G 0



.

(III.91)

Por lo tanto el sistema es cuadr´aticamente estabilizable si y solamente si existen matrices W > 0 y F˜ tales que ˜ F˜ C) ˜ T W + W (A˜ + B ˜ F˜ C) ˜ 0 “suficientemente peque˜ na”. La escogencia de una regi´on inicial ζ “suficientemente grande” no presenta ninguna dificultad pr´actica. En general podemos escoger todo el espacio (abierto) y luego de un n´ umero peque˜ no de iteraciones se generar´a una regi´on ζ compacta, siendo ´esta lo que necesitamos para asegurar la convergencia que demostraremos un poco m´as adelante. A fin de asegurar el ´exito, los dos algoritmos deben disponer de una de las dos variables (W o F˜ ) y de la certidumbre que esa variable funcionar´a para un dominio de incertidumbre ligeramente m´as grande que aquel para el que ella fue calculada (teorema III.8), en tanto que ´el sea un subconjunto de D. Para iniciar el algoritmo debemos, sin embargo, tener un compensador o una matriz de Lyapunov. Si el sistema es cuadr´aticamente estabilizable y detectable siempre podemos construir un compensador estabilizante del sistema cierto, de la forma expuesta en (III.74) y con las ganancias L y K calculadas del problema convexo asociado. Por otra parte, es f´acil demostrar con las mismas hip´otesis —detectabilidad y estabilizabilidad— que bajo la representaci´on (xT eT )T siempre existe una matriz de Lyapunov de la forma ¶ µ P 0 (III.100) 0 αW −1 − P para todo α ≥ k para una cierta k > 0. En ambos casos disponemos de valores que nos permiten inicializar los procedimientos de c´alculo. La estrategia propuesta en III.9 puede igualmente utilizarse para determinar el margen de robustez de un controlador dado de un sistema. Este t´opico ha sido tambi´en estudiado por un n´ umero de autores —[Yed86], [YL86], [Soh94], [HL93]— siendo las cotas superiores de la incertidumbre dada. La estrategia presentada en III.9 calcula el l´ımite de robustez (cuadr´atica) de tal compensador.

84

Hay que se˜ nalar que el enfoque num´erico precedente no impone de ninguna manera la restricci´on de diagonalidad en bloques de la matriz de Lyapunov, y esta forma se utiliza u ´nicamente para demostrar que la estabilidad en una cierta vecindad es verificada. Por otra parte, esta forma diagonal es u ´til para la inicializaci´on del algoritmo. En fin, con respecto a la implementaci´on num´erica del algoritmo, el enfoque general propuesto ha sido ilustrado usando t´ecnicas de hiperplanos de corte y programaci´on lineal, y debe remarcarse que tal enfoque puede igualmente ser realizado utilizando LMIs y t´ecnicas de punto interior.

Convergencia del esquema iterativo Sea ζ el conjunto factible; la convergencia de los algoritmos propuestos est´a asegurada por los hechos siguientes: El conjunto —compacto— de b´ usqueda ζ k se reduce de iteraci´on a iteraci´on. En efecto, ζ ⊂ . . . ⊂ ζ k+1 ⊂ ζ k .

(III.101)

El algoritmo genera un problema de optimizaci´on (minimizaci´on) en conjuntos en los que la talla se reduce y que son todos incluidos en el precedente; por ejemplo, lo que implica la existencia de un punto l´ımite si el conjunto inicial ζ no est´a vac´ıo [Hof81]. En la iteraci´on k se a˜ nade la restricci´on vk T H k (.)vk ≤ −γ

(III.102)

para γ > 0 dada “suficientemente peque˜ na”. Esta restricci´on ser´a, de seguro, satisfecha para cualquier soluci´on obtenida por los algoritmos en la iteraci´on l > k, es decir vk T H k (Sl )vk ≤ −γ

(III.103)

donde Sl = Wl o Fl en funci´on del problema que estemos resolviendo en la iteraci´on l. (III.103) se puede escribir (III.104) λkm´ax (Sk ) − vk T H k (Sl − Sk )vk ≤ −γ. Dada la existencia de un punto l´ımite, l´ım vk T H k (Sl − Sk )vk = 0

(III.105)

λkm´ax (S) ≤ −γ.

(III.106)

l,k→∞

y, por lo tanto, si S = l´ımk→∞ Sk , Si el conjunto factible ζ(= l´ımk→∞ ζ k ) no est´a vac´ıo, tenemos que S ∈ ζ. Si el conjunto factible es vac´ıo existir´a una iteraci´on l para la que ζ l ser´a vac´ıo.

Sobre las condiciones de estabilizabilidad y detectabilidad cuadr´ atica En la secci´on precedente hemos propuesto algoritmos que requieren de un punto inicial de partida, por ejemplo, un compensador estabilizante del sistema nominal. Ahora bien, un punto inicial se puede calcular a partir de (III.77) si el sistema es cuadr´aticamente estabilizable y detectable. Recordamos ahora que las condiciones de estabilizabilidad y detectabilidad son necesarias para la existencia de un controlador din´amico del sistema III.72 a lazo cerrado.

85

En efecto, el sistema (III.88) es cuadr´aticamente estabilizable si existe una matriz: P =

µ

P1 P2 T

P2 P3



> 0,

tal que: µ

A GC

−BK F

¶T µ

P1 P2 T

P2 P3



+

µ

P1 P2 T

P2 P3

¶µ

A GC

−BK F



0.

(IV.12)

si α ˆ ≤ 0, entonces Ki es una ganancia estabilizante y si no haga i = i + 1 y vaya al paso 1. Debemos ahora realizar algunos comentarios a prop´osito del algoritmo. Observaci´ on IV.1 El algoritmo propuesto est´ a basado en el hecho de que la condici´ on de Lyapunov, que asegura la estabilidad para el sistema con realimentaci´ on est´ atica de la salida (IV.7), es bilineal en las inc´ ognitas K y P , y por ende cuando una se fija, lo que resulta es una desigualdad matricial lineal (LMI) en la otra variable y en consecuencia, un problema convexo. Observaci´ on IV.2 En el paso 0, lo que hacemos es suministrar al algoritmo un punto de arranque, a partir de la condici´ on de estabilidad con realimentaci´ on de los estados, que es una LMI en P y R(= K −1 P ). Si no existe tal matriz P que asegura estabilidad con realimentaci´ on de estados, tampoco existir´ a un PID que haga el trabajo. Observe que en el paso 0 simplemente damos un punto de inicio a partir de una condici´ on necesaria, pero hubi´eramos podido arrancar desde otro punto, e.g., desde la matriz P asociada a un PID ajustado por Ziegler y Nichols, que sabemos estabiliza al sistema original. Observaci´ on IV.3 En el paso 1, conocida una matriz Pi , se inicia la b´ usqueda de una ganancia Ki que pudiera estabilizar al sistema. Ella (Ki ) ser´ a una ganancia estabilizante, si la soluci´ on del problema (convexo) de optimizaci´ on que se formula en el paso 1 termina con un valor de α ∗ ≤ 0. Observe que el problema en el paso 1 es una LMI en las inc´ ognitas (Ki , α). Observaci´ on IV.4 En el paso 2, conocida una ganancia Ki , lo que se busca es verificar si ella es, en efecto, una ganancia estabilizante, lo que se certifica si la condici´ on (IV.12) es satisfecha o, lo que es lo mismo, se obtiene una matriz Pi+1 . Observe igualmente que la condici´ on (IV.12) es biconvexa en α y P i+1 ; sin embargo, siendo α un escalar y conociendo un l´ımite superior (α∗ ) es f´ acil obtener ese m´ınimo de α porque (siendo escalar) s´ olo tiene una forma de descenso. Luego en el paso 2 lo que se hace es fijar el α en un valor, resolver la LMI para Pi+1 y si tiene soluci´ on se hace α m´ as peque˜ no y si no, se vuelve al paso 1. Observaci´ on IV.5 La satisfacci´ on de la condici´ on (IV.10) o la (IV.12) no s´ olo asegura una ganancia estabilizante sino que adem´ as da una medida de calidad del controlador obtenido, ya que su satisfacci´ on garantiza que los polos del sistema a lazo cerrado est´ an ubicados a la izquierda de α/2 [SGC97]. Observaci´ on IV.6 En el paso 2, no se requiere calcular el m´ınimo de α; bastar´ıa verificar que con α = 0 se satisface (IV.12), lo que certificar´ıa la estabilidad. Se ha incluido el m´ınimo, s´ olo para determinar la bondad del controlador medido como lo descrito en el comentario anterior (IV.5). De hecho, en algunas circunstancias y para ubicar un mejor PID y evitar los problemas num´ericos, no se vuelve al paso 1 con la P i+1 asociada al m´ınimo sino m´ as bien con una menos extrema.

92

Observaci´ on IV.7 La variable escalar α asegura que los problemas formulados en los pasos 1 y 2 siempre tendr´ an soluci´ on. Ello no asegura, sin embargo, que siempre se encontrar´ a un PID estabilizante. El algoritmo falla en encontrar un PID si α∗ , α ˆ ≥ 0 y |α∗ − α ˆ | ≤ ε, con ε un valor predeterminado de convergencia. Observaci´ on IV.8 Por u ´ltimo, este algoritmo puede igualmente ser aplicado para el c´ alculo de controladores PI de sistemas continuos y discretos, para sistemas multivariables y para sistemas con incertidumbre poli´edrica o acotada en norma en las matrices A y C del sistema original (v´ease [Pet87] y [BGP89] para las definiciones de las incertidumbre y [GCB03] para las extensiones referidas).

IV.5.

Comparaci´ on de t´ ecnicas de entonaci´ on

En esta secci´on hacemos una comparaci´on de la estrategia de entonaci´on ILMI presentada en la secci´on anterior (secci´on (IV.4)) con otras t´ecnicas ampliamente conocidas. Hemos escogido dos casos tomados de [Sko03]. Ellos son: uno de fase no m´ınima y otro con retardo. En [CMR05] pueden encontrarse comparaciones m´as detalladas del enfoque propuesto, con otros y en [GCB03], la extensi´on a sistemas multivariables. Debemos se˜ nalar que en el caso de los m´etodos de IMC y de Ziegler y Nichols, al igual que para la mayor´ıa de los m´etodos de ajuste de PIDs, aunque se da una funci´on de transferencia del sistema para los ejemplos num´ericos, la misma es ajustada, sea a una de primer orden m´as retardo o a una de segundo orden m´as retardo. En el caso de ajuste con LMIs que hemos propuesto, la u ´nica simplificaci´on realizada es la aproximaci´on del retardo a una de Pade de primer orden. Ello porque el m´etodo se basa en una representaci´on en variables de estado. A continuaci´on presentamos los resultados para cada caso.

Fase no m´ınima La funci´on de transferencia del sistema es:

G2 (s) =

(1 − 0, 3s)(1 + 0, 08) (2s + 1)(s + 1)(0, 4s + 1)(0, 2s + 1)(0, 05s + 1)3

(IV.13)

El ajuste de los par´ametros por los diferentes m´etodos se muestra en la tabla (IV.1). M´etodo LMI1 IMC2 Z & N2

Kp 2,092 1,3 2,56

Ki 0,5543 0,65 0,966

Kd 2,0673 1,56 1,6896

Tabla IV.1.: Par´ametros de los PID de la fase no m´ınima. (1) PID paralelo y (2) PID interactivo. En la figura (IV.2) se muestran los resultados del sistema para una perturbaci´on tipo escal´on unitario, aplicada a los 30 segundos. Los m´argenes de fase y de ganancia comparados se muestran en la tabla (IV.2).

93

LMI SIMC Z&N 1.3

1.2

1.1

1

0.9

0.8 30

35

40

45

50

Figura IV.2.: Respuesta temporal del lazo de fase no m´ınima.

M´etodo LMI1 IMC2 Z & N2

Fase 68,84 57,95 31,2

Ganancia 2,58 2,89 1,87

Tabla IV.2.: Comparaci´on de indicadores de calidad. Caso fase no m´ınima. (1) PID paralelo y (2) PID interactivo.

Sistema con retardo

La funci´on de transferencia del sistema es:

G3 (s) =

((6s + 1)(3s + 1)e−0,3s (10s + 1)(8s + 1)(s + 1)

(IV.14)

El ajuste de los par´ametros por los diferentes m´etodos se muestra en la tabla (IV.3). M´etodo LMI1 IMC2

Kp 3,6898 7,41

Ki 0,7192 7,41

Kd -2,522 -

Tabla IV.3.: Par´ametros de los PID del sistema con retardo (1) PID paralelo y (2) PID interactivo. En la figura (IV.3) se muestran los resultados del sistema para una perturbaci´on tipo escal´on unitario, aplicado a los 20 segundos. Los m´argenes de fase y de ganancia comparados se muestran en la tabla (IV.4).

94

LMI SIMC−PI

1.25

1.2

1.15

1.1

1.05

1

0.95

0.9

0.85

0.8 15

20

25

30

35

40

45

Figura IV.3.: Respuesta temporal del sistema con retardo. M´etodo LMI1 IMC-PI

Fase 78,47 51,67

Ganancia 1,58 3,05

Tabla IV.4.: Comparaci´on de indicadores de calidad. Caso retardo.

IV.6.

Enfoque frecuencial

En esta secci´on presentamos el enfoque frecuencial al c´alculo de PIDs, y ello lo haremos con un caso de estudio. Primero presentamos el modelo del sistema a considerar, en la secci´on siguiente se calcula el controlador y el PID aproximado y finalmente en la u ´ltima secci´on, para fines de comparaci´on, el PID calculado se compara con uno entonado por Ziegler-Nichols [ZN42]. El sistema que consideraremos tiene la siguiente funci´on de transferencia: G(s) =

−0,7136 −s e s+1

(IV.15)

sobre este sistema se desea que no tenga off-set a cambios en la entrada tipo escal´on (salto) y que sea r´apido en su respuesta (que se medir´a como un tiempo de respuesta inferior a 10 seg.). Todas las especificaciones impuestas son muy comunes para lazos de control. Una especificaci´on adicional fue que el sistema se vea poco afectado (rechace) por perturbaciones que entran al sistema de la misma forma que el control. Esta u ´ltima especificaci´on, de tipo robusto, toma en cuenta cambios en la presi´on del sistema producto de agentes externos, como movimientos en la demanda, etc. Para eliminar el off-set “a priori” se incluye un integrador 1s en la trayectoria directa del lazo, de esta manera se dise˜ nar´a un compensador para el sistema (G(s)) que ha incorporado de manera directa el integrador. Una vez calculado el control robusto, el compensador final ser´a el control robusto m´as el integrador. El problema se muestra esquem´aticamente en la figura IV.4: Todo el dise˜ no de controladores robustos se realiza en el ´ambito de los sistemas lineales y en representaci´on de variables de estado, por lo tanto, el retardo del sistema —e−s — es modelado como un sistema lineal con una aproximaci´on de Pade de 1er orden [Kuo95]: e−s =

1 − 0,5s 1 + 0, 5s

95

w r(s)

∧ u

Control

e -s

-0.7136 1/s

y(s)

s+1

(-)

Figura IV.4.: Esquema con integrador.

Con esta representaci´on del retardo, el sistema lineal resulta: ¸ ¸ · ¸ · · 0 0 −3 −2 w u+ x+ x˙ = 1 1 1 0 y = [0,7136 − 1,4271] al incluir el integrador el sistema “aumentado” resulta:       −3 −2 0 0 0 0 1  xa +  0  u x˙ a =  1 ˆ +  1 w 0 0 0 1 0 | | {z } | {z } {z } Aa

y

=

[0,7136 |

yu ˆ como en la figura IV.4.

Ba

− 1,4272 {z Ca

xa =

·

x u

0] xa }

Bp

(IV.16)

con

¸

El objetivo de rapidez de respuesta puede traducirse en que todos los polos del sistema compensado est´en a la izquierda de un cierto valor, en este caso se impuso a la izquierda de −1. De igual manera, el objetivo de atenuaci´on a las perturbaciones w puede ser descrito como: kTwz k∞ < 1 esto es, la norma infinita de la funci´on de transferencia entre w y y sea menor que 1. M´as adelante formalizaremos las condiciones que deben cumplirse, pero antes debemos describir el tipo de control que ser´a utilizado, a saber: x˙ c u ˆ El sistema a lazo cerrado resulta: ¸ · x˙ a = x˙ c y

=

= A c xc + B c y = C c xc + D c u

·

A a + B a Dc Ca B c Ca | {z A¸ · xa [Ca 0] | {z } xc

B a Cc Ac

¸· }

(IV.17)

xa xc

¸

+

¸ Bp w 0 | {z } ·

B

(IV.18)

C

Para satisfacer las condiciones de dise˜ no se debe cumplir que exista una matriz X definida positiva tal que:

· 96

AX + XAT + 2 · 1 · X < ¸0 AX + X T + BB T XC T
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF