SISTEMAS DINAMICOS

March 28, 2017 | Author: Adrienne Merely | Category: N/A
Share Embed Donate


Short Description

Download SISTEMAS DINAMICOS...

Description

Sistemas Dinámicos Héctor E. Lomelí Departamento Académico de Matemáticas Instituto Tecnológico Autónomo de México Río Hondo #1 México, DF 01000 1 de diciembre de 2005

Índice General

1 Introducción a los Sistemas Dinámicos.

1

1.1

Definición de un sistema dinámico . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Ejemplos de sistemas dinámicos . . . . . . . . . . . . . . . . . . . . . . .

4

Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5

2 Sistemas Lineales

8

2.1

La norma de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8

2.2

La exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . . . . .

11

2.3

Derivadas matriciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

2.4

Cálculo de la exponencial de una matriz . . . . . . . . . . . . . . . . . . .

19

2.5

Ecuaciones de orden n y método de Fulmer . . . . . . . . . . . . . . . . .

25

Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

3 Estabilidad de Sistemas Lineales.

34

3.1

Matrices no degeneradas . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

3.2

Matrices atractoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

ÍNDICE GENERAL

3.3

i

Matrices tipo silla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46

4 Teoría no Lineal. 4.1

49

Teoría de Ecuaciones Diferenciales. . . . . . . . . . . . . . . . . . . . . .

49

Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

63

5 Estabilidad no lineal

66

5.1

Conjugación topológica . . . . . . . . . . . . . . . . . . . . . . . . . . . .

66

5.2

Linealización de puntos fijos . . . . . . . . . . . . . . . . . . . . . . . . .

70

5.3

Análisis de puntos silla . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81

5.4

Estabilidad asintótica . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

95

ÍNDICE GENERAL

ii

CAPÍTULO 1

Introducción a los Sistemas Dinámicos.

1.1 Definición de un sistema dinámico Los Sistemas Dinámicos son el estudio de modelos que evolucionan en el tiempo. En general se estudian dos situaciones:



tiempo continuo t ∈ R tiempo discreto t ∈ Z

En cada caso, existen muchas aplicaciones que se pueden poner dentro del esquema de un sistema dinámico:

    Ecuaciones diferenciales ordinarias

Tiempo continuo

Ecuaciones de difusión

  

Procesos estocásticos 

Tiempo discreto

Métodos iterativos Iteración de mapeos

§1.1 D EFINICIÓN

DE UN SISTEMA DINÁMICO

2

Definición 1.1.1 Sea E un conjunto. Sea  un subconjunto de R × E tal que {0} × E ⊂  ⊂ R × E.Un sistema dinámico de tiempo real en E es una funciónφ :  → E (t, x) → φ t (x) tal que: a) φ (0, x) = x b) φ (t, φ (s, x)) = φ (t + s, x) (en donde tenga sentido). Se dirá, además, que φ es el flujo del sistema dinámico. Dado un flujo, generalmente se utilizará la siguiente notación: φ t (x) = φ (t, x) . De esta manera, las condiciones de la definición anterior se pueden escribir como φ0 = i dE , φ t ◦ φ s = φ t+s . Recordemos que, como parte de la definición, para cada punto x ∈ E, se tiene que (0, x) ∈ . Queremos que para cada x0 , el conjunto de tiempos t para los que flujo φ (t, x) está definido sea un intervalo. El máximo intervalo I ⊂ R tal que 0 ∈ I es llamado el intervalo maximal de x y se denota D(x). Definición 1.1.2 Si para cada punto x el intervalo maximal D(x) = R, se dice que el sistema dinámico es completo. En particular, si el flujo es completo, se tiene que para cada t, la función φ t : E → E es  −1 = φ −t . una biyección con inversa dada por φ t Definición 1.1.3 Sea E un conjunto. Sea  un subconjunto de Z × E tal que {0} × E ⊂ . Un sistema dinámico en tiempo discreto es una función φ :  → E tal que a) φ(0, x) = x, b) φ (s, φ (t, x)) = φ (s + t, x) (cuando esto tiene sentido).

§1.1 D EFINICIÓN

3

DE UN SISTEMA DINÁMICO

En un sistema dinámicos en tiempo discreto, generalmente se utiliza  = (N ∪ {0}) × E con el flujo definido como φ(t, x) = ( f ◦ f ◦ · · · ◦ f )(x)

 t veces

Esta composición se puede escribir como f t = f ◦ f ◦ · · · ◦ f .

 t veces

En ambos casos, en tiempo discreto y tiempo continuo, nos interesa estudiar el comportamiento de los flujos, por ejemplo, nos preguntamos acerca del siguiente límite. lim φ(t, x) =?

t→∞

En los siguientes capítulos estableceremos una relación entre flujos y ecuaciones diferenciales. En particular tenemos el siguiente resultado. Proposición 1.1.4 Sea E un abierto de Rn . Sea φ un flujo definido en un abierto  ⊂ R×E. Suponer que φ(t, x) es de clase C 1 . Demostrar que, para cada x ∈ E, la función y(t) = φ(t, x) satisface el siguiente problema de valores iniciales. y˙ = f (y), y(0) = x, donde f (u) =



∂ ∂t t=0 φ(t, u).

Ejemplo 1.1.5 Sea φ :  ⊂ R × R → R el flujo dado por φ t (x) =

x 1 − xt

Notemos que para t = 0, siempre está definida φ está definida. Podemos usar  = {(t, x) : xt  = 1} .Vamos a verificar que φ es un sistema dinámico sobre R. a) φ 0 (x) = x,

§1.2 E JEMPLOS

4

DE SISTEMAS DINÁMICOS

b) φ t (φ s (x)) = φ t

x 1−xs



=

x 1−xs x 1− 1−xs t

=

x 1−sx−t x

=

x 1−(s+t)x

= φ s+t (x). El intervalo

  si x = 0   R  1 D(x) = −∞, x si x > 0     1 , ∞ si x < 0 x

maximal es

Para encontrar una ecuación diferencial que sea satisfecha por φ(t, x0 ) usamos la proposición 1.1.4. Usando el flujo de este ejemplo, se tiene ∂ f (u) = φ(t, u) = u 2 . ∂t t=0 Notemos que y(t) = φ(t, x0 ) cumple y˙ (t) =

x02 ∂ φ(t, x0 ) = = φ(t, x0 )2 . ∂t (1 − t x0 )2

De este modo concluimos que, para cada x0 , la función y(t) = φ(t, x0 ) es una solución del problema y˙ = y 2 , y(0) = x0 .

1.2 Ejemplos de sistemas dinámicos   Ejemplo 1.2.1 Sea E = S 1 = x ∈ R2 : |x| = 1 el conjunto de estados. Sea  = R × E y φ :  → E dada por

 φ(t, x) =

cos t − sin t sin t

cos t

 x

Entonces φ es un sistema dinámico completo. Ejemplo 1.2.2 En este ejemplo, mostramos que el conjunto de estados puede ser algo más que subconjuntos de Rn . Sea E = C 2 (R) el conjunto de funciones de clase C 2 definidas

5

E JERCICIOS

R. Notemos que E es un espacio vectorial de dimensión infinita. Para cada f ∈ E y cada t > 0, se define una función φ t ( f ) dada por    ∞ 1 −(x − y)2 t f (y)dy. φ ( f )(x) = √ exp 2t 2π t −∞ Se puede demostrar que se tiene el siguiente límite lim φ t ( f )(x) = f (x).

t→0

Además φ t (φ s ( f )) = φ t+s ( f ), por lo que resulta que φ es un flujo definido en [0, ∞) × E. Ejemplo 1.2.3 Demos otro ejemplo de un sistema dinámico en tiempo real. Sea E = [0, 1) y φ (t, x) = (x + t) mod 1. Entonces φ es un sistema dinámico completo.

E JERCICIOS

✎ 1.1 Demostrar que las siguientes funciones son flujos.   a) φ :  ⊂ R×(− π2 , π2 ) → (− π2 , π2 ), φ(t, x) = arctan et tan x .  −1/2   . b) φ :  ⊂ R×(0, ∞) → (0, ∞), φ(t, x) = e−t 1/x 2 − 1 + 1     c) φ :  ⊂ R × R2 → R2 , φ(t, (x, y)) = e−t x, et y + 13 et − e−2t x 2 .

✎ 1.2 Demostrar la proposición 1.1.4. (Sugerencia: usar las propiedades del flujo.) ✎ 1.3 Para cada una de las funciones del problema 1.1, encontrar las ecuación diferencial que es satisfecha y el máximo dominio .

✎ 1.4 Sea φ :  ⊂ R × R → R, la función dada por φ(t, x) =

et x . (et − 1)x + 1

6

E JERCICIOS a) Demostrar que φ es flujo. b) Para cada x ∈ R encontrar el intervalo maximal D(x). c) Encontrar una ecuación diferencial satisfecha por y(t) = φ(t, x). d) Calcular limt→∞ φ(t, x) y limt→−∞ φ(t, x).

✎ 1.5 (Cambio de variable) Sean E, F dos abiertos de Rn . Sea φ : R × E → E un flujo completo de clase C 1 . Suponer que y(t) = φ(t, z) satisface la siguiente ecuación diferencial dy = G(y), y(0) = z. dt a) Un difeomorfismo es una función biyectiva de clase C 1 tal que su inversa también es de clase C 1 . Sea h : E → F un difeomorfismo entre los abiertos E y F. Demostrar ˜ x) = h(φ(t, h −1 (x)) es un flujo completo en el conjunto de estados F. que φ(t, ˜ x) satisface la ecuación b) Dado que, y˜ (t) = φ(t, d y˜ ˜ y˜ ), y˜ (0) = x, = G( dt encontrar G˜ en términos de G, h, h −1 y h . c) Usualmente se utiliza la siguiente notación para el nuevo campo vectorial G˜ = h ∗ G. Interpretar y demostrar la siguiente igualdad ( f ◦ h)∗ G = f ∗ (h ∗ G). d) Sea  = R × (0, π ). Sea φ˜ :  → (0, π ) la función de clase C 1     et + 1 cos θ + et − 1 ˜ θ ) = arccos φ(t, . (et − 1) cos θ + (et + 1) Demostrar que φ˜ es un flujo completo y encontrar el problema de valores iniciales que satisface. (Sugerencia: usar el ejercicio 1.5 con E = (−1, 1), F = (0, π ) y h(u) = arccos(u). Encontrar un flujo φ en E.)

7

E JERCICIOS

✎ 1.6 Sea A una matriz tal que A2 = A. Demostrar que el siguiente es un flujo completo en Rn .

  φ(t, x) = et A + (I − A) x.

Encontrar la ecuación diferencial que es satisfecha.

CAPÍTULO 2

Sistemas Lineales

Un sistema lineal es una ecuación de la forma y˙ = Ay, y(0) = x0 donde A es una matriz de n × n. En este capítulo estableceremos una relación entre los sistemas lineales y la llamada exponencial de una matriz.

2.1 La norma de una matriz Definición 2.1.1 Llamaremos M p al espacio vectorial de matrices p × p con entradas reales. El siguiente resultado se da sin demostración.

§2.1 L A

9

NORMA DE UNA MATRIZ

Proposición 2.1.2 Sea A ∈ M p y A = max Ax 2 . x 2 =1

donde x 2 es la norma euclideana usual. Entonces · es una norma M p . Además, A es la raíz cuadrada del máximo eigenvalor de A T A. Ejemplo 2.1.3 Sea

 A=

1

2

3 −1

 .

Calcular A . Solución Usaremos la proposición 2.1.2: primero calculamos      1 2 1 2 10 −1 AT A = = . 3 −1 3 −1 −1 5 Los eigenvalores satisfacen λ2 − 15λ + 49 = 0 y por tanto λ1,2 =

15 ±

El máximo es los eigenvalores es



√ √ 15 ± 29 225 − 196 = . 2 2

√ 15+ 29 . 2

De este modo concluimos que A =



√ 15+ 29 . 2

Lema 2.1.4 Si S, T ∈ M p , entonces a) ∀x ∈ R p , T x ≤ T x , b) ST ≤ S T ,   c) T k  ≤ T k . A continuación daremos un repaso de algunos conceptos del Análisis Matemático.

§2.1 L A

10

NORMA DE UNA MATRIZ

Definición 2.1.5 Se dice que una sucesión Ak ∈ M p converge a A si Ak − A → 0. El siguiente lema, nos permite calcular “termina a término” el límite de una sucesión de matrices. Dada una matriz A, usaremos la notación (A)i j para indicar la entrada (i, j ) de A. Lema 2.1.6 Sea Ak ∈ M p una sucesión que converge a A ∈ M p . Sean u y v dos vectores de R p . Entonces a) La sucesión de números reales u · Ak v converge a u · Av. Esto es lim u · Ak v = u · Av.

n→∞

b) La sucesión de números reales (Ak )i j converge a (A)i j . Esto es lim (Ak )i j = (A)i j .

n→∞

Demostración La demostración de este hecho se basa en la desigualdad de Cauchy-Schwartz. Notemos que esta desigualdad y el lema 2.1.4 implican |u · Ak v − u · Av| = |u · (Ak − A) v| ≤ u 2 (Ak − A) v 2 ≤ u 2 Ak − A 2 v 2 La segunda parte de la demostración está basada en al primera, tomando en cuenta el hecho de que la entrada (i, j ) de una matriz A se puede escribir como (A)i j = ei · Ae j donde ei y e j son el i −ésimo y j −ésimo vectores canónicos de R p . Definición 2.1.7 Se dice que una sucesión Ak ∈ M p es de Cauchy, si para cada ε > 0 existe N ∈ N tal que si m, n ≥ N entonces Am − An < ε.

§2.2 L A

11

EXPONENCIAL DE UNA MATRIZ

Proposición 2.1.8 Sea Ak ∈ M p una sucesión de Cauchy. Entonces existe A ∈ M p tal que la sucesión converge a A. La demostración del Lema que da como ejercicio para el lector.

2.2 La exponencial de una matriz Deseamos ahora darle sentido a la siguiente expresión ∞  Ak . k! k=0

Dicho objeto tendrá el papel, dentro de las matrices, de una exponencial. Esta es de fundamental importancia en el análisis de los sistemas lineales. Comencemos con una definición. Definición 2.2.1 Dada una matriz A ∈ M p se define la n−ésima suma parcial de la matriz exponencial como

n  Ak . Sn (A) = k! k=0

Lema 2.2.2 Si m > n entonces Sm (A) − Sn (A) ≤

A n+1 A e . (n + 1)!

Demostración Claramente se tiene, usando la desigualdad del triángulo y el lema 2.1.4 la siguiente desigualdad Sm (A) − Sn (A) ≤

m m−n−1   A k+n+1 A k = . k! (k + n + 1)!

k=n+1

k=0

§2.2 L A

12

EXPONENCIAL DE UNA MATRIZ

Es bien sabido que (k + n + 1)! ≥ k!(n + 1)! y esto implica Sm (A) − Sn (A) ≤

m−n−1  k=0

A k A n+1 k!(n + 1)!

m−n−1 A n+1  A k = (n + 1)! k!



k=0 ∞ n+1 

A (n + 1)!

k=0

A n+1 A A k = e . k! (n + 1)!

Esto termina la demostración. Proposición 2.2.3 Dada una matriz A ∈ M p , la sucesión Sn (A) es de Cauchy y por lo tanto existe una matriz E(A) tal que lim Sn (A) − E(A) = 0.

n→∞

Demostración El resultado es consecuencia del lema 2.2.2 y del siguiente límite A n lim = 0. n→∞ n!

Definición 2.2.4 Dada una matriz A cuadrada de p × p, su exponencial e A es el límite de la sucesión Sn (A), esto es e A es la matriz E(A) encontrada en la proposición 2.2.3. Usualmente se escribirá:

∞  Ak . e = k! A

k=0

Proposición 2.2.5 La matriz e A tiene las siguientes propiedades: a) e0 = I, b) Si A B = B A, entonces e A e B = e B e A = e A+B ,

§2.2 L A

13

EXPONENCIAL DE UNA MATRIZ

 −1 c) e A = e−A ,   d) Si P es invertible, entonces exp P A P −1 = P exp [A] P −1 . Demostración a) Trivial pues Sn (0) = I para toda n ≥ 1. b) Ver ejercicio 2.2. c) Si hacemos B = − A en el inciso anterior, es claro que B A = A B, y por ende tenemos que e A+B = e A e B = e B e A ; es decir e0 = e A e−A = e−A e A = I . Por lo tanto (e A )−1 = e−A . d) Vamos a mostrar que Pe A P −1 − e P A P = 0. Notemos que 1

Sn (P A P

−1

n  1 )= (P A P −1 )k . k! k=0

Además (P A P −1 )k = P Ak P. Entonces Sn (P A P

−1

n  1 )= P Ak p −1 k! k=0

n  1 k −1 A P = P Sn (A)P −1 =P k! k=0

Por lo tanto −1

Pe A P −1 − e P A P ≤ Pe A P −1 − P Sn (A)P −1 −1

+ P Sn (A)P −1 − Sn (P A P −1 ) + Sn (P A P −1 ) − e P A P −1

≤ P e A − Sn (A)P −1 P −1 + Sn (P A P −1 ) − e P A P −→ 0 Como el lado derecho de la desigualdad converge a 0, entonces −1

Pe A P −1 − e P A P = 0 y esto termina la demostración.

§2.2 L A

14

EXPONENCIAL DE UNA MATRIZ

Ejemplo 2.2.6 Sea A la matriz

 A=

a b

 .

0 a

Calcular e A . Solución Notemos que  A2 =  A3 =

a b



a b





= 0 a   2ab a b

a 2 2ab

0 a a2 0

a2

0 a

0  =



a2 a 3 3a 2 b 0



a3

Este proceso se puede continuar inductivamente y obtener   a k ka k−1 b k . A = 0 ak Por lo tanto, para cada n, se tiene n  Ak Sn (A) = k!

=

k=0 n  k=0

1 k!



a k ka k−1 b 0

ak



  n =

1 k k=0 k! a

0

b

n

k k−1 k=1 k! a n 1 k k=0 k! a



Usando el lema 2.1.6, podemos calcular el límite término a término y así obtener   a bea e eA = . 0 ea



§2.3 D ERIVADAS

15

MATRICIALES

Ejemplo 2.2.7 Sea B la matriz

 B=

0 −β β

 .

0

Calcular e B . Solución 

Sea J=

0 −1 1

0

 .

Notemos que J 2 = −I, por lo que B 2 = −β 2 I, B 3 = −β 3 B, B 4 = β 4 I, etc. Este proceso se puede continuar inductivamente y obtener n  Bk  Bk  Bk = + Sn (B) = k! k! k! k=0

=

 0≤2k≤n,

0≤k≤n, k par (−1)k β k

k!

0≤k≤n, k impar

I+

 0≤2k+1≤n,

(−1)k β k J. k!

En el límite se obtienen las series de seno y coseno y por lo tanto   cos β − sin β B . e = (cos β) I + (sin β) J = sin β cos β Este resultado lo usaremos posteriormente.



2.3 Derivadas matriciales Definición 2.3.1 Supongamos que tenemos una función : (a, b) → Mn , t → (t). Se dice que es diferenciable en t ∈ (a, b) si existe una matriz L en Mn tal que el siguiente     (t + h) − (t)  − L lim   = 0. h→0 h Si es diferenciable para toda t ∈ (a, b), entonces diremos que es diferenciable y escri-

límite existe:

biremos L = (t).

§2.3 D ERIVADAS

16

MATRICIALES

Tenemos el siguiente lema que nos será útil para obtener la derivada de la matriz et A . Lema 2.3.2 Para cualquier matriz cuadrada A se cumple que 2   A e − I − A ≤ A e A . 2

Solución Usar n = 1 en el lema 2.2.2 y así obtener     A e − I − A = e A − S1 (A)   ≤ e A − Sm (A) + Sm (A) − S1 (A)  A 2 A  e . ≤ e A − Sm (A) + 2 Al tomar el límite cuando m → ∞, se obtiene el resultado.



Teorema 2.3.3 Sea : R → M p dada por (t) = et A . Entonces es diferenciable en R y además (t) = Aet A = et A A. Demostración No es difícil ver que Aet A = et A A. Sea t ∈ R fija. Queremos demostrar que   (t+h)A tA  e − e t A  = 0. − e A lim   h→0  h Por el lema 2.3.2 tenemos que:    tA hA  (t+h)A tA   e e − et A − et A Ah  e − e t A    − e A  =  h h   tA hA  e (e − I − h A)   =   h  et A  eh A − I − ha  |h| et A h A2 h A ≤ e |h| 2 et A = A2 |h|e|h| A −→ 0 2 cuando h → 0. Esto termina la demostración. ≤

§2.3 D ERIVADAS

17

MATRICIALES

Proposición 2.3.4 Si (t) es diferenciable en t la derivada es única. La demostración del siguiente resultado se hace de forma análoga a la del lema 2.1.6. Proposición 2.3.5 Sea (t) diferenciable en t y sea i j (t) la entrada (i, j ). Entonces la entrada (i, j ) de la derivada es ( )i j (t) = ( i j ) (t).   0 −1 Ejemplo 2.3.6 Sea A = . Notemos que 1 0 

0 −t

tA =

t

 .

0

Se vió en el ejemplo 2.2.7 que  et A =

La derivada de et A es d tA e = dt

cos t − sin t sin t



 .

cos t

− sin t − cos t − sin t

cos t

 .

Por otra parte,  et A A =

cos t − sin t sin t



cos t

0 −1 1



 =

0

− sin t − cos t − sin t

cos t

De este modo verificamos la fórmula de derivada. Ejemplo 2.3.7 Notemos que



d dt t=0

et A = Aet A . Si

 et A = e−t encontrar A.

1 t 0 1



 =

e−t te−t 0

e−t

 ,

 .

§2.3 D ERIVADAS

18

MATRICIALES

Solución En este caso

 luego A =

−1

1

0

−1



  −t e−t − te−t −e d ; et A = dt t=0 0 −e−t

. Notemos que  Aet A =  =

−1

1

0

−1



e−t te−t 0

−e−t e−t − te−t 0

−e−t



e−t  .

 A continuación vamos a relacionar a las matrices exponenciales con flujos en Rn y con ecuaciones diferenciales. Proposición 2.3.8 Sea A ∈ Mn . Sea φ : R × Rn → Rn , con φ(t, x) = et A x. Entonces φ es un flujo completo en Rn . Solución Se deja como ejercicio al lector.



Proposición 2.3.9 Para cada x, φ(t, x) = et A x es solución de la siguiente ecuación diferencial: y˙ = Ay con y(0) = x. Demostración Sea x ∈ Rn y y(t) = et A x. Como φ es un flujo, sabemos que y satisface y˙ = f (y), y(0) = x, donde f (u) = dtd t=0 φ(t, u). En este caso, d d tA e u = Aet A u. φ(t, u) = dt t=0 dt Por lo tanto, f (y) = Aet A y t=0 = Ay.

§2.4 C ÁLCULO

DE LA EXPONENCIAL DE UNA MATRIZ

19

2.4 Cálculo de la exponencial de una matriz Definición 2.4.1 Sea A ∈ M p . Una función matricial : R → M p es una matriz fundamental de soluciones de la matriz A si a) (t) es invertible, b) (t) = A (t). Ejemplo 2.4.2 (t) = et A es una matriz fundamental de soluciones. Lema 2.4.3 Sean w1 (t), w2 (t), . . . , wn (t) soluciones de y˙ = Ay, que son soluciones linealmente independientes. Entonces (t) = (w1 (t) · · · wn (t)) es una matriz fundamental de soluciones. Demostración La matriz (t) es invertible porque las columnas son linealmente independientes. Notemos que (t) = (w˙1 (t) · · · w˙n (t)) = (Aw1 (t) · · · Awn (t)) = A (w1 (t) · · · wn (t)) = A (t). Concluimos que (t) es una matriz fundamental de soluciones. Proposición 2.4.4 Sean 1 (t) y 2 (t) dos funciones matriciales definidas en el mismo intervalo. Entonces d ( 1 (t) 2 (t)) = 1 (t) 2 (t) + 1 (t) 2 (t). dt Demostración Sea (t) = 1 (t) 2 (t), queremos estimar     (t + h) − (t)  − [ 1 (t) 2 (t) + 1 (t) 2 (t)] .  h

§2.4 C ÁLCULO

DE LA EXPONENCIAL DE UNA MATRIZ

20

Fijamos t y definimos Z 1 (h) = 1 (t + h) − 1 (t) − h 1 (t) y Z 2 (h) = 2 (t + h) − 2 (t) −

h 2 (t). Se puede ver que

   Z 1 (h)  =0y  lim h→0  h 

y

   Z 2 (h)  =0 lim  h→0  h 

Entonces también lim Z 1 (h) = 0 y lim Z 2 (h) = 0.

h→0

h→0

Se puede ver que:    (t + h) − (t)    − [ (t) (t) + (t) (t)] 1 2 2 1   h       Z 1 (h)     Z 2 (h)   + |h|  (t) (t) .  +  1 (t) + h (t) ≤ (t + h) 2 1 1 2  h   h  El límite cuando h → 0 del lado derecho es 0 y por lo tanto     (t + h) − (t)  − [ 1 (t) 2 (t) + 1 (t) 2 (t)] lim   = 0. h→0 h Esto termina la demostración. Proposición 2.4.5 Sea (t) ∈ Mn una matriz fundamental de A. Entonces et A = (t) (0)−1 . Esto es, (t) = et A (0). Demostración Sea (t) = e−t A (t). Vamos a demostrar que (t) = 0. Por la proposición anterior,

(t) = e−t A (− A) (t) + e−t A (t) = e−t A (− A) (t) + e−t A A (t) = 0 Por lo tanto, (t) es una matriz constante, (t) ≡ c. En particular, c = (0) = I (0) = (0). Concluimos que et A (t) = (0) y como (0) es invertible, et A = (t) (0)−1 .

§2.4 C ÁLCULO

21

DE LA EXPONENCIAL DE UNA MATRIZ

Corolario 2.4.6 Si (t) es una matriz fundamental de soluciones entonces A = (0) (0)−1 . Demostración Sabemos que et A = (t) (0)−1 . Esto implica al sacar derivadas que Aet A = (t) (0)−1 . Finalmente, se sustituye t = 0 y se obtiene A = (0) (0)−1 y esto termina la demostración.  Ejemplo 2.4.7 Calcular et A si A =

3 1 4 3

 .

Solución Queremos encontrar dos soluciones linealmente independientes del problema x˙ = Ax. Usaremos el método de vectores propios. Primero calculamos el polinomio característico. PA (λ) = λ2 − 6λ + 5 = (λ − 1)(λ − 5).

Si λ1 = 1 entonces v1 = (1, −2)T es vector propio. Si λ2 = 5 entonces v2 = (1, 2)T es vector propio. Entonces

 x1 (t) = eλ1 t v1 =

y



−2et 

x2 (t) = eλ2 t v2 =

et

e5t



2e5t

son dos soluciones linealmente independientes. Por lo tanto,   e5t et (t) = −2et 2e5t

§2.4 C ÁLCULO

22

DE LA EXPONENCIAL DE UNA MATRIZ

es una matriz fundamental de soluciones y tenemos:  e

tA

−1

= (t) (0)  =  =

et

=

e5t

et



e5t

1

1

−1

−2et 2e5t −2 2   1/2 −1/4

−2et 2e5t

1/2

1/4

1/2(et + e5t ) 1/4(−et + e5t ) −et + e5t



1/2(et + e5t )

.

 Ejemplo 2.4.8 Sea



−3 0

 A=  0

0

 0

 3 −2   1 1

Calcular la matriz et A . Solución Debemos encontrar w1 (t), w2 (t), w3 (t), tres soluciones linealmente independientes del problema x˙ = Ax. Usamos el método de vectores propios. El polinomio característico es PA (λ) = det(A − λI ) = (−3 − λ)(λ2 − 4λ + 5) Los valores propios son λ1 = −3, λ2 = 2 + i, λ3 = 2 − i Los vectores propios v1 para λ1 = −3 se calculan usando la ecuación (A − λI )v1 = 0. Esto es 

 0 0

0



 0

     0 6 −2  v1 =  0  .     0 1 4 0

§2.4 C ÁLCULO

23

DE LA EXPONENCIAL DE UNA MATRIZ

Concluimos que



 1

   v1 =   0  0 es vector propio. Con λ2 = 2 + i hacemos algo similar    0 −5 − i 0 0      0 1−i −2    v2 =  0 0 0 1 −1 − i 

Concluimos

  . 

 0

   v2 =  1 + i   1 es vector propio. Por lo tanto obtenemos para λ1 la siguiente solución   −3t e   λt  w1 (t) = e v1 =  0   0 Para λ2 y v2 separamos en parte real e imaginaria. Recordemos que si v2 es vector propio con valor propio λ2 y además estos se pueden escribir como λ2 = α + iβ y v2 = r + i s, entonces las siguientes son dos soluciones del sistema lineal w2 (t) = eαt [(cos βt) r − (sin βt) s] , w3 (t) = eαt [(sin βt) r + (cos βt) s] . En este caso α = 2, β = 1,



 0



 0

     y s =  1 . r = 1     1 0

§2.4 C ÁLCULO

24

DE LA EXPONENCIAL DE UNA MATRIZ

Obtenemos





 0





     1  − sin t  cos t w2 (t) = e2t      1     0     2t    w3 (t) = e sin t  1   + cos t  1

0

  1   0  0   1   0

De lo anterior construimos una matriz fundamental de soluciones.  e−3t 0 0  2t 2t  (t) =  0 e (cos t − sin t) e (sin t + cos t) 0 e2t cos t e2t sin t

   

Por la propiedad anterior, et A = (t) (0)−1  −1 1 0 0    = (t)  0 1 1   0 1 0   1 0 0    = (t)  0 0 1   0 1 −1  e−3t 0 0  2t 2t  =  0 e (sin t + cos t) −2e sin t e2t (cos t − sin t) 0 e2t sin t



  . 

§2.5 E CUACIONES

DE ORDEN

n

Y MÉTODO DE

F ULMER

25

2.5 Ecuaciones de orden n y método de Fulmer Definición 2.5.1 Una ecuación lineal de orden n con coeficientes constantes es una ecuación de la forma: αn y (n) + αn−1 y (n−1) + · · · + α1 y + α0 y = 0. donde αn  = 0. Vamos a establecer una relación entre la exponencial de una matriz y una ecuación de orden n. Usaremos el siguiente resultado. Teorema 2.5.2 (Cayley-Hamilton) Sea A ∈ Mn y PA (λ) su polinomio característico: PA (λ) = (−1)n λn + · · · + α1 λ + α0 = 0. Entonces PA (A) = (−1)n An + · · · + α1 A + α0 I = 0.   3 1 Ejemplo 2.5.3 Si A = ; su polinomio característico es λ2 − 6λ + 5. Entonces 4 3   13 6 A2 = . Por lo tanto 24 13 PA (A) = A2 − 6 A + 5I       13 6 18 6 5 0 = − + = 0. 24 13 24 18 0 5 Proposición 2.5.4 Sea A ∈ Mn y PA (λ) = (−1)n λn +αn−1 λn−1 +· · ·+α1λ+α0 . Entonces cada una de las entradas de et A satisface la ecuación (−1)n y (n) + αn−1 y (n−1) + · · · + α1 y + α0 y = 0. Demostración

§2.5 E CUACIONES

Sabemos que

DE ORDEN

d tA dt e

n

Y MÉTODO DE

26

F ULMER

= Aet A Entonces: d2 t A e = A2 et A dt 2 d3 t A e = A3 et A dt 3 .. . dn t A e = An et A n dt

Esto implica que dn t A d e + · · · + α1 e t A + α0 e t A n dt dt n n tA = (−1) A e + · · · + α1 Aet A + α0 et A

(−1)n

= ((−1)n An + · · · + α1 A + α0 I )et A = 0. Sea y(t) la entrada (i, j ) de et A : y(t) = (et A )i j . Sabemos que

dk y(t) dt k

=



dk t A e dt k ij

. Por

lo tanto (−1)n y (n) + αn−1 y (n−1) + · · · + α1 y + α0 y = ( n ) ( )  t A d tA d tA n e e + · · · + α + α e ij = (−1) 1 0 dt n dt ij ij ) ( n d tA n d tA tA = 0. (−1) n e + · · · + α1 e + α0 e dt dt ij Esto termina la demostración.   3 1 Ejemplo 2.5.5 Sea A = . Por la proposición anterior, cada entrada de et A satis4 3 face y − 6y + 5y = 0. La solución general de esta ecuación es y(t) = c1 et + c2 e5t . Esto concuerda con el resultado del ejemplo 2.5.3, pues se obtuvo que   t + 2e5t t + e5t −e 2e 1 . et A = 4 −4et + 4e5t 2et + 2e5t Esto es, cada entrada es de la forma de la solución general.

§2.5 E CUACIONES

DE ORDEN

n

Y MÉTODO DE

27

F ULMER

Supongamos que podemos encontrar la solución general de la ecuación (−1)n y (n) + αn−1 y (n−1) + · · · + α1 y + α0 y = 0, en la forma de y(t) = c1 η1 (t) + c2 η2 (t) + · · · + cn ηn (t). Supongamos que yi j (t) es la entrada (i, j ) de et A . Entonces existirán constantes ci1j , ci2j , . . . , cinj tales que yi j (t) = ci1j η1 (t) + · · · + cinj ηn . Llamaremos E k a la matriz de coeficientes que acompañan a ηk . Concluimos que et A = η1 (t)E 1 + · · · + ηn (t)E n . De este modo, conociendo el polinomio característico de una matriz se puede escribir la forma de la exponencial. El problema de encontrar la exponencial se reduce, por tanto, a calcular las matrices E1, . . . , En .  Ejemplo 2.5.6 Calcular la matriz exponencial de A =

1 α 0 1

 .

Solución El polinomio característico de A es PA (λ) = λ2 − 2λ + 1 = (λ − 1)2 . Cada entrada de A satisface y − 2y + y = 0. Como λ1 = 1 es raíz repetida la solución general de la ecuación es y(t) = c1 et +c2 tet . Se utiliza en este caso η1 (t) = et y η2 (t) = tet . Por lo tanto, la exponencial es de la forma et A = et E 1 + tet E 2 , donde E 1 y E 2 son matrices por determinar. Notemos que al sustituir t = 0 se tiene que I = e0 = E 1 . Además, d tA e = Aet A = et E 1 + et E 2 + tet E 2 . dt

§2.5 E CUACIONES

DE ORDEN

n

Y MÉTODO DE

28

F ULMER

Si volvemos a sustituir t = 0 entonces A = E 1 + E 2 = I + E 2 y esto implica que E 2 = A− I . Por lo tanto et A = et I + tet (A − I )     1 0 0 α = et + tet 0 1 0 0   et αtet = 0 et



Esto concuerda con lo encontrado en el ejemplo 2.2.6.   0 −1 Ejemplo 2.5.7 Sea A = . Calcular et A por el método descrito en esta sección. 1 0 Solución En este caso PA (λ) = λ2 + 1, entonces las entradas de et A satisfacen y + y = 0; cuya solución general es y(t) = c1 cos t + c2 sin t. La exponencial es et A = (cos t)E 1 + (sin t)E 2 , entonces Aet A = (− sin t)E 1 + (cos t)E 2 . Si t = 0, entonces tenemos que I = E 1 y que A = E 2 . Por lo tanto,



et A = (cos t)I + (sin t)A = Este resultado concuerda con el del ejemplo 2.2.7.

cos t − sin t sin t



cos t

.



Dada una ecuación αn y (n) + · · ·+ α1 y + α0 y = 0 y el polinomio característico asociado: αn λn + · · · + α1 λ + α0 = 0; se puede obtener la solución general con base en las raíces del polinomio: P(λ) = αn (λ − λ1 )m 1 (λ − λ2 )m 2 . . . (λ − λr )m r . Si λi es real con multiplicidad m i , podemos asociarle m i soluciones: {eλi t , teλi t , t 2 eλi t , . . . , t m i −1 eλi t }. Si λi es complejo, entonces λi también lo es. A la pareja λi , λi le asociamos 2m i soluciones. Supongamos que λi = α + iβ. Se tienen las soluciones {eαt cos βt, eαt sin βt, teαt cos βt, teαt sin βt, . . . , t m i −1 eαt cos βt, t m i −1 eαt sin βt}.

29

E JERCICIOS 

 0 9

3

  . Ejemplo 2.5.8 Calcular la exponencial de A =  0 2 −1   0 1 2 Solución 



−λ 9 3   2  det  0 2 − λ −1   = (−λ)(2 − λ) − λ = 0 0 1 2−λ Entonces λ1 = 0, λ2 = 2 + i y λ3 = 2 − i . De aquí que η1 (t) = eλ1 t = 1, η2 (t) = e2t cos t y η3 (t) = e2t sin t. Entonces et A = E 1 + e2t cos t E 2 + e2t sin t E 3 , Aet A = 2e2t cos t E 2 + e2t (− sin t)E 2 + 2e2t sin t E 3 + e2t cos t E 3 , A2 et A = (4e2t cos t − 2e2t sin t)E 2 − (2e2t sin t + e2t cos t)E 2 + (4e2t sin t + 2e2t cos t + 2e2t cos t − e2t sin t)E 3 . Si evaluamos en t = 0 tenemos el siguiente sistema de ecuaciones I = E1 + E2, A = 2E 2 + E 3 , A2 = 3E 2 + 4E 3 . Por lo tanto, E 1 = I − E 2 , E 2 = 1/5(4 A − A2 ) y E 3 = 1/5(2 A2 − 3 A).

E JERCICIOS

✎ 2.1 Usar el lema 2.2.2 para demostrar la siguiente desigualdad n+1   A e − Sn (A) ≤ A e A . (n + 1)!



30

E JERCICIOS

✎ 2.2 Sean A y B dos matrices de n × n. Sean α = A y β = B . Suponer que las matrices conmutan, es decir, que A B = B A. a) Demostrar que la siguiente serie converge. ∞   αr β s . r ! s! k=0 r +s=k

b) Demostrar

n   Ar B s Sn (A + B) = r ! s! k=0 r +s=k

y



Sn (A)Sn (B) =

0≤r,s≤n

Ar B s . r ! s!

c) Demostrar la siguiente desigualdad. Sn (A)Sn (B) − Sn (A + B) ≤

∞ 

 αr β s . r ! s!

k=n+1 r +s=k

d) Concluir que e A e B = e A+B = e B e A . e) Encontrar dos matrices cuyas exponenciales no satisfagan la ecuación del inciso anterior.

✎ 2.3 Las siguientes son tres soluciones linealmente independientes de un problema lineal de la forma x˙ = Ax.   x1 (t) =  

4 − 2 et 0

−4 + 3 et





   , x2 (t) =   

−7 et et 7 et





   y x3 (t) =   

Encontrar la matriz A y calcular la matriz exponencial et A .

✎ 2.4 Encontrar la exponencial de las siguientes matrices.

2 − 2 et 0 −2 + 3 et

  . 

31

E JERCICIOS 





0 1 1

 a)   1 1  1   b)  1 1

 0 1   1 0  1 1  1 1   1 1

−2

 c)   −10 −4  d)

1

3

−1 0 0

 7

 16   6



0 −1

(Sugerencia: notar que λ = 2 es un valor propio para el inciso c.)

✎ 2.5 ¿Cómo se podría resolver el siguiente problema de valores iniciales? dy = Ay + b(t), dt y(0) = x0 , en donde b : R → Rn es una función continua y A es una matriz de n × n. (Sugerencia: usar la exponencial e−t A como factor integrante.)

✎ 2.6 Sea A ∈ Mn . Sea φ : R × Rn → Rn , con φ(t, x) = et A x. Demostrar que φ es un flujo completo en Rn .

✎ 2.7 Sea A ∈ Mn y α ∈ R. Sea φ : R × Rn → Rn , dada por φ(t, x) = e−αt et A x. Demostrar que φ es un flujo completo en Rn y encontrar la ecuación diferencial que satisface.

✎ 2.8 Sea A una matriz de 2 × 2. Demostrar lo siguiente. a) Si A tiene dos valores propios reales y distintos entonces λ1 y λ2 entonces et A =

  λt 1 e 1 (A − λ2 I ) − eλ2 t (A − λ1 I ) . λ1 − λ2

b) Si A tiene un dos valores propios complejos λ1 = α + iβ y λ2 = α − iβ con β  = 0, entonces e

tA

) ( 1 =e (cos βt) I + (sin βt) (A − α I ) . β αt

32

E JERCICIOS c) Si A tiene un valor propio repetido λ1 entonces et A = eλ1 t (I + t ( A − λ1 I )) .

✎ 2.9 Sea A ∈ Mn . Se dice que W ⊂ Rn es un subespacio invariante de A si Av ∈ W para todo v ∈ W. Demostrar que si W es un subespacio invariante para A, entonces también lo es para et A .

✎ 2.10 Sea A una matriz de 2 × 2 con dos valores propios reales y distintos λ1 y λ2. Sean W1 = ker (A − λ1 I ) y W2 = ker (A − λ2 I ) . Demostrar a) R2 = W1 ⊕ W2 . b) W1 y W2 son subespacios invariantes de A. c) Dado x ∈ R2 existen dos funciones y1 (t) y y2 (t) tales que x = y1 (0) + y2 (0), et A x = y1 (t) + y2 (t) y yi (t) ∈ Wi . Encontrar y1 (t) y y2 (t) explícitamente. (Sugerencia: Notar que (A − λ1 I ) (A − λ2 I ) = (A − λ2 I ) (A − λ1 I ) = 0 .)

✎ 2.11 Una matriz D de n × n es diagonalizable si existe una matriz invertible P tal que D = P diag(λ1 , . . . , λn )P −1 . Demostrar que, si D es diagonalizable entonces et D = P diag(eλ1 t , . . . , eλn t )P −1 .

✎ 2.12 Una matriz N de n × n es nilpotente si N n ≡ 0. Un teorema de álgebra lineal nos permite afirmar que, para cualquier matriz A de n × n, existen matrices D y N tales que a) D es diagonalizable, b) N es nilpotente, c) A = D + N y d) N D = D N .

Demostrar que et A = et D I + t N +

1 2 2 2! t N

 t n−1 + . . . (n−1)! N n−1 .

E JERCICIOS

33

✎ 2.13 Sea A una matriz de n × n tal que PA (λ) = (λ − γ )n . Calcular et A . (Sugerencia: demostrar primero que A − γ I es nilpotente.)

✎ 2.14 Sea matriz A de n × n. Suponer que v = r + i s un vector propio con valor propio λ = α + iβ, donde β  = 0. Demostrar que el espacio W = span {r, s} es un subespacio invariante para et A . ¿Es cierto que si x ∈ W entonces ) ( 1 tA αt e x=e (cos βt) x + (sin βt) ( Ax − αx) ? β

CAPÍTULO 3

Estabilidad de Sistemas Lineales.

3.1 Matrices no degeneradas En este capítulo iniciaremos el estudio del comportamiento de las soluciones de un sistema lineal. Sabemos que la soluciones de este sistema están íntimamente relacionadas con la matriz exponencial de A; esto es, cualquier función de la forma et A x es solución del problema y˙ = Ay,

(PL)

y(0) = x. Nos preguntamos si todas las soluciones son de esta forma. Tenemos el siguiente resultado. Proposición 3.1.1 La función y(t) = et A x es la única solución del problema (PL). Definición 3.1.2 Una matriz A es no degenerada si

§3.1 M ATRICES

35

NO DEGENERADAS

a) det(A)  = 0, b) A no tenga raíces repetidas, c) Los valores propios de A tengan parte real distinta de cero. Una matriz que viola alguna de las condiciones anteriores se dirá que es degenerada. Definición 3.1.3 Sea A una matriz no degenerada. a) Diremos que A es de tipo atractor si todos los valores propios de A tienen parte real negativa. b) Diremos que A es de tipo repulsor si todos los valores propios de A tienen parte real positiva. c) Diremos que A es de tipo silla si A tiene valores propios tanto con parte real positiva como con parte real negativa. Ejemplo 3.1.4 Demostrar que la siguiente matriz es no degenerada y clasificarla.   −1 2 3   . A= 0 0 1   0 −6 5 Solución El polinomio característico de A es (−1)(λ + 1)(λ − 3)(λ − 2). Los valores propios de A son λ1 = −1, λ2 = 2 y λ3 = 2. Notemos que det(A) = λ1 λ2 λ3 = −6  = 0. No hay raíces repetidas ni valores propios con parte real cero, por lo tanto A es no degenerada. También, como hay valores propios con parte real positiva y negativa A es silla.



Ejemplo 3.1.5 Encontrar los casos degenerados de las matrices de 2 × 2 en términos de la traza y el determinante de A.

§3.1 M ATRICES

36

NO DEGENERADAS

Solución Sea A una matriz de 2 × 2. El polinomio característico de A es PA (λ) = λ2 − tr(A)λ + det(A). Sea (A) = tr(A)2 − 4 det(A). La matriz A tiene raíces repetidas sí y sólo si el discriminate (A) = 0. Los valores propios √ tr(A) ± (A) λ1,2 = 2 1 Si (A) < 0 entonces la parte real de λ1,2 es 2 tr(A). Es decir, si (A) < 0, entonces el son

caso degenerado ocurre cuando tr(A) = 0. Tal caso sucede si det(A) > 0 y tr(A) = 0. Si (A) > 0 entonces no hay caso degenerado si det(A)  = 0. En resumen A es degenerada si alguna de las siguientes ocurre. a) det(A) = 0, b) (A) = 0, c) det(A) > 0 y tr (A) = 0. Posteriormente haremos un examen más detallado de los sistemas 2 × 2.



En un diagrama tenemos los siguientes puntos degenerados encontrados en el ejemplo anterior. En el caso 2 × 2 los casos no degenerados se encuentran en cinco regiones. Las propiedades de los valores propios correspondientes a las matrices en estas cinco regiones se resumen en la siguiente tabla. valores propios Región det(A)

tr(A) (A)

tipo

parte real

nombre

+

nodo atractor

I

+

+

+

reales

II

+

+



complejos +

espiral atractora

III

+





complejos −

espiral repulsora

IV

+



+

reales

V





+

complejos +, −



nodo repulsor silla

§3.2 M ATRICES

37

ATRACTORAS

det(A)

III

D(A) = 0

II

IV

I 0

tr(A)

V

3.2 Matrices atractoras Teorema 3.2.1 Sea A una matriz cuadrada no degenerada. Las siguientes afirmaciones son equivalentes: a) A es de tipo atractor. b) Existen constantes positivas C, α tales que et A ≤ Ce−αt para toda t ≥ 0. c) Para toda x0 ∈ Rn , lim et A x0 = 0. t→∞

d) Existe una matriz simétrica positiva definida, M, tal que M A + A T M = −I . Demostración

§3.2 M ATRICES

38

ATRACTORAS

a)⇒b) Sabemos que existen funciones η1 (t), . . . , ηn (t) y matrices E 1 , . . . , E n tales que et A

= η1 (t)E 1 (t) + · · · + ηn (t)E n ; en donde cada función es de la forma ηk (t) = eλk t ó

ηk (t) = eαk t cos βk t ó ηk (t) = eαk t sin βk t, ya que A es no degenerada. Como A es de tipo atractor, entonces λk < 0 ó αk < 0, según el caso. Sea α > 0 tal que max{Re(λ) : λ es valor propio de A} < −α < 0. Notemos que eαt ηk (t) es de la forma eαt ηk (t) = e(α+λk )t

ó

eαt ηk (t) = e(α+αk )t cos βk t

ó

eαt ηk (t) = e(α+λk )t sin βk t. Por construcción α + Re(λ) < 0 y por lo tanto |eαt ηk (t)| ≤ 1 para toda t ≥ 0. Notemos que eαt et A = eαt η1 (t)E 1 + · · · + eαt ηn (t)E n ≤ |eαt η1 | E 1 + · · · + |eαt ηn (t)| E n ≤ E 1 + . . . E n para toda t ≥ 0.Sea C = E 1 + . . . E n , entonces si t ≥ 0 tenemos que eαt et A ≤ C y, por lo tanto, et A ≤ Ce−αt . b)⇒c) Sea x0 ∈ Rn . Entonces lim et A x0 = x0

t→∞

si y sólo si

  lim et A x0 2 = 0.

t→0

Notemos que 0 ≤ et A x0 ≤ et A x0 ≤ Ce−αt x0 −→ 0 para algunas constantes C, α > 0 y toda t ≥ 0. Por lo tanto,   lim et A x0  = 0.

t→0

Luego lim et A x0 = 0.

t→0

§3.2 M ATRICES

39

ATRACTORAS

c)⇒d) Consideremos la siguiente función lineal: : Mn → Mn , (B) = B A + AT

B. Recordemos que dim(ker( )) + dim(Im( )) = dim(Mn ). Si demostramos que

ker( ) = (0), habremos demostrado que es inyectiva y suprayectiva. Sea N ∈ Mn tal que (N ) = 0. Sea x0 ∈ Rn . Definimos : R → R como (t) = N et A x0 , et A N x0 . Entonces d d d

(t) = N et A x0 , et A N x0  +  et A N x0 , et A N x0  dt dt dt tA tA = N e x0 , Ae N x0  + N Aet A N x0 , et A N x0  =  A T N et A x0 , et A N x0  + N Aet A x0 , et A N x0  = (A T N + N A)et A x0 , et A N x0  = 0. Por otro lado tenemos que, por hipótesis, lim (t) ≡ 0.

t→∞

De este modo concluimos que (t) ≡ 0 y en particular (0) = 0 = N x0, N x0 . Es decir N x0 = 0 y esto implica N x0 = 0. Como x0 es arbitrario, entonces N ≡ 0. Por lo tanto

es inyectiva y suprayectiva. Sea M ∈ Mn tal que (M) = M A + A T M = −I . Notemos que (M T ) = (M)T =

(M). Como es inyectiva entonces M = M T . Para ver que M también es positiva definida, tomemos x0  = 0 y demostremos que x0 , M x0  > 0. Sea K (t) = et A x0 , Met A x0 . d K (t) =  Aet A x0 , Met A x0  + et A x0 , M Aet A x0  dt = et A x0 , A T Met A x0  + et A x0 , M Aet A x0  = et A x0 , (A T M + M A)et A x0  = −et A x0 , et A x0  = − et A x0 2 < 0 También, por hipótesis, lim K (t) = 0.

t→∞

§3.3 M ATRICES

40

TIPO SILLA

Entonces K (0) > 0. Es decir que x0 , M x0  > 0. Por lo tanto M es positiva definida. ¯ d)⇒a) Sea v un vector propio de A con valor propio λ. Entonces Av = λv y Av = λv. El número v T Mv es un número real puesto que v T Mv = v T Mv = v T M T v = v T Mv. Entonces v T (M A + A T M)v = v T M Av + v T A T Mv = λ(v T Mv) + λ(v T Mv) = (λ + λ)T (v T Mv) Pero v T (M A + A T M)v = −v¯ T v < 0. Concluimos que 2Re(λ) = λ + λ =

−v¯ T v < 0. v¯ T Mv

Por lo tanto, todos los valores propios tienen parte real negativa y entonces A es de tipo atractor.

3.3 Matrices tipo silla Sea A una matriz no degenerada. Nos preguntamos acerca de las condiciones iniciales x tales que lim et A x = 0.

t→∞

Por el teorema 3.2.1 anterior, si A es atractor, este límite se cumple para toda x ∈ Rn . Además se cumple el siguiente resultado. Proposición 3.3.1 Sea A de tipo atractor, entonces para toda x  = 0 se tiene que   lim et A x2 = +∞.

t→−∞

Notemos que, si A es de tipo repulsor, entonces − A es atractor. Esto implica el siguiente.

§3.3 M ATRICES

41

TIPO SILLA

Corolario 3.3.2 Si A es de tipo repulsor, entonces lim et A x = 0

t→−∞

para todo x y

  lim et A x2 = +∞,

t→∞

para x  = 0. En una matriz de tipo silla algunas condiciones iniciales cumplen lim et A x = 0, otras t→∞

lim et A x = 0 y otras ninguna de las dos. Para estudiar las distintas condiciones iniciales

t→−∞

tenemos el siguiente. Teorema 3.3.3 (Subespacios invariantes) Sea A una matriz de tipo silla. Sean Es = {x ∈ Rn : lim et A x = 0} t→∞

y Eu = {x ∈ Rn : lim et A x = 0}. t→−∞

Entonces a) Es , Eu son subespacios vectoriales de Rn . b) R = Es ⊕ Eu . c) Cualquier solución x(t) del sistema lineal x˙ = Ax se puede escribir como x(t) = qs (t) + qu (t), donde qs (t) ∈ Es , qu (t) ∈ Eu , lim qs (t) = 0 y lim qu (t) = 0. t→∞

t→−∞

d) Cada subespacio Eu , Es es invariante. e) dim Es = #{valores propios con parte real negativa} y dim Eu = #{valores propios con parte real positiva}. A Es se le llama espacio estable y a Es el espacio inestable de la matriz A.

§3.3 M ATRICES

42

TIPO SILLA

Demostración Sean σ + (A) = {valores propios con parte real positiva} y σ − (A) = {valores propios con parte real negativa}. Tenemos que + + + + + σ + (A) = {λ+ 1 , . . . , λm 1 , µ1 , . . . , µm 2 , µ1 , . . . , µm 2 },

donde λi+ son reales y µ+j son complejos. Notar que #(σ + (A)) = m 1 + 2m 2 . Además − − − − − σ − (A) = {λ− 1 , . . . , λm 3 , µ1 , . . . , µm 4 , µ1 , . . . , µm 4 },

y #(σ − (A)) = m 3 + 2m 4 . + Para cada real λi+ existe un vector propio vi+ y para cada complejo µ+j = α + j + iβ j existe

un valor propio r+j + i s+j . Para λi+ tenemos la solución +

eλi t vi+ = fi+ (t) y para cada µ+j tenemos dos soluciones, +

+ + + αi t (cos(β + g+ j (g) = e j t)r j − sin(β j t)s j )

y +

+ + + h +j (g) = eαi t (sin(β + j t)r j + cos(β j t)s j ).

Cualquier solución x(t) es una combinación lineal. x(t) = +

m1  i=1 m3  i=1

Ci+ fi+

m2  + + + + (D + j g j + Fj h j )

Ci− fi− +

j =1 m 4 

− − − (D − j g j + Fj h j )

j =1

§3.3 M ATRICES

43

TIPO SILLA

Si x(t) = et A x, entonces x = x(0) =

m1 

Ci+ vi+

+

Ci− vi− +

qs (t) =

m4 

− − − (D − j r j + Fj s j )

j =1

i=1

Sean

m3 

Ci− fi−

+

m1 

m4 

− − − (D − j g j + F j h j ),

j =1

i=1

qu (t) =

+ + + (D + j r j + Fj s j )

j =1

i=1 m3 

+

m2 

Ci+ f i+ +

m2 

+ + + (D + j g j + F j h j ).

j =1

i=1

Entonces x(t) = qs (t) + qu (y). lim qs (t) = 0 y lim qu (t) = 0.

t→∞

t→−∞

Además una condición necesaria y suficiente para que lim x(t) = 0

t→∞

es que qu (t) ≡ 0; del mismo modo lim x(t) = 0

t→−∞

+ − − − si y sólo si qs (t) ≡ 0. Como las soluciones fi+ , g + j , h j , f i , g j , h j son linealmente inde-

pendientes, entonces lim x(t) = 0

t→∞

si y sólo si x ∈ span{vi− , r−j , s−j }. Concluimos que Es = span{vi− , r−j , s−j }, Eu = span{vi+ , r+j , s+j }. Como vi+ , r+j , s+j , vi− , r−j , s−j son linealmente independientes, entonces dim(Es ) = m 1 + 2m 2 y dim(Eu ) = m 3 + 2m 4 , y por lo tanto, Rn = Es ⊕ Es .

§3.3 M ATRICES

44

TIPO SILLA



3 −3

 1

  . Encontrar Es y Eu . Ejemplo 3.3.4 Sea A =  0 0 1   0 −2 −2 Solución − − La matriz A tiene 3valores propios λ+ 1 = 3, µ1 = −1 + i y µ1 = −1 − i . Tenemos los

siguientes vectores propios:



 1

   v1+ =   0  0 y











1 0           1  =  1  +i  0 . −1 + i −1 1               1     1   0     y Es = span  1  ,  0  . Por lo visto en el teorema 3.3.3, Eu = span  0             0   −1  1  Podemos resolver este problema directamente de la definición. Tenemos tres soluciones r1−

+ i s1−

 = 

1



linealmente independientes: 

e3t



  + , f 1+ (t) = eλ1 v1+ =  0   0  cos t  − g1 (t) = e−t  cos t  − cos t − sin t y

  −t  (t) = e h− 1 

   

 sin t sin t cos t − sin t

 . 

§3.3 M ATRICES

45

TIPO SILLA



Sea

e3t

 (t) =   0 0

e−t cos t

e−t sin t

e−t cos t

e−t sin t



−e−t (cos t + sin t) e−t (cos t − sin t)

 . 

Sabemos que (t) es una matriz fundamental de soluciones y por lo tanto et A = (t) (0)−1 . Esto es 

e−t cos t

e3t

e−t sin t

 1

1

  −t cos t −t sin t  0 1 et A =  e 0 e   0 −e−t (cos t + sin t) e−t (cos t − sin t) 0 −1   1 −1 e−t cos t e−t sin t e3t    0 1 = e−t cos t e−t sin t   0 −t −t 0 1 0 −e (cos t + sin t) e (cos t − sin t)   3t 3t −t −t e −e + e (cos t + sin t) e sin t   −t  . = 0 e−t sin t e (cos t + sin t)  −t −t 0 −2e sin t e (cos t − sin t) Supongamos que x = (u, v, w) ∈ Es . Queremos que lim et A x = 0.

t→∞

Notemos que   e x=  tA

ue3t

− ve3t

+ ve−t (cos t

ve−t (cos t

+ sin t) + we−t

+ sin t) + we−t

 sin t

sin t

−2ve−t sin t + we−t (cos t − sin t)

Entonces x = (u, v, w) ∈ Es si sólo si u − v = 0. Concluimos que . s 3 E = (u, v, w) ∈ R : u = v .

 . 

0

−1

 0   1  0  0   1

46

E JERCICIOS

Ya habíamos visto que

     0  1       s    E = span   1  ,  0  .     −1 1 

Ambos resultados coinciden.



E JERCICIOS

✎ 3.1 La función y(t) = et A x es la única solución del problema y˙ = Ay, y(0) = x. ✎ 3.2 Sea A una matriz no degenerada. Demostrar   a) A es de tipo atractor si y sólo si lim et A x 2 = +∞, para todo x  = 0. t→−∞

  b) A es de tipo repulsor si y sólo si lim et A x 2 = +∞, para todo x  = 0. t→∞

✎ 3.3 Clasificar las siguientes matrices. 

a)



3

.

−2 −6 

b)

1

c)

0

3

d)

1

1



 .

3

3

−1 2

 .

−1 0 1

g)

−1



0 2

.  .

−2 −1 

.

1 −1 

f) 

.

2 100 





3

−2 11 

e)

1

−1 0 0



 h)   2 2

 7 1  . 1 7





1 1 1    i)  1 1 1  . 1 1 1

(Sugerencia: Para clasificar, no es necesario resolver el sistema lineal.)

47

E JERCICIOS

✎ 3.4 Consideremos el siguiente problema con valores iniciales: 

X˙ =

0

1



X,

2 −1   u X (0) = , v donde u y v son constantes reales. a) Resolver el problema.

b) ¿Cuánto debe valer u y v si deseamos que lim X (t) = 0? t→∞

✎ 3.5 Calcular los espacios estable e inestable de la siguiente matriz. 

−1 0

 A=  1

1



0

 1 −1   1 1

✎ 3.6 Suponer que la siguiente matriz está en la región I I o I I I ; es decir, es de tipo espiral.

 A=

a b



c d

a) Demostrar que bc < 0. b) Suponer que x(t) = (x1 (t), x2 (t)) es solución del sistema x˙ = Ax. Escribir el sistema en coordenadas polares x1 = r cos θ, x2 = r sin θ. Esto es, encontrar ecuaciones para θ˙ y r˙ , en términos de θ y r.

E JERCICIOS

48

c) Mostrar que la espiral se mueve en la dirección contraria a las manecillas del reloj si c > 0 y en la dirección opuesta si c < 0. (Sugerencia: mostrar que θ˙ > 0 si c > 0 y θ˙ < 0 si b > 0.) d) Demostrar que r˙ > 0 si A está en la región I I y r˙ < 0 si A está en la región I I I. ¿Por qué se denomina a estas matrices “espirales”?

CAPÍTULO 4

Teoría no Lineal.

4.1 Teoría de Ecuaciones Diferenciales. Existen dos tipos de ecuaciones



autónomas no autónomas

En las autónomas, el campo vectorial f no depende explícitamente de t; esto es son de la forma x˙ = f (x). En las no autónomas, f depende explícitamente del tiempo t y son de la forma x˙ = f (x, t).

§4.1 T EORÍA

DE

50

E CUACIONES D IFERENCIALES .

Una no autónoma puede ser transformada en una autónoma pues, si hacemos y =  ecuación  x , entonces t     x˙ f (x, t) y˙ = = 1 1 

Si y=

x



 y F(y) =

t

f (y)



1

entonces y˙ = F(y) es autónoma.Un punto de equilibrio, o solución de punto fijo, de una ecuación diferencial

dy = F(y) dt

es un punto p  tal que F( p  ) = 0. Para un sistema lineal 0 es siempre punto de equilibrio. Sin embargo, pueden existir otros puntos de equilibrio. Si el det(A)  = 0, entonces 0 es el único punto de equilibrio. Si det(A) = 0, existe una infinidad de puntos de equilibrio. En este capítulo estudiaremos ecuaciones de la forma x˙ = f (x), donde f : E ⊂ Rn → Rn es una función de continuamente diferenciable o de clase C 1 definida en un abierto E de Rn . Recordemos la definición de la clase C 1 . Definición 4.1.1 Sea E un abierto de Rn . Se dice que f : E → Rn es diferenciable en x 0 si existe una matriz de n × n, A (x0 ) , tal que f (x0 + h) − f (x0 ) − A (x0 ) h 2 = 0. h→0 h 2 lim

A la matriz A (x0 ) es llamada matriz jacobiana y se escribe A (x0 ) = f (x0 ). Si la función es diferenciable en todos los puntos de su dominio se dirá simplemente que es diferenciable.

§4.1 T EORÍA

DE

51

E CUACIONES D IFERENCIALES .

Notemos que si f : E ⊂ Rn → Rn es diferenciable en E, entonces tenemos una función f : E → Mn ≈ Rn×n entre espacios métricos y por lo tanto podemos hablar de continuidad. Diremos que f es de clase C 1 en E si f es continua en E. Teorema 4.1.2 Sea f : E ⊂ Rn → Rm con 

 f1  .  .  f =  . . fm

Entonces f ∈ C 1 (E) sí y sólo si todas las derivadas parciales son continuas en E, es decir, ∂ fi es continua para todo i = 1, . . . , m y j = 1, . . . , n. Además si ∂xj   ∂ f1 ∂ f1 ∂ f1 · · · ∂ xn  ∂ .x1 ∂ .x2 . ..  .. .. .. f (x0 ) =  .    ∂ fm ∂ fm ∂ fm ∂ x1 ∂ x2 · · · ∂ xn x=x0

Ejemplo 4.1.3 ¿Por qué necesitamos funciones de clase C 1 ? Consideremos la ecuación x˙ = 3x 2/3 . Si queremos resolver con x(0) = 0, existen dos soluciones x1 (t) = 0,  x2 (t) =

t 3 si t > 0, 0 si t ≤ 0.

Queremos tener condiciones bajo las cuales esto no ocurra. A continuación enunciaremos y probaremos el famoso teorema de existencia y unicidad. De este teorema existen, en realidad, un sinnúmero de versiones dependiendo de las hipótesis que se impongan sobre el campo vectorial en cuestión. Daremos una versión débil de este teorema. Para demostrarlo necesitamos primero demostrar un lema.

§4.1 T EORÍA

DE

52

E CUACIONES D IFERENCIALES .

Lema 4.1.4 Sea γ : [a, b] → Rn una función continua. Entonces   b  b    γ (s) 2 ds. γ (s)ds   ≤  a

a

2

Demostración Notemos que    

b a

2 ( b ) ( b )  γ (s)ds  γ (s)ds · γ (t)dt  = a a 2  b b = (γ (s) · γ (t)) dsdt a a  b b γ (s) 2 γ (t) 2 dsdt ≤ a

( =

a

b

a

) (

γ (s) 2 ds

b a

) γ (t) 2 dt

( = a

b

)2 γ (s) 2 ds

.

Esto termina la demostración. La técnica que se usará para demostrar el teorema de existencia y unicidad es el de iteraciones de Picard. Estas consisten en una sucesión de funciones que convergen en el espacio de norma uniforme a la única solución del problema que queremos resolver. Definición 4.1.5 (Iteraciones de Picard) Sea f : E → Rn un campo vectorial. La sucesión de Picard, o iteraciones de Picard, del problema de valores iniciales x˙ = f (x), x(0) = x0 es la sucesión dada recursivamente por U0 (t) ≡ x0 ,



t

Uk+1 (t) = x0 + 0

f (Uk (s)) ds.

(4.1)

§4.1 T EORÍA

DE

E CUACIONES D IFERENCIALES .

53

Notemos el siguiente hecho, si las iteraciones de Picard convergen a una sola función x, esta debería satisfacer la siguiente igualdad



t

x(t) = x0 +

f (x(s))ds.

(4.2)

0

Resulta que encontrar una función que satisfaga (4.2) es equivalente al problema original (4.1) de valores iniciales. La demostración del teorema de existencia y unicidad es, en esencia, la demostración de que las iteraciones de Picard convergen en C ([−a, a] , Rn ) , donde a es un número positivo por definir. Recordemos que la norma del supremo o norma del máximo en C ([−a, a] , Rn ) es la siguiente v ∞ = max { v(t) 2 : t ∈ [−a, a]} . Es bien conocido que C ([−a, a] , Rn ) con la norma · ∞ es un espacio de Banach. Con la herramientas anteriores, podemos demostrar lo siguiente. Teorema 4.1.6 (Existencia y Unicidad. Versión débil) Sean E un abierto de Rn , x0 ∈ E y f de clase C 1 . Entonces existe un intervalo (−a, a) tal que el problema x˙ = f (x) x(0) = x0 tiene una solución única en (−a, a) . Demostración Primero demostremos la existencia. Sea δ > 0 tal que Bδ (x0 ) ⊂ E. Claramente el conjunto Bδ/2 (x0 ) es un compacto contenido en E. Sea . -  K = max  f (x) : x ∈ Bδ/2(x0 ) ,   donde · es la norma de matrices. Por ser  f  una función continua y Bδ/2 (x0 ) un conjunto compacto, se cumple que 0 ≤ K < ∞. Sean x, y ∈ Bδ/2 (x0 ). En base a x y y, definimos la función G : [0, 1] → Rn dada por G(s) = f (x + s(y − x)). Notemos que G (s) = f (x + s(y − x))(y − x)

§4.1 T EORÍA

DE

54

E CUACIONES D IFERENCIALES .

y, por otro lado,

 G(1) − G(0) =

1

G (s)ds.

0

Esto implica



1

f (y) − f (x) =

f (x + s(y − x))(y − x)ds

0

Rn

obtenemos  1     f (y) − f (x) 2 =  f (x + s(y − x))(y − x)ds  

Sacando la norma euclideana en

0 1



≤ 0

2

  f (x + s(y − x))(y − x) ds 2

Notemos que. si x, y ∈ Bδ/2(x0 ) y si s ∈ [0, 1] entonces x + s(y − x) ∈ Bδ/2 (x0 ). Sabemos que      f (x + s(y − x))(y − x) ≤  f (x + s(y − x)) y − x 2 2 ≤ K y − x 2 Concluimos



1

f (y) − f (x) 2 ≤ K y − x 2 ds = K y − x 2 (4.3) 0 . Sean b = δ/4 y M = max f (x) 2 : x ∈ Bb (x0 ) . Claramente M < ∞. Supongamos, sin pérdida de generalidad, que M > 0. Sea a un número que satisfaga 0 / 1 b , . 0 < a < min K M Estos números (a, b, K , M) nos servirán para hacer estimaciones acerca de las iteraciones de Picard. Sean U0 (t) ≡ x0



t

Uk+1 (t) = x0 +

f (Uk (s)) ds

0

Veremos que Uk es una sucesión de Cauchy en el espacio C [−a, a] . Definamos     A(b) = v ∈ C [−a, a] , Rn : v − U0 ∞ < b .

§4.1 T EORÍA

DE

55

E CUACIONES D IFERENCIALES .

Demostraremos que si Uk ∈ A(b) entonces Uk+1 ∈ A(b). Esto lo hacemos por inducción. Supongamos, como hipótesis de inducción, que Uk − U0 < b. Sea t ∈ [−a, a], entonces  t     Uk+1 (t) − x0 2 =  f (s)) ds (U k   0

2

Uk − U0 < b implica que para todo t ∈ [−a, a] se cumple Uk (t) − x0 2 < b. Es decir, para todo t ∈ [−a, a] se tiene que Uk (t) ∈ Bb (x0 ). Por lo tanto f (Uk (t)) 2 ≤ M para todo t ∈ [−a, a] . Entonces si t ∈ [−a, a] entonces  Uk+1 (t) − x0 2 ≤

|t| 0

 f (Uk (s)) 2 ds ≤

|t|

Mds ≤ Ma < b.

0

El máximo satisface Uk+1 − U0 ∞ = max Uk+1 (t) − x0 2 ≤ Ma < b. t∈[−a,a]

Demostraremos ahora que la sucesión es de Cauchy. Estimaremos primero U2 − U1 ∞ . Si t ∈ [−a, a] , entonces

   t  t   U2 (t) − U1 (t) 2 =  f (U1 (s)) ds − x0 − f (U0 (s)) ds  x0 +  0 0 2  t f (U1 (s)) − f (U0 (s)) 2 ds. ≤ 0

Sabemos que para todo t ∈ [−a, a] se tiene que δ U1 (t) − U0 (t) 2 < b < . 2 Por lo tanto, si |s| ≤ |t| < a entonces f (U1 (s)) − f (U0 (s)) 2 ≤ K U1 (t) − U0 (t) 2 < K b.

§4.1 T EORÍA

DE

56

E CUACIONES D IFERENCIALES .

Concluimos

 U2 (t) − U1 (t) 2 <

|t|

(K b) ds < K ab.

0

Por inducción se puede ver que   U j +1 − U j  ≤ (K a) j b. ∞ Si m > n ≥ N , entonces Um − Un ∞ ≤

(K a) N b , 1 − Ka

pues 0 < K a < 1. Dado que lim (K a) N = 0

N→∞

concluimos que {Um } es de Cauchy en la norma · ∞ y por lo tanto converge a un elemento x ∈ C ([−a, a] , Rn ) que además cumple 

t

x(t) = x0 +

f (x(s))ds,

0

para todo t ∈ [−a, a]. Esto termina la demostración. Ejemplo 4.1.7 Usar el método de Picard para resolver el siguiente problema lineal. x˙ = Ax, x(0) = x0 , Demostración Definimos U0 (t) = x0 ,



t

Uk+1 (t) = x0 +

AUk (s)ds.

0



Obtenemos

t

U1 (t) = x0 + 0

(Ax0 ) ds = x0 + t Ax0 ,

§4.1 T EORÍA

DE

57

E CUACIONES D IFERENCIALES . 

U2 (t) = x0 + α

t

( x0 + t Ax0 ds =

0

) t2 2 I + t A + A x0 , 2

 t(

) t2 2 I + t A + A x0 ds U3 (t) = x0 + α 2 0 ) ( 2 3 t 2 t 3 = I + t A + A + A x0 . 2 3! Por inducción podemos ver que Un (t) =

 n  tk k=0

 Ak x 0 .

k!

Claramente esta sucesión converge, en la norma del supremo a x(t) = et A x0 que, como ya hemos estudiado, es solución de la ecuación. En resumen, si consideremos el problema (4.1) donde f es una función de clase C 1 en un abierto E de Rn , entonces sabemos que existe un intervalo [−a, a] en donde existe una única solución de este problema. Ejemplo 4.1.8 Si f no es C 1 en todo el plano no podemos garantizar la unicidad. Consideremos el siguiente problema 2

x˙ = 3x 3 , x(0) = x0 . 2

Se puede ver que f (x) = 3x 3 es de clase C 1 en  = R\ {0} y, por tanto, dicha solución es única si x0  = 0. Si x0 = 0, puede verificarse directamente que x(t) = 0 y x(t) = t 3 son dos soluciones posibles. esto no viola el resultado del teorema 4.1.6 pues la función f no es diferenciable en 0, por lo que no puede garantizarse unicidad. Ejemplo 4.1.9 El problema de valores iniciales   y˙ = tan e y − arctan y y(t0 ) = y0

§4.1 T EORÍA

DE

E CUACIONES D IFERENCIALES .

58

tiene una solución única para todo t0 y todo y0 pues la función f que define a la ecuación es de clase C 1 en un abierto de Rn . Esto se sabe a pesar de que, en general, la solución no puede calcularse explícitamente. Nos preguntamos ahora acerca de hasta dónde podemos extender la solución. Tenemos el siguiente teorema que damos sin demostración. Teorema 4.1.10 Sean E un abierto de Rn , f una función de clase C 1 . Entonces, para cada punto x0 ∈ E, existe un intervalo D(x0 ) (llamado intervalo maximal) tal que a) D(x0 ) = (α, β) , y contiene a t = 0, b) El problema y˙ = f (y) y(0) = x0 tiene una solución y(t) definida en D(x0 ), c) La solución y(t) es única en el siguiente sentido. Si el problema tuviera otra solución z(t), definida en un intervalo I, entonces I ⊂ D(x0 ), y z(t) = y(t) en I. Ejemplo 4.1.11 Considerar x˙ =

−1 . 2x

en E = (0, ∞). Calcular D(1). Solución Resolveremos −1 2x x(0) = 1 x˙ =

y veremos hasta dónde podemos extender la solución. Resulta que la solución es x(t) =

√ 1−t

§4.1 T EORÍA

DE

E CUACIONES D IFERENCIALES .

59

En este caso, x(t) está definido para todo t ∈ (−∞, 1] . Sin embargo, en t = 1, x(t) sale del conjunto E. Por lo tanto, D(1) = (−∞, 1) .



Ejemplo 4.1.12 Consideremos x˙ =

1 x

definida en E = (0, ∞) . Encontrar D(x0 ). Solución Para cada x0 la solución x(t) que satisface x(0) = x0 es  x(t) = 2t + x02     El dominio de x(t) es t ∈ R | 2t + x02 ≥ 0 = − x20 , ∞ . El intervalo maximal es por tanto D(x0 ) = (−x0 /2, ∞) .



En base al teorema anterior, podemos demostrar que las soluciones de una ecuación autónoma x˙ = f (x) son en realidad un flujo sobre el dominio del campo vectorial. Teorema 4.1.13 Sean E un abierto de Rn , f una función de clase C 1 . Sea ψ(t, x0 ) la solución del problema y˙ = f (y) y(0) = x0 definida en el intervalo D(x0 ). Si t ∈ D(x0 ), s ∈ D (ψ (t, x0)) , entonces a) s + t ∈ D(x0 ), b) ψ (s + t, x0 ) = ψ (s, ψ (t, x0 )) . Demostración Suponer t > 0 y D(x0 ) = (α, β) . Definimos la función x : (α, s + t] → E dada por  ψ (r, x) α≤r ≤t x(r ) = ψ (r − t, ψ (t, x0)) t ≤ r ≤ s + t

§4.1 T EORÍA

DE

E CUACIONES D IFERENCIALES .

60

Claramente x(r ) es diferenciable en todos los puntos del dominio con la posible excepción de r = t. Además x(r ) es continua en r = t. Queremos demostrar que el siguiente limite existe

x(t + h) − x(t) h→0 h lim

Sabemos lim

h→0+

x(t + h) − x(t) ψ(r, ψ(t, x0 )) − ψ(t, x0 ) = lim + h h h→0 ∂ ψ(r, ψ(t, x0)) = f (ψ(t, x0 )). = ∂r r =0

Por otro lado lim

h→0−

x(t + h) − x(t) ψ (t + h, x0 ) − ψ(t, x0 ) = lim h h h→0− ∂ = ψ(r, x0 ) = f (ψ(t, x0 )). ∂r r =t

Concluimos que

d x(r ) = f (ψ(t, x0 )) = f (x(t)) dr r =t Se puede ver que para cualquier otro valor de r, se tiene que d x(r ) = f (x(r )). dr

Además x(0) = x0 . Por el Teorema 4.1.10, (α, s + t] ⊂ D(x0 ), y además x(r ) = ψ(r, x0 ) para todo r ∈ (α, s + t] . En particular, s + t ∈ D(x0 ), y x(s + t) = ψ (s + t, x0 ) = ψ (s, ψ (t, x0 )) . Esto termina la demostración. Definimos de este modo un flujo asociado a una ecuación diferencial. Sea E un abierto de Rn y f ∈ C 1 (E) . Sea D(x) el intervalo maximal correspondiente a x. Definimos  = {(t, x) ∈ R × E : t ∈ D(x)}

§4.1 T EORÍA

DE

61

E CUACIONES D IFERENCIALES .

Por ser D(x) un intervalo, se puede ver que  es un abierto de R × Rn . En  definimos el flujo asociado a f como la función φ :  → E tal que φ (0, x) = x, ∂ φ (t, x) = f (φ (t, x)) . ∂t Además, esta función es única. Ejemplo 4.1.14 Encontrar el flujo asociado a la ecuación x˙ = sec x   donde E = − π2 , π2 . Solución Resolveremos el siguiente problema de valores iniciales. x˙ = sec x, x(0) = x0 , donde x0 ∈ E. Usando el método de separación obtenemos

1

cos xd x =

1

dt y por lo tanto

sin x = t + C. Para determinar el valor de la constante C echamos mano de la condición inicial. Esto es, sin x0 = C. Sustituyendo y simplificando obtenemos sin x(t) = t + sin(x0 ), x(t) = arcsin(t + sin(x0 )). Por lo tanto, la forma de el flujo para este sistema dinámico es φ t (x0 ) = arcsin(t + sin(x0 )).

§4.1 T EORÍA

DE

E CUACIONES D IFERENCIALES .

62

Para x0 queremos −1 ≤ t + sin(x0 ) ≤ 1 y además

π π arcsin(t + sin(x0 )) ∈ E = − , 2 2 Necesitamos, por lo tanto la siguiente condición −1 < t + sin(x0 ) < 1; es decir, −1 − sin x0 < t < 1 − sin x0 Este es un abierto que contiene a 0. Concluimos entonces D(x0 ) = (−1 − sin x0 , 1 − sin x0 ) . El dominio del flujo se define como .

π π : t ∈ (−1 − sin x, 1 − sin x)  = (t, x) ∈ R × − , 2 2 Aquí concluimos el ejemplo.



La unicidad de las soluciones es, a veces, más importante de lo que a simple vista podría parecer. En el plano, tenemos la propiedad de que las curvas “separan” a éste en regiones. Una manera geométrica de entender la unicidad es pensar que una curva que es solución no puede ser cruzada por otra solución. Si tal fuera el caso, se tendrían dos soluciones distintas que iniciarían en el mismo punto: el punto de intersección. Esto se demostraría del siguiente modo. Sean z 1 (t) y z 2 (t) dos soluciones de la ecuación x˙ = f (x) donde f es una función de clase C 1 definida en un abierto de Rn . Supongamos que existen un par de tiempos t1 y t2 tales que z 1 (t1 ) = z 2 (t2 ). Definamos x0 = z 1 (t1 ) = z 2 (t2 ) y y1 (t) = z 1 (t + t1 ), y2 (t) = z 2 (t + t2 ). dos funciones que están definidas en intervalos I1 e I2 . Claramente, ambas funciones también son soluciones de la ecuación x˙ = f (x) y además y1 (0) = y2 (0) = x0 . Por el teorema de

63

E JERCICIOS

a)

b)

Figura 4.1: El teorema de existencia y unicidad no permite que las soluciones se crucen. En la figura a) se representa la situación típica en la que se ven las soluciones de una ecuación diferencial en el plano. En la figura b) se da una situación imposible si se tiene unicidad: una solución no puede cruzar otras.

existencia y unicidad, y1 (t) = y2 (t) para todo t ∈ I1 ∩ I2 . Por lo tanto z 1 (t) y z 2 (t) no se pueden “cruzar”, a menos que sus imágenes coincidan. Estas consideraciones se ilustran en la figura 4.1. En el plano R2 , la unicidad trae consecuencias importantes pues en ocasiones una curva solución divide al plano en dos regiones y así las demás soluciones no pueden cruzar de una de estas regiones a otra.

E JERCICIOS

✎ 4.1 Escribir las soluciones de las siguientes ecuaciones diferenciales en el abierto E usando la notación de flujos. En cada caso, encontrar el intervalo maximal correspondiente a cada punto de E. a) x˙ = x(1 − x), definida en E = (0, 1). b) x˙ = tan x, definida en E = (0, π/2). c) x˙ = x 2 , y˙ = 1/x, definida en E = (0, ∞) × R.

64

E JERCICIOS

✎ 4.2 Encontrar las tres primeras iteraciones de Picard del siguiente problema de valores iniciales: x˙ = x 2 , x(0) = 1.

✎ 4.3 Sea y˙ = f (y) una ecuación diferencial donde f : E → Rn es de clase C 1 . Utilizar el método de las iteraciones de Picard para demostrar lo siguiente. a) Sea η  = 0 y H = {x ∈ Rn : η · x = c} un hiperplano. Suponer que para todo h ∈ E ∩ H se tiene que η · f (h) = 0. Si y0 ∈ E ∩ H entonces ϕ t (y0 ) ∈ E ∩ H para todo t ∈ D(y0 ). b) Sea V un subespacio vectorial de Rn tal que para todo h ∈ E ∩ V se tiene que f (h) ∈ V. Si y0 ∈ E ∩ V entonces ϕ t (y0 ) ∈ E ∩ V para todo t ∈ D(y0 ). c) ¿Cómo se generalizarían los anteriores resultados para un espacio afín en general? Un espacio afín en un espacio vectorial trasladado, que abarca los dos ejemplos anteriores.

✎ 4.4 Sea R2++ = {(u, v) : u > 0, v > 0}. Consideremos el siguiente problema d dt



u v





=

u 2 + v sin u −1 + uv + cos v



,

u(0) = u 0 , v(0) = v0 . Demostrar que cualquier curva solución que inicie en el primer cuadrante permanecerá ahí para todo tiempo en el intervalo maximal. Es decir, demostrar que si (u 0 , v0 ) ∈ R2++ entonces ϕ(t, (u 0 , v0 )) ∈ R2++ , para todo t ∈ D(u 0 , v0 ). (Sugerencia: utilizar el teorema de existencia y unicidad, y el ejercicio 4.3.)

✎ 4.5 Sea ϕt (x, y) el flujo generado por el sistema x˙ = −2e x x y,

 y˙ = e x −3x 2 − 1 + y 2 . Encontrar el intervalo maximal del origen y una expresión explícita para la función ϕ t (0, 0).

65

E JERCICIOS

✎ 4.6 Sea A una matriz de 3 × 3 cualquiera.

Sean {e1 , e2 , e3 } los vectores de la base

canónica. Considerar el siguiente sistema en R3   x˙i = xi eiT Ax − xT Ax , donde i = 1, 2, 3 y x = (x1 , x2, x3 ). Se define el simplejo de R3 como el conjunto . 3 S3 = (x1 , x2 , x3 ) ∈ R : x1 , x2 , x3 ≥ 0, x1 + x2 + x3 = 1 . Demostrar que S3 es invariante bajo el flujo generado por las ecuaciones diferenciales. Es decir, si φ es el flujo y x ∈S3 entonces φ t (x)∈S3 para todo t ∈ D(x).

✎ 4.7 Sea

f : Rn → Rn un campo vectorial de clase C 1 . Sea φ(t) una solución de la

ecuación diferencial dada por X˙ = f (X ). Suponer que φ(t) está definida para todo t ∈ R, y que existe un número T > 0 tal que φ(0) = φ(T ). Demostrar que para todo t se cumple φ(t) = φ(t + T ).

CAPÍTULO 5

Estabilidad no lineal

5.1 Conjugación topológica Queremos dar una definición que haga a equivalentes dos sistemas dinámicos. Informalmente, podemos decir que dos sistemas dinámicos son equivalentes si existe un cambio de variable que transforma uno en otro. En general, el cambio de variable puede ser de distintos tipos y se considera el más sencillo uno que sólo sea continuo. En el ejercicio 1.5 se consideró el caso de la transformación de un campo vectorial en otro, en base a un cambio de variable diferenciable. La siguiente definición es un caso más general, pues sólo considera continuidad. Definición 5.1.1 Sean U, V dos abiertos de Rn . Una función h : U → V es llamada homeomorfismo si a) h es una biyección, b) h es continua,

§5.1 C ONJUGACIÓN

67

TOPOLÓGICA

c) h −1 es continua. Definición 5.1.2 Dos sistemas dinámicos (X, φ1 ) y (Y, φ2 ) son topológicamente conjugados si existe un homeomorfismo h : X → Y tal que φ1 (t, h(x)) = h (φ2 (t, x)) ,

(5.1)

para todo x ∈ X. En tal caso escribiremos φ1 ∼ φ2 y también diremos que los flujos son equivalentes. Ejemplo 5.1.3 Consideremos dos matrices:     −1 −3 2 0 A= yB= . −3 −1 0 −4 Sean φ1 (t, x) = et A x, y φ2 (t, y) = et B y los flujos generados por las matrices A y B. Observemos que B = R −1 A R donde 1 R=√ 2



y R −1

1 =√ 2

1

1



−1 1 

1 −1 1

1

 .

Se puede demostrar que et B = R −1 et A R, y por lo tanto et A R = Ret B . Esto sugiere que los dos flujos son equivalentes a través del cambio de variable dado por la matriz R. Esto es, si hacemos h(x) = Rx entonces φ1 (t, h(x)) = et A Rx = Ret B x = h (φ2 (t, x)) .

§5.1 C ONJUGACIÓN

68

TOPOLÓGICA

En ambos casos, el origen es un punto silla. En el primer caso tenemos dos vectores propios:     1 1 , . 1 −1 En el segundo caso tenemos dos vectores propios:     1 0 , . 0 1 Nótese que el cambio de variable h mapea los vectores propios de una matriz en los vectores propios de la otra. El cambio de variable y = h(x) es, de hecho, una rotación de 45o . Ejemplo 5.1.4 La función que hace a dos flujos equivalentes puede ser bastante complicada. Consideremos los siguientes flujos en R2 . ϕ1t (x) = et x y

 ϕ2t (x) = et

cos(t) − sin(t) sin(t)

cos(t)

 x

dos flujos en Rn . Resulta que ϕ1 ∼ ϕ2 , pero la función que los hace equivalentes es bastante complicada. Consideremos a h : R2 → R2 una conjugación topológica. Los campos vectoriales correspondientes a ϕ1 y ϕ2 son lineales.   1 0 x, f 1 (x) = 0 1   1 −1 x. f 2 (x) = 1 1  Si la función h fuese lineal, las matrices

1 0





1 −1



y serían equivalentes (ver 0 1 1 1 ejercicio 5.1). Pero esto no sucede, por lo que h no puede ser simplemente una función

§5.1 C ONJUGACIÓN

69

TOPOLÓGICA

lineal. Proponemos     cos(log x ) − sin(log x )   x, x  = 0, h(x) = sin(log x ) cos(log x )    0, x = 0. para x  = 0 y h(0) = 0. Queremos demostrar que h ◦ ϕ1t = ϕ2t ◦ h. Si x ∈ R2 , x  = 0 tenemos que h ◦ ϕ1t (x) = h(et x)   cos(log x + t) − sin(log x + t) = (et x) sin(log x + t) cos(log x + t)    cos t − sin t cos(log x ) − sin(log x ) x = et sin t cos t sin(log x ) cos(log x ) = ϕ2t (h(x)) = ϕ2t ◦ h(x). Notemos que h(x) = x . De este hecho, es fácil ver que la inversa de h es     cos(log x ) sin(log x )   x, x  = 0, h −1 (x) = − sin(log x ) cos(log x )    0, x = 0. Claramente tanto h como h −1 son funciones continuas para todo punto x  = 0. Notemos además que lim h(x) = 0,

x→0

lim h −1 (x) = 0.

x→0

Dado que definimos h(0) = 0, y h −1 (0) = 0, ambas funciones también resultan ser continuas en x = 0.

§5.2 L INEALIZACIÓN

70

DE PUNTOS FIJOS

E JERCICIOS

✎ 5.1 Dos matrices A y B de n × n son equivalentes si existe una matriz invertible R tal

que B = R −1 A R. Demostrar que si A y B son equivalentes entonces los flujos φ1 (t, x) =

et A x, y φ2 (t, y) = et B y definidos en Rn son topológicamente conjugados.

✎ 5.2 Sean A y B dos matrices de n × n.

Suponer que los flujos φ1 (t, x) = et A x, y

φ2 (t, y) = et B y, definidos en Rn , son topológicamente conjugados a través de una función h : Rn → Rn . Demostrar que si h(0) = 0, h es diferenciable en 0 y h (0) es invertible entonces A y B son equivalentes. (Sugerencia: usar la ecuación (5.1) y derivar en x = 0. )

✎ 5.3 Demostrar que la conjugación topológica entre sistemas dinámicos es una relación de equivalencia.

✎ 5.4 Sea f : R → R el campo vectorial dado por f (x) = ax 2 + bx + c donde a = 0. a) Demostrar que el flujo generado por f es topológicamente equivalente a un flujo generado por alguno de los siguientes campos: y˙ = γ (y 2 +1), y˙ = γ (y 2 −1) o y˙ = γ y 2 para alguna γ > 0. Es decir, el campo vectorial dado por f (x) = ax 2 + bx + c puede ser reducido, bajo un cambio de variable, a uno de los tres casos anteriores. b) Resolver y˙ = γ (y 2 + 1), y˙ = γ (y 2 − 1) y y˙ = γ y 2 . c) Clasificar la dinámica de f de acuerdo al signo del discriminante b2 − 4ac.

5.2 Linealización de puntos fijos Supongamos f es un campo vectorial definido en un abierto E ⊂ Rn y f ( p ∗ ) = 0. Un punto p ∗ que satisface f ( p ∗ ) = 0 es llamado punto de equilibrio o punto fijo. Recordemos que cerca de p ∗ se tiene f ( p ∗ + h) = f ( p ∗ ) + f ( p ∗ )h + o(h),

§5.2 L INEALIZACIÓN

DE PUNTOS FIJOS

71

donde o(h) es una función tal que o(h) = 0. h→0 h lim

En particular, si h es pequeño o(h) ≈ 0. Podemos aproximar, por lo tanto f ( p ∗ + h) ≈ f ( p ∗ )h. Esperaríamos que la dinámica de ambos sistemas fuese parecida. Si x(t) es una solución de x˙ = f (x), definimos η(t) = x(t) − p ∗ y entonces x(t) = η(t) + p ∗ . Además, tendríamos η(t) ˙ = x(t) ˙ = f (x(t)) = f ( p ∗ + η(t)). Si η(t) es pequeño, entonces η(t) ˙ = f ( p ∗ + η(t)) ≈ f ( p ∗ )η(t) Esperaríamos que la dinámica de η sea similar a la dinámica del sistema lineal η˙ = f ( p ∗ )η. Esto motiva la siguiente definición. Definición 5.2.1 Sean f y p ∗ como antes. Al sistema lineal η˙ = f ( p ∗ )η se le denomina el sistema lineal asociado al punto fijo p ∗ . Se dirá, además, que la estabilidad del punto p ∗ es la misma que la del sistema lineal asociado. El análisis hecho anteriormente puede generalizarse a sistemas de varias variables.

§5.2 L INEALIZACIÓN

72

DE PUNTOS FIJOS

Ejemplo 5.2.2 Considerar el sistema x˙ = y, y˙ = −1 + x 2 Encontrar los puntos fijos y calcular el sistema lineal asociado en cada caso. Solución Los puntos de equilibrio son (1, 0) y (−1, 0). El campo vectorial del sistema es     x y f = y x2 − 1 y el jacobiano correspondiente es 

x

f



 =

y

0

1



2x 0

.

El sistema lineal asociado a (1, 0) es  η˙ = f

1 0



 η=

0 1 2 0

 η

y por lo tanto la dinámica cerca de (1, 0) es de tipo silla. Por otro lado, el sistema lineal asociado a (−1, 0) es

 η˙ = f

El punto (−1, 0) es degenerado.

−1 0



 η=

0 1 2 0

 η.



El siguiente teorema nos permite hacer formal la idea de que el sistema lineal asociado a cada punto fijo es, de hecho, una buena aproximación del sistema no lineal. La condición que se debe cumplir es que la matriz jacobiana correspondiente sea no degenerada. En otras palabras, cerca de un punto fijo si el sistema lineal asociado es no degenerado existe, al menos teóricamente, un cambio de variable que hace al flujo del sistema lineal equivalente con el flujo del sistema lineal asociado.

§5.2 L INEALIZACIÓN

73

DE PUNTOS FIJOS

Teorema 5.2.3 (Hartman-Grobman) Sea E un abierto de Rn . Sea f es un campo vectorial definido en un abierto E ⊂ Rn y p ∗ ∈ E un punto tal que f ( p ∗ ) = 0. Sea φ t el flujo generado por la ecuación x˙ = f (x). Asumir que la matriz A = f ( p ∗ ) es no degenerada. Entonces existen abiertos U y V de Rn y un homeomorfismo h : U → V tal que a) p ∗ ∈ U, b) 0 ∈ V, c) si φ (t, x0 ) ∈ U entonces h (φ (t, x0)) = et A h(x0 ).   Es decir, φ (t, x0 ) = h −1 et A h(x0 ) . Posteriormente daremos ejemplos en los que una matriz jacobiana degenerada implica que la dinámica podría ser de distintos tipos y el teorema de Hartman-Grobman anterior no se puede aplicar. Ejemplo 5.2.4 Consideremos el flujo φ t generado por el campo vectorial f : R2 → R2 dado por

 f

x y



 =

x



−y + x 2

.

Sea h : R2 → R2 la función dada por     x x . h = y y − 13 x 2 Podemos demostrar que h es la conjugación topológica del Teorema de Hartman-Grobman de φ t con el flujo lineal cerca de (0, 0). Es decir,   h φ t (x, y) = et A h(x, y). donde A = f (0, 0) . Para encontrar φ t (x0 , y0 ) se resuelve x˙ = x, y˙ = −y + x 2 ,

§5.2 L INEALIZACIÓN

74

DE PUNTOS FIJOS

con condiciones iniciales x(0) = x0 y y(0) = y0 . Claramente se tiene que x(t) = x0 et y por tanto concluimos y˙ = −y + x02 e2t Usando el método del factor de integración encontramos que ( ) 1 2 −t 1 2 2t y(t) = x0 e + y0 − x0 e 3 3 El flujo es, por tanto  φt

x0 y0



 =

x(t)



 =

y(t)

Por otra parte,

 A=

Es fácil ver que e Luego entonces  h φt



x0 y0



 =h  =

=

et

 .



0

.

0 −1 

tA

1

x 0 et   1 2 −t 1 2 2t x e + y − x 0 3 0 3 0 e

0



0 e−t

.

x 0 et   1 2 t 1 2 2t 3 x 0 e + y0 − 3 x 0 e x 0 et

 

   2 + y0 − 13 x02 et − 13 x0 et      et 0 x x0 0 = = et A h . 1 2 −t y0 − 3 x0 y0 0 e 1 2 2t 3 x0 e

Ejemplo 5.2.5 Se desea linealizar el sistema x˙ = x + y 2 − 1, y˙ = x y + x 2

§5.2 L INEALIZACIÓN

DE PUNTOS FIJOS

75

y clasificar su puntos de equilibrio. Sea (x ∗ , y ∗ ) algún punto de equilibrio. La matriz jacobiana asociada al sistema linealizado alrededor de (x ∗ , y ∗ ) es   ∗ 1 2y . J (x ∗ , y ∗ ) = y ∗ + 2x ∗ x ∗ Los puntos de equilibrio se obtienen resolviendo el sistema x + y 2 − 1 = 0, x y + x 2 = 0. Obtenemos así los cuatro puntos (0, 1), (0, −1), (−1.62, 1.62) y (0.62, −0.62). De esta forma, para los primeros dos puntos de equilibrio tenemos   1 2 J (0, 1) = , 1 0   1 −2 J (0, −1) = , −1 0 ambas matrices con valores propios λ1 = −1 y λ2 = 2. La matriz   1 3.24 J (−1.62, 1.62) = −1.62 −1.62 tiene valores propios λ1 = −0.31 + 1.88i y λ2 = −0.31 − 1.88i, y finalmente   1 −1.24 J (0.62, −0.62) = 0.62 0.62 posee valores propios λ1 = 0.81 + 0.856i y λ2 = 0.81 − .856i. Vemos entonces que (0, 1) y (0, −1) son puntos silla (−1.62, 1.62) es un punto espiral atractora y (0.62, −0.62) un punto espiral repulsora. La figura 5.1 ilustra estos resultados. Ejemplo 5.2.6 Ahora vamos a encontrar y clasificar los puntos fijos del siguiente sistema: y˙1 = y12 + y22 − 2, y˙2 = y12 − y22 .

§5.2 L INEALIZACIÓN

76

DE PUNTOS FIJOS

3

2

1

0

-1

-2 -3

-2

-1

0

1

2

Figura 5.1: Diagrama de fase correspondiente al ejemplo 5.2.5.

Los puntos fijos satisfacen y12 + y22 − 2 = 0, y12 − y22 = 0. Por lo tanto éstos son (1, 1), (1, −1), (−1, 1) y (−1, −1). La matriz jacobiana asociada al sistema lineal, alrededor de (y1 , y2), está dada por   2y1 2y2 J (y1, y2 ) = . 2y1 −2y2 Entonces,

 J (1, 1) =

2

2

2 −2

 .

Como el determinante de la matriz es negativo, se tiene que (1, 1) es punto silla. Por otra parte,

 J (1, −1) =

2 −2 2

2

 .

§5.2 L INEALIZACIÓN

77

DE PUNTOS FIJOS

En este caso tr (J (1, −1) = 4, det(J (1, −1)) = 8 y (J (1, −1)) = −16, por lo que se trata de una espiral repulsora. Para el punto (−1, 1), la matriz jacobiana es   −2 2 J (−1, 1) = , −2 −2 ahora se tiene que tr (J (−1, 1)) = −4, det(J (−1, 1)) = 8 y (J (−1, 1)) = −16 por lo que se trata de una espiral atractora. Finalmente, para (−1, −1)   −2 −2 J (−1, −1) = . −2 2 Basta notar que el determinante es negativo, por lo tanto se trata de un punto silla. En la figura 5.2 se puede apreciar el comportamiento global de las soluciones y claramente se ve la existencia de dos puntos silla, una espiral atractora y una espiral repulsora. 2

1

0

-1

-2 -2

-1

0

1

2

x

Figura 5.2: Diagrama de fase para el ejemplo 5.2.6.

§5.2 L INEALIZACIÓN

78

DE PUNTOS FIJOS

Ejemplo 5.2.7 Consideremos el sistema x˙ = −y + ax(x 2 + y 2 ), y˙ = x + ay(x 2 + y 2 ). Encontrar una expresión explícita para el flujo generado y analizar la dinámica cerca del punto fijo (0, 0). Solución El jacobiano del campo vectorial es       2+y −1 + 2ax y x a 3x f =  .  1 + 2ax y a x 2 + 3y 2 y En el punto fijo (0, 0) tenemos  f

0 0



 =

0 −1 1



0

.

Notemos que la traza de f (0, 0) es 0 y el determinante es 1, por lo que (0, 0) es un punto degenerado. En este caso el teorema de Hartman-Grobman no se puede aplicar. Vamos a demostrar que la dinámica cerca de (0, 0) depende del signo del parámetro a. Dado que la matriz jacobiana f (0, 0) es independiente de a, este ejemplo muestra que si la matriz jacobiana en el punto fijo es degenerada, entonces no se puede decir nada de la dinámica cerca del punto fijo. Usaremos coordenadas polares x(t) = r (t) cos θ (t), y(t) = r (t) sin θ (t). para encontrar una expresión explícita del flujo. Sean (r0 , θ0 ) números tales que x0 = r0 cos θ0 , y0 = r0 sin θ0 .

(5.2)

§5.2 L INEALIZACIÓN

79

DE PUNTOS FIJOS

donde r0 ≥ 0. Tenemos las ecuaciones:     x + ay(x 2 + y 2 ) x − −y + ax(x 2 + y 2 ) y y˙ x − x˙ y θ˙ = = =1 r2 r2 y

    x −y + ax(x 2 + y 2 ) + y x + ay(x 2 + y 2 ) x x˙ + y y˙ = = ar 3 . r˙ = r r Al resolver el sistema anterior con condiciones r (0) = r0 y θ (0) = θ0 obtenemos θ (t) = θ0 + t,

y r (t) = 

r0 1 − 2r02 at

.

Si usamos las ecuaciones (5.2), obtenemos las ecuaciones del flujo generado. Esto es,       x x(t) r (t) cos θ (t) 0 = = φt y(t) r (t) sin θ (t) y0   cos(θ0 + t) r0 = sin(θ0 + t) 1 − 2r02 at    cos t − sin t r0 cos(θ0 ) 1 = sin t cos t r0 sin(θ0 ) 1 − 2r02 at    cos t − sin t x0 1 . = 2 2 y sin t cos t 0 1 − 2(x0 + y0 )at Tenemos tres casos: a = 0, a < 0 y a > 0. Si a = 0 entonces r (t) ≡ r0 y el intervalo maximal es D(x0 , y0 ) = R. Además, el flujo 

satisface φt

x0 y0



 =

cos t − sin t sin t

cos t



x0 y0

 ,

que corresponde geométricamente a círculos en el plano. El radio de las trayectorias no crece ni decrece.

§5.2 L INEALIZACIÓN

80

DE PUNTOS FIJOS

Si a < 0, el radio es una ( ) función decreciente. Además, el dominio maximal está dado por D(x0 , y0 ) =

1 ,∞ 2r02 a

y las trayectorias geométricamente son espirales. Es tal caso el

flujo cumple que





x0

lim φ t

t→∞

 =

y0

0

 .

0

Finalmente, si(a > 0, el)radio es una función creciente. Además el dominio maximal es D(x0 , y0 ) = −∞, 2r12 a y las trayectorias geométricamente son espirales. Es tal caso el 0

flujo cumple que

 lim φ t

t→−∞

x0 y0



 =

0



0

.

En conclusión, si la matriz jacobiana en un punto de equilibrio es degenerada, el sistema lineal asociado no contiene suficiente información para predecir el comportamiento cerca de tal punto fijo.



E JERCICIOS

✎ 5.5 Sea φt el flujo generado por el campo vectorial f : R2 → R2 dado por 

f

x y





=

−x



y − 4x 3 + 1

.

Sea h : R2 → R2 la función dada por     x x . h = y y − x3 + 1 a) Demostrar que (0, 1) es un punto fijo y encontrar el sistema lineal asociado. b) Demostrar la matriz A = f (0, 1) es no degenerada c) Calcular explícitamente el flujo φ t . d) Demostrar que la función h es una conjugación que hace equivalentes a φ t y al flujo generado por la matriz A.

§5.3 A NÁLISIS

81

DE PUNTOS SILLA

✎ 5.6 Linealizar cada uno de los siguientes sistemas alrededor de sus puntos de equilibrio y obtener los diagramas de fase correspondientes. ¿En qué casos se puede aplicar el teorema de Hartman-Grobman? a) x˙ = x y, y˙ = (y − 1)(x 2 − 1). b) x˙ = 4x − 3x y, y˙ = 3y − x y. c) x˙ = 3y 2 + x, y˙ = −(3x 2 + y). d) x˙ = y, y˙ = sin x.

5.3 Análisis de puntos silla Sea f ∈ C 1 definido en un abierto E ⊂ Rn . Sea p ∗ un punto de equilibrio de tipo silla de f. Nos interesa estudiar la dinámica cerca de p ∗ . Por el teorema 5.2.3 de Hartman-Grobman, la dinámica se parecerá a la de η˙ = f ( p ∗ )η. Nos interesa en particular si p ∗ es punto silla. p ∗ es punto silla si f ( p ∗ ) tiene valores propios con parte real negativa y otros con parte real positiva. Definición 5.3.1 Sean f un campo vectorial como antes y p  un punto silla. Sea A = f ( p ∗ ). Se definen los espacios estable e inestable asociados al punto silla p∗ como los subespacios de Rn siguientes ∗

-

.

E ( p ) = x ∈ R : lim e x = 0 y t→∞ / 0 u ∗ n tA E ( p ) = x ∈ R : lim e x = 0 . s

n

tA

t→−∞

Tal como lo hicimos para el caso lineal (véase teorema 3.3.3) podemos demostrar que los espacios lineales asociados a un punto silla p ∗ satisfacen lo siguiente: a) Es ( p ∗ ) es un subespacio de dimensión igual al número de valores propios con parte real negativa de f ( p ∗ ).

§5.3 A NÁLISIS

82

DE PUNTOS SILLA

b) Eu ( p ∗ ) es un subespacio de dimensión igual al número de valores propios con parte real positiva de f ( p ∗ ). c) Rn = Es ( p ∗ ) ⊕ Eu ( p ∗ ). Ejemplo 5.3.2 Sea A de 2 × 2 de tipo punto silla y b ∈ R2 . Sea f : R2 → R2 el campo vectorial dado por f (x) = Ax + b. Demostrar que f tiene un punto silla p ∗ e identificar los espacios Es ( p ∗ ) y Eu ( p ∗ ). Solución La matriz A tiene dos valores propios λ1 < 0 < λ2 . Esto implica que A es invertible y por lo tanto se puede resolver el problema de encontrar un punto fijo p ∗ que satisfaga f ( p ∗ ) = 0. Es decir, se tiene que p ∗ = − A−1 b. Claramente se cumple que f ( p ∗ ) = A y por ende p ∗ es silla. Por otra parte, en el ejercicio 2.8 concluimos que et A =

  λt 1 e 1 (A − λ2 I ) − eλ2 t (A − λ1 I ) . λ1 − λ2

Por lo tanto Es ( p ∗ ) = ker (A − λ1 I ) , Eu ( p ∗ ) = ker (A − λ2 I ) .

 Tal como lo teníamos es los sistemas dinámicos lineales, vamos a definir dos conjuntos asociados a cada punto silla. Estos constituyen el conjunto de condiciones iniciales que hacen que un flujo φ t converja al punto silla cuando t → ∞ y t → −∞. Definición 5.3.3 Sea (E, φ) un sistema dinámico. Definimos . W s ( p ∗ , φ) = y ∈ Rn : lim φ (t, y) = p ∗ y t→∞ / 0 u ∗ n ∗ W ( p , φ) = y ∈ R : lim φ (t, y) = p . t→−∞

§5.3 A NÁLISIS

83

DE PUNTOS SILLA

Estas se llaman las variedades estable e inestable de p ∗ . Si no hay posibilidad de confusión, escribiremos simplemente W s ( p ∗ ) y W u ( p ∗ ). La definición anterior tiene sentido en una situación general, aunque p ∗ no fuese de tipo silla o φ no fuese diferenciable. En el caso particular de dos dimensiones tenemos lo siguiente. Teorema 5.3.4 (Variedad estable) Sea f de clase C 1 en E, un abierto de R2 . Sea p ∗ un punto silla. Entonces a) W s ( p ∗ ) es una curva diferenciable que pasa por p ∗ . b) W u ( p ∗ ) es una curva diferenciable que pasa por p ∗ . c) El conjunto p ∗ + Es ( p ∗ ) es una recta tangente a W s ( p ∗ ) en p ∗ . d) El conjunto p ∗ + Eu ( p ∗ ) es una recta tangente a W u ( p ∗ ) en p ∗ .     x x Ejemplo 5.3.5 Sea f = . Demostrar que p ∗ = (0, 0) es punto silla y −y + x 2 y obtener expresiones explícitas para W s ( p ∗ ) y W u ( p ∗ ). En cada caso, verificar que p ∗ + Es ( p ∗ ) y p ∗ + Eu ( p ∗ ) son rectas tangentes a W s ( p ∗ ) y W u ( p ∗ ) en p ∗ . Solución Claramente se cumple que f (0, 0) = (0, 0). Para demostrar que (0, 0) es punto silla calculamos la matriz jacobiana y obtenemos     x 1 0 f = . y 2x −1 De ahí que se tenga

 f ( p∗ ) = f

0 0



 =

1

0

0 −1

 .

§5.3 A NÁLISIS

84

DE PUNTOS SILLA

Como el determinante de f ( p ∗ ) es negativo, entonces p ∗ = (0, 0) es punto silla. En el ejemplo 5.2.4 obtuvimos que el flujo generado está dado por     x0 x 0 et t = 1 2 2t  . φ  1 2 −t y0 3 x 0 e + y0 − 3 x 0 e Por tanto concluimos que      x 0 W s p∗ = ∈ R2 : lim t→∞ y0

x 0 et   1 2 −t 1 2 2t x e + y − x 0 3 0 3 0 e



 =

0

2

0

y por ende (x0 , y0 ) ∈ W s ( p ∗ ) si y sólo si x0 = 0. Esto es,  2    x 0 ∈ R2 : x 0 = 0 . W s p∗ = y0 Del mismo modo, se puede argumentar que.   2   x 1 0 W u p∗ = ∈ R2 : y0 = x02 , 3 y0 que es una parábola. Notemos que

 f



0 0



 =

1

0

0 −1

 ,

lo cual implica que

. p ∗ + Es ( p ∗ ) = (x, y) ∈ R2 : x = 0 ,

y

. p ∗ + Eu ( p ∗ ) = (x, y) ∈ R2 : y = 0 .

Claramente p ∗ +Es ( p ∗ ) es una recta tangente a W s ( p ∗ ) en p ∗ y lo mismo para p ∗ +Eu ( p ∗ ).



Ejemplo 5.3.6 El sistema y˙1 = y1 + y22 − 1 y˙2 = y1 y2 + y12

§5.3 A NÁLISIS

85

DE PUNTOS SILLA

tiene un punto silla en (0, 1) . Usar el teorema 5.3.4 para dar una aproximación de las variedades estable e inestable W s (0, 1) y W u (0, 1) . Solución El jacobiano es

 f

y1



 =

y2

1

2y2

y2 + 2y1

y1

 .

En los puntos de equilibrio  f  f



0 1 0

−1



 =



 =

1 2



1 0 1

−2

−1

0



Para (0, 1) , encontramos dos direcciones, estable e inestable. Obtenemos que   1 v1 = −1 es un vector propio del valor propio λ1 = −1, y   2 v2 = 1 es un vector propio del valor propio λ2 = 2. Por lo tanto, los espacios estable e inestable para (0, 1) son Es (0, 1) = (1, −1) , Eu (0, 1) = (2, 1) . Además, la curva estable W s (0, 1) es tangente a (0, 1) + Es (0, 1) = (0, 1) + (1, −1). Localmente, cerca de (0, 1) la curva W s (0, 1) se parece a la recta (0, 1) + Eu (0, 1). Dado que

. (0, 1) + Es (0, 1) = (x, y) ∈ R2 : y = −x + 1 ,

§5.3 A NÁLISIS

86

DE PUNTOS SILLA

podemos usar esa recta como una buena aproximación de la variedad estable cerca del punto silla (0, 1). esto es decir y = −x + 1. Del mismo modo, (0, 1) + Eu (0, 1) es tangente a W u (0, 1) y se hace un análisis parecido.



Ejemplo 5.3.7 Analicemos el punto silla del siguiente sistema: x˙ = y + 1 − e x , y˙ = ye x . Observemos que p∗ = (0, 0) es el único punto de equilibrio. La matriz jacobiana que aproxima linealmente al sistema está dada por  D f (x, y) = que evaluada en p∗ = (0, 0) queda como D f (0, 0) =



−e x

1

ye x

ex

−1 1 0 1

 ,

 .

El polinomio característico es λ2 − 1, con raíces λ1 = −1 y λ2 = 1. Para λ1 = −1, el vector   1 propio es v1 = , que corresponde a la dirección estable. Para λ2 = 1, el vector propio 0   1 es v2 = , correspondiente a la dirección inestable. Los espacios estable e inestable 2 son espacios de una dimensión generados por los vectores anteriores, es decir, Es (0, 0) = {t (1, 0) ∈ R2 | t ∈ R}, Eu (0, 0) = {t (1, 2) ∈ R2 | t ∈ R}. En este caso, es posible describir explícitamente las variedades estable e inestable. Vamos a comprobar que W s (0, 0) = {(x, y) ∈ R2 | y = 0}, W u (0, 0) = {(x, y) ∈ R2 | y = 2(e x − 1)}.

§5.3 A NÁLISIS

87

DE PUNTOS SILLA

Para este efecto, consideremos un punto inicial (x0 , 0) en W s (0, 0). Puede comprobarse que la curva solución con esta condición inicial es de la forma Véase el ejercicio 5.11 para los detalles. x(t) = x0 − ln(e x0 + (1 − e x0 )e−t ), y(t) = 0. Esta curva está definida, por lo menos, para tiempos t ≥ 0, y además cumple     x(t) 0 lim = . t→∞ y(t) 0 Del mismo modo, si (x0 , y0 ) es un punto inicial en W u (0, 0), éste satisface y0 = 2(e x0 − 1) y la curva solución está dada por x(t) = x0 − ln(e x0 + (1 − e x0 )et ), y(t) = 2(e x(t) − 1). Esta curva está definida al menos para tiempos t ≤ 0 y cumple     x(t) 0 lim = . t→−∞ y(t) 0 El teorema 5.3.4 nos dice que los espacios Es (0, 0) y Eu (0, 0) son tangentes a W s (0, 0) y a W u (0, 0), respectivamente, en el punto p∗ = (0, 0). La figura 5.3 muestra las consideraciones anteriores. Ejemplo 5.3.8 Encontrar los puntos silla del sistema x˙ = 2x y, y˙ = 1 − 3x 2 − y 2 y describir las curvas estable e inestable en cada caso.

(5.3)

§5.3 A NÁLISIS

88

DE PUNTOS SILLA

y Wu

Eu

v

2

= (1,2)

x Ws = E s

v 1 = (1,0)

Figura 5.3: Variedades estable e inestable W s y W u , y espacios estable e inestable E s y E u para el ejemplo 5.3.7.

Solución Tenemos los siguientes puntos de equilibrio         √1 − √1 0 0 3 3 , , , 1 −1 0 0 El jacobiano del sistema es  f

x y



 =

2y

2x

−6x −2y

 ,

§5.3 A NÁLISIS

89

DE PUNTOS SILLA

y en los puntos de equilibrio se tiene  f



1

 f  f

0

0 −1 √1 3

 = 

f

√1 3

0

 =



 =

0 





 =

2



0

,

0 −2



−2 0 0

,

2

0

√2 3

− √6

0

3

0

− √2

√6 3

0

3

 ,  .

Concluimos que (0, 1) y (0, −1) son puntos silla y los demás son degenerados. Cerca de los puntos podemos aproximar las variedades estable e inestable usando la aproximación lineal. Para (0, 1)

3 Es (0, 1) = 3 Eu (0, 1) =

0 1 1

4 , 4

0

.

Por lo tanto, cerca de W s (0, 1), la curva se puede aproximar por la tangente (0, 1) + Es (0, 1). Del mismo modo, se calculan las demás aproximaciones lineales. Vamos ahora a encontrar una expresión explícita para las variedades. Para ello escribimos la ecuación, usando la regla de la cadena, del siguiente modo: y˙ 1 − 3x 2 − y 2 dy = = . dx x˙ 2x y Es decir dy = dx

(

1 − 3x 2 2x

)

y −1 −

1 y. 2x

§5.3 A NÁLISIS

90

DE PUNTOS SILLA

La idea es resolver la anterior considerando a x como variable independiente. Como la anterior es una ecuación de Bernoulli, se usa la sustitución w = y 2 y se obtiene ( ( ) ) 1 − 3x 2 1 − 3x 2 dy dw 1 2 1 = 2y = − y = − w dx dx x x x x Reescribiendo

( ) 1 − 3x 2 dw 1 + w= dx x x 1 1  Se multiplica por el factor integrante ρ = exp x d x = x para encontrar que d [xw] = 1 − 3x 2 , dx

y por tanto xw = x − x 3 + c donde c es una constate. Finalmente, sustituimos de nuevo w = y 2 y obtenemos x y 2 = x − x 3 + c, es decir,



x x + y − 1 = c. 2

2

La anterior ecuación tiene la siguiente interpretación. Si (x(t), y(t)) es una solución de la ecuación diferencial, entonces para todo tiempo en el dominio de ésta se tiene que 5 6 x(t) x(t)2 + y(t)2 − 1 = c. (5.4)   Esto es, las curvas de nivel de x x 2 + y 2 − 1 son las curvas solución de la ecuación. Esto se podría verificar directamente derivando con respecto a t, pues si (x(t), y(t)) satisface (5.3), entonces 5 6 d x(t) x(t)2 + y(t)2 − 1 dt 6 5   2 2 ˙ + 2y(t) y˙ (t) = x(t) ˙ x(t) + y(t) − 1 + x(t) 2x(t)x(t) 6 5 6 5 = 2x(t)y(t) x(t)2 + y(t)2 − 1 + x(t) 4x(t)2 y(t) + 2y(t)(1 − 3x(t)2 − y(t)2 ) = 0.

§5.3 A NÁLISIS

91

DE PUNTOS SILLA

Supongamos que (x0 , y0) ∈ W s (0, 1). Sea     x(t) x0 t =φ y(t) y0 una curva solución que inicia en (x0 , y0 ). Por definición     x(t) 0 lim = . t→∞ y(t) 1 Por otra parte, la ecuación (5.4) implica que

6  5 2 2 2 2 x(t) x(t) + y(t) − 1 = x0 x0 + y0 − 1 y al calcular el límite t → ∞ se encuentra que

 5 6 x0 x02 + y02 − 1 = lim x(t) x(t)2 + y(t)2 − 1 = 0. t→∞

W s (0, 1)

Concluimos de este modo que es un subconjunto de la curva de nivel dada por

 . (x0 , y0 ) ∈ R2 : x0 x02 + y02 − 1 = 0 . (5.5) Es fácil ver que dicho conjunto está constituido de la unión de un círculo y el eje de las y. En la figura 5.4 se ilustra cómo se ven algunas de las curvas solución. Nótese que las variedades estable e inestable están contenidas en la curva de nivel dada por (5.5). Las aproximaciones estable e inestable cerca de los puntos silla nos pueden ayudar a identificar cuáles son las curvas estable e inestable en cada caso.



E JERCICIOS

✎ 5.7 Considerar el sistema

 x˙ =

0

1

2 −1



 x+

4 2

 .

Demostrar que este sistema tiene un único punto silla p ∗ , encontrarlo y demostrar que .   W s p ∗ = (x, y) ∈ R2 | y = −2x − 10 .   W u p ∗ = (x, y) ∈ R2 | y = x − 1 .

§5.3 A NÁLISIS

92

DE PUNTOS SILLA

1.5

1

y

0.5

0

-0.5

-1

-1.5 -1.5

-1

-0.5

0 x

0.5

1

1.5

Figura 5.4: Algunas curvas solución del sistema dinámico del ejemplo 5.3.8. Se ilustran los puntos silla (0, 1) y (0, −1) con sus correspondientes variedades estable e inestable.

§5.3 A NÁLISIS

93

DE PUNTOS SILLA

✎ 5.8 Sea A una matriz de n × n de tipo silla y b ∈ Rn . Considerar el sistema de Rn dado por x˙ = Ax + b. a) Demostrar que p ∗ = − A−1 b es el único punto silla del sistema. b) W s ( p ∗ ) = p ∗ + Es ( p ∗ ). c) W u ( p ∗ ) = p ∗ + Eu ( p ∗ ).

✎ 5.9 Considerar el siguiente sistema x˙ = 2x y, y˙ = 5x 4 − 6x 2 + 1 − y 2 . a) Encontrar los puntos fijos del sistema y clasificarlos. b) Para cada punto silla p, encontrar los espacios Es (p) y Eu (p) de la aproximación lineal. c) Encontrar una primera integral para las curvas solución del sistema. Esto es, encontrar una función H (x, y) tal que H (ϕ t (x0 , y0 )) = H (x0 , y0), para todo t ∈ D(x0 , y0 ). d) Para cada punto silla p, encontrar explícitamente las curvas estable W s (p) e inestable W u (p) y verificar que p + Es (p) y p + Eu (p) son rectas tangentes a ellas. e) Usando algún graficador de espacios fase, dar una descripción geométrica del sistema.

✎ 5.10 El siguiente sistema es un modelo de dos especies, en donde N es un depredador y P es una presa, P˙ = P(1 − P) − γ P N , N˙ = −N + γ P N , donde γ es un parámetro positivo.

§5.3 A NÁLISIS

94

DE PUNTOS SILLA

a) Encontrar las direcciones estable e inestable del punto silla (P ∗ , N ∗ ) = (1, 0). b) Interpretar el parámetro γ .

✎ 5.11 Este ejercicio se refiere al ejemplo dado en 5.3.7. a) Comprobar que x(t) = x0 − ln(e x0 + (1 − e x0 )e−t ), y(t) = 0, es una solución del sistema para toda x0, y está definida para todo t ≥ 0. b) Comprobar que x(t) = x0 − ln(e x0 + (1 − e x0 )et ), y(t) = 2(e x(t) − 1), es una solución del sistema para todo (x0 , y0 ) tal que y0 = 2(e x0 − 1), y está definida para todo t ≤ 0.

✎ 5.12 Considérese el siguiente sistema no lineal: x˙ = x − 1, y˙ = xex − y. a) Encontrar los puntos fijos del sistema y clasificarlos. b) Para cada punto silla p, encontrar los espacios E s (p) y E u (p) de la aproximación lineal. c) Usando la regla de la cadena, sabemos que, si (x(t), y(t)) es una solución del sistema, entonces la pendiente de la curva debe satisfacer y˙ xe x − y dy = = . dx x˙ x −1 Resolver la ecuación anterior, considerando x como la variable independiente.

§5.4 E STABILIDAD

ASINTÓTICA

95

d) Encontrar, para cada punto silla p, expresiones analíticas para las curvas estable W s (p) e inestable W u (p). e) En cada caso, graficar W s (p) y W u (p).

✎ 5.13 Considerar un sistema dinámico con un punto silla cada punto silla p. Considerar las variedades estable W s (p) e inestable W u (p). Demostrar que tanto W s (p) como W u (p) son invariantes bajo el flujo. Es decir, si φ es el flujo y x ∈W s (p) entonces φ t (x)∈W s (p) para todo t ∈ D(x) y lo mismo para W u (p).

✎ 5.14 Sean dos sistemas dinámicos completos (E, φ1) y (E, φ2). Suponer que φ1 ∼ φ2 a través de un homeomorfismo h : E → F. Demostrar que si p ∗ es un punto fijo de φ1 entonces h( p ∗ ) es punto fijo de φ2 y además se cumple   W s (h( p ∗ ), φ2 ) = h W s ( p ∗ , φ1 ) ,   W u (h( p ∗ ), φ2 ) = h W u( p ∗ , φ1 ) .

5.4 Estabilidad asintótica Definición 5.4.1 Sea p∗ un punto de equilibrio de un sistema dinámico. Diremos que p∗ es asintóticamente estable si existe una vecindad U de p∗ tal que: a) p∗ ∈ U . b) Para todo x0 ∈ U, el intervalo maximal satisface D(x0 ) ⊃ [0, ∞). Esto es, el flujo está definido para todo tiempo futuro. c) limt→∞ ϕ t (x0 ) = p∗ para todo x0 ∈ U . Definición 5.4.2 Al conjunto abierto más grande que satisface estas condiciones se le llama cuenca de atracción. Teorema 5.4.3 Sea p∗ un punto de equilibrio de un campo vectorial f ∈ C 1 definido en un abierto de Rn . Si p∗ es de tipo atractor entonces es asintóticamente estable.

§5.4 E STABILIDAD

ASINTÓTICA

96

Definición 5.4.4 Sea p∗ un punto fijo de un sistema dinámico. Una función de Liapunov de p∗ es una función continua V : U → [0, ∞) definida en una vecindad U de p∗ tal que satisface: a) V (p∗ ) = 0. b) Si p  = p∗ entonces V (p) > 0. c) La función t  → V (ϕ t (p)) es estrictamente decreciente si p  = p∗ . Teorema 5.4.5 Si un punto p∗ tiene una función de Liapunov entonces es asintóticamente estable. Si V es diferenciable entonces podemos calcular  d  d V (ϕ t (p)) = ∇ V (ϕ t (p)) ϕ t (p) dt dt t = ∇ V (ϕ (p)) · f (ϕ t (p)) En vez de la condición de que V (ϕ t (p)) sea estrictamente decreciente, podemos usar ∇ V (z)· f (z) < 0 para todo z ∈ U . Geométricamente, las curvas de nivel de V son tales que el campo vectorial apunta “hacia adentro”. Ejemplo 5.4.6 Sea ϕ t (x) = et A x donde A es de tipo atractor. Sabemos que existe una matriz M positiva definida tal que M A + A T M = −I . Entonces V (x) = xT Mx es una función de Liapunov para p∗ = 0. Solución Vamos a verificar las condiciones de la definición de función de Liapunov. a) V (p∗ ) = V (0) = 0. b) Si p  = p∗ entonces p  = 0 y pT Mp > 0 pues la matriz M es positiva definida.

§5.4 E STABILIDAD

97

ASINTÓTICA

c) Si p  = p∗ entonces T

V (ϕ t (p)) = pT (et A )T Met A p = pT et A Met A p. y además d T T V (ϕ t (p)) = pT et A A T Met A p + pT et A M Aet A p dt T = −(pT et A et A p) = − et A p 22 < 0. Esto implica que la función t  → V (ϕ t (p)) es estrictamente decreciente si p  = p∗ .



Finalizamos la sección con una generalización del resultado anterior. La demostración se deja como ejercicio al lector. Teorema 5.4.7 Consideremos x˙ = f (x) donde f es de clase C 1 en un abierto E ⊂ Rn . Sea p∗ un punto atractor de f, es decir a) f (p∗ ) = 0, b) La matriz A = f (p∗ ) es de tipo atractor. Sea M existe una matriz positiva definida tal que M A + A T M = −I . Entonces V (x) = (x − p∗ )T M(x − p∗ ) es una función de Liapunov para p∗ . En particular, p∗ es un punto asintóticamente estable.

E JERCICIOS

✎ 5.15 Sea E un subconjunto abierto de Rn . Sea W : E → R una función de clase C 2. Considerar el sistema x˙ = −∇W (x). A un sistema de este tipo se le llama sistema gradiente. Sea p ∗ un mínimo local de W tal que existe una vecindad U de p ∗ tal que si p  = p ∗ y p ∈ U entonces ∇W ( p)  = 0. Demostrar que V : U → R dada por V ( p) = W ( p) − W ( p ∗ ) es una función de Liapunov para p ∗ y por lo tanto es asintóticamente estable.

§5.4 E STABILIDAD

98

ASINTÓTICA

✎ 5.16 Sea A una matriz invertible de n × n y b ∈ Rn . Demostrar que si E

= Rn y

W : E → R es la función dada por 1 Ax − b 2 , 2 entonces W satisface las hipótesis del ejercicio anterior con U = Rn y p ∗ = − A−1 b. ConW (x) =

cluir que para cualquier condición inicial el flujo generado por el sistema dinámico x˙ = A T (b − Ax) converge a p ∗ .

✎ 5.17 Usar la función de Liapunov V (x, y) = x 2 + y 2 para demostrar que el origen es un punto asintóticamente estable para el siguiente sistema.     x˙ −y − x 3 − x y 2 . = x − y 3 − yx 2 y˙ ¿Qué dice la teoría lineal?

✎ 5.18 Sean

f y g dos funciones diferenciables. Suponer que g(0) = 0. Considerar el

siguiente sistema de segundo orden. x¨ + f (x)x˙ + g(x) = 0. a) Demostrar que el sistema puede ser escrito como     1x x˙ y − 0 f (s)ds = . y˙ −g(x) 

x

b) Suponer que existe un número η tal que si 0 < |x| < η entonces g(s)ds > 0 0  x f (s)ds > 0. Encontrar una función de Liapunov para demostrar que el y g(x) 0

origen es un punto asintóticamente estable. c) Aplicar el resultado anterior a la ecuación de van der Pol x¨ + ε(1 − x 2 )x˙ + x = 0 donde ε > 0. ¿Qué se puede decir acerca de la cuenca de atracción?

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF