MPES_U2_EA_LAPB

Share Embed Donate


Short Description

Download MPES_U2_EA_LAPB...

Description

Procesos Estocásticos Unidad 2 Evidencia de Aprendizaje

ANÁLISIS Y PREDICCIÓN 17 de septiembre de 2015 Autor: Laura Pontón

Procesos Estocásticos Unidad 2 Evidencia de Aprendizaje Introducción El análisis de Markov es un procedimiento normalmente utilizado para describir el comportamiento de un sistema en una situación dinámica, donde se describen y predicen los movimientos de un sistema entre los diferentes estados posibles a través del paso del tiempo. Dentro del análisis probabilístico, existen diversos estudios para procesos que pudiesen ser aún más complejos, debido a su comportamiento y predicción. Las cadenas de Markov, como una herramienta especializada que sirve a procesos que cumplen con requerimientos específicos, facilitan y sintetizan los estudios de los procesos en función de los eventos probabilísticos para el futuro, de cada proceso y por supuesto para la efectiva toma de decisiones en cualquier ámbito empresarial y/o gubernamental Particularmente las cadenas de Markov ayudan a describir la forma en que un determinado proceso evolucionará en el futuro dependiendo solamente del estado actual en que se encuentra el proceso y, por lo tanto, son independientes de los eventos que ocurrieron en el pasado, haciendo sumamente sintetizado, la aplicación de los estudios de análisis y predicción. Existen procesos que por su naturaleza y por la necesidad de requerir ciertos resultados, se modelan según contextos de estudio probabilístico especializados, donde algunos procesos se ajustan a estas necesidades, como lo es no depender de los procesos pasados, para sintetizar análisis, por lo que las cadenas de Markov constituyen una clase de modelo probabilístico de gran importancia para estas condiciones.

Procesos Estocásticos | 17/09/2015

2. Un museo consta de seis salas de tamaños iguales dispuestas en forma de una cuadrícula con tres filas y dos columnas. Cada muro interior tiene una puerta que conecta con las salas adyacentes. El guardia se desplaza por las salas a través de las puertas interiores. El guardia permanece una hora en una sala y tiene la misma probabilidad de ir a una sala con puerta adyacente para la siguiente hora. La vigilancia inicia en la sala dos.

1

Sala 1

Sala 2

Sala 3

Sala 4

Sala 5

Sala6

Nota: Este esquema es el que he considerado para resolver el problema, dado que es el que va conforme a la redacción del problema a. Identifique Xn, S y T Sea {Xn} una cadena de Markov con espacio de estados S = {1,2,3,4,5,6} y T = (0,1,2,3...,n).

b. Graficar el grafo

c. Elaborar la matriz estocástica

0 0   0 1/ 2 1/ 2 0 1/ 2 0 0 1/ 2 0 0    1/ 3 0 0 1/ 3 1/ 3 0  P  0 1 / 3  0 1/ 3 1/ 3 0  0 0 1/ 2 0 0 1/ 2   0 0 1/ 2 1/ 2 0   0

π= (0,1,0,0,0,0) e. Encontrar los valores propios f. El cálculo de valores propios de la matriz estocástica es:

Procesos Estocásticos | 17/09/2015

d. Establecer la distribución inicial

2

0 0    0 1/ 2 1/ 2 0 1/ 2 0 0 1/ 2 0 0   0   1/ 3 0 0 1/ 3 1/ 3 0  0 Det ( P   I )    0 1 / 3 1 / 3 0 0 1 / 3   0  0 0 1/ 2 0 0 1/ 2 0    0 0 1/ 2 1/ 2 0  0  0  1/ 2 1/ 2 0 0 0 1/ 2  0 1/ 2 0 0 1/ 3 0  1/ 3 1/ 3 0  0 1/ 3 1/ 3  0 1/ 3 0 0 1/ 2 0  1/ 2 0 0 0 1/ 2 1/ 2 

0

 0 0 0 0

0 0

 0 0 0

0 0 0

 0 0

0 0 0 0

 0

          0 0 0 0 0

Por Wolfram Alpha obtenemos los valores propios

𝜆1 = −11 𝜆2 = 1 𝜆3 − 1/2 𝜆4 = 1/20.346 𝜆5 = −0.166 𝜆6 = 0.166

g. Clasificar los estados La clase única es {0,1,3,2,4,5}

Procesos Estocásticos | 17/09/2015

Es un estado de tipo recurrente, porque la cadena regresa una infinidad de veces. Además, una cadena cuyo espacio de estados está formado por una sola clase de comunicación, se llama irreducible, es decir, en estas cadenas todos los estados están comunicados entre sí

3

h. ¿Cuál es la probabilidad que a la tercera hora se encuentre en la torre 1?

i.

1/ 3 3/ 7 0 0 2 / 9  0  1/ 3 0 0 3/ 7 2 / 9 0   2/7 0 0 3/ 7 2 / 7 0  P3    0 2 / 7  0 2 / 7 3/ 7 0  0 2 / 9 3/ 7 0 0 1 / 3   0 0 3/ 7 1/ 3 0  2/9 1/ 3 3/ 7 0 0 2 / 9  0  1/ 3 0 0 3/ 7 2 / 9 0   2/7 0 0 3/ 7 2 / 7 0   P3   0,1,0,0,0,0   0 2 / 7  0 2 / 7 3/ 7 0  0 2 / 9 3/ 7 0 0 1 / 3   0 0 3/ 7 1/ 3 0  2/9   0.347, 0.000, 0.000, 0.431, 0.222, 0.000  Probabilidad de que se encuentre en la torre 1 es del 34.7%

i.

Encontrar la distribución a largo plazo Para encontrar la distribución a largo plazo tenemos que aplicar el Teorema fundamental de convergencia: 𝑣 = 𝑣𝑃

0 0   0 1/ 2 1/ 2 0 1/ 2 0 0 1/ 2 0 0    1/ 3 0 0 1/ 3 1/ 3 0  P  0 1 / 3  0 1/ 3 1/ 3 0  0 0 1/ 2 0 0 1/ 2   0 0 1/ 2 1/ 2 0   0 1

1

1

1

1

𝑣1 = 2 𝑣0 + 3 𝑣3 1

1

𝑣3 = + 2 𝑣1 + 3 𝑣2 + 2 𝑣5

1

1

1

𝑣2 = 2 𝑣0 + 3 𝑣3 + 2 𝑣4 1

1

𝑣4 = 3 𝑣2 + 2 𝑣5

1

𝑣5 = + 3 𝑣3 + 2 𝑣4

𝑣0 + 𝑣1 + 𝑣2 + 𝑣3 + 𝑣4 + 𝑣5 = 1 1

1

1

1

𝑣0 = + 2 𝑣1 + 3 𝑣2

1

1

𝑣1 = 2 𝑣0 + 3 𝑣3 1

𝑣3 = + 2 𝑣1 + 3 𝑣2 + 2 𝑣5

1

1

1

1

𝑣2 = 2 𝑣0 + 3 𝑣3 + 2 𝑣4 1

𝑣4 = 3 𝑣2 + 2 𝑣5

1

1

𝑣5 = + 3 𝑣3 + 2 𝑣4

𝑣0 + 𝑣1 + 𝑣2 + 𝑣3 + 𝑣4 + 𝑣5 = 1

Procesos Estocásticos | 17/09/2015

1

𝑣0 = + 2 𝑣1 + 3 𝑣2

4

Resolviendo este sistema de ecuaciones por wólfram tenemos:

𝟏 𝟏 𝟑 𝟑 𝟏 𝟏 , , , ) 𝟕 𝟕 𝟏𝟒 𝟏𝟒 𝟕 𝟕

𝒗=( , ,

v  vP   0.143

j)

0.143 0.214 0.214 0.143

= (𝟎. 𝟏𝟒𝟑, 𝟎. 𝟏𝟒𝟑, 𝟎. 𝟐𝟏𝟒, 𝟎. 𝟐𝟏𝟒, 𝟎. 𝟏𝟒𝟑, 𝟎. 𝟏𝟒𝟑),

0 0   0 1/ 2 1/ 2 0 1/ 2 0 0 1/ 2 0 0    1/ 3 0 0 1/ 3 1/ 3 0  0.143      0.143 0 1 / 3  0 1/ 3 1/ 3 0  0 0 1/ 2 0 0 1/ 2   0 0 1/ 2 1/ 2 0   0

0.143 0.214 0.214 0.143 0.143



Concluir: ¿es buena la estrategia del guardia?

Vemos que de 6 salas solo hay dos de ellas que se comunican con 3 y son precisamente las salas 3 y 4, es por ello que la probabilidad de estar en estas dos salas es mayor que las restantes (que solo se comunican con 2 salas) aunque es un 7% aproximado mayor que las otras 4, considero que es buena la estrategia por la forma en que se encuentran las salas. Estamos hablando de una diferencia de 4 minutos por sala aproximadamente que es cuasi idéntico Considerando eso, ¿qué pasaría si se queda un poco menos de tiempo cuando se encuentre en ambas salas (alrededor de 55.8 minutos)?

Procesos Estocásticos | 17/09/2015

3. Sea {Xn} una cadena de Markov con espacio de estados S = {0,1,2,3,4,5} y matriz de transición:

5

1 1/4 0 0 0 0

0 0 1/2 0 0 0

0 1/2 0 0 0 0

0 1/4 0 0 1 0

0 0 1/2 1 0 0

0 0 0 0 0 1

a)

Elabora el grafo

b. Establece las clases de comunicación {0}

{5}

{1,2}

{3,4}

c. Determina si son estados recurrentes o transitorios El {1,2} son transitorios, si 1 llega al estado 3 no regresa y si el 2 llega al estado 4 tampoco regresa El estado 5 no influye en los demás es un estado absorbente igual que el 0 La clase {3,4} es un estado recurrente

El estado 5 no influye en los demás es un estado absorbente igual que el 0 Por lo tanto son aperiódicos e. Encuentra los valores propios El número λ puede ser real o complejo, y el vector x puede tener componentes reales o complejos. El teorema que se aplicará es: |𝐴 − 𝜆𝐼| = 0

Procesos Estocásticos | 17/09/2015

d. Determina el periodo {1,2} {3,4} Ambos son de período 2 (3-4-3 , 1-2-1)

6

Donde 𝐼 es la matriz identidad. Ahora para la matriz:

1 0.25 0 𝑃= 0 0 ( 0

0 0 0.5 0 0 0

0 0 0 0 0.5 0.25 0 0 0 0 0.5 0 0 0 1 0 0 1 0 0 0 0 0 1)

El cálculo de valores propios de la matriz estocástica es: 1 0.25 0 𝑃 − 𝜆𝐼 = 0 0 ( 0 1 0.25 0 = 0 0 ( 0

0 0 0.5 0 0 0

0 0 0.5 0 0 0

0 0 0 0 1 0.5 0.25 0 0 0 0 0 0.5 0 0 −𝜆 0 0 1 0 0 0 1 0 0 0 (0 0 0 0 1)

0 0 0 0 𝜆 0.5 0.25 0 0 0 0 0 0.5 0 0 − 0 0 1 0 0 0 1 0 0 0 0 0 0 1) ( 0

0 𝜆 0 0 0 0

0 0 𝜆 0 0 0

|𝑃 − 𝜆𝐼| = 𝑑𝑒𝑡(𝑃 − 𝜆𝐼) = 0

Por wólfram tenemos:

Procesos Estocásticos | 17/09/2015

𝝀𝟏 = −𝟏 𝝀𝟐 = 𝟏 𝝀𝟑 = 𝟏 𝝀𝟒 = 𝟏 𝝀𝟓 = 𝟎. 𝟓 𝝀𝟔 = −𝟎. 𝟓

7

f)

Encuentra la distribución a largo plazo

 1  0.25  0  0   0  0

0 0 0 0 0 0 0.50 0.25 0 0 0.50 0 0 0.50 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 1

      

0 1 0 0 0 0

0 0 1 0 0 0

0 0 0 1 0 0

0 0 0 0 1 0

0 0 0 = 0 0 1)

0 0 0 𝜆 0 0

0 0 0 0 𝜆 0

0 0 0 = 0 0 𝜆)

𝑣0 = 𝑣0 + 0.25𝑣1 𝑣1 = 0.5𝑣2 𝑣2 = 0.5𝑣2 𝑣3 = 0.25𝑣1 + 𝑣4 𝑣5 = 𝑣5 𝑣1 + 𝑣2 + 𝑣3 + 𝑣 + 𝑣5 = 1

No es consistente el sistema por lo que estamos viendo Ya que por ejemplo : 𝑣1 = 𝑣2 = 0; 𝑣3 = 𝑣4 y no podemos encontrar el valor de los dos estados absorbentes 0 y 5 por ejemplo.

El sistema no tiene solución, al menos no puede ser analizada por el teorema de la convergencia y su distribución a largo plazo no se puede encontrar No llega a una estabilidad

P6

1   1/3  1/6  0 0  0

0 0 0 0 0 0

0 0 0 0 0 0

0 0 5/6 1 0 0

0 2/3 0 0 1 0

0 0 0 0 0 1

        

P7

1   1/3  1/6  0 0  0

0 0 0 0 0 0

0 0 0 0 0 0

0 2/3 0 0 1 0

0 0 5/6 1 0 0

0 0 0 0 0 1

        

g)

Concluir

El sistema no tiene solución, al menos no puede ser analizada por el teorema de la convergencia y su distribución a largo plazo no se puede encontrar No llega a una estabilidad.

Procesos Estocásticos | 17/09/2015

Esto se repite en las potencias subsecuentes pares y nones

8

4.

Demuestra o da un contraejemplo:

a)

Si j es accesible desde i, pero i no es accesible desde j, entonces i es transitorio.

b)

Si i es transitorio, entonces para todo estado j accesible desde i, i no es accesible desde j.

c)

Si i es transitorio e i es accesible desde j, entonces j es transitorio.

a) Falso: El estado i, puede ser parte de otra clase de comunicación, entonces no es necesariamente que i sea transitorio, pues el ciclo de la cadena puede pasar por i las veces que sean.

b) Cierto: Los estados que le sigan en la cadena a j, al ser transitorio para i, estos que le siguen, son transitorios para i también:

Procesos Estocásticos | 17/09/2015

En este ejemplo, k,y l, no se comunican con i, entonces estos estados son transitorios.

9

c) Cierto: El estado i es transitorio, entonces, solo se llega a i desde j, si y solo si j no es parte de otra clase de comunicación:

5.

Suponga la siguiente cadena de Markov:

1/ 2 0 1/ 2 0  1/ 2 0 1/ 2 0   0 2 / 3 0 1/ 3   0 2 / 3 0 1/ 3     P P  1/ 3 0 2 / 3 0   1/ 3 0 2 / 3 0       0 1/ 2 0 1/ 2   0 1/ 2 0 1/ 2  a)

Elabora el grafo correspondiente

b) Demuestra que la siguiente cadena de Markov tiene una infinidad de distribuciones invariantes e identifica la hipótesis del Teorema fundamental de convergencia que no satisface. c)

Encuentra los valores propios.

d)

Obtener también el vector estacionario, suponiendo que el vector inicial es

a. (0,0,1, 0) b. (0,1,0,0) c. ( ¼ , ¼, ¼, ¼) Concluir utilizando los incisos anteriores.

a)

Elabora el grafo correspondiente.

Procesos Estocásticos | 17/09/2015

e)

10

b) Demuestre que la siguiente cadena de Markov, tiene una infinidad de distribuciones invariantes e identifica la hipótesis del Teorema fundamental de Convergencia que no se satisface. El TFC, establece condiciones para determinar la probabilidad de que el sistema tienda a ocupar, a la larga, un estado determinado o estable propiamente dicho. Una cadena cuyo espacio de estados está formado por una sola clase de comunicación, se llama irreducible, es decir, en estas cadenas los 2 estados están comunicados entre sí pero no con ambos. La cadena propuesta, es una cadena que tiene dos clases de comunicación: {0,2} {1,3} Por lo que antes expuesto podemos comentar que esta cadena no es irreducible, de tal manera que no cumple con los criterios para poder aplicar el Teorema fundamental de Convergencia. c) Encuentra los valores propios. 𝐴𝑥 = 𝜆𝑥 Sabemos que λ puede ser real o complejo, y el vector x puede tener componentes reales o complejos. El teorema que se aplicará es: |𝐴 − 𝜆𝐼| = 0 Donde I es la matriz identidad. Ahora para la matriz: 1⁄2 𝑃=( 0 1⁄3 0

0 2⁄3 0 1⁄2

1⁄2 0 2⁄3 0

0 1⁄3 ) 0 1⁄2

El cálculo de valores propios de la matriz estocástica es:

Procesos Estocásticos | 17/09/2015

1⁄2 𝑃 − 𝜆𝐼 = ( 0 1⁄3 0

11

1⁄2 0 =( 1⁄3 0

0 2⁄3 0 1⁄2 0 2⁄3 0 1⁄2

1⁄2 0 2⁄3 0 1⁄2 0 2⁄3 0

0 1 1⁄3 0 ) −𝜆( 0 0 1⁄2 0 0 𝜆 1⁄3 0 )−( 0 0 1⁄2 0

0 𝜆 0 0

Aplicamos el determinante: |𝑃 − 𝜆𝐼| = 𝑑𝑒𝑡(𝑃 − 𝜆𝐼) = 0

Calculando y comprobando con Wolfram: Las soluciones son: 𝜆1 = 𝜆2 = 1

𝜆3 = 𝜆4 =

1 6

0 0 𝜆 0

0 1 0 0

0 0 1 0

0 0 )= 0 1

0 0 )= 0 𝜆

d) Obtener también el vector estacionario, suponiendo que el vector inicial es: Primero, determinamos: 𝐥𝐢𝐦 𝑷𝒏 =

𝒏→∞

Entonces: 0 2⁄3 0 1⁄2

1⁄2 ∞ 𝑃 =( 0 1⁄3 0

1⁄2 0 2⁄3 0

0 ∞ 1⁄3 ) = 0 1⁄2

Calculado con Excel 1⁄2 6 𝑃 =( 0 1⁄3 0

0 2⁄3 0 1⁄2

 0.4 0.0 0.6 0.0 

0 6  0.0 0.6 0.0 0.4  1⁄3 ) = 0  0.4 0.0 0.6 0.0  1⁄2  

1⁄2 0 2⁄3 0

 0.0 0.6 0.0 0.4 

A partir de n = 6 la matriz se estabiliza. Es decir, converge a esos valores constantes. Ahora calculando para las siguientes distribuciones:

(0

0

1 0)

(0

1

0

1 4

1 4

1 4

(

0) 1 ) 4

Cálculos con Excel de 𝐯 = 𝐯𝐏

Con (0

0

1 1 0) el vector estacionario es: ( 3

Para (0

1

0

0

2 3

0) el vector estacionario es: (0

2 3

0

0)

1 ) 3

y por último con (

1 4

1 4

1 4

1 5 ) el vector estacionario es: ( 4 24

7 24

7 24

5 ) 24

Procesos Estocásticos | 17/09/2015

Tenemos

12

e)

Concluir utilizando los incisos anteriores. Los estados que están conectado son 0 − 2 𝑦 1 − 3, ⟹ la distribución en los incisos 1 𝑦 2 , no afecta a la clase que no está conectada. En : (0 0 1 0) 𝑦 (0 1 0 0) las distribuciones tienen el mismo efecto en los estados conectados entre sí. Para ( 0 0 1 0 ) el estado que inicia es el 2, y en el resultado solo se ve efecto en el estado conectado a 2, que es 0-2. Para ( 0 1 0 0 ) el estado que inicia es el 1, y en el resultado solo se ve efecto en el estado conectado a 1, que es 1-3. Podemos concluir que en las cadenas de Markov con estados independientes, ellos solo serán afectados por las condiciones iniciales que le correspondan a sus estados conectados entre sí. Para el vector inicial (1/4 1/4 1/4 1/4), se distribuye equitativamente con los conectados entre sí, por lo que se reparten con ½ cada uno de ellos Estados conectados : 0−2 𝑦 1 − 3 que son las dos clases de comunicación El espacio de estados sabemos que es: { 0 1 2 3 } El resultado del vector estacionario es: (5/24 7/24 7/24 5/24) Donde podemos ver que para los estados 0 − 2: 5/24 + 7/24 = 1/2 Y para los estados 1 − 3: 7/24 + 5/24 = 1/2 6. Una librería repone las existencias de un libro popular a nivel de 100 ejemplares al inicio de cada día. Los datos de los últimos 30 días proporcionan las siguientes posiciones de inventario al final del día: 1,2,0,3,1,0,0,3,0,1,1,3,2,3,3,2,1,0,2,0,1,3,0,0,3,2,1,2,2. a) Define Xn, S y T S = {0,1,2,3) con T = 0,1,2,…n

Procesos Estocásticos | 17/09/2015

b) Elabora la matriz estocástica

13

0 1 2 3

3 2 0 1

0 0 1 0

3 1 3 2

1 3 1 3

2 0 0 3

1 3 1 0

0 2 2 2

3

-----> -----> -----> ----->

0 1 2 3

0

1

2

3

2 2 2 2

2 1 3 0

1 2 1 4

3 2 1 1

2/8 2 / 7 P 2 / 7  2 / 7

2 / 8 1/ 8 3 / 8   1 / 4 1 / 4 1 / 8 3 / 8   0.250 0.250 0.125 0.375  1/ 7 2 / 7 2 / 7   2 / 7 1 / 7 2 / 7 2 / 7   0.286 0.143 0.286 0.286    3 / 7 1/ 7 1/ 7   2 / 7 3 / 7 1 / 7 1 / 7   0.286 0.429 0.143 0.143       0 / 7 4 / 1/ 7   2 / 7 0 4 / 7 1 / 7   0.286 0 0.571 0.143 

c) Plantear el grafo correspondiente

d) Encuentra el vector a largo plazo

 1 / 4 1 / 4 1 / 8 3 / 8  2 / 7 1/ 7 2 / 7 2 / 7    2 / 7 3 / 7 1/ 7 1/ 7    2 / 7 0 4 / 7 1/ 7

𝜋1 =

1 1 3 𝜋0 + 𝜋1 + 𝜋2 + 0𝜋3 4 7 7

1 2 1 4 𝜋2 = 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 8 7 7 7 𝜋3 =

3 2 1 1 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 8 7 7 7

𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 = 1 Resolviendo el sistema de 4 ecuaciones: −

3 2 2 2 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 = 0 4 7 7 7

Procesos Estocásticos | 17/09/2015

Sustituyendo: 1 2 2 2 𝜋0 = 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 4 7 7 7

14

1 6 3 𝜋0 − 𝜋1 + 𝜋2 + 0𝜋3 = 0 4 7 7 1 8

2

6

4

𝜋0 + 7 𝜋1 − 7 𝜋2 + 7 𝜋3 = 0

3 2 1 6 𝜋0 + 𝜋1 + 𝜋2 − 𝜋3 = 0 8 7 7 7 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 = 1 Entonces resolviendo esta ecuación tenemos los valores:

𝜋0 = 0.2759

𝜋1 = 0.2158

𝜋2 = 0.2706

𝜋3 = 0.2377

𝒗 = (𝟎. 𝟐𝟕𝟓𝟗, 𝟎. 𝟐𝟏𝟓𝟖, 𝟎. 𝟐𝟕𝟎𝟔, 𝟎. 𝟐𝟑𝟕𝟕)

e) ¿Cuál es la probabilidad a largo plazo de quedarse sin libros? Si cada libro lo venden a $100, a la editora deben darle el 40%, ¿Cuál será la ganancia esperada para la librería?

𝝅𝟎 = 𝟎. 𝟐𝟕𝟓𝟗

El 27.59%

Procesos Estocásticos | 17/09/2015

Si cada libro lo venden a $100, a la editora deben darle el 40%, ¿Cuál será la ganancia esperada para la librería?

15

𝜋0 𝜋1 𝜋2 𝜋3

Vector de distribución

Tiempo esperado del primer retorno ( 1/𝝅𝒊 )

0.2759 0.2158 0.2706 0.2377

3.625 4.634 3.695 4.207

𝟏 ∙ (𝟒. 𝟔𝟑𝟒) + 𝟐 ∙ (𝟑. 𝟔𝟗𝟓) + 𝟑 ∙ (𝟒. 𝟐𝟎𝟕) ∙ 𝟏𝟎𝟎 = 𝟐𝟒. 𝟔𝟒𝟓𝟖 𝒑𝒐𝒓 𝒍𝒊𝒃𝒓𝒐 (𝒃𝒓𝒖𝒕𝒐) 𝑮𝒂𝒏𝒂𝒏𝒄𝒊𝒂 𝒏𝒆𝒕𝒂 = (𝟎. 𝟔)(𝟐𝟒, 𝟔𝟖. 𝟓𝟖) = 𝟏𝟒, 𝟕𝟖 𝒏𝒆𝒕𝒐

g) Encuentra los valores propios y elabora una conclusión del ejercicio. Sea A una matriz cuadrada, o sea de n × n, entonces el número real 𝜆 es un valor propio (también conocidos como, valores característicos, autovalores o incluso eigenvalores) de A si existe un vector 𝑥 distinto de cero en 𝑅 𝑛 tal que: 𝐴𝑥 = 𝜆𝑥 El número 𝜆 puede ser real o complejo, y el vector 𝑥 puede tener componentes reales o complejos. Entonces |𝐴 − 𝜆𝐼| = 0 Donde 𝐼 es la matriz identidad. Ahora para la matriz:

 1 / 4 1 / 4 1 / 8 3 / 8  2 / 7 1/ 7 2 / 7 2 / 7  𝑃=   2 / 7 3 / 7 1/ 7 1/ 7    2 / 7 0 4 / 7 1/ 7 El cálculo de valores propios de la matriz estocástica es:

 1 / 4 1 / 4 1 / 8 3 / 8 𝜆 0  2 / 7 1/ 7 2 / 7 2 / 7 0  −( 𝜆 𝑃 − 𝜆𝐼 =  0 0  2 / 7 3 / 7 1/ 7 1/ 7 0 0    2 / 7 0 4 / 7 1/ 7

0 0 𝜆 0

3 1 1 1 −𝜆 8 8 4 4 2 2 0 2 1 0 7 −𝜆 7 )= 7 7 1 1 0 2 3 − 𝜆 𝜆 7 7 7 7 4 1 2/7 0 − 𝜆) ( 7 7

Sabemos que (Ejemplos de estacionalidad.- Gpe. Rodríguez 2014)

Procesos Estocásticos | 17/09/2015

Aplicamos el determinante y resolvemos (por Wolfram):

16

Un solo valor característico = 1 significa que solo hay una clase final de orden 2 (período 2) El número de valores característicos iguales a uno es igual alnúmero de clases finales de la cadena.

Conclusión: Los problemas que hemos realizado en esta unidad y en esta actividad, nos brindan una idea de los alcances de este análisis a través de las teorías de Markov. El análisis y la predicción de ciertos procesos que pueden ser prospectos para el análisis en teorías de Markov, por lo que son de gran utilidad en el desarrollo de los negocios, la política, las empresas o el desarrollo económico de países.

Procesos Estocásticos | 17/09/2015

El simple hecho de conocer el comportamiento de ciertos valores bursátiles, así como el comportamiento de las especies, las necesidades de compra de inventarios, cubre las necesidades de las pretensiones y objetivos planteados por los ejecutivos, directores, en sí de aquellos que necesitan a través de la información efectuar la toma de decisiones . .

17

La aplicación para las cadenas de Markov, comprende todos los campos de estudio y del saber humano, siendo su objetivo principal el cálculo de movimientos futuros, predicciones de probabilidades, la probabilidad de los diferentes estados de una cadena de Markov a la larga, o sea, conocer su equilibrio. Bibliografía Hillier, F., & Lieberman, G. (2010). Introducción a la investigación de operaciones. México: Mc Graw Hill.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF