MPES_U2_A4_KAAM

April 21, 2018 | Author: Mitchell Hyde | Category: Markov Chain, Applied Mathematics, Mathematics, Physics & Mathematics, Science
Share Embed Donate


Short Description

Descripción: ANALISIS...

Description

Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto Actividad 4. Determinación de distribuciones límite arla !udit" Andre# M$nde% A&'2()*((2 +nstrucciones,  Resuelve cada una de las situaciones que se presentan a continuación:

1. Supóngase Supóngase que que un proceso proceso de de producción producción cambia cambia de estado de acuerdo acuerdo a una cadena de Markov cuya matriz es

1 / 4  0 P=  1 / 4  1 / 4

1/ 4

1/ 2

1/ 4

1/ 2

1/4

1/4

1/ 4

0

  ÷ 1/ 4 ÷ 1 / 4÷ ÷ 1 / 2  0

1. con S = {1 ! " #$ donde los estados 1 y ! representan una buena producción y los estados " y # una mala. %s decir si se pasa de cualquiera de los estados 1 y ! a cualquiera de los estados " y # la producción decayó. Si por el contrario se pasa de cualquiera de los estados " y # a los estados 1 y !& la producción me'oró.  (os estados se pueden determinar midiendo el tiempo de producción el costo de producción el n)mero de traba'adores que se requieren y el n)mero de accidentes. a* +etermina la proporción proporción de tiempo tiempo que el proceso proceso de producción producción pasar, pasar, en cada cada estado a la larga.

v ( 1 )=

1

v ( 2 )=

1

4

4

1

1

4

4

1

v ( 2) + v ( 3) +

v ( 1) + v ( 3) + v ( 4 ) v ( 1) +

4

1

1

4

4

1

1

1

2

2

4

1

1

4

2

v (4 )

v ( 3 )= v ( 1 ) + v ( 2 ) + v ( 3 ) v ( 4 )=

1 4

v ( 2) + v ( 3) + v ( 4 )

-ector resultante v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 ) =1 Obtenemos: 3 1 7 13 v ( 1 ) = , v ( 2 ) = , v ( 3 ) = , v ( 4 )= 16 4 24 48

roporciones de tiempo -ector resultante:

Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto

(

¿

π  = v =

9

,

12 14  13

,

,

48 48 48 48

)

/uestras probabilidades quedan de la siguiente manera: •

%l



%l

43.75 56.55

 del tiempo el proceso tiene buena producción  del tiempo el proceso tiene mala producción

b* 0u2 puedes decir acerca de las veces que la producción me'orar, a la larga3 odemos ver que cuando la producción me'ora pasa a los estados " # y 1! por  lo tanto concluimos que el proceso de producción es mala siempre. !. 4onsidera 5 puntos localizados en una circun6erencia y una cadena { X n$ que recorre esos puntos de manera que en cada punto con probabilidad p se da un movimiento al siguiente punto en el sentido de las manecillas del relo' y con probabilidad q = 1 7  p  se da un movimiento al siguiente punto en el sentido contrario a las manecillas del relo'. a* +etermina la matriz de transición.  

S={1!"#5$ Matriz

 P

=

(

0

 p

0

0

1− p

1− p

0

 p

0

0

0

1− p

0

 p

0

0

0

1− p

0

 p

 p

0

0

1− p

0

)

b* 8 largo plazo determina la proporción de tiempo que la cadena pasa en cada estado 9como 6unción de  p*. +istribución invariante del proceso:

v ( 1 )= pv ( 2 ) + ( 1 − p ) v ( 5 ) v ( 2 )=( 1− p ) v ( 1 ) + pv ( 3 )

v ( 3 )= (1 − p ) v ( 2 ) + pv ( 4 ) v ( 4 )=( 1 − p ) v ( 3 )+ pv ( 5 )

v ( 5 )=( 1 − p ) v ( 4 ) + pv (1 ) v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 ) + v ( 5 )= 1 roporciones de tiempo

Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto -ector resultante:

(

¿

π  = v =

1 1 1 1 1

,

,

,

,

5 5 5 5 5

)

(as probabilidades quedan de la siguiente manera •

20

%l

 del tiempo la cadena est, en cada estado

". 8l principio de cada da se inspecciona una pieza de cierto equipo para determinar su condición que se clasi6ica en # estados {1 ! " #$ seg)n su nivel de deterioro donde 1 es el menor deterioro 9pieza nueva* y # el mayor deterioro 9pieza descompuesta*. Supongamos que la condición de la pieza en la n-ésima inspección es X n y que estas variables 6orman una cadena de Markov con matriz de transición

 0.95  0 P=   0   1

0.05

0

0.9

0.1

0

0.875

0

0

  ÷ 0 ÷ 0.125÷ ÷ 0   0

a* +eterminar la proporción de tiempo que la pieza pasa en cada estado a la larga.

Distribución invariante del proceso: v ( 1 )=0.95 v ( 1 ) + v ( 4 )

v ( 2 )=0.05 v ( 1 ) + 0.9 v ( 2 ) v ( 3 )= 0.1 v ( 2 ) + 0.875 v ( 3 )

v ( 4 )=0.125

 1 4

v (3)

v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 ) =1

Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto v ( 1 )=0.51282 v ( 2 )=0.25641, v ( 3 )= 0.20513, v ( 4 )= 0.02564

-ector resultante: ¿

π  = v =( 0.51282,0.25641,0 .20513,0.02564 )

b* Supongamos que una pieza descompuesta requiere tres das para su reposición por una nueva. ara incorporar esto a la cadena de Markov agrega dos estados 95 y ;* y modi6ica adecuadamente la matriz de transición.

S = {1,2,3,4,5,6 }

+ónde: 1= Nuevo 2=menor deterioro 3= mayor deterioro

4 = descompuesta 5= día y medio

6 =día y medio

%ntonces la matriz de transición queda de la siguiente manera

 P=

(

)

0.95 0.05 0 0 00 0 0.9 0.1 0 00 0 0 0.875 0.125 0 0 0 0 0 0 10 0 1

Solución:

0 0

0 0

0 0

01 00

Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto

 P=

(

.05 0

.05 .9

0 1

0 0

0 .1

0 0

.875 .125 0 0

.9 .05

.875 .95

.1 .875

09 1

)

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF