Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto Actividad 4. Determinación de distribuciones límite arla !udit" Andre# M$nde% A&'2()*((2 +nstrucciones, Resuelve cada una de las situaciones que se presentan a continuación:
1. Supóngase Supóngase que que un proceso proceso de de producción producción cambia cambia de estado de acuerdo acuerdo a una cadena de Markov cuya matriz es
1 / 4 0 P= 1 / 4 1 / 4
1/ 4
1/ 2
1/ 4
1/ 2
1/4
1/4
1/ 4
0
÷ 1/ 4 ÷ 1 / 4÷ ÷ 1 / 2 0
1. con S = {1 ! " #$ donde los estados 1 y ! representan una buena producción y los estados " y # una mala. %s decir si se pasa de cualquiera de los estados 1 y ! a cualquiera de los estados " y # la producción decayó. Si por el contrario se pasa de cualquiera de los estados " y # a los estados 1 y !& la producción me'oró. (os estados se pueden determinar midiendo el tiempo de producción el costo de producción el n)mero de traba'adores que se requieren y el n)mero de accidentes. a* +etermina la proporción proporción de tiempo tiempo que el proceso proceso de producción producción pasar, pasar, en cada cada estado a la larga.
v ( 1 )=
1
v ( 2 )=
1
4
4
1
1
4
4
1
v ( 2) + v ( 3) +
v ( 1) + v ( 3) + v ( 4 ) v ( 1) +
4
1
1
4
4
1
1
1
2
2
4
1
1
4
2
v (4 )
v ( 3 )= v ( 1 ) + v ( 2 ) + v ( 3 ) v ( 4 )=
1 4
v ( 2) + v ( 3) + v ( 4 )
-ector resultante v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 ) =1 Obtenemos: 3 1 7 13 v ( 1 ) = , v ( 2 ) = , v ( 3 ) = , v ( 4 )= 16 4 24 48
roporciones de tiempo -ector resultante:
Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto
(
¿
π = v =
9
,
12 14 13
,
,
48 48 48 48
)
/uestras probabilidades quedan de la siguiente manera: •
%l
•
%l
43.75 56.55
del tiempo el proceso tiene buena producción del tiempo el proceso tiene mala producción
b* 0u2 puedes decir acerca de las veces que la producción me'orar, a la larga3 odemos ver que cuando la producción me'ora pasa a los estados " # y 1! por lo tanto concluimos que el proceso de producción es mala siempre. !. 4onsidera 5 puntos localizados en una circun6erencia y una cadena { X n$ que recorre esos puntos de manera que en cada punto con probabilidad p se da un movimiento al siguiente punto en el sentido de las manecillas del relo' y con probabilidad q = 1 7 p se da un movimiento al siguiente punto en el sentido contrario a las manecillas del relo'. a* +etermina la matriz de transición.
S={1!"#5$ Matriz
P
=
(
0
p
0
0
1− p
1− p
0
p
0
0
0
1− p
0
p
0
0
0
1− p
0
p
p
0
0
1− p
0
)
b* 8 largo plazo determina la proporción de tiempo que la cadena pasa en cada estado 9como 6unción de p*. +istribución invariante del proceso:
v ( 1 )= pv ( 2 ) + ( 1 − p ) v ( 5 ) v ( 2 )=( 1− p ) v ( 1 ) + pv ( 3 )
v ( 3 )= (1 − p ) v ( 2 ) + pv ( 4 ) v ( 4 )=( 1 − p ) v ( 3 )+ pv ( 5 )
v ( 5 )=( 1 − p ) v ( 4 ) + pv (1 ) v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 ) + v ( 5 )= 1 roporciones de tiempo
Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto -ector resultante:
(
¿
π = v =
1 1 1 1 1
,
,
,
,
5 5 5 5 5
)
(as probabilidades quedan de la siguiente manera •
20
%l
del tiempo la cadena est, en cada estado
". 8l principio de cada da se inspecciona una pieza de cierto equipo para determinar su condición que se clasi6ica en # estados {1 ! " #$ seg)n su nivel de deterioro donde 1 es el menor deterioro 9pieza nueva* y # el mayor deterioro 9pieza descompuesta*. Supongamos que la condición de la pieza en la n-ésima inspección es X n y que estas variables 6orman una cadena de Markov con matriz de transición
0.95 0 P= 0 1
0.05
0
0.9
0.1
0
0.875
0
0
÷ 0 ÷ 0.125÷ ÷ 0 0
a* +eterminar la proporción de tiempo que la pieza pasa en cada estado a la larga.
Distribución invariante del proceso: v ( 1 )=0.95 v ( 1 ) + v ( 4 )
v ( 2 )=0.05 v ( 1 ) + 0.9 v ( 2 ) v ( 3 )= 0.1 v ( 2 ) + 0.875 v ( 3 )
v ( 4 )=0.125
1 4
v (3)
v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 ) =1
Procesos Estocásticos Unidad 2. Cadenas de Markov a tiempo discreto v ( 1 )=0.51282 v ( 2 )=0.25641, v ( 3 )= 0.20513, v ( 4 )= 0.02564
-ector resultante: ¿
π = v =( 0.51282,0.25641,0 .20513,0.02564 )
b* Supongamos que una pieza descompuesta requiere tres das para su reposición por una nueva. ara incorporar esto a la cadena de Markov agrega dos estados 95 y ;* y modi6ica adecuadamente la matriz de transición.
S = {1,2,3,4,5,6 }
+ónde: 1= Nuevo 2=menor deterioro 3= mayor deterioro
4 = descompuesta 5= día y medio
6 =día y medio
%ntonces la matriz de transición queda de la siguiente manera
Thank you for interesting in our services. We are a non-profit group that run this website to share documents. We need your help to maintenance this website.