Cadenas de Markov

November 6, 2017 | Author: Gema Dominguez | Category: Markov Chain, Matrix (Mathematics), Applied Mathematics, Physics & Mathematics, Mathematics
Share Embed Donate


Short Description

Descripción: ensayo...

Description

INSTITUTO TECNOLOGICO DE ENSENADA

INVESTIGACION DE OPERACIONES II INGENIERÍA INDUSTRIAL ELABORADO POR DOMINGUEZ DIAZ GEMA N. CONTROL 14760076

SISTEMA SEMI ESCOLARIZADO

INGENIERÍA INDUSTRIAL Ing. JOSE SOLIS GIL

ENSENADA, B.C. abril de 2016

KADENAS DE MARKOV

QUE ES UNA CADENA DE MARKOV Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. Las ventajas y desventajas de usar teoría de Markov incluyen:

Teoría de Markov es simple de aplicar y entender. 1. Cálculos de sensibilidad ( contestar las preguntas "qué-si") se llevan a cabo fácilmente. 2. La teoría de Markov nos da con el tiempo una visión de los cambios en el sistema. 3. P puede ser dependiente del estado actual del sistema. Si P es dependiente tanto del tiempo y del estado actual del sistema i.e., P es una función de t y st, entonces la ecuación de Markov básica se vuelve st=st-1P(t-1,st-1). 4. La teoría de Markov es un modelo simplificado de un proceso de toma de decisión complejo.

VIDEO INTRODUCCION A LAS CADENAS DE MARKOV Este problema nos habla sobre los posibles estados del clima en un pueblo, dando que si la probabilidad de tener un clima seco al siguiente dia es de 0.8 si el dia actual es seco, pero si el clima es húmedo la probabilidad de que el clima sea seco es de 0.6. Entonces determinamos la matriz de transición. La cual nos quedara de esta manera X= estado del clima X= X=

0 1

Estado actual Xt

Estado siguiente

Xt +1

0

P°° = 0.8

P°1= 0.2

1

P1° = 0.6

P1.1= 0.4

Diagrama de Tranciscion Dia seco a húmedo= 0.2

Húmedo-humedo=0.4

Seco-seco=0.8

Húmedo-seco0.6

Al final nos queda que P°= 0.75 P1= 0.25

CADENAS DE MARKOV EN EXCEL Ejercicio: Una empresa está considerando utilizar Cadenas de Markov para analizar los cambios en las preferencias de los usuarios por tres marcas distintas de un determinado producto. El estudio ha arrojado la siguiente estimación de la matriz de probabilidades de cambiarse de una marca a otra cada mes. Si en la actualidad la participación de mercado es de 45%, 25% y 30%, respectivamente. ¿Cuáles serán las participaciones de mercado de cada marca en dos meses más? Nuestra tabla quedaría asi

Columna

SOLUCION Renglón - 0.45

0.25

0.3

x

0.80

0.10

0.10

0.03

0.95

0.02

0.20

0.05

0.75

En esta matriz lo que se hace es multiplicar renglón por columna

=

0.43 0.30 0.28

0.43

0.3

0.28

x

0.80

0.10

0.10

0.03

0.95

0.02

0.20

0.05

0.75

=

0.41 0.34 0.26

Lo mismo en esta siguiente matriz hasta llegar a su solución Toda cadena de Markov tiene los siguientes elementos: Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Probabilidades de transición entre estados, en un ciclo (matriz P) Distribución inicial del sistema entre los M estados posibles. Toda cadena de Markov cumple con las siguientes propiedades: Propiedad Markoviana: Un proceso estocástico tiene la propiedad markoviana si las probabilidades de transición en un paso sólo dependen del estado del sistema en el período anterior (memoria limitada). PROPIEDADES: 1- la suma de las probabilidades de los estados debe ser igual a 1. 2- la matriz de transición debe ser cuadrada. 3- las probabilidades de transición deben estar entre 0 y 1

Para concluir podemos decir que las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de estados.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF