Cadenas de Markov

August 23, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Cadenas de Markov...

Description

 

En el área laboral de la ingeniería ingeniería siempre se ha exigido la implementación de mejoras sobre los procesos, eliminar demoras y desarrollar sistemas más eficientes con mayor  probabilidad de éxito. Las cadenas de Markov es una herramienta herramienta sobre la cual el ingeniero puede apoyarse para poder determinar la probabilidad de que un evento suceda en relación a que otro evento lo precedió. Las cadenas de Markov son una herramienta para determinar las probabilidades de que un evento suceda en relación a otro, y esto en el ámbito laboral, comercial y económico es muy importante ya que nuestra meta es vender y que nos compren, y co con n esta esta herr herram amie ient nta a pode podemo mos s dete determ rmin inar ar con con un marg margen en de erro errorr nues nuestr tras as probabilidades de hacer dinero.  A continuación continuación se desarrollara desarrollara el tema de las cadenas cadenas de Markov, como utilizar la herramienta y sus posibles aplicaciones.

 

Objetivos

General: 

Desarrollar el tema de las cadenas de Markov.

Específicos: 1. Definir Definir que que es es una una cadena cadena de Marko Markov. v. 2. Establecer Establecer los pasos a seguir para una una cadena cadena de Markov. 3. Enunc Enunciar iar sus sus aplic aplicac acion iones. es.

 

Cadenas de Markov La cade cadena na de Markov Markov,, tambi también én conoc conocida ida como como modelo modelo de Marko Markov v o proce proceso so de Markov Mar kov,, es un conce concepto pto desa desarro rrolla llado do dentr dentro o de la teorí teoría a de la proba probabi bilid lidad ad y la estadística que establece una fuerte dependencia entre que tenga lugar un evento y un evento anterior. Su principal utilidad es el análisis del comportamiento de procesos estocásticos. La explicación de estas cadenas fue desarrollada por el matemático de origen ruso  Andréi Márkov en el año 1907 y a través de su estudio a lo largo del siglo XX se han podido emplear en numerosos casos prácticos de la vida cotidiana y la investigación. También se conoce como cadena simple biestable de Markov. Según señaló Markov, en sistemas o procesos estocásticos (es decir, aleatorios) que prese pre sent ntan an un es estad tado o prese presente nte o actua actuall es posib posible le cono conocer cer sus sus antec anteced edent entes es o desarrollo histórico y, por lo tanto, establecer una descripción de la probabilidad futura de los mismos. Más formalmente, la definición supone que en procesos estocásticos la probabilidad de que algo suceda solamente depende del pasado histórico de la realidad que estamos es estud tudian iando do.. Por Por este este motivo motivo a menud menudo o se dice dice que que es estas tas cade cadenas nas cuen cuentan tan con con memoria. La base de las cadenas es la conocida como propiedad de Markov, la cual resume lo dicho anteriormente en la siguiente regla: lo que la cadena experimente en un mome moment nto o t + 1 sola solame ment nte e depe depend nde e de lo acon aconte teci cido do en el mome moment nto o t (el (el inmediatamente anterior). Dada esta sencilla explicación de la teoría, puede observarse que es posible a través de la misma conocer la probabilidad de que un estado ocurra en el largo plazo, lo que ayuda indudablemente a la predicción y estimación en largos periodos de tiempo. Las cadenas de Markov han experimentado una importante aplicación real en el ámbito de los negocios y las finanzas, al permitir como se ha señalado analizar y estimar  futur futuros os patro patrones nes de cond conduct ucta a de los los indiv individu iduos os atendi atendien endo do a la exp experi erien encia cia y los resultados anteriores. Esto puede reflejarse en diferentes campos como la prevención de la morosidad, el estudio de las conductas de consumidores de un sector o la necesidad estacional de personal y mano de obra. Pese a que el sistema elaborado por Markov es bastante sencillo y cuenta como hemos dicho con una aplicación práctica bastante fácil, son muchas las voces críticas que han señalado señalad o esta ventaja como una desventaja al mismo tiempo, debido a que un modelo tan simplificado no puede ser totalmente efectivo en procesos complejos.

 

Clasificación de los estados

En una cadena homogénea con M estados E1, E2,...,Em y matriz de transición T = [pij ] , (1 ≤ i, j ≤ m) el valor de pij es la probabilidad de que haya una transición entre Ei y Ej en un moment momento o dado. dado. Segú Según n lo anteri anterior or se pued pueden en clas clasifi ifica carr los los esta estados dos de una una cadena. 

Estado absorbente

Los estados que pueden sucederse a sí mismos y, además, es posible alcanzar, por lo menos, alguno de los restantes desde ellos se llaman estados transitorios. Un estado tal que si el proceso entra en él permanecerá indefinidamente en este estado (ya que las proba probabi bilid lidad ades es de pasar pasar a cualq cualquie uiera ra de los los otros otros son son cero), cero), se dice dice es estad tado o absorbente.  De una cadena de Markov que consta de estados transitorios y absorbentes se dice que es una cadena absorbente de Markov. Si una cadena de Markov contiene algún esta estado do abso absorb rben ente te,, la líne línea a de la matr matriz iz de tran transi sici ción ón corr corres espo pond ndie ient nte e a las las probabilidades de transición de dicho estado constará de un 1 en la diagonal principal y ceros en los demás elementos. Será por lo tanto una matriz no regular. Para poder estudiar las cadenas de Markov absorbentes es preciso reordenar la matriz de trans transici ición ón de forma forma que que las filas filas corr corresp espon ondie dient ntes es a los los es estad tados os absor absorben bentes tes aparezcan en primer lugar. Así ordenada se dirá que la matriz de transición está en la forma canónica.x| Podemos dividir la matriz en forma canónica en cuatro submatrices. La primera es la matriz unidad I, del orden correspondiente. La segunda , la matriz nula. La tercera contiene las probabilidades probabilidades de paso de estados transitorios a estados absorbentes. absorbentes. La cuarta contiene las probabilidades de estados transitorios a estados transitorios. Un estado es absorbente cuando una vez que se entra en él no se puede salir del mismo. Un estado Ei es absorbente si ( n)  Pii = ( n)  Pii = 

1

0 (i ≠ j, j = 1,...,m) en la i-ésima fila de T.

Estado periódico

La probabilidad de que se regrese al estado Ei en el paso n es entero mayor que 1. Supongamos que: ( n)  Pii =

0 para n≠ t, 2t, 3t, . . .

( n)  Pii  .

Sea t un número

 

( n)  Pii ≠  0

para n = t, 2t, 3t, . . .

En este caso se dice que el estado Ei es periódico de periodo t. Si para un estado no existe dicho valor de t entonces se dice que el estado es aperiódico. Alternativamente Alternativamente,, se puede definir:

es decir, el máximo común divisor de (mcd) del conjunto de los enteros n para los que ( n)  Pii 

> 0. Entonces, el estado Ei es periódico si d(i) > 0 y aperiódico si d(i)=1 Vector de probabilidades iniciales

w = (w1,...,wk) se llama vector de probabilidades si:

Consideramos una cadena de Markov con: 1. s1,... s1,...,s ,sk k posib posible les s es estad tados os en los que la cadena cadena pued puede e estar estar en el tiempo tiempo de observación inicial n = 1

2. Para i = 1,...,k; P(X1 = si) = vi, con vi ≥ 0 y v1 + ... + vk = 1 El vector de probabilidades probabilidades v = (v1,...,vk) (v1,...,vk) se llama vector de probabilidades probabilidades iniciales de la cadena.  El vector de probabilidades iniciales y la matriz de transición determinan la probabilidad para el estado de la cadena en el segundo instante de tiempo, dicha probabilidad viene dada por el vector vP.  Además, si las probabilidades probabilidades de los diversos estados en el instante n se especifican especifican por el vector de probabilidades w, entonces Las probabilidades en el instante n + 1 se especifican por el vector de probabilidades wP.

 

Conclusiones

1. Las caden cadenas as de Marko Markov v es un métod método o que que por por med medio io de matric matrices es,, vecto vectores res y diagramas es posible determinar la probabilidad de que un evento suceda si ocurrió x evento previamente. 2. Para Para una una caden cadena a de Markov Markov primero primero se debe debe de determ determin inar ar cuánto cuántos s evento eventos s estoy evaluando, segundo definir las probabilidades probabilidades de que cada evento suceda con respecto a un evento previo, tercero se arma la matriz de probabilidades y porr últi po último mo se traz traza a el diag diagra rama ma,, el cual cual nos nos sirv sirve e para para pode poderr obse observ rvar  ar  gráficamente este proceso. 3. Las aplicaciones aplicaciones para las cadenas cadenas de Markov son muchas, muchas, desde determinar determinar las probabilidades de que un raton cambien de habitaciones hasta ser utilizado en la bolsa de valor.

Recomendaciones Se re reco comi mien enda da el estu estudi dio o a prof profun undi dida dad d de las las ca cade dena nas s de Mark Markov ov,, ya que que representan represe ntan una herramienta herramienta importante en la vida de un ingeniero. ingeniero. También se invita a realizar una cadena de Markov con procedimientos y eventos simples que ocurren en el hogar, para así comprobar que pueden aplicarse a cualquier serie de eventos que impliquen probabilidades.

 

E grafía

1.

Sánchez, J.. (2018). Cadena de Markov. 2019, de Economipedia Sito web: hps://economipedia.com/ omipedia.com/defniciones/ defniciones/cadena-de-m cadena-de-markov.hml arkov.hml hps://econ

2.

Gomez, M. B.. (2005). Cadenas de Markov. 2019, de Descares Sito web: hp://recu hp://recursostc.educacion rsostc.educacion.es/descares/w .es/descares/web/maeriale eb/maeriales_didactcos/mar s_didactcos/markov kov  _mbgr/Markov5.hm  _mbgr/Mark ov5.hm

3.

UGR. (2010). Cadenas de Markov. 2019, de UGR Sito web: hps://www.ugr.es/~bioesad/_privae/cpund10.pd 

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF