Definición de proceso aleatorio

October 7, 2017 | Author: Jolisber Ortiz | Category: Probability Theory, Physics & Mathematics, Mathematics, Statistical Theory, Probability
Share Embed Donate


Short Description

Download Definición de proceso aleatorio...

Description

Definición de proceso aleatorio Concepto de proceso aleatorio Una variable aleatoria transforma las salidas de un experimento aleatorio a un conjunto de números reales. En un sentido similar, un proceso aleatorio puede ser visto como una transformación de las salidas de un experimento aleatorio a un conjunto de ondas o funciones del tiempo. Mientras que en algunas aplicaciones puede no ser posible definir explícitamente el experimento aleatorio y las transformaciones a ondas asociadas (eléctricas, por ejemplo), todavía se pueden utilizar los procesos aleatorios como un modelo para caracterizar a las formas de ondas. Por ejemplo, las ondas en el sistema de comunicación de la figura 3.1 son el resultado de personas escribiendo en un teclado conectado a los terminales del sistema. A pesar de que el experimento aleatorio consecuente que genera a las ondas no está definido, se puede usar un experimento hipotético como el de tirar al aire N monedas y definir a las ondas como las salidas del mismo (1 si es cara y 0 si es cruz, por ejemplo).Proceso de Bernoulli tipos Un proceso puede clasificarse como: • continuo de variable continua • continuo de variable discreta • discreto de variable continua • discreto de variable discreta Ejemplos: Proceso continuo de variable continua: el crecimiento de las personas. Tiempo (años) Altura Función densidad de las personas de 15 años 05101520 Proceso continuo de variable discreta: la situación de encendido o apagado de una lámpara. Tiempo (horas) Encendida Función de probabilidad de la situación de la lámpara 012345 1 Proceso discreto de variable continua: temperatura máxima de cada día. Día Temperatura (ºC) Función densidad de la temperatura máxima del día 6 0123610 30 20 10 Proceso discreto de variable discreta: cantidad de pasajeros en cada ómnibus que llega.

Proceso de Bernoulli Un Proceso de Bernoulli no es otra cosa que la repetición de un Ensayo de Bernoulli. Si nos fijamos en el ejemplo de la moneda, en este caso estaremos estudiando cuántas veces sale "cara" o cuántas sale "cruz", o las probabilidades de que salga "cara", al menos una vez, de un número n de intentos. Es importante que se cumpla que:

1. La probabilidad de éxito permanece constante ensayo tras ensayo. 2. Los ensayos deben de ser independientes entre sí. Para esto hay una distribución conocida como Distribución Binomial que permite calcular la probabilidad de que ocurra r veces un suceso en n intentos, si la probabilidad de que suceda en un intento es p:

Camino aleatorio

Ejemplo de ocho caminos aleatorios en una dimensión empezando en 0. La gráfica muestra la posición actual sobre una línea (eje vertical) versus los intervalos de tiempo (eje horizontal). El camino aleatorio o paseo aleatorio, abreviado en inglés como RW (Random Walks), es una formalización matemática de la trayectoria que resulta de hacer sucesivos pasos aleatorios. Los resultados del análisis de paseo aleatorio han sido aplicados a la computación, la física, la ecología o la economía. En particular en este último campo la teoría del paseo aleatorio de Burton G. Malkiel en su obra A Random Walk Down Wall Street (traducción castellana Un Paseo Aleatorio Por Wall Street) se fundamenta en la hipótesis de los mercados eficientes, desarrollado en tres formas o hipótesis. En física, el modelo ha servido, por ejemplo, para modelar el camino seguido por una molécula que viaja a través de un líquido o un gas (movimiento browniano). En ecología, se emplea para modelar los movimientos de un animal de pastoreo, etc.

Introducción a los Procesos Estocásticos

La teoría de los procesos estocásticos se centra en el estudio y modelización de sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas leyes no

determinísticas, esto es, de carácter aleatorio. La forma habitual de describir la evolución del sistema es mediante sucesiones o colecciones de variables aleatorias. De esta manera, se puede estudiar cómo evoluciona una v.a. a lo largo del tiempo. Por ejemplo, el número de personas que espera ante una ventanilla de un banco en un instante t de tiempo; el precio de las acciones de una empresa a lo largo de un año; el número de parados en el sector de Hostelería a lo largo de un año. La primera idea básica es identificar un proceso estocástico con una sucesión de v.a. {Xn, n ∈ N} donde el subíndice indica el instante de tiempo (o espacio) correspondiente. Esta idea inicial se puede generalizar fácilmente, permitiendo que los instantes de tiempo en los que se definen las v.a. sean continuos. Así, se podrá hablar de una colección o familia de v.a. {Xt, t ∈ R}, que da una idea más exacta de lo que es un proceso estocástico. Se tenía que una v.a. X(s) es una función que va desde un espacio muestral S a la recta real, de manera que a cada punto s ∈ S del espacio muestral se le puede asociar un número de la recta real. De este modo, la probabilidad de cada suceso de S se puede trasladar a la probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o conjunto de números reales. Si a todo esto se le añade una dimensión temporal, se obtiene un proceso estocástico. La definición formal es la siguiente: Definición (Proceso Estocástico) Dado el espacio de probabilidad (Ω,a, P ) de modo que para todo t ∈ T ⊂ R fijo Xt : (Ω,a, P ) −→ (R, B) w −→ Xt(w) ∈ R esto es, Xt es una variable aleatoria y ∀w ∈ Ω fijo, X•(w) es una función del tiempo. Ejemplos: Xt: número de personas que esperan un autobús en un instante t donde t ∈ [9, 10] Xt: precio de una acción de una empresa en un día t del mes (t = 1, 2, . . . , 30). Xt: número de parados en el mes t (t = 1, 2, . . . , 12). Para que un proceso estocástico esté completamente definido hay que determinar completamente

las v.a., es decir, determinar e identificar la distribución de probabilidad asociada a cada una de ellas y, es más, la distribución conjunta de todas ellas.

Tipos de procesos estocasticos Los diferentes tipos de procesos estoc´asticos se obtienen al considerar las distintas posibilidades para: el espacio parametral, el espacio de estados, las caracter´ısticas de las trayectorias, y principalmente las relaciones de dependencia entre las variables aleatorias que conforman el proceso. Los siguientes son algunos ejemplos generales de procesos estoc´asticos. Estos son procesos que cumplen una ciertapropiedad particular, no necesariamente excluyentes unas de otras. A lo largo del texto estudiaremos y especificaremos con mayor detalle algunos de estos tipos de procesos. Proceso de ensayos independientes. El proceso a tiempo discreto {Xn : n = 0, 1, . . .} puede estar constituido por variables aleatorias independientes. Este modelo representa una sucesi´on de ensayos independientes de un mismo experimento aleatorio, por ejemplo, lanzar un dado o una moneda repetidas veces. El resultado u observaci´on del proceso en un momento cualquiera es, por lo tanto, independiente de cualquier otra observaci´on pasada o futura del proceso. Procesos de Markov. Estos tipos de procesos son importantes y son modelos en donde, suponiendo conocido el estado presente del sistema, los estados anteriores no tienen influencia en los estados futuros del sistema. Esta condici´on se llama propiedad de Markov y puede expresarse de la siguiente forma: Para cualesquiera estados x0, x1, . . . , xn−1 (pasado), xn (presente), xn+1 (futuro), se cumple la igualdad P(Xn+1 = xn+1 |X0 = x0, . . . ,Xn = xn) = P(Xn+1 = xn+1 |Xn = xn). De esta forma la probabilidad del evento futuro (Xn = xn) s´olo depende el evento (Xn−1 = xn−1), mientras que la informaci´on correspondiente al evento pasado (X0 = x0, . . . ,Xn−2 = xn−2) es irrelevante. Los procesos de Markov han sido estudiados extensamente y existe un gran n´umero de sistemas que surgen en muy diversas disciplinas del conocimiento para los cuales el modelo de proceso estoc ´astico y la propiedad de Markov son razonables. En particular, los sistemas din´amicos deterministas dados por una ecuaci´on diferencial pueden considerarse procesos de Markov pues su evoluci´on futura queda determinada por la posici´on inicial del sistema y una ley de movimiento especificada. Procesos con incrementos independientes. Se dice que un proceso {Xt : t _ 0} tiene incrementos independientes si para cualesquiera tiempos 0 _ t1 < t2 < · · · < tn, las variables Xt1 ,Xt2 − Xt1 , . . . ,Xtn − Xtn−1 son independientes. Procesos estacionarios. Se dice que un proceso {Xt : t _ 0} es estacionario (en el sentido estricto) si para cualesquiera tiempos t1, . . . , tn, la distribuci´on del vector (Xt1 , . . . ,Xtn) es la misma que la del vector (Xt1+h, . . . ,Xtn+h) para cualquier valor de h > 0. En particular, la distribuci´on de Xt es la misma que la de Xt+h para cualquier h > 0, y entonces esta distribuci´on es la misma para cualquier valor de t. Procesos con incrementos estacionarios. Se dice que un proceso {Xt : t _ 0}

4 tiene incrementos estacionarios si para cualesquiera tiempos s < t, y para cualquier h > 0, las variables Xt+h − Xs+h y Xt − Xs tienen la misma distribuci´on de probabilidad. Es decir, el incremento que sufre el proceso entre los tiempos s y t s´olo depende de estos tiempos a trav´es de la diferencia t − s, y no de los valores espec´ıficos de s y t.

Martingalas. Una martingala a tiempo discreto es, en t´erminos generales, un proceso {Xn : n = 0, 1, . . .} que cumple la condici´on E(Xn+1 |X0 = x0, . . . ,Xn = xn) = xn. (1.1) En palabras, esta igualdad significa que el estado promedio del proceso al tiempo futuro n + 1 es el valor del proceso en su ´ultimo momento observado, es decir, xn. Esto es, se trata de una ley de movimiento aleatorio que es equilibrada pues en promedio el sistema no se mueve del ´ultimo momento observado. A estos procesos tambi´en se les conoce como procesos de juegos justos pues si se considera una sucesi´on infinita de apuestas sucesivas y si Xn denota el capital de uno de los jugadores al tiempo n, entonces la propiedad de martingala (1.1) establece que el juego es justo pues en promedio el jugador no pierde ni gana en cada apuesta. Procesos de L`evy. Se dice que un proceso a tiempo continuo {Xt : t _ 0} es un proceso de L`evy si sus incrementos son independientes y estacionarios. M´as adelante veremos que tanto el proceso de Poisson como el movimiento Browniano son ejemplos de este tipo de procesos. Procesos Gausianos. Se dice que un proceso a tiempo continuo {Xt : t _ 0} es un proceso Gausiano si para cualesquiera colecci´on finita de tiempos t1, . . . , tn, el vector (Xt1 , . . . ,Xtn) tiene distribuci´on normal o Gausiana. Nuevamente, el movimiento Browniano es un ejemplo de este tipo de procesos.

Cadena de Markov (Redirigido desde Cadena de Márkov) En la teoría de la probabilidad, se conoce como cadena de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado. Reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922), que las introdujo en 1907.1 Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas aplicaciones.

Ley de Chapman-Kolmogórov La ley de Chapman-Kolmogorov se basa en la ecuación del mismo nombre, a la que llegaron de forma independiente el matemático británico Sydney Chapman y el matemático ruso Andrey Kolmogorov. Enunciada de una forma sencilla dice: "la probabilidad de que dos hechos debidos al azar (y que cumplen unas condiciones determinadas), pasen conjuntamente... es "pequeñísima". El concepto era conocido de antemano, y se empleaba en la investigación forense. Por ejemplo, se sabe que, en un incendio forestal, si hay un solo foco puede ser accidental, pero si hay dos la probabilidad de que sea provocado es altísima.

Dentro del entorno de entrada de datos de las máquinas de Bull1 (con tarjetas perforadas tipo Hollerith), se hacía una 2ª entrada de datos leyendo al mismo tiempo las tarjetas perforadas en la 1ª entrada, la máquina pitaba si había alguna diferencia, en caso contrario se daba como correcta, ya que la probabilidad de error pasaba a ser "ínfima". En ambos ejemplos se está aplicando la ley de Chapman-Kolmogorov, aunque no se explicite.

[editar] Ecuación de Chapman-Kolmogorov En matemáticas, específicamente en teoría de probabilidad y, en particular, la teoría de procesos estocásticos Markovianos, la ecuación de Chapman-Kolmogorov es una identidad sobre las distribuciones de probabilidad conjunta de los diferentes conjuntos de coordenadas en un proceso estocástico. Supongamos que { fi } es una colección indexada de variables aleatorias, es decir, un proceso estocástico. Hacemos

sea la función conjunta de densidad de probabilidad de los valores de las variables aleatorias f1 to fn. Entonces, la ecuación de Chapman-Kolmogorov es

es decir, una marginalización directa sobre la variable estorbo (Hay que tener en cuenta que todavía no hemos asumido nada sobre el orden temporal (o cualquier otro) de las variables aleatorias, la ecuación anterior se aplica igualmente a la marginalización de cualquiera de ellos).

[editar] Aplicación a cadenas de Markov Cuando el proceso estocástico considerado es Markoviano, la ecuación de ChapmanKolmogorov es equivalente a una identidad en las densidades de transición. En la formación de la cadena de Markov, se supone que 'i1 < ... < in. Así, debido a la propiedad de Márkov

donde la probabilidad condicional es la probabilidad de transición entre los momentos i > j. Así, la ecuación de Chapman-Kolmogorov toma la forma

Cuando la distribución de probabilidad sobre el espacio de estados de una cadena de Markov es discreta y la cadena de Markov es homogénea, las ecuaciones de Chapman-

Kolmogorov se pueden expresar en términos de multiplicación de matrices (posiblemente de dimensión-infinita), así:

donde P(t) es la matriz de transición, es decir, si Xt es el estado del proceso en el momento t, entonces para dos puntos cualesquiera i & j en el espacio de los estados, tenemos

Ruina del jugador

A y B son jugadores que tienen k y N − k euros respectivamente. Lanzan una moneda repetidamente y en cada turno B le paga a A un euro si es cara. En caso contrario A le paga un euro a B. El juego termina cuando uno de los jugadores se arruina. La cantidad de euros que A tiene luego de n turnos es una CM con probabilidades de transición p(i , i − 1) = p(i , i + 1) =1/2 , si 0 < i < N, p(0, 0) = p(N,N) = 1 y p(i , j) = 0 en caso contrario A veces es ´util representar la cadena por un diagrama.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF