Apuntes_procesos_estocásticos

Share Embed Donate


Short Description

Download Apuntes_procesos_estocásticos...

Description

Apuntes del curso de Procesos Estocásticos Curso dictado en la UNEFA- Núcleo San Tome Departamento de Ingeniería de Sistemas Revisión: 25/enero/2008

Autor: Prof. José Loreto Romero Palma

Prefacio El presente material surgió originalmente para ser utilizado como texto principal de consulta para el curso de Procesos Estocásticos de la carrera de Ingeniería de Sistemas que dicto en la UNEFA. Aún cuando existe abundante bibliografía y material disponible en Internet sobre este tema, considero que existen sobradas razones para justificar la elaboración de estos apuntes. En primer lugar, los libros que versan sobre el tema están pensados para un público matemáticamente más maduro, generalmente para estudiantes a nivel de postgrado.

Sin mencionar que, por ser estos libros muy

especializados, son demasiado escasos en las librerías venezolanas. Por otro lado, navegar a través del Internet en búsqueda de bibliografía en línea puede resultar una tarea hercúlea para el estudiante de pregrado cuya primera exposición al tema es ésta. En fin, la bibliografía existente es muy dispersa, escasa y no adecuada a las necesidades del estudiante de ingeniería de sistemas, por lo cual considero que este texto viene a llenar un vacío. El aporte original en el presente tratamiento del tema es el énfasis en la simulación estocástica. Incorporar el aspecto de la verificación empírica del método científico en la exposición de un tema de la matemática, que es una ciencia netamente teórica, puede parecer un disparate. No obstante, se piensa que este enfoque puede rendir muchos dividendos, sobre todo instruccionales. Con los abundantes ejemplos de simulación en código R se pretende familiarizar al estudiante con un lenguaje de programación de libre distribución que está adquiriendo cada vez más relevancia en el mundo de la investigación estocástica. Por otro lado, con la exposición del alumnado a herramientas de software libre se pretende hacer un modesto aporte hacía el logro de la soberanía tecnológica nacional. El texto esta organizado en seis capítulos. En el primer capítulo se da un repaso de la teoría de las probabilidades y se pretende explicar de una vez qué son las simulaciones estocásticas y para qué sirven. El segundo capitulo es quizás el más abstracto de todo el texto. Comienza con la definición de lo que es un proceso estocástico y prepara todo el andamiaje conceptual para caracterizar sus tipos y propiedades. En el tercer capitulo se aborda el estudio de las caminatas aleatorias y el problema de la ruina del jugador. En el cuarto y quinto capitulo se tratan los procesos de Poisson, tanto el homogéneo como otras variantes que se obtienen a partir de éste modificando un poco los axiomas i

que lo definen. Por último, en el sexto capítulo, se tratan las cadenas de Markov de parámetro discreto. El nivel de conocimientos previo requerido por parte del alumno equivale al de un estudiante que haya cursado alguna asignatura de probabilidad elemental y los respectivos cursos de matemáticas del ciclo básico de ingeniería, que abarcan temas de cálculo diferencial, integral, series y ecuaciones diferenciales. Compensar las fallas en el proceso de aprendizaje de la teoría de las probabilidades e introducir una mayor rigurosidad de estos temas a fin de preparar al alumno para el resto del contenido es justamente el objetivo del primer capítulo.

Este primer capítulo esta intencionalmente

redactado en un lenguaje más formal – es una suerte de “bautismo por fuego” para templar a mis alumnos en su proceso de formación como futuros profesionales. En compensación incluyo como apéndice una sección con tips sobre demostraciones matemáticas (las cuales surgen en buena parte de los problemas propuestos) y sobre una miscelánea de otros temas matemáticos tales como las antes mencionadas series. Dicha sección esta libremente inspirada en la obra de Polya titulada “Como Resolverlo” y con ella se pretende motivar al alumno para dejar de ser un mero calculista que solo sabe aplicar las fórmulas que le son dadas y convertirse en un analista de sistemas que entiende cabalmente los conceptos matemáticos y que sabe cuando y cuales herramientas aplicar para resolver problemas de la vida real. Mi recomendación general al estudiante es estudiar detenidamente los problemas resueltos y la implementación de las simulaciones en el texto para posteriormente realizar los problemas propuestos. Desde una perspectiva más amplia, el contenido de este texto esta enmarcado dentro de un componente importante en el pensum de la ingeniería de sistemas y de las ciencias de la computación.

Me refiero al conglomerado de materias tales como

investigación de operaciones, matemáticas discretas, probabilidades y estadística, métodos numéricos y simulación y modelos matemáticos.

A mi juicio, dicho

componente es medular para la formación integral de un analista de sistemas, quién debe apuntar más allá de ser un simple tecnócrata operario de TICs (Tecnologías de Información y Comunicación). Más bien – y esto es algo que le cuesta trabajo entender a las personas no iniciadas en el tema – el analista de sistemas debe estar en capacidad de analizar cualquier sistema, sea éste una empresa, una red de tráfico vehicular, la economía nacional o la sociedad. Con las materias de este componente se pretende dotar al estudiante de herramientas para el análisis matemático de los sistemas, cuyo fin ii

ulterior es el de apoyar la toma racional de decisiones y permitir medir el desempeño del decisor en aras de lograr progresivamente un mayor bienestar colectivo. En un país como Venezuela, es verdaderamente acuciante capacitar profesionales con estas destrezas; nuestro desarrollo como nación depende de ello. Quiero en estas líneas agradecer a los profesores y autores que de manera directa o indirecta contribuyeron en mi propia formación.

En particular, extiendo mis

agradecimientos a Luis A. Azocar Bates, quien fue mi profesor en la Universidad Nacional Abierta, así como también a mis colegas y compañeros docentes, Elaine J. Pérez Bracho, José T. Gomez Barreto y Rafael A. Rofriguez Toledo, quienes además han contribuido con importantes sugerencias en la redacción de este material. Debo incluir palabras de reconocimiento y de agradecimiento a mis alumnos de la UNEFA, quienes han contribuido también con sugerencias y a quienes este libro está dedicado. Aspiro inculcar en ellos una pasión por los temas de la investigación de operaciones y el modelamiento matemático para que sean ellos mismos los que sigan investigando, formándose y siempre estando a la vanguardia en esta Era de la Información. Que su nivel de conocimientos rebase muchas veces el mío propio, que éstos sirvan al bienestar de nuestra nación y que ésta reconozca la importancia del saber que ellos portan son mis deseos.

iii

Tabla de contenido Prefacio .............................................................................................................................. i Capitulo 1- Preeliminares sobre teoría de probabilidades y simulaciones ........................ 1 1.1

Experimento aleatorio. Espacio muestral. Eventos elementales. Probabilidad ............................................... 1

1.2

Variable aleatoria. Distribución de probabilidad. Tipos de variables aleatorias. Densidad de probabilidad. ... 3

1.3.

Valores esperados: esperanza y varianza. ...................................................................................................... 6

1.4.

Función característica y función generatriz. Propiedades y tablas. ................................................................ 7

Tabla 1.1. Leyes de probabilidad discretas más frecuentes y sus características..................................................... 10 Tabla 1.2. Leyes de probabilidad continuas más frecuentes y sus características.................................................... 12 1.5.

Variables aleatorias bidimensionales y n-dimensionales.

Función de distribución conjunta. Función de

densidad conjunta...................................................................................................................................................... 14 1.6.

Variables aleatorias independientes y su caracterización. Covarianza. Distribución de la suma de dos o

más variables aleatorias independientes. Convolución. ............................................................................................ 17 Ejemplo para las secciones 1.5 y 1.6......................................................................................................................... 21 1.7.

Introducción a la simulación estocástica mediante el lenguaje R. ................................................................. 25

Problemas Propuestos ................................................................................................ 32 Capitulo 2- Introducción a los procesos estocásticos.

Terminología y nociones

preeliminares .................................................................................................................. 35 2.1.

Definición y ejemplos de procesos estocásticos. ........................................................................................... 35

2.2.

Probabilidad y esperanza condicional. Definiciones y propiedades. ............................................................ 38

2.3.

Caracterización de los procesos aleatorios: valor medio y núcleo de covarianza. ........................................ 43

2.4.

Incrementos independientes y estacionarios. Procesos estacionarios ......................................................... 45

2.5.

Algunos tipos de procesos aleatorios: caminata aleatoria, martingalas, procesos de Markov, procesos de

Poisson, procesos de Wiener .................................................................................................................................... 48

Problemas Resueltos .................................................................................................. 51 Problemas Propuestos ................................................................................................ 53 Capitulo 3- Procesos estocásticos basados en el proceso de Bernoulli y caminatas aleatorias ........................................................................................................................ 57 3.1

El proceso de Bernoulli .................................................................................................................................. 57

3.2

La cantidad de éxitos. Caminatas aleatorias basadas en procesos de Bernoulli. ........................................ 58

3.3.

La cantidad de ensayos hasta r éxitos: más sobre las caminatas aleatorias basadas en procesos de

Bernoulli. .................................................................................................................................................................... 60 3.5.

La ruina del jugador........................................................................................................................................ 63

3.6.

Duración promedio del juego y otras consideraciones sobre el problema de la ruina del jugador ................ 70

Problemas Resueltos .................................................................................................. 76 Problemas Propuestos ................................................................................................ 79 Capitulo 4- El proceso de Poisson homogéneo .............................................................. 82 4.1

El proceso de Poisson como caso límite de la caminata aleatoria binomial. ................................................. 82

Tabla 4.1. Calculo de las probabilidades de recibir k llamadas en 3 minutos mediante aproximaciones sucesivas por medio del modelo Binomial........................................................................................................................................ 83

iv

4.2.

Derivación axiomática del proceso de Poisson.............................................................................................. 87

4.3.

Procesos de Poisson espaciales.................................................................................................................... 93

4.4.

Distribución del tiempo inter-eventos. ............................................................................................................ 98

4.5.

La distribución uniforme de los tiempos de ocurrencia de sucesos en un proceso de Poisson................... 102

Problemas Resueltos ................................................................................................ 109 Problemas Propuestos .............................................................................................. 113

v

vi

Capitulo 1- Preeliminares probabilidades y simulaciones 1.1

Experimento Probabilidad

aleatorio.

Espacio

sobre

muestral.

teoría

Eventos

de

elementales.

El objetivo fundamental de la teoría de la probabilidad es la descripción matemática de experimentos aleatorios, que son procesos cuyos resultados no se pueden predecir con exactitud. Las dificultades en manejar matemáticamente algo que es por naturaleza impredecible se superan si abordamos la identificación de todos los resultados posibles que puede arrojar un experimento aleatorio. Con esto habremos definido el espacio muestral. El espacio muestral es un conjunto, en el sentido matemático de la palabra, y sus elementos constituyentes son los resultados posibles del experimento aleatorio, que también se conocen como eventos elementales.

Usualmente se denota el espacio

muestral mediante la letra griega omega mayúscula (Ω) y los eventos elementales mediante la omega minúscula con algún subíndice (ωi si Ω es un conjunto numerable) para distinguirlos entre sí. Para mantener la consistencia en la notación, se aclara que por evento elemental se entiende cada resultado posible del experimento aleatorio (los elementos constituyentes de Ω) o los subconjuntos unitarios de Ω formados por los elementos de Ω correspondientes.

Es de notar que la colección de eventos

elementales, bajo la acepción de subconjuntos unitarios, forman una partición de Ω: su unión es el conjunto Ω y son mutuamente disjuntos dos a dos. Los eventos elementales se pueden componer mediante uniones para formar eventos, que son subconjuntos del espacio muestral.

La colección de eventos del espacio

muestral es un álgebra de conjuntos, porque es cerrada bajo uniones finitas y complementos. En términos más sencillos, si A y B son dos eventos, A ∪ B y A son eventos también. A ∪ B es el evento que se verifica cuando se verifica el evento A o el evento B y A es el evento que se verifica cuando no se verifica A.

(

)

Como

A ∩ B = A ∪ B , el álgebra de eventos es cerrada bajo las intersecciones finitas también. Denotaremos por ℑ la clase de todos los eventos, o álgebra del espacio muestral.

1

Por razones que van más allá del alcance teórico de este recuento, es preciso exigir una condición adicional sobre ℑ: Si

{An } ⊂ ℑ

es una sucesión numerable de eventos,

entonces su unión infinita también es un evento – ∞

∪ An ∈ ℑ .

n =1

Un álgebra que satisface esta condición más fuerte se denomina σ-álgebra. ejemplo,

{∅, Ω}

Por

y ℘(Ω ) (se lee “partes de omega”, que es la clase de todos los

subconjuntos posibles de Ω) son σ-álgebras.

En resumen, se ha asociado a un

experimento aleatorio un conjunto de resultados posibles y una estructura matemática para definir todos los eventos posibles. A modo de ejemplo, si el experimento aleatorio consiste en escoger al azar una persona y observar su día de cumpleaños, para definir el espacio muestral debemos identificar cada día del año de una forma conveniente. Se podría asociar el 1 al primero de enero, el 2 al segundo de enero y así sucesivamente. Descartando el caso de las personas nacidas el 29 de febrero, el espacio muestral esta definido por el conjunto de números naturales del 1 al 365 y Ω = {1,2,…,365} . Podemos observar que el espacio muestral es un conjunto numerable y finito. Si estamos interesados en el evento “la persona es nacida en el mes de enero”, este evento se podría definir como E = {1,2,…,31}. Análogamente, si estamos interesados en el evento “la persona es de signo acuario en el zodiaco” (21 de enero al 19 de febrero), este se definiría por A = {21, 22,…, 50} . Las bases matemáticas de la teoría de probabilidades moderna se deben a elaboraciones sobre la teoría de la medida, que primordialmente se ocupa de cómo asignar cantidades numéricas a cada conjunto de una σ-álgebra. En nuestro caso esto es muy oportuno porque nos preocupa asociar probabilidades a eventos, y las probabilidades son valores numéricos que cuantifican el grado de certidumbre sobre la ocurrencia de algún evento en la realización de un experimento aleatorio.

En el

lenguaje de la teoría de la medida, la probabilidad es una medida, o función que le asigna a cada conjunto de una σ-álgebra un valor real positivo o nulo:

2

Definición (Axiomas de Kolmogorov): Sea (Ω,ℑ) un espacio muestral con su respectiva σ-álgebra de eventos.

Una función P: ℑ→[0,1] es una medida de probabilidad si

satisface las condiciones siguientes: a. P(Ω)=1 b. Si

{An } ⊂ ℑ

es una sucesión de conjuntos disjuntos dos a dos, entonces

⎛∞ ⎞ ∞ P ⎜ ∪ An ⎟ = ∑ P (An ) ⎝ n =1 ⎠ n =1 Esta es la propiedad de σ-aditividad. En este caso se dice que (Ω,ℑ,P) es un espacio de probabilidad.

1.2 Variable aleatoria. Distribución de probabilidad. Tipos de variables aleatorias. Densidad de probabilidad. El concepto de variable aleatoria es substancial y de mucha utilidad en el estudio matemático de los fenómenos aleatorios porque es un mecanismo para “traducir” los objetos del espacio muestral, que no necesariamente se identifican de forma numérica, a elementos de algún conjunto numérico. Esto facilita enormemente la cuantificación en el estudio de la aleatoriedad, y conlleva eventualmente a establecer características importantes que resumen numéricamente el comportamiento del fenómeno aleatorio, como la esperanza y la varianza.

Definición (Variable Aleatoria): Sea (Ω,ℑ,P) un espacio de probabilidad. La variable aleatoria X(ω) es una función X: Ω→ R que asigna a cada elemento del espacio muestral un valor real. Adicionalmente, la variable aleatoria es una función medible,

{

}

porque deber verificar que ω X (ω ) < α ∈ ℑ . Aún cuando esta característica de las variables aleatorias como funciones medibles no se menciona en los textos elementales de probabilidades con los que probablemente estudiaste esta materia, se incluye en la definición anterior porque es justamente esta

3

característica la que posibilita el cálculo de probabilidades asociadas a intervalos reales, la definición de funciones de distribución de probabilidad y consecuentemente, la función de densidad de probabilidad.

La variable aleatoria traduce eventos en el espacio muestral a intervalos o subconjuntos numéricos con la finalidad de calcular la probabilidad asociada a estos subconjuntos numéricos. Es decir, convierte la medida de probabilidad de eventos a distribuciones de probabilidad en conjuntos numéricos, definiendo así la llamada función de distribución de probabilidad:

Definición (Función de Distribución de Probabilidad): Sea (Ω,ℑ,P) un espacio de probabilidad y X(ω) una variable aleatoria definida sobre este espacio. La función de distribución F(x) de una variable aleatoria se define como sigue:

F (x ) = P {X ≤ x} = P {ω X (ω ) ≤ x}

Habiendo hecho esta definición, se esclarece el comentario anterior sobre la propiedad

{

}

de la variable aleatoria como función medible - si ω X (ω ) < α ∉ ℑ , dicho evento no tendría probabilidad asociada y por lo tanto se indefiniría la función de distribución de probabilidad, porque solo tienen probabilidad aquellos eventos definidos en ℑ. Entre algunas propiedades de la función de distribución de probabilidad, que también se denomina a veces función acumulada de probabilidad, se mencionan: i. F es una función creciente que toma valores en [0,1]. ii. F(-∞)=0 y F(∞)=1. Según la naturaleza del conjunto de valores que toma X, se tienen dos tipos de variables aleatorias.

Las variables aleatorias discretas se caracterizan por ser el

conjunto de valores de X finito o por lo menos numerable. Si el conjunto de valores de X es infinito e innumerable, X es una variable aleatoria continua. Esta distinción es muy importante porque determina la forma en que definimos las probabilidades puntuales: para una variable aleatoria discreta, P{X=x} es un valor positivo si x esta dentro del

{

rango de valores donde el evento ω X (ω ) = x

}

asume probabilidad positiva.

En

cambio, si X es una variable continua, P{X=x} es invariablemente igual a cero para 4

cualquier valor x porque si X toma valores en un conjunto infinito, ninguna probabilidad puntual puede ser distinta de cero. Cuando X es una variable aleatoria, podemos definir su función de probabilidad del modo usual:

p(x ) = P {X = x} = P {ω X (ω ) = x} La función de probabilidad de una variable discreta es mayor o igual a cero para todo x y verifica que la suma de las probabilidades puntuales a través del conjunto imagen de X es igual a uno:

∀x ∈ R p(x ) ≥ 0 y



∑ p (x ) = 1

x = −∞

A veces, p(x) se denota por px, para enfatizar la naturaleza discreta de la variable aleatoria (si p tiene un subíndice, los valores posibles de X son numerables). Si X es una variable continua, no tiene sentido hablar de probabilidades puntuales porque todas son iguales a cero. Se define entonces la función de densidad de probabilidad f, que se corresponde a la derivada Radon-Nikodym de la función de distribución. Una variable aleatoria que tiene asociada una tal función de densidad se denomina absolutamente continua, y dicha función de densidad f(x) verifica lo siguiente: x

f (x ) ≥ 0 para todo x y F (x ) = ∫ f (t )dt −∞

Es de notar que en el caso continuo, f(x) no representa una probabilidad puntual, pues ya hemos establecido que las probabilidades puntuales son necesariamente iguales a cero; en cambio f(x) puede asumir valores positivos. Una vez establecidas las definiciones básicas de variable aleatoria, distribución de probabilidad, función de probabilidad y función de densidad de probabilidad, es preciso mencionar que en la teoría de la probabilidad se estudian diversas distribuciones o leyes de probabilidad que pretenden modelar una amplia gama de fenómenos aleatorios. El estudiante que haya cursado cualquier curso elemental de probabilidades conoce algunas de estas leyes de probabilidad y sus características más importantes. En las tablas 1.1 y 1.2 se describen las leyes de probabilidad más usuales.

5

1.3.

Valores esperados: esperanza y varianza.

Dos características importantes de una variable aleatoria son su tendencia central y su dispersión media con respecto a la tendencia central.

Ambas están dadas por la

esperanza y la varianza respectivamente. La esperanza matemática de una variable aleatoria, también conocida como momento de orden uno o valor medio, se define del siguiente modo:

E [X ] =



∫ xdF (x )

−∞

Para el caso de la variable absolutamente continua se tiene que su esperanza es:

E [X ] =



∫ x ⋅ f (x )dx

−∞

en donde los límites de integración se definen convenientemente según el espacio de valores donde f(x) es positiva.

La esperanza matemática de una variable aleatoria

discreta con función de probabilidad p(x) se define como: ∞

E [ X ] = ∑ x ⋅ p (x ) k =0

en donde, una vez más, los límites de integración se definen de forma conveniente. El valor esperado de una variable aleatoria, su media poblacional, frecuentemente se designa mediante la letra μ del alfabeto griego.

A continuación se enuncian sin

demostración algunas propiedades importantes de la esperanza: •

Si X es una variable aleatoria degenerada (que asume un valor constante C con probabilidad uno), entonces E[X]=C.



Sea C una constante y X una variable aleatoria, entonces E[CX]=C⋅E[X].



Sea X una variable aleatoria y sea Y=h(X) otra variable aleatoria que es función de X. entonces, el valor esperado de Y es: ∞

E [Y ] = E [h( X )] = ∫ h( x )dF (x ) −∞

observando que los límites de integración se redefinen de acuerdo a los límites de integración para la variable X y en atención a la función h. Si la variable X es discreta, Y también lo es y su esperanza se define mediante una sumatoria.

6

La varianza, que indica el grado de dispersión de una variable aleatoria respecto a su media, también es un valor esperado. De hecho, la varianza de una variable aleatoria X es el valor esperado de la diferencia cuadrática de X respecto a su media y en su cálculo interviene la fórmula anterior:

[

]

2



V [X ] = E ( X − μ ) = 2

∫ ( X − μ ) dF (x )

−∞

Algunas de sus propiedades notables son: •

Para toda variable aleatoria X, V[X] ≥ 0



Si C es una constante, V [CX ] = C 2V [X ] .



Si A es una constante, V [X + A] = V [X ] .



V [X ] = E X 2 − E 2 [ X ] .

[ ]

Esta última formula es particularmente útil para el

cálculo de la varianza. Finalmente, como última nota en este aparte, se menciona la cota de Tchebyschev, que involucra la esperanza y la varianza de una variable y es de utilidad para acotar de forma muy aproximada ciertas probabilidades cuando no se tiene ningún conocimiento sobre la ley de probabilidad de una variable aleatoria. Este resultado se da en sus dos formas sin demostración:

P[ X − μ ≥ ε ] ≤

1.4.

V [X ]

ε

2

[

]

y, recíprocamente, P X − μ < ε > 1 −

V [X ]

ε2

Función característica y función generatriz. Propiedades y tablas.

El interés en la Estadística de la función generatriz de una variable discreta y la función característica de una variable discreta o continua radica en el cálculo de los momentos y en el cálculo de las distribuciones muestrales, siendo estas particularmente útiles para el cálculo de la suma de n variables aleatorias independientes e idénticamente distribuidas. Otro caso donde son de utilidad es cuando se tiene una composición de variables aleatorias de distintas distribuciones- ahí entonces se puede deducir la ley de

7

probabilidad de la variable compuesta a través del análisis de su función característica o generadora. La función característica de una variable aleatoria X tiene una definición bastante sencilla: es la esperanza de eiuX, en donde u es una variable real. Se tiene, pues: ∞

ϕ X (u ) = E [e iuX ] = ∫ e iux dF (x ) −∞

Como

e iuX = cos ux + i ⋅ sen ux , esta función es integrable para cada u y

consecuentemente, ϕ(u) posee una parte real y una parte imaginaria. ϕX(u) también es conocida como la transformada de Fourier de F(x). Si la variable X es absolutamente continua, entonces ∞

ϕ X (u ) = ∫ e iux f ( x )dx , con los límites de integración definidos donde f(x) sea positiva. −∞

Si X es una variable aleatoria discreta, se tiene por definición que ϕ X (u ) =

∑e

iux

p( x ) ,

con los límites de la sumatoria definidos en aquellos puntos donde la función de probabilidad p(x) sea positiva. Las funciones características de algunas variables aleatorias discretas y continuas más comunes se dan en las tablas 1.1 y 1.2.

Es importante recalcar que la función

característica depende del parámetro u, por lo tanto, cuando se hable de su derivada de orden k subsecuentemente, se refiere a la diferenciación con respecto a u. Por los momentos se indican algunas propiedades de la función característica que son de utilidad, aclarando que en lo sucesivo omitimos el subíndice X en ϕX(u) para ganar claridad tipográfica. Sea X una variable aleatoria con función característica ϕ (u), entonces:

ϕ (0) = 1 ϕ (t ) ≤ 1

[ ]

E Xk =

ϕ (k ) (0) ik

Esta última propiedad es particularmente útil, podemos calcular el momento de orden k de una variable X derivando k veces su función característica, evaluándola en cero y

8

dividiendo entre ik. Generalmente, en este tipo de cálculos surgen indeterminaciones de tipo 0/0 que se pueden resolver mediante el respectivo límite y la regla de L’Hospital. Otra propiedad interesante de la función característica es que existe una correspondencia unívoca entre ésta y la ley de probabilidad de la variable aleatoria subyacente. Existen varias fórmulas de “inversión” que sirven a tales efectos, como el teorema de Levy. Dichas formulas se establecen en lo que sigue sin demostración 1: Sean F(x) y ϕ (u) la función de distribución y la función característica de una variable aleatoria X respectivamente. Si x1 y x2 son dos puntos de continuidad de F(x) se tiene:

F (x 2 ) − F (x1 ) = lim T →∞

1 2π

e − iux1 − e − iux2 ϕ (u )du ∫ iu −T T

Como consecuencia de este teorema, se tienen los siguientes resultados: Si X es discreta, entonces p X (x ) = lim T →∞

1 2T

T

∫e

− iux

ϕ (u )du .

−T

En el caso continuo, la función de densidad de X es dada por f X (x ) =

1 2π



∫e

− iux

ϕ (u )du .

−∞

Por último es importante notar, aún adelantándose a la exposición de la independencia estocástica y la convolución de variables aleatorias, que la función característica sirve para obtener la distribución de una suma de variables independientes.

Esto se

desprende del hecho de que el valor esperado de un producto de variables aleatorias independientes es igual al producto de los valores esperados de las variables respectivas, pero este punto se tratará en mayor detalle posteriormente. En el caso en que la variable aleatoria X sea discreta y tome valores positivos, se puede definir su función generatriz del siguiente modo:

[ ]



g (u ) = E u X = ∑ p(k )u k k =o

Siempre y cuando u este dentro del radio de convergencia de dicha serie infinita. Algunas propiedades notables de la función generatriz son las siguientes:

1

RIOS, pp. 96-97

9

i.

p(k ) =

g (k ) (0 ) , para k = 0,1,2,… k!

ii. E [X ( X − 1)… ( X − k + 1)] = g (k ) (1), para k = 1,2,… . La expresión E [X ( X − 1)… ( X − k + 1)] se conoce como momento factorial de orden k para la variable X. Como la función característica la función generatriz determina unívocamente la ley de probabilidad de una variable aleatoria y también sirve a efectos de determinar la distribución de la suma de variables aleatorias independientes.

Las funciones

generatrices de diversas variables aleatorias discretas se dan en la tabla 1.1.

Tabla 1.1. Leyes de probabilidad discretas más frecuentes y sus características

Bernoulli

– En un ensayo de Bernoulli se observa un éxito con probabilidad p o un fracaso con probabilidad q=1-p.

0 ≤ p ≤1

Función de probabilidad:

⎧1 − p p X (x ) = ⎨ ⎩p

x=0 x =1

Valores esperados:

para x ∈ {0 ,1}

E [X ] = p

V [X ] = pq

Función generadora y función característica:

g (z ) = q + pz

ϕ X (u ) = q + pe iu

Binomial-

Es la suma de n variables aleatorias de Bernoulli independientes e idénticamente distribuidas con parámetro p. Representa también el número de éxitos en n ensayos independientes.

0 ≤ p ≤ 1, q = 1 − p, n ∈ N + Función de probabilidad:

⎧⎛ n ⎞ x n − x ⎪⎜ ⎟ p q p X (x ) = ⎨⎜⎝ x ⎟⎠ ⎪0 ⎩

Valores esperados:

x ∉ {0,…, n}

Función generadora y función característica:

g (z ) = (q + pz )

n

10

E [X ] = np

x ∈ {0,…, n}

(

ϕ X (u ) = q + pe iu

)

n

V [X ] = npq

Geométrica-

La variable aleatoria geométrica es el número de ensayos de tipo Bernoulli que se requieren hasta observar el primer éxito.

0 ≤ p ≤ 1, q = 1 − p

Función de probabilidad:

Valores esperados:

⎧ pq x −1 p X (x ) = ⎨ ⎩0

E [X ] =

x ∈N+ x ∉N+

1 p

V [X ] =

q p2

Función generadora y función característica:

pz g (z ) = 1 − qz

ϕ X (u ) =

pe iu

1 − qe iu

Binomial Negativa- La variable aleatoria binomial negativa representa el número de ensayos hasta observar la r-ésima ocurrencia de un éxito (r es un número fijo). Función de probabilidad:

Valores esperados:

⎧⎛ x − 1⎞ r x −r ⎟p q ⎪⎜ p X (x ) = ⎨⎜⎝ r − 1 ⎟⎠ ⎪ 0 ⎩

E [X ] =

x≥r

r p

V [X ] =

rq p2

x0

E [X ] =

r

λ

V [X ] =

r

λ2

en caso contrario

Función característica:

⎛ ⎝

ϕ X (u ) = ⎜1 −

iu ⎞ ⎟ λ⎠

−r

Nota: La función Γ(r) es la función gamma, que se define a continuación: ∞

Γ(r ) = ∫ u r −1e − u du, r > 0 0

Esta función tiene las siguientes propiedades: i. Γ n + 1 = nΓ n , n > 0 ii.

( ) ( ) Γ(n + 1) = n! si n es un entero positivo

13

1.5.

Variables aleatorias bidimensionales y n-dimensionales. distribución conjunta. Función de densidad conjunta.

Función de

Sucede muy comúnmente que estamos interesados en investigar las relaciones que hay entre dos o más características de los individuos de una población- esto da pie a la definición de las variables aleatorias bidimensionales y, de forma más general, a las ndimensionales. Este concepto pretende dar respuestas a preguntas tales como: ¿Cuál relación existe entre la estatura y el peso corporal de cada persona? ¿Existe algún vínculo entre el grado de desarrollo tecnológico y el porcentaje de la población que son científicos en un país? Es importante recalcar que las variables aleatorias conjuntas se refieren a dos o más características que se observan simultáneamente en cada individuo de una población; están, pues, asociadas al mismo espacio muestral (ver Fig. 1.1). Así por ejemplo, si estamos interesados en comparar las destrezas matemáticas de estudiantes de uno y otro liceo a partir de las notas de matemática de una muestra de veinte alumnos de cada liceo, no se puede instituir en base a esto una variable aleatoria bidimensional porque los alumnos no provienen de la misma población (dos liceos) ni tampoco un par de notas se refieren al mismo individuo.

Definición (Variable aleatoria bidimensional y n-dimensional): Sea (Ω,ℑ,P) un espacio de probabilidad y X=X(ω) e Y= X(ω) dos variables aleatorias definidas sobre ese mismo espacio probabilizado. El par (X,Y) constituye una variable aleatoria bidimensional, a veces denominada vector aleatorio.

Análogamente, si X1=X1(ω), …, Xn=Xn(ω) son n

variables aleatorias definidas sobre el mismo espacio, entonces ( X 1 ,

, X n ) es una

variable aleatoria n-dimensional (vector aleatorio n-dimensional).

Fig. 1.1 – Las variables aleatorias conjuntas están asociadas al mismo espacio muestral. 14

Como en el caso unidimesional, las variables aleatorias multidimensionales (ndimensionales) son discretas o continuas y poseen función de distribución y función de probabilidad o función de densidad de probabilidad según sea el caso. Los vectores aleatorios son discretos si el producto cartesiano X 1 ×

× X n es un conjunto finito o

numerable; en caso contrario, el vector aleatorio es continuo. Sin más preámbulos, se especifican seguidamente las particularidades salientes de los vectores aleatorios: Función de probabilidad conjunta en caso discreto: Al vector aleatorio discreto

(X1 ,

, X n ) se asocia una función de probabilidad p(x1 ,…, x n ) que representa la

{

respectiva probabilidad P ω X 1 (ω ) = x1 , … , X n (ω ) = x n

}

definida en el espacio

probabilizado y que cumple las siguientes condiciones: i.

p(x1 ,…, x n ) ≥ 0 para todo (x1 , ∞

ii.

, xn )



∑ p(x1,…, x n ) = 1



x1 = −∞

x 2 = −∞

La segunda condición establece que la masa de probabilidad total sumada a través de la región de valores donde p(x1 ,…, x n ) > 0 es igual a uno.

Como en el caso

unidimensional, esta condición es de hecho la que caracteriza a cualquier función de probabilidad o de densidad. Función de densidad de probabilidad conjunta (caso continuo): Al vector aleatorio continuo ( X 1 ,

, X n ) se asocia una función de densidad de probabilidad f (x1 ,…, x n )

que, asumiendo valores positivos en alguna región R del espacio n-dimensional, cumple las siguientes condiciones: i. f (x1 ,…, x n ) ≥ 0 para todo (x1 , ii.



∫ f (x ,…, x )dx …dx 1

R

n

1

n

, xn )

=1

Función de distribución de probabilidad conjunta: Un vector aleatorio

(X1 ,

, Xn )

basado en un espacio de probabilidad (Ω,ℑ,P) tiene una función de distribución conjunta definida del siguiente modo:

FX1,…, X n (x1,

, x n ) = P {ω X 1 (ω ) ≤ x1, … , X n (ω ) ≤ x n }

15

Calculándose esta expresión mediante sumatorias o integrales múltiples según sea el vector aleatorio discreto o continuo respectivamente.

Las expresiones para los

momentos de los vectores aleatorios se obtienen de forma análoga al caso unidimensional. Cabe destacar por último la expresión para la función característica de un vector aleatorio: Función característica conjunta: Sea

(X1 ,

, X n ) un vector aleatorio basado en un

espacio de probabilidad (Ω,ℑ,P). Su función característica conjunta esta dada por:

ϕ X1,…, X n (u1, , u n ) = E [exp i (u1 X 1 +

+ u n X n )] =

∫ exp i (u1 x1 +



+ u n x n )f (x1,…, x n )dx1 … dx n

R

Ha de entenderse la última integral de esta expresión como una sumatoria en el caso en que ( X 1 ,

, X n ) sea un vector aleatorio discreto.

Como último punto en este aparte, cabe observar que cada una de las variables aleatorias X i que conforman el vector aleatorio

(X1 ,

, X n ) está asociada a un

mismo espacio probabilizado, por lo cual cada una de estas variables tiene su propia función de probabilidad (de densidad de probabilidad, si es continua). En el contexto de las variables aleatorias multidimensionales, la función de probabilidad (o de densidad) de cada variable aleatoria por separado se conoce como función de probabilidad (densidad) marginal y se obtiene a partir de la función de probabilidad conjunta sumando (o integrando) a través de las variables aleatorias restantes. Así por ejemplo, si tenemos el vector aleatorio ( X ,Y ) con su función de probabilidad conjunta p(x, y ) (o función de densidad f (x, y ) si

( X ,Y )

es continua), podemos

obtener la función de probabilidad marginal del siguiente modo:

p X (x ) =

∑ p(x, y )

y ∈Rango Y

(o f X (x ) =

∫ f (x, y )dy si ( X,Y ) es continua) Rango Y

En el caso de variables aleatorias de más de dos dimensiones, tendremos sumatorias o integrales múltiples, a fin de sumar a través de las variables aleatorias restantes.

16

1.6.

Variables aleatorias independientes y su caracterización. Covarianza. Distribución de la suma de dos o más variables aleatorias independientes. Convolución.

El análisis de las relaciones entre las variables aleatorias de un modelo probabilístico tiene mucho que ver con el concepto de la independencia entre variables aleatorias. Intuitivamente, decimos que dos variables aleatorias son independientes si el resultado observado de una variable no afecta la ocurrencia del valor observado en la otra variable. Otra manera intuitiva de abordar la idea es considerando que si dos variables aleatorias son independientes, la distribución de probabilidades de una de ellas permanece igual a través de todos los posibles valores que asuma la otra variable, lo cual guarda relación directa con la posibilidad de factorizar la función de probabilidad conjunta como el producto de las respectivas funciones de probabilidad marginales. A modo de ilustrar, se considera el siguiente ejemplo: en una población, se observa la raza o grupo étnico de cada persona conjuntamente con su nivel de inteligencia medida a través del coeficiente intelectual.

Si el nivel de inteligencia de un individuo es

independiente de su grupo racial u origen étnico, se observará que las proporciones de individuos inteligentes, normales y subnormales permanecerán iguales sin importar el grupo racial o étnico considerado.

Valga este ejemplo para señalar otro aspecto

importante sobre las relaciones de dependencia entre variables aleatorias: la estadística se limita a discernir si ciertos niveles de una variable van acompañados por ciertos niveles de otra variable- las técnicas estadísticas clásicas no permiten discernir sobre las relaciones de causalidad de unas variables sobre otras. En nuestro ejemplo, si encontrásemos que el origen racial no es independiente del nivel de inteligencia de un individuo, no por esto pudiésemos concluir que ciertas razas son “más inteligentes” que otras o dicho de otro modo, que el origen racial de un individuo explica su bajo o alto coeficiente intelectual. Más bien, en este caso, el investigador debería evaluar si el instrumento de medición de la inteligencia está o no diseñado de forma sesgada para favorecer a los individuos de cierta raza por sobre los individuos de otras razas. En todo caso, si la dependencia estocástica es equivalente a la causalidad, eso es algo que debe responderse fuera del ámbito probabilístico. Otro error común en cuanto al concepto probabilístico de independencia, por lo menos en base a la experiencia docente del autor,

es aquel de señalar dos eventos

17

mutuamente excluyentes como aquellos que son independientes entre sí. De hecho, se da justamente lo contrario: si dos eventos son mutuamente exclusivos, la ocurrencia de uno determina la no ocurrencia del otro, por lo cual jamás pueden considerarse eventos independientes.

Es importante aclarar todos estos puntos en torno a la noción de

independencia estocástica porque un aspecto importante en el análisis de los procesos estocásticos es determinar si el estado del proceso en un instante de tiempo es independiente de su estado en otro instante.

Como se verá, la suposición de la

independencia entre los estados del sistema en distintos instantes de tiempo simplifica bastante el análisis del proceso estocástico. Seguidamente se dan algunas caracterizaciones de la independencia de las variables aleatorias conjuntamente distribuidas: i. Caracterización de la independencia en términos de sus funciones de probabilidad Un conjunto de variables aleatorias conjuntamente distribuidas se dice ser independiente si y solo si su función de probabilidad conjunta se puede factorizar como el producto de las funciones de probabilidad de cada variable:

p(x1,…, x n ) = p X1 (x1 ) ⋅

⋅ p X n (x n )

Si el vector aleatorio es continuo, se intercambia “función de probabilidad” por “función de densidad” en esta caracterización. ii. Caracterización de la independencia en términos de sus funciones de distribución Para toda n-pla de valores (x1 ,

FX1,…, X n (x1,

, x n ) , se tiene que

, x n ) = FX1 (x1 ) ⋅ … ⋅ FX n (x n )

iii. Caracterización de la independencia en términos de la esperanza matemática Para toda n-pla de funciones (g1 ,

, g n ) donde existan los respectivos valores

esperados en la siguiente ecuación:

E [g1 ( X 1 ) ⋅ …⋅ g n ( X n )] = E [g1 ( X 1 )] ⋅ … ⋅ E [g n ( X n )]

18

En palabras: la esperanza del producto de variables aleatorias conjuntamente distribuidas es igual al producto de los valores esperados de cada variable. De esta caracterización de independencia se deduce que la varianza de la suma de variables aleatorias conjuntamente distribuidas e independientes es igual a la

[

]

[ ]

[ ]

suma de las respectivas varianzas: V X 1 + … + X n = V X 1 + … + V X n

iv. Caracterización de la independencia en términos de su función característica La función característica de un vector aleatorio conjuntamente distribuido es igual al producto se las funciones características de cada variable aleatoria respectiva cuando estas son independientes. Dicha caracterización se infiere de la propiedad anterior para el valor esperado del producto de variables aleatorias independientes.

ϕ X1,…, X n (u1, , u n ) = ϕ X1 (u1 ) ⋅ … ⋅ ϕ X n (u n ) Esta caracterización de independencia es muy útil. Permite por ejemplo concluir que la suma de n variables exponenciales idénticamente distribuidas e independientes es una variable aleatoria gamma Según las distintas caracterizaciones de independencia vistas, se tiene que dos variables aleatorias, o son independientes o no lo son. Pero si hemos de establecer un grado o la magnitud de la dependencia entre dos variables, una medida sería la covarianza, cuya definición es:

cov [X ,Y ] = E [( X − E [X ])(Y − E [Y ])] = E [X ⋅ Y ] − E [X ] ⋅ E [Y ] Es de notar que si dos variables aleatorias X e Y son independientes, las esperanzas en la expresión del extremo derecho de estas igualdades se cancela- consecuentemente, si dos variables aleatorias son independientes, su covarianza es cero, aunque no podemos establecer de modo general la implicación contraria. La covarianza puede ser negativa o positiva, sin embargo, a fin de acotar la covarianza y establecer comparaciones entre los grados de dependencia de dos o más pares de variables aleatorias se define a partir de la covarianza el coeficiente de correlación:

19

ρ [X ,Y ] =

cov[X ,Y ]

V [X ] ⋅ V [Y ]

el cual se puede demostrar que está acotado entre -1 y 1 2. En realidad, el coeficiente de correlación mide el grado de linealidad en la relación de dos variables. Si ρ es -1, se tiene que entre X e Y existe una relación lineal decreciente perfecta: una variable se puede expresar como función afín de la otra y si una variable crece, la otra decrece. En cambio ρ=1 representa una relación lineal creciente perfecta: una variable aleatoria es función afín de la otra y ambas decrecen o crecen simultáneamente. Si ρ es cero, no existe ninguna relación de linealidad entre una y otra variable, pero como ya se dijo anteriormente, esto no implica necesariamente que las variables en cuestión sean independientes. Dicho sea de paso, existen otras medidas de correlación un tanto más robustas que no toman la linealidad en cuenta, como por ejemplo el coeficiente de correlación de rango de Spearman y el coeficiente de correlación de rango τ de Kendall entre otros 3. El concepto de independencia entre dos variables y sus caracterizaciones en términos de la esperanza matemática de su producto tienen como consecuencia un método sencillo para obtener la distribución de probabilidad de la suma de dos o más variables aleatorias. Se puede demostrar que si X e Y son dos variables aleatorias continuas e independientes entonces su función de densidad está dada por:

f X +Y (y ) =



∫ f X (x ) ⋅ fY (y − x )dx

−∞

Para el caso continuo, la función de probabilidad de X+Y para dos variables independientes es:

p X +Y (y ) = ∑ p X (x ) ⋅ pY (y − x ) x

Integrales como la de arriba se denominan bajo el nombre de convolución. En algunos textos de matemáticas la convolución de dos funciones f y g se escribe f∗g, de modo que f X +Y (y ) = f X ∗ fY . El cálculo de tales integrales (o sumatorias en el caso discreto) puede resultar algo tedioso- es de este punto de donde las funciones características 2

Ver la demostración del Teorema 7.11 en MEYER, p. 145

3

Ver el capitulo 9 de SPIEGEL.

20

derivan su importancia. Ya que la esperanza del producto de dos variables aleatorias independientes es igual producto de sus respectivas esperanzas, se tiene que:

[

] [

] [ ] [ ]

E e iu ( X +Y ) = E e iuX ⋅ e iuY = E e iuX ⋅ E e iuY y en consecuencia

ϕ X +Y (u ) = ϕ X (u ) ⋅ ϕY (u ) . En base a esta fórmula, se puede

determinar la distribución de la suma de variables aleatorias independientes observando la función característica de la suma. Con este resultado, se explica fácilmente porqué la suma de variables exponenciales independientes de idéntico parámetro tiene una distribución gamma, por ejemplo. Esta formula será de utilidad en el análisis de ciertos procesos estocásticos.

Ejemplo para las secciones 1.5 y 1.6 A fin de consolidar tu aprendizaje de los conceptos expuestos en las secciones anteriores sobre variables multidimensionales e independencia, considera el problema a continuación: Se lanzan dos dados y en atención al resultado, se definen las dos variables aleatorias siguientes-

X – representa la suma de las dos caras resultantes en el lanzamiento de los dados. Y – es una variable aleatoria dicotómica que asume el valor de 1 si la cara del primer dado es divisible entre 2 o 3, y 0 si no lo es. Determina la función de probabilidad conjunta de la variable aleatoria bidimensional (X,Y ) así como la funciones de probabilidad marginales de X y de Y. Adicionalmente, indica si las dos variables aleatorias en cuestión son mutuamente independientes. Solución: Primero, debemos identificar el espacio muestral subyacente al experimento aleatorio asociado al lanzamiento de los dos dados. Dicho espacio muestral se puede definir (o modelar, si prefieres) mediante el siguiente conjunto de pares ordenados:

21

Ω = {(d1, d 2 ) d1, d 2 ∈ N, 1 ≤ d1, d 2 ≤ 6} En palabras, Ω es el conjunto de todos los pares ordenados de números tal que cada número representa una de las posibles seis caras del dado respectivo. Dicho conjunto tiene 36 elementos y asumiendo que los dados son justos y que el lanzamiento de un dado no condiciona el lanzamiento del otro, cada uno de estos 36 eventos elementales del espacio muestral tiene una probabilidad asociada de 1 36 . Traducción al castellano: los posibles resultados de lanzar dos dados son equiprobables. A partir de este conjunto Ω definimos las dos variables aleatorias como en el enunciado del problema. Estas variables pueden considerarse como características numéricas que estarán asociadas a cada evento elemental o individuo de la población. En conjunto, se esquematiza todo esto en una tabla:

i

ωi

X (ω i )

Y (ω i )

i

ωi

X (ω i )

Y (ω i )

i

ωi

X (ω i )

Y (ω i )

1

(1,1)

2

0

13

(3,1)

4

1

25

(5,1)

6

0

2

(1,2)

3

0

14

(3,2)

5

1

26

(5,2)

7

0

3

(1,3)

4

0

15

(3,3)

6

1

27

(5,3)

8

0

4

(1,4)

5

0

16

(3,4)

7

1

28

(5,4)

9

0

5

(1,5)

6

0

17

(3,5)

8

1

29

(5,5)

10

0

6

(1,6)

7

0

18

(3,6)

9

1

30

(5,6)

11

0

7

(2,1)

3

1

19

(4,1)

5

1

31

(6,1)

7

1

8

(2,2)

4

1

20

(4,2)

6

1

32

(6,2)

8

1

9

(2,3)

5

1

21

(4,3)

7

1

33

(6,3)

9

1

10

(2,4)

6

1

22

(4,4)

8

1

34

(6,4)

10

1

11

(2,5)

7

1

23

(4,5)

9

1

35

(6,5)

11

1

12

(2,6)

8

1

24

(4,6)

10

1

36

(6,6)

12

1

Observamos que la v.a. X asume valores entre 2 y 12 (11 posibles valores), mientras que Y asume dos posibles valores- 0 y 1. Para obtener las probabilidades conjuntas, construimos una tabla de 11 columnas (cada columna representa un posible valor de X ) y 2 filas (los dos posibles valores de Y ). En cada celda, se indica la probabilidad 22

respectiva con que ocurre el valor (x,y). Estas probabilidades se obtienen a partir de la tabla anterior. Por ejemplo, el par ( X ,Y ) = (8,1) ocurre 4 veces en 36 casos. Por lo tanto su probabilidad es igual a 4 36 y este valor es el que colocamos en la celda respectiva. Para variables aleatorias bidimensionales discretas, dicha tabla se conoce como tabla de contingencia: X

Y

2

3

4

5

6

7

8

9

10

11

12

0

1/36

1/36

1/36

1/36

2/36

2/36

1/36

1/36

1/36

1/36

0

1

0

1/36

2/36

3/36

3/36

4/36

4/36

3/36

2/36

1/36

1/36

A esta tabla de contingencia podemos agregarle las respectivas funciones de probabilidad marginales (que son f X (x ) y fY (y ) ) totalizando las probabilidades de las celdas y de las columnas: X 2 Y

f X (x )

0

3

4

5

6

Totales

7

8

9

10

11

1/36 1/36 1/36 1/36 2/36 2/36 1/36 1/36 1/36 1/36

1

0

12

fY (y )

0

12/36

1/36 2/36 3/36 3/36 4/36 4/36 3/36 2/36 1/36 1/36

1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

24/36 1

Con las funciones de probabilidad marginales de X e Y podemos verificar si estas variables son independientes.

Recordemos que una de las definiciones o

caracterizaciones de independencia requiere que la función de probabilidad conjunta sea factorizable por las respectivas funciones de probabilidad marginales, es decir, que se cumpla p(x, y ) = p X (x ) ⋅ pY (y ) para todo x,y. Si tomamos, por ejemplo, x=3 e y=0, tenemos

p(x, y ) = p(3, 0) =

1 , 36

pero p X (x ) ⋅ pY (y ) =

12 2 1 y claramente se tiene que ⋅ = 36 36 54 23

p(x, y ) ≠ p X (x ) ⋅ pY (y ) y por lo tanto X e Y no son independientes. Han podido considerarse otras instancias de x e y, pero bástese que no se cumpla

p(x, y ) = p X (x ) ⋅ pY (y ) para una instancia para que el par X,Y no sea independiente. Este resultado tiene una lectura intuitiva: para que la suma X sea 2, es necesario que D1 no sea divisible entre 2 o 3. Por otro lado, para que X sea 12, es necesario que D1 sea divisible entre 2 y 3, porque tanto D1 como D2 son necesariamente iguales a 6. Por lo tanto, vemos que la divisibilidad de D1 por 2 o 3 condiciona la suma X; de hecho, se observa que para distintos valores de X las proporciones de las probabilidades conjuntas para los casos Y=0 o Y=1 son distintas. Todo esto confirma que X e Y son mutuamente dependientes, aunque el grado de dependencia no es total. Otra cosa que seguramente habrás notado es la razón por la cual las funciones de probabilidad individuales de X y de Y se denominan funciones de probabilidad marginales: siendo totales de columnas y de filas, se especifican en los márgenes de la tabla de contingencia.

24

1.7.

Introducción a la simulación estocástica mediante el lenguaje R.

El uso de la teoría de la probabilidad para deducir algunas propiedades de un modelo aleatorio entraña cierta dificultad- se presenta casos en donde el análisis teórico de un matemático experimentado sobre alguna situación que involucra el azar es errado. además

nuestra

formación

teórica

sobre

las

probabilidades

es

Si

deficiente

(lamentablemente este es el caso más común), entonces esto dificulta aún más el abordaje de ciertos problemas.

Pero teniendo una computadora, contamos con un

instrumento epistemológico que nos permite obtener conocimiento sobre el modelo aleatorio de forma experimental- este es el objetivo fundamental de la denominada simulación. La simulación, como la programación misma, es un arte. No existe un procedimiento mecánico para hacer simulaciones.

Lo que se requiere del analista es determinar

detalladamente las reglas y la secuencia de acciones que rigen el comportamiento de los componentes del sistema a simular. Se deben establecer bien las relaciones de dependencia entre los componentes y deslindar aquellos comportamientos de componentes que son independientes de los demás comportamientos. Esta secuencia de acciones y comportamientos conforma un ciclo, análogo a una partida de un juego. Como en las simulaciones se pretende determinar las probabilidades o los valores esperados, se deben realizar muchas iteraciones de estos ciclos para ver cual es su comportamiento “a la larga”. Es en este punto donde estriba el poder del computador como instrumento epistemológico- el computador realiza esta miríada de cálculos rápidamente, obteniendo la probabilidad o el valor esperado deseado a través de la fuerza de computo bruto. Existen diversos lenguajes o paquetes para la investigación estocástica. Entre estos, se escogió el lenguaje R como el principal para desarrollar los ejemplos y trabajos prácticos de este curso. El lenguaje R es un sistema para el análisis estadístico y gráfico, a la vez un entorno de programación y aplicación basado en el lenguaje S desarrollado por los Laboratorios AT&T Bell 4. Uno de los atractivos principales de R es que se distribuye libremente 5 bajo los términos de la GNU General Public License. 4

PARADIS, p. 3 Los binarios para la instalación de R, con la documentación correspondiente se pueden descargar a través de http://cran.r-project.org/

5

25

Aunado a esto, existen muchos programas en S disponibles a través del Internet que se pueden ejecutar directamente bajo R 6.

El lenguaje R, siendo un lenguaje de

programación orientado a objetos, incorpora sentencias básicas de bucles y condicionamiento junto con herramientas sofisticadas de alto nivel para el análisis estadístico, lo cual le da una enorme flexibilidad. Por todas estas razones, el lenguaje R tiene cada vez más preponderancia en el mundo académico y

en la investigación

estocástica. A modo de ilustrar lo que es una simulación, se comienza con un ejemplo extraído de un concurso en un programa de televisión británico que consiste en lo siguiente: el concursante se encuentra ante tres puertas entre las cuales debe escoger una. Detrás de una de las puertas se encuentra un carro y detrás de cada una de las otras dos un apestoso animal (una cabra). El trato es el siguiente, el animador (que sabe donde se encuentra el carro) abre una puerta obviamente diferente a la que el jugador escogió y a la que contiene el carro, revelando una flamante cabra.

Luego se le pregunta al

concursante si desea abrir otra puerta o mantiene su elección. ¿Que es más ventajoso para el concursante? ¿Cuál es la probabilidad de ganar si el jugador cambia de puerta? Muchas personas, inclusive matemáticos, concluyen erróneamente que no es particularmente más ventajoso cambiar de puerta razonando que una vez que el animador abre una de las puertas que no contiene el carro, las probabilidades de ganar o perder son iguales (1/2) si se cambia de puerta o no. Sin embargo, un análisis cuidadoso de las probabilidades demuestra que la probabilidad de ganar cambiando de puerta es de 2/3. Se deja como tarea verificar esto de forma teórica. En lo que sigue nos interesa más bien simular la situación.

Para esto debemos especificar lo más

detalladamente posible la secuencia de pasos en cada juego:

6

Consultar en http://stat.cmu.edu/S/

26

El Juego de Monty Hall











Primero, se esconde el carro detrás de una de las tres puertas (al azar). El jugador selecciona una de las tres puertas (escoge al azar) El animador (Monty Hall), sabiendo donde está el carro, escoge una puerta que no sea la que optó el concursante ni la que contiene el carro y la abre, revelando que hay una cabra detrás de esa puerta. Si queda una sola puerta elegible con esas condiciones, Monty la escoge. De lo contrario, si hay dos puertas elegibles, Monty escoge cualquiera de las dos al azar. Como en la simulación queremos determinar la probabilidad de ganar si el concursante cambia de puerta, hacemos que el jugador opte una segunda vez por la puerta que no seleccionó la primera vez ni por la puerta que acaba de abrir Monty. Si la segunda puerta que escogió el concursante es igual a la puerta detrás de la cual estaba el carro el concursante gana.

Este ciclo se repite un número N arbitrariamente elevado de veces a fin de determinar la proporción de veces que el concursante gana. Según la ley de los grandes números, si el número de iteraciones es lo bastante elevado, esta proporción se acercará a la probabilidad verdadera de 2/3.

A continuación se indica el código en R para esta

simulación junto con el resultado arrojado por la misma, que es de 0.6688, lo cual como se podrá apreciar, se acerca bastante a 2/3. #simulación del concurso de Monty Hall #problema descrito en el aparte 1.7. de los apuntes del curso #"Procesos Estocásticos", dictado en la UNEFA San Tomé #Autor: Prof. José L. Romero P. fecha: 10/8/2007 #-----------------------------------------------------cnt
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF