U2 Estadistica Angel Borgna Fernandez
Short Description
Download U2 Estadistica Angel Borgna Fernandez...
Description
2 Probabilidad
Ob je jeti tivos vos • Desarrollar algunas herramientas básicas para poder abordar con fundamento los problemas de la inferencia estadística. • Sistematizar Sistematizar,, organizar y cimentar los conceptos probabilísticos presentes en la cultura cotidiana.
2.1. Elementos de la teoría de probabilidad En la presente Unidad trataremos conceptos de la teoría de probabilidad por ser ésta la herramienta conceptual necesaria para abordar con fundam ento los problemas de la estadística inferencial.
2.1.1. Experimento aleatorio Comenzaremos leyendo el siguiente texto que fue extraído de la novela El jugador de Fedor Dostoievsky.
Párrafo del capítulo IV de El jugador (1866), jugador (1866), una de las más célebres y populares novelas de Fedor Dostoievsky, en gran parte un relato autobiográfico.
“[...] Las salas de juego estaban repletas de público. ¡Cuánta insolencia y cuánta avidez! Me abrí paso entre la muchedumbre y me coloqué frente al propio croupier. Empecé a jugar tímidamente, arriesgando cada vez dos, tres monedas. Entretanto, observaba. Tengo la impresión de que el cálculo previo vale para poco y, desde luego no tiene la importancia que le atribuyen muchos jugadores: llevan papel rayado, anotan las jugadas, hacen cuentas, deducen las probabilidades, calculan; por fin, apuestan y pierden. Igual que nosotros simples mortales, que jugamos sin cálculo alguno. He llegado, sin embargo, a una conclusión, al parecer, justa: existe, en efecto, si no un sistema, por lo menos cierto orden en la sucesión de probabilidades casuales, lo cual es muy extraño. Suele ocurrir, por ejemplo, que tras las doce cifras centrales centr ales salgan las doce últimas. Cae, por ejemplo, dos veces en las doce últimas y pasa a las doce primeras. De las doce primeras, vuelve a las centrales: sale tres o cuatro veces seguidas y de nuevo pasa a las doce últimas. Tras dos vueltas, cae sobre las primeras, que no salen más de una vez, y las cifras centrales salen sucesivamente tres veces. veces . Esto se repite durante hora hor a y media o dos horas. Uno, tres y dos; uno, tres y dos. Resulta muy divertido. Hay días, mañanas, en que el negro alterna con el rojo, casi en constante desorden, de modo que ni el rojo ni el negro salen más de dos o tres veces seguidas. Al día siguiente, o a la misma tarde, sale el rojo hasta veinticinco veces sucesivas, y continúa así durante algún tiempo, a veces, durante todo el día [...]”.
55
Universidad Virtual de Quilmes
Experimento aleatorio, Experimento probabilístico o estocástico: es aquel donde no se puede determinar a priori cuál va a ser su resultado.
La búsqueda de las leyes que, supuestamente, gobiernan el azar no solo atrae la concentración de algún jugador empedernido, sino que domina permanentemente los cálculos de casi todo el espectro científico desde –en un rango cronológico– la astronomía hasta la economía. Lo que aparece claramente en el párrafo seleccionado es la observación del fenómeno que interesa estudiar –la ruleta– mediante series de frecuencias. Cada vez que se realiza una jugada se está llevando lleva ndo a cabo un experimento aleatorio o azaroso, ¿por qué aleatorio? Porque no se puede predecir predecir de antemano el resultado que se va a obtener en esa jugada. Existen muchos experimentos aleatorios fuera del juego, juego, por ejemplo, podríamos anotar la edad de cada una de las per sonas que lee esta carpeta, cada edad del conjunto de todas las edades anotadas puede ser un resultado del experimento. Podemos citar también como experimento aleatorio la observación de la ocurrencia del robo de un auto realizada por un actuario de seguros. Este actuario podría anotar en función de resultados previos cuántos autos de una determinada marca y modelo fueron robados entre todos los que existen en el mercado y a partir de ello inducir si un nuevo auto cualquiera, elegido al azar de ese modelo y marca, tiene alguna posibilidad de ser robado. Tanto la jugada única del jugador, jugador, como el aseguramiento de un auto cualquiera tomado al azar, constituyen experimentos aleatorios simples porque involucran tomar un solo elemento al azar de una población. Tanto la avidez del jugador como la de la compañía de seguros nos llevan a los experimentos aleatorios compuestos –tomar más de un elemento al azar– donde el jugador haría varias jugadas o la compañía aseguraría varios autos.
El proceso de tomar al azar uno o más elementos de una determinada población es un experimento aleatorio. Si se selecciona un solo elemento, referido a una variable, el experimento es simple y si se seleccionan dos o más elementos, referidos a esa variable, el experimento aleatorio es compuesto porque es el resultado de la repetición de uno simple. Porr otro lado, si se selecciona un elemento al azar pero referido Po referido a dos o más variables conjuntamente resulta también un experimento aleatorio compuesto.
Cuando se seleccionan muestras aleatorias de tamaño n n de de una población se están realizando n n experimentos experimentos aleatorios simples.
Espacio muestral Denominamos espacio muestral (E) al conjunto de todos los resultados posibles de un experimento aleatorio. En el ejemplo del actuario nos interesa si al seleccionar un auto de esa marca y modelo éste puede ser robado o no, entonces los resultados posibles son: será robado o no será robado:
56
Estadistica
E = {robado, no robado} En una jugada de la ruleta los resultados posibles son: E = {todos los números de la ruleta} = {0, 1, 2, 3, ......... , 34, 35, 36} En la siguiente tabla figuran distintos tipos de experimentos aleatorios y espacios muestrales asociados a ellos.
Experimento aleatorio
Si se tomara/n al azar:
Espacio muestral
Se obtendrían los siguientes resultados
1- Una pyme del del grupo que figura en la matriz ME 3 de la Unidad anterior y se examinara el E ={ A, C, I, S} rubro al que pertenece. 2- Dos empleados de la empresa cooperativa E={FF, FM, MF, MM} de la matriz ME 1 y se observara el sexo al que pertenece cada uno. 3- Una vivienda entre las de la ME 2 y se reflexionara acerca de la cantidad de ambientes que tiene.
E ={ 1, 2, 3, 4, 5}
Como puede apreciarse, aprecia rse, los experimentos 1 y 3 son simples simpl es y el 2 es un experimento compuesto por repetición de uno simple. Para describir los elementos de un espacio muestral de un experimento compuesto se puede recurrir a un diagrama denominado diagrama de árbol donde cada una de las ramas representa a cada uno de los elementos compuestos del espacio muestral. El diagrama de árbol (G.2.1.) correspondiente al segundo experimento es Gráfico 2.1. Diagrama de árbol
Suceso o evento aleatorio
Un suceso o evento aleatorio es cualquier subconjunto de un espacio muestral.
57
Universidad Virtual de Quilmes
Son ejemplos de sucesos aleatorios del Espacio muestral del experimento 3, que la vivienda seleccionada tenga: S1 = {hasta 3 ambientes} S1 = {1, 2, 3} S2 = {1 ambiente} S2 = {1} S3 = {8 ambientes} S3 = { } = Φ S4 = {hasta 5 ambientes} S4 = {1, 2, 3, 4, 5} = E S5 = {3 o 4 ambientes} S5 = {3, 4} S6 = {menos de 4 ambientes} S6 = {1, 2, 3} S7 = {más de 3 ambientes} S7 = {4, 5}
Un suceso ocurrirá si el resultado del experimento aleatorio es un elemento de dicho suceso.
Si un suceso tiene un solo elemento (por ejemplo S 2) se dice que es un suce- so elemental. Si los elementos de un suceso son todos los del espacio muestral (el suceso coincide con E como el S4) al suceso se lo denomina suceso cierto y ocurre siempre al realizar el experimento. Si un suceso no tiene elementos, es un conjunto vacío como el S3 y se llama suceso imposible . Este suceso no podría ocurrir al realizar el experimento.
Relaciones entre sucesos Las relaciones más destacables que se pueden establecer entre dos o más sucesos son: identidad, exclusión e independencia. Para ejemplificarlas usaremos los sucesos S1 a S7.
Identidad
Dos o más sucesos son idénticos cuando tienen los mismos elementos.
Considerando el suceso S6 podemos notar claramente que es idéntico al suceso S1.
58
Estadistica
Exclusión
Dos sucesos son mutuamente excluyentes cuando la ocurrencia de uno excluye la ocurrencia del otro. Es decir, que no tienen elementos en común.
Por ejemplo, los sucesos S2 y S5 porque si ocurre S 2 no puede ocurrir S 5 y viceversa, por lo tanto son mutuamente excluyentes. Dos sucesos aleatorios son no excluyentes, caso S5 y S7, cuando tienen elementos en común. Un suceso está incluido en otro cuando todos sus elementos son parte de los elementos del otro como en el caso del suceso S2 que está contenido en S1. El espacio muestral y los sucesos aleatorios pueden representarse mediante un diagrama de Venn. En los siguientes diagramas se visualizan las tres formas que puede adoptar la relación de exclusión entre dos sucesos aleatorios.
Juan Venn (1834-1923). Filósofo e historiador inglés. Su obra de lógica más original es la Lógica del azar .
Gráfico 2.2.
Independencia Dos sucesos son independientes cuando la ocurrencia de uno no condiciona la ocurrencia del otro. Observando el primer caso del gráfico 2.2. –donde los sucesos son mutuamente excluyentes– si uno ocurriera, el otro nunca podría ocurrir. Eso implica la total dependencia del segundo suceso respecto del primero, y viceversa.
Si dos sucesos son mutuamente excluyentes entonces son fuertemente dependientes.
En el tercer diagrama, del mismo gráfico, si ocurriese el suceso incluido necesariamente el suceso incluyente ocurrirá, por lo que éste también es fuertemente dependiente de aquél.
59
Universidad Virtual de Quilmes
Si un suceso incluye a otro entonces es fuertemente dependiente del suceso incluido.
En el caso de los sucesos no excluyentes, segunda forma del gráfico, el análisis de la independencia requiere de otras cons ideraciones que se irán incorporando paulatinamente. Pero sí se puede afirmar que:
Si dos sucesos son independientes no son mutuamente excluyentes.
Operaciones entre sucesos Estudiadas sistemáticamente por el lógico irlandés J. Boole (1815-1864) y aplicadas al diseño de circuitos electrónicos a partir de 1939 y a la telefonía, control automático y computadoras en general hasta hoy.
Las operaciones entre sucesos son las tres operaciones de Boole (unión, intersección y complemento) del álgebra de conjuntos más la operación diferencia.
Estas operaciones aplicadas a dos o más sucesos aleatorios devuelven siempre un nuevo suceso aleatorio.
Unión
La unión de dos sucesos S i y S j es un nuevo suceso (Si U S j) cuyos elementos pertenecen a alguno de los dos sucesos (a S i o a S j o a ambos).
Gráfico 2.3.
Consideremos las siguientes uniones de sucesos aleatorios: S2 U S5 = {1} U {3, 4} = {1, 3, 4} S7 U S5 = {4, 5} U {3, 4} = {3, 4, 5} S1 U S2 = {1, 2, 3} U {1} = {1, 2, 3}
60
Estadistica
Intersección
La intersección de dos sucesos S i y S j es un nuevo suceso (S i S j) cuyos elementos pertenecen conjuntamente a ambos sucesos.
Gráfico 2.4.
La intersección de los sucesos S7 y S5, con los que ya operamos, es: S7 I S5 = {4, 5} I {3, 4} = {4} El suceso S7 I S5 ocurrirá sí y solo sí ocurrieran simultáneamente los sucesos S7 y S5.
1. a. b.
Realizar la intersección entre los sucesos S 2 y S5. Indicar qué tipo particular de suceso es la intersección entre dos sucesos mutuamente excluyentes.
Complemento
El complemento de un suceso S es otro suceso cuyos elementos son todos los elementos del espacio muestral que no pertenecen al suceso S.
Gráfico 2.5.
El complemento del suceso S1 es: S {todos los elementos de E que no están en S 1} = {4, 5}
61
Universidad Virtual de Quilmes
Diferencia
La diferencia entre dos sucesos S i y S j es un nuevo suceso (Si –S j) cuyos elementos pertenecen sólo a S i.
Gráfico 2.6.
Las siguientes diferencias entre sucesos son: S7 – S5 = {4, 5} – {3, 4} = {5} S1 – S2 = {1, 2, 3} – {1} = {2, 3} 2. a. b.
Determinar la diferencia entre los sucesos S 2 y S5. Determinar el suceso resultante de la diferencia entre dos sucesos mutuamente excluyentes.
2.1.2. Definiciones de probabilidad Enunciaremos las definiciones de probabilidad teniendo en cuenta su formulación histórica.
Definición clásica Essai philosophique sur les probabilités (1814). Pierre Simón de Laplace (17491827), astrónomo y matemático francés. Otras obras: Mecánica Celeste y El sistema del mundo.
La definición clásica de probabilidad se debe a Pierre Simón de Laplace para quien la teoría del azar consiste en determinar el número de casos favorables al acontecimiento cuya probabilidad se indaga. La razón de este número con la de todos los casos posibles es la medida de la probabilidad, que no es más que una fracción cuyo numerador es el número de casos favorables y cuyo denominador es el número total de casos posibles.
Es decir: p=
cantidad de casos favorables cantidad de casos posibles
Apliquemos esta definición a algún suceso en la jugada de la ruleta, por ejemplo, si nos interesa que en la próxima tirada de la ruleta salga par.
62
Estadistica
El espacio muestral es: E = {todos los números de la ruleta} E = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31. 32, 33, 34, 35, 36} y el suceso o evento de interés es: S = {que salga par} S = {2, 4, 6, 8, 10, 12, 14, 16, 18 , 20, 22, 24, 26, 28, 30, 32, 34, 36} P(S) = P(par) = 18 / 37 = 0,4865
Definición frecuencial Richard E. von Mises propuso la siguiente definición de probabilidad frecuencial en 1919.
La probabilidad de un suceso cualquiera es “[...] el Valor Límite de la
Frecuencia Relativa... Esta es la razón del número de casos en que el atributo a sido hallado al número total de observaciones [...]”
Matemático y filósofo austríaco (1883-1953).
Tomado de su libro Probabilidad , Estadística y Verdad (1928).
Es decir:
p=fr Supongamos que el actuario ha recabado información sobre una cantidad grande de autos asegurados y que de ellos el 15% sufrió algún robo. El actuario con ese dato puede calcular la probabilidad del suceso S: “el auto asegurado no sería robado”. P(S) = P( no robado) = 85/100 = 0,85
2.1.3. Axiomatización de la probabilidad La Teoría de la Probabilidad fue estructurada algebraicamente a partir de 1930 por matemáticos de la escuela ruso-francesa, dentro de una teoría especial de la medida de conjuntos. Esa teoría de la medida nos permitiría hablar de la probabilidad de un suceso aleatorio, como la medida de su ocurrencia. Su utilidad reside en entregar al cálculo de probabilidades una herramienta algebraica, es decir, un conjunto de operaciones y maneras de operar con probabilidades. Su cuerpo principal consiste en tres axiomas y un grupo de propiedades (teoremas). Axiomas
A.1. P (S) 0
la probabilidad de un suceso aleatorio S es un número no negativo.
A.2. P(E) = 1
la probabilidad del espacio muestral E es 1.
A.3. Si S j = entonces P(Si S j) = P (Si) + P(S j)
la probabilidad de la unión de dos sucesos aleatorios Si y S j mutuamente excluyentes es la suma de sus respectivas probabilidades.
Los referentes más importantes de esta escuela son: A. N. Kolmogoroff, F. Cantelli, E. Borel y otros.
Recordar que los axiomas son proposiciones intuitivas aceptadas sin demostración y que a partir de ellos pueden deducirse las propiedades (teoremas).
63
i
Universidad Virtual de Quilmes
Propiedades
P.1. 0 P(S) 1 Se deduce combinando A.1. y A.2. P.2. P( S ) = 1 – P(S) Se deduce combinando A.2. y A.3. P.3. P() = 0 Se deduce de A.3. y considerando que es el complemento de E P.4. P(Si S j) = P (Si) + P(S j) – P(Si S j) Se deduce de A.3. y de considerar a cada uno de los sucesos como unión de partes mutuamente excluyentes.
3.
Demostrar la P.4. utilizando la sugerencia dada.
2.1.4. Tipos de probabilidad Hay tres tipos de probabilidad de que ocurra un suceso aleatorio, a saber: probabilidad total , probabilidad conjunta o compuesta y probabilidad condicional
Probabilidad total Se denomina probabilidad total a la probabilidad del suceso resultante de la unión de dos o más sucesos cualesquiera. Las probabilidades de los sucesos vistos en el subapartado 2.1.2. “que el auto asegurado no sea robado” y “que salga un número par en la jugada de la ruleta” son ejemplos de probabilidad total . El suceso “que el auto asegurado no sea robado” es un suceso elemental, en cambio el suceso “que salga un número par en la jugada de la ruleta” resulta de la unión de los sucesos elementales {2}, {4}, {6}, {8},......, {30}, {32},{34},{36} o sea, P(sea par) = P({2}U{4}U {6}U{8}U......U{30}U{32}U{34}U{36}) P(sea par) = P(2) + P(4) + P(6) + P(8) +...+ P(30) + P(32) + P(34) + P(36) = 1/37 + 1/37 + 1/37 +…….+ 1/37 + 1/37 = 18 .1/ 37 = 18/37 Se entiende por equiprobabilidad, en el sentido expresado por Laplace, a la igualdad de oportunidad que tiene cada uno de los resultados elementales de una población para ser seleccionado durante la realización de un experimento aleatorio.
64
El cálculo realizado se basa en el tercer axioma y supone la equiprobabilidad de cada uno de los resultados de la jugada de la ruleta.
Probabilidad condicional Supongamos que un estudio contable que recién se inicia debe presentar ante un organismo oficial dos declaraciones juradas ( DDJJ) tomadas al azar entre sus 10 clientes. Entre ellos, tres son grandes contribuyentes (G) y el resto monotributistas (M). El espacio muestral E = {GG, GM, MG, MM} puede obtenerse a partir del diagrama de árbol del gráfico 2.7. en el que se incluyen las probabilidades totales correspondientes a la primera selección
Estadistica
Gráfico 2.7. Diagrama de árbol
Es decir, por ejemplo, que hay una probabilidad de 0,3 –probabilidad total– de que la primera declaración jurada seleccionada corresponda a un gran contribuyente. A continuación, completaremos el diagrama agregando las probabilidades de los resultados de la segunda selección de una declaración teniendo en cuenta que en la segunda instancia el conjunto de DDJJ va a contar con un elemento menos cambiando también su composición.
Gráfico 2.8. Diagrama de árbol
Si nos interesara, por ejemplo, la probabilidad de que la segunda declaración jurada extraída sea de un monotributista tendríamos dos respuestas posibles (7/9 y 6/9) dependiendo de cuál haya sido el resultado de la primera selección. Es decir, que la segunda selección está sujeta o condicionada a lo que ocurrió en la primera. Las probabilidades consignadas al lado de cada resultado de la segunda extracción son probabilidades condicionales .
La probabilidad condicional mide la ocurrencia de un suceso B si hubiera ocurrido el suceso A y se expresa P(B/A), donde A es el suceso condición y el símbolo “/” es una notación (no una operación).
Las probabilidades condicionales consignadas en el árbol son: P(G/G) = 2/9 = 0,2222 P(G/M) = 7/9 = 0,7778 P(M/G) = 3/9 = 0,3333 P(M/M) = 6/9 = 0,6667
La notación P(B/A) se debe al economista inglés J. M. Keynes (1883 – 1946) en su Tratado sobre las probabilidades (1933).
65
Universidad Virtual de Quilmes
La primera se lee: 0,2222 es la probabilidad de que en la segunda selección la Declaración Jurada sea de un gran contribuyente si (dado que, tal que, sabiendo que ) la primera hubiera sido también de un gran contribuyente.
Probabilidad conjunta o compuesta Las probabilidades de cada uno de los sucesos del espacio muestral se denominan probabilidades compuestas y miden la probabilidad de ocurrencia con junta o simultánea de dos resultados particulares en ambas selecciones. Convenimos en: P(GG) = P(primero G y segundo G) = P(G 1 I G2) = P(G I G)
La probabilidad compuesta o conjunta es la probabilidad de que ocurran simultáneamente dos o más sucesos.
Utilizando la definición de Laplace (casos favorables/casos posibles ) la probabilidad del suceso GG resulta :
donde la cantidad de casos posibles resulta de contar todas las combinaciones de diez DDJJ (al momento de la primera selección) por nueve DDJJ (en la segunda instancia), y la cantidad de casos favorables también resulta de la combinación de 3 G (primera vez) por 2 G (segunda vez). Relacionando con las probabilidades del árbol resulta finalmente:
Generalizando para dos sucesos cualesquiera A y B: P(A I B) = P(A). P(B/A)
La probabilidad compuesta entre dos sucesos A y B resulta de la multiplicación de la probabilidad total del suceso condición A por la probabilidad condicional de B tal que A.
Conclusiones Dados dos sucesos A y B de un espacio muestral de un experimento aleatorio con probabilidades no nulas, a partir de lo visto, se pueden deducir las siguientes proposiciones:
66
Estadistica
Los experimentos aleatorios compuestos por repetición de uno simple son el mecanismo básico para la confección de muestras en una población. Otro tipo de experimentos compuestos sirven al estudio de la asociación y/o relación causa efecto entre variables y son los experimentos compuestos bivariados.
Experimento bivariado Como ejemplo para el tratamiento de la probabilidad en experimentos bivariados analizaremos un caso particular como medio para la generalización. Con la finalidad de pronosticar el estado del tránsito en función de la ocurrencia de embotellamiento a partir de la existencia de un accidente en una autopista en determinada franja horaria, se relevaron datos históricos obteniéndose la siguiente información: el 20% de los automóviles que circulan por esa autopista en el horario estudiado tuvieron algún tipo de accidente; el 95% de las veces en que ocurrió un accidente se produjo un embotellamiento y cuando no hubo accidente ocurrió un embotellamiento el 15% de las veces. Notamos que podríamos identificar la ocurrencia de un accidente como causa y el embotellamiento como un efecto . En el diagrama de árbol del gráfico 2.9. se ilustra la información: Gráfico 2.9. Diagrama de árbol
67
Universidad Virtual de Quilmes
Donde las probabilidades que se tienen son:
total de Accidente
P(A) = 0,20
total de No accidente
P( A ) = 0,80
condicional de Embotellamiento tal que Accidente
P(E/A) = 0,95
condicional de No embotellamiento tal que Accidente
P( E /A) = 0,05
condicional de Embotellamiento tal que No accidente
P(E/ A ) = 0,15
condicional de No embotellamiento tal que No accidente
P( E / A ) = 0,85
A partir de estas probabilidades pueden calcularse las probabilidades conjuntas:
de Accidente y Embotellamiento
P(A E) = 0,19
de Accidente y No embotellamiento
P(A E ) = 0,01
de No accidente y Embotellamiento
P( A E) = 0,12
de No accidente y No embotellamiento
P( A E ) = 0,68
Con las probabilidades totales de las causas y las conjuntas armamos una tabla conjunta de probabilidades o tabla de contingencias .
E
E
Total
A
0,19
0,01
0,20
A
0,12
0,68
0,80
Total
0,31
0,69
1
En la que además aparecen calculadas las probabilidades totales de los efectos Embotellamiento y No embotellamiento. Por su ubicación en la tabla de contingencia, a las probabilidades totales se las suele denominar también probabilidades marginales . A partir de la tabla de contingencias pueden calcularse las siguientes probabilidades condicionales de las causas a partir de los efectos:
Accidente tal que Embotellamiento
P(A/E) = 0,19/0,31 = 0,6129
Accidente tal que No embotellamiento
P(A/ E ) = 0,01/0,69 = 0,0145
No accidente tal que Embotellamiento
P( A /E) = 0,12/0,31 = 0,0039
No accidente tal que No embotellamiento P( A / E ) = 0,68/0,69 = 0,9855
68
Estadistica
Las probabilidades calculadas se denominan probabilidades bayesianas o probabilidades condicionales de la causas y se formalizan mediante el teorema de Bayes. Dado el suceso B (efecto) de un espacio muestral E y una partición de n sucesos Ai (causas) de dicho espacio, la probabilidad de que ocurra el suceso Ai si ocurriera el suceso B es:
En 1764, después de la muerte de Thomas Bayes (1702-1761), se publicó An essay formars solving a problem in the doctrine of chances, una memoria en la que aparece, por vez primera, la determinación de la probabilidad de las causas a partir de los efectos que han podido ser observados.
donde P(B) es la probabilidad total del suceso condición y P(B) ≠ 0.
Para A j cualquier suceso del conjunto de los A i con i = 1, 2…n
4.
Considerando la tabla conjunta 1.11. del subapartado 1.1.2. de la Unidad anterior referida al rubro y evolución de los puestos de trabajo de las pymes, calcular una probabilidad de cada uno de los tipos vistos e interpretarla.
2.2. Variable aleatoria Una variable aleatoria asigna valores numéricos, del conjunto de los números reales, a los sucesos definidos en el espacio m uestral asociado a un experimento aleatorio. En caso de que el espacio muestral de un experimento aleatorio tenga una cantidad finita o infinita numerable de elementos, es decir, que permite algún mecanismo de conteo, la variable aleatoria diseñada será una variable alea- toria discreta. En caso de que el experimento aleatorio involucre algún tipo de medición, –cuyos resultados pertenecen a regiones del conjunto de los números reales– donde es clara la imposibilidad de conteo, la variable aleatoria es de naturaleza continua y por ello se la denomina variable aleatoria continua.
Se denomina variable aleatoria a una función del espacio muestral sobre el espacio de los números reales.
2.2.1. Variable aleatoria discreta Las variables aleatorias discretas son funciones del espacio muestral sobre el subconjunto de los enteros. Diseñaremos una variable aleatoria discreta para el ejemplo del estudio contable utilizado en el subapartado 2.1.4. (probabilidad condicional).
69
Universidad Virtual de Quilmes
Recordemos que el espacio muestral es: E = {GG, GM, MG, MM} La variable aleatoria de diseño que elegimos es: Al momento de diseñar una variable aleatoria discreta debe optarse por alguna de las categorías involucradas en el problema para la cual la variable hará el conteo. En nuestro caso, podría haberse optado por otra variable que contara la cantidad de ddjj de grandes clientes entre las dos seleccionadas.
X: “cantidad de DDJJ de clientes monotributistas entre las dos seleccionadas” La variable aleatoria X recorrerá los valores enteros entre 0 y 2, donde 0 s ignifica que ninguna de las dos DDJJ corresponderían a monotributistas y 2 que ambas declaraciones sean de monotributistas. X E
GG
0
GM MG
1
MM
2
El recorrido de X es R(X) = {0, 1, 2} Calculamos la probabilidad para cada valor r del recorrido de X obteniendo así los valores de la denominada función de probabilidad h(r) . Siendo h(r) = P(X = r) h (0) = P( X= 0 M) = P(GG) = 6/90 h (1) = P( X= 1 M) = P(G, M) + P(MG) = 21/90 + 21/90 = 42/ 90 h (2) = P( X= 2 M) = P(MM) = 42/90 Confeccionamos a continuación la tabla (T.2.1.) de distribución de probabilidades. T.2.1. r
h(r)
F(r)
0
6/90
6/90
1
42/90
48/90
2
42/90
1
Donde F(r) es la función de distribución acumulativa o simplemente función de distribución . Siendo F(r) = P(x £ r).
h(r) es una función de probabilidad de una variable aleatoria discreta X sí y sólo si para todo elemento r del R(X) se cumplen las siguientes propiedades que se desprenden de los dos primeros axiomas de probabilidad. h(r) ≥ 0 ∑ h(r) = 1
Un gráfico adecuado para la función de probabilidad h(r) es el de bastones y para la función de distribución es el de escalones, ambos vistos en el subapartado 1.1.3. de la Unidad 1.
70
Estadistica
El carácter numérico de la variable aleatoria permite calcular algunas de las medidas –media, varianza y desvío estándar– de las aplicadas anteriormente a las variables estadísticas, con la siguiente salvedad: en una variable estadística la media corresponde a un promedio observado mientras que en una variable aleatoria la media indica un promedio esperado, o valor esperado, y se denomina esperanza . La esperanza E(X), la varianza V(X) y el desvío estándar DS(X) se expresan
La esperanza de la variable del problema es: E (X) = 0.6/90 +1.42/90 + 2. 42/90 = 1,4 DDJJ de monotributistas Es decir, que si se seleccionan al azar dos DDJJ se espera que entre ellas haya 1,4 de clientes monotributistas. La varianza y el desvío estándar son: V(X) = 0,3733 y DS(X) = 0,611
Propiedades de la esperanza y de la varianza P.1. E(C) = C La esperanza de una constante es ella misma.
Las propiedades que se enuncian son válidas en cualquier experimento aleatorio, sea este simple o compuesto.
P.2. E(C + n . X) = C + n . E(X) C + n.X es una nueva variable aleatoria resultante de una transformación lineal de X. P.3. E(n . X) = n . E(X) Caso particular que se desprende de la propiedad anterior P.4. E(X + Y) = E(X) + E(Y) X + Y es una nueva variable aleatoria, resultante de sumar las variables X e Y. P.5. V(X + Y) = V(X) + V(Y) Sólo si X e Y son independientes. 2
P.6. V(n . X) = n . V(x) Se deduce de la definición de varianza
2.2.2. Modelos especiales de variables aleatorias discretas Existen problemas de distinta índole originados en ramas diversas de la ciencia, que al ser vinculados con experimentos aleatorios presentan caracterís71
Universidad Virtual de Quilmes
ticas similares; esas características comunes son las que permiten modelarlos unívocamente. Para la construcción de un modelo probabilístico, primero deben identificarse exhaustivamente cada una de las características específicas del experimento y seguidamente asociarle una variable aleatoria apropiada.
Experimento binomial El experimento binomial es un experimento compuesto que consiste en n repeticiones independientes de un experimento simple dicotómico. Por lo tanto las características que lo identifican son: Si el experimento tiene más de dos resultados posibles hay que dicotomizarlo. Si las repeticiones del experimento simple no fueran independientes, el modelo que se generaría se denomina modelo hipergeométrico.
• El experimento simple tiene sólo dos resultados posibles, denominados éxito –suceso que interesa seguir– y fracaso – suceso complementario. • Se repite n veces el experimento simple. • Las repeticiones del experimento simple son independientes entre sí.
Vinculadas al experimento binomial pueden definirse más de una variable aleatoria, con sus correspondientes distribuciones de probabilidad, cumpliendo distintos roles dentro del mismo experimento. Ellas son las variables aleatorias binomial, geométrica y de Pascal (o binomial negativa). Variable aleatoria binomial
En este experimento, la variable aleatoria x asociada toma valores 0 y 1. La esperanza de esta variable resulta ser la probabilidad de éxito. P. Santiago Jacobo Bernouilli o Bernoulli (1654-1705) fue un matemático suizo de origen belga. Entre otras cosas fue quien usó por primera vez la palabra “integral” y escribió el “Ars conjectandi” sobre el cálculo de probabilidades. En símbolos X ~ B(n,P)
Es una variable discreta que cuenta la cantidad r de éxitos en un experimento binomial.
Llamaremos P a la probabilidad de éxito y en consecuencia 1-P a la probabilidad de fracaso.
El modelo binomial queda caracterizado por n (número de repeticiones del experimento simple o de Bernoulli) y P (probabilidad de éxito en cada repetición) que son sus parámetros . Entonces decimos que la variable aleatoria X asociada tiene distribución binomial con parámetros n y P .
El modelo matemático para la distribución binomial permite calcular los valores de la función de probabilidad h(r). h (r) = P(X = r) = nCr . P r . (1-P) n-r
nCr
=
n n! r r!(n r)! =
Donde nCr es un número combinatorio que cuenta la cantidad de combinaciones de n elementos tomados de a r , es decir la cantidad de grupos de r elementos que pueden formarse a partir de los n . Ejemplo De la revisión de los archivos de una empresa de larga trayectoria en un determinado rubro surge que en el 70% de sus balances semanales se registraron superávit. En una auditoría se propuso realizar una muestra con los balances de 10 semanas tomadas al azar en forma independiente.
72
-
Estadistica
Conceptualizando que esa muestra es un experimento aleatorio y pasando revista a sus características comprobamos que responden a un modelo binomial a saber: hay dos resultados posibles (superávit o no s uperávit) cada vez que se seleccione un balance semanal y se toman n (10) balances en forma independiente. Ante la futura auditoría nos podemos preguntar acerca de la probabilidad de que se encuentren en la muestra a lo sumo 5 balances con superávit o entre 3 y 6 balances con superávit o al menos 6 balances con superávit. La variable aleatoria asociada al experimento, para responder los interrogantes del auditor, podría ser: X: “cantidad de balances con superávit entre los 10 seleccionados al azar en forma independiente”. Los parámetros de la distribución resultan entonces, n = 10
P = 0,70
y los valores de la función de probabilidad h(r) y los de la función de distribución F(r) = P(X £ r) se encuentran en la tabla T.2.2. T.2.2. ri
0
1
2
3
4
5
6
7
8
9
10
h(r)
0,000006
0,000138
0,001447
0,009002
0,036757
0,102919
0,200121
0,266828
0,233474
0,121061
0,028248
F(r)
0,000006
0,000144
0,001591
0,010593
0,047350
0,150268
0,350389
0,617217
0,850691
0,971752
1
La probabilidad de que en la muestra se encuentren a lo sumo 5 balances con superávit será:
o también
La probabilidad de que en la muestra haya entre 3 y 6 balances con superávit
o también
Al menos 6 balances con superávit
73
Universidad Virtual de Quilmes
o también
Esperanza y varianza de una distribución binomial Como el experimento binomial consiste en n repeticiones independientes de un ensayo Bernoulli, la variable aleatoria binomial X es una transformación lineal de la variable aleatoria Bernoulli x , es decir,
Luego, aplicando las propiedades de la esperanza y varianza P.4. y P.5. enunciadas anteriormente en el presente apartado calculamos la esperanza y la varianza de una variable aleatoria binomial X. La esperanza es:
y la varianza resulta:
Volviendo al ejemplo de los balances, la cantidad de balances que se espera encontrar con superávit entre los 10 seleccionados será E(X) = n . p = 10 . 0,70 = 7 balances con superávit Con una desviación estándar de
Proceso de Poisson
Un proceso de Poisson es un experimento de naturaleza binomial donde los éxitos ocurren o no a lo largo de un intervalo continuo (el cual puede estar dado en tiempo, longitud, superficie, volumen, etcétera).
La intensidad media es la cantidad de éxitos esperada por unidad del continuo, mientras el proceso sea el mismo.
74
Es un proceso donde los “éxitos” ocurren en el transcurso del continuo y a diferencia de un experimento binomial puro los “fracasos” no pueden ocurrir porque representan la ausencia de éxito. Lo que caracteriza unívocamente a un determinado proceso de Poisson es la intensidad media (a) de ocurrencias de éxito en la unidad del continuo.
Estadistica
Por ejemplo, una distribuidora mayorista comprobó que, en las primeras semanas de cada mes, la cantidad media demandada de un determinado producto es de 3 toneladas diarias. El fenómeno descrito involucra un proceso de Poisson donde a = 3 tn/día para esa época del mes. También, que en las últimas semanas de cada mes la demanda media diaria baja a 2 toneladas. En este caso el proceso de Poisson sería otro porque presenta una intensidad media a = 2 tn/día, diferente a la anterior. Diferentes a indican procesos poissonianos distintos. En un proceso aleatorio poissoniano es posible definir variables aleatorias de distinto tipo. Para procesos de este tipo, en esta carpeta, presentaremos una variable aleatoria discreta llamada de Poisson (que cuente la cantidad de éxitos en un intervalo continuo) y una variable aleatoria continua denominada exponencial que veremos en 2.2.4. Variable aleatoria de Poisson Es una variable discreta que cuenta la cantidad de “éxitos” que podrían ocurrir en un cierto intervalo continuo, durante un proceso de Poisson. Establecido un intervalo de longitud t en el continuo, la cantidad media esperada de ocurrencia de éxitos en ese intervalo es E(X) = α . t, donde α es la ya vista intensidad media de ocurrencias de éxito en la unidad del continuo. La esperanza E(x), que simbolizamos con la letra griega λ es el parámetro de esta distribución. Si una variable aleatoria discreta X sigue una distribución de Poisson de parámetro λ podemos expresarla en símbolos como X ~ P(l) y la probabilidad P(X= r) de que sucedan r éxitos en un intervalo t dado se calcula mediante la siguiente fórmula:
La probabilidad de una variable aleatoria X que se distribuye en forma de Poisson: • depende únicamente de la longitud (t) del intervalo considerado, • es independiente de lo ocurrido en alguno de los intervalos precedentes.
Para intervalos de diferente longitud t habrá distintas distribuciones de probabilidad, cada una con su propio λ todas dentro de un mismo proceso caracterizado por α. Lo particular de esta variable aleatoria es que su varianza también es λ .
Volviendo al ejemplo de la distribuidora mayorista nos planteamos las siguientes inquietudes. • ¿Cuál es la probabilidad de que en dos días de la primera semana de un mes cualquiera se produzca una demanda de 5 toneladas? Determinamos primero el valor del parámetro λ para un t = 2 días:
75
Universidad Virtual de Quilmes
La probabilidad de que en esos dos días la demanda sea de 5 toneladas es de 0,1606. Con base al λ calculado podemos decir que en esos dos días se espera que haya una demanda de 6 toneladas del producto. • ¿Cuál es la probabilidad de que en un día y medio de la última semana de un mes cualquiera la demanda sea superior a 2 toneladas.
En este caso, λ = tn/día . 1,5 días = 3 tn Luego:
La probabilidad de que en ese día y medio la demanda supere las 2 tn es 0,8009. Con base al λ calculado podemos decir que en esos dos días se espera que haya una demanda de 3 toneladas del producto.
5.
Buscar tres ejemplos de la vida real que pudieran constituir un proceso de Poisson y para cada uno describir la variable involucrada.
2.2.3. Variable aleatoria continua Existen fenómenos que no permiten ser tratados con modelos de variables aleatorias discretas debido a que los resultados del experimento aleatorio asociado a él sólo son medibles en el conjunto de los números reales. En este caso la variable aleatoria asociada debe ser una variable continua para la cual no se pueden listar puntualmente cada uno de sus valores pero sí considerar su recorrido mediante intervalos. Al ser las variables aleatorias continuas funciones del espacio muestral sobre el espacio de los números reales, el tratamiento de la misma deberá realizarse mediante intervalos, los problemas de probabilidad que las involucran son del tipo P(x ≤ a), P(x ≥ b) o P(a ≤ x ≤ b). En una variable aleatoria continua, el correlato de la función h(r) de las variables aleatorias discretas es la función f(x) denominada función de densidad de probabilidad que a diferencia de la h(r) no asigna probabilidades sino que permite calcularlas en intervalos de números reales. La función de densidad de probabilidad cumple con las siguientes propiedades:
76
Estadistica
Los valores de la función f(x) deben ser siempre positivos o 0 para cualquier valor de la variable X.
El área encerrada entre la función –en todo su dominio– y el eje de las abscisas es 1.
La probabilidad de que la variable aleatoria se encuentre entre dos valores a y b resulta de integrar la función de densidad f(x) entre esos dos límites.
Gráfico 2.10.
En el caso que a coincida con b el área de la región sombreada en el G.2.10. tendría base igual a 0 y el área es 0, lo que también se desprende de la P.3. cuando a y b coinciden en un mismo punto. Es decir, que en una variable aleatoria continua las probabilidades puntuales son cero.
Una función de densidad de probabilidad es un modelo teórico probabilístico sustentado, en general, por la distribución de una población.
Como consecuencia de que las probabilidades puntuales son cero los sucesos “x < a” y “x ≤ a” son idénticos y por lo tanto sus probabilidades son iguales.
2.2.4. Modelos especiales de variables aleatorias continuas Como se hiciera mención en el subapartado 2.2.2. las características comunes de algunos fenómenos aleatorios son las que permiten elaborar modelos. En el caso de las variables aleatorias continuas desarrollaremos dos modelos especiales de distribución.
77
Universidad Virtual de Quilmes
Distribución normal Un fenómeno que genera típicamente una población con distribución normal es la medición del tiempo requerido para efectuar una misma operación por todos los clientes de una determinada entidad bancaria, bajo el supuesto de que todos deberían tardar el mismo tiempo para realizar dicha operación. A la hora de medir efectivamente el fenómeno podemos obser var que predominan los clientes que emplearían para hacer la operación un tiempo cercano al promedio, sin embargo, algunos son más rápidos y otros más lentos generando una distribución del tiempo como la siguiente. Gráfico 2.11.
El modelo teórico de la distribución normal de una variable continua x se formaliza matemáticamente mediante la función f(x) cuya expresión
representada gráficamente es Gráfico 2.12.
donde µ –la media– y σ –el desvío estándar– son los parámetros de la distribución y para cada par de valores de µ y σ se tendrá una curva diferente. Características de la curva normal La curva que es la representación gráfica de la distribución normal tiene las siguientes características:
78
Estadistica
• Es perfectamente simétrica alrededor de µ. • Es asintótica con el eje de la variable x hacia ±∞, es decir que el 100% de la población queda encerrado entre esos dos límites. • Como consecuencia de las dos características anteriores la mitad de la población se encuentra entre –∞ y µ y la otra mitad entre µ y +∞ . Gráfico 2.13.
• Presenta dos puntos de inflexión a una distancia de un desvío estándar a ambos lados de la media. • Las proporciones de población que quedan comprendidos en secciones de un desvío estándar de amplitud a ambos lados de la media aparecen asentadas en el gráfico G.2.14.
Gráfico 2.14.
El siguiente ejemplo, se refiere a un experimento aleatorio sobre una población con distribución normal, donde la función f(x) que describe esa distribución poblacional es la función de densidad de probabilidad de la variable aleatoria involucrada en el experimento . Ejemplo Retomando el caso de los clientes de una entidad bancaria que efectúan una operación determinada, se ha encontrado que el tiempo medio requerido para realizarla es de 130 segundos con un desvío estándar de 43 segundos. Si se tomara un cliente al azar –experimento aleatorio– se podrían plantear las siguientes preguntas: a) ¿cuál es la probabilidad de que esa persona emplee menos de 100 seg. para realizar la operación? o b) ¿cuál es la probabilidad de que tarde entre 2 y 3 minutos en realizar la transacción? Esquematizamos las dos situaciones planteadas en los gráficos 2.15. y 2.16. respectivamente. 79
Universidad Virtual de Quilmes
Gráfico 2.15.
Gráfico 2.16.
Y las sendas respuestas son: a. P( x < 100s) = F(100) = 0,2427 b. P(2min< x t .
Los sucesos x < t y x > t son los dos únicos sucesos aleatorios que pueden imaginarse dentro de un experimento exponencial y por lo tanto son complementarios y como tales, mutuamente excluyentes.
81
Universidad Virtual de Quilmes
La primera consecuencia de lo expresado anteriormente es que no hay suce- sos compuestos en un experimento exponencial porque el único suceso con-
cebible {x < t} I {x > t} es un suceso imposible {x < t} I {x > t} = Ø y por lo tanto su probabilidad es nula P({x < t} I {x > t}) = P( Ø ) = 0 La segunda consecuencia es que no hay probabilidades condicionales puesto que no hay posibilidad de particionar la población para definir un suceso aleatorio que represente la condición porque, como razonamos anteriormente, el experimento es efímero y no hay una colección de datos que permita describir una población, por lo tanto no existen poblaciones exponenciales . Formalmente, y asignando arbitrariamente a uno de los dos sucesos posibles el rol de condición, se tiene:
Al no haber población, no podemos contar inicialmente con una función de densidad exponencial procediendo de forma similar a como se obtuvo, por ejemplo, la función de densidad normal. Usaremos un camino distinto aprovechando el vínculo entre las distribuciones de Poisson y exponencial dentro de un mismo proceso de Poisson caracterizado por α. Para ello, definiremos un suceso aleatorio S: que transcurra todo un cierto intervalo t sin que ocurra éxito, cuya probabilidad pueda calcularse tanto utilizando la variable aleatoria de Poisson como la variable aleatoria exponencial. P(que no ocurra éxito a lo largo de t) = P(X Poisson = 0) = P(x exponencial > t) Donde:
P(XPoisson = 0) = e-a.t = P(xexponencial > t)
Luego, las probabilidades de los únicos sucesos posibles de un experimento exponencial resultan: P(x > t) = e
-α.t
y aplicando la propiedad de la probabilidad de sucesos complementarios P(x < t) = 1 - P(x > t) = 1 - e
-α.t
se observa que esta expresión corresponde a la función de distribución acumulada, luego se tiene que
-α.t
F(t) = 1 - e
82
Estadistica
y derivándola se obtiene la función de densidad de probabilidad f(x) F´ (x) = f(x) La función de densidad que sintetiza al modelo es entonces
Cuya representación gráfica es G.2.17. Gráfico 2.17.
El parámetro de la distribución exponencial es el mismo a que caracteriza al proceso de Poisson.
La esperanza de esta variables es:
y la varianza
Aplicaciones de la distribución exponencial Caso A. Como distribución de los tiempos de espera , la exponencial puede aplicarse a problemas de rotación de inventario donde el experimento comienza a partir de un pedido (éxito) y luego la variable recorre los valores aleatorios del tiempo en que puede ocurrir el siguiente (éxito) pedido. A continuación se desarrolla un ejemplo. Una distribuidora mayorista comprobó que cada 5 días hábiles recibe en promedio 3 pedidos de embarque de cierto artículo ( a = 3 pedidos/5 días = 0,6 pedidos/día).
83
Universidad Virtual de Quilmes
1- Teniendo en cuenta que el tiempo para reponer un embarque en depósito es de 1 día, despachado un pedido ¿con qué probabilidad el siguiente llegará después de ese lapso?
2- Siendo el tiempo medio esperado entre pedidos: E(X) = 1/a = 1,67 días, ¿con qué probabilidad el siguiente pedido será antes de lo esperado?
3- Con una probabilidad de 0,90 ¿de cuánto tiempo se dispone entre dos pedidos?
despejando t se tiene t = ln 0,90 / -0,6 = 0,18 días 4- Habiendo despachado un pedido, ¿con qué probabilidad el siguiente llegará entre 1 y 2 días después?
Caso B. La distribución exponencial también puede aplicarse a problemas de fiabilidad o plazo de servicio de los ar tículos en circulación, vida útil de materiales o de mercancías perecederas, donde la variable recorre los valores aleatorios de vida útil de los mismos hasta quedar fuera de ser vicio. Aquí no hay dos éxitos pues el experimento comienza con el inicio del servicio y termina en la falla, que es el único éxito. A continuación se analiza un ejemplo. Para ciertas lámparas de bajo consumo, su fabricante midió que la vida media de funcionamiento sin fallo es de 8.000 horas. Si se instalara una cualquiera de esas lámparas. 1- ¿Cuánto tiempo se espera que dure? Dentro del experimento aleatorio, que consiste en tomar al azar una de las lámparas e instalarla, la media observada con anterioridad se convierte en un media esperada E(X) = 8.000 h. 2- ¿Con qué probabilidad durará más de 8.000 h? α = 1/E(X) = 1/8000 = 0,000125
84
Estadistica
3- ¿Cuántas horas de funcionamiento sin falla se puede garantizar, con una probabilidad de 0,90?
7.
Tomando el ejemplo ya trabajado en la distribución Poisson, una distribuidora mayorista comprobó que, en las primeras semanas de cada mes, la cantidad media demandada de un determinado producto es de 3 toneladas diarias. Luego de la última tonelada demandada, para la misma época del mes a. ¿Cuántos días se espera que transcurran hasta el siguiente pedido de una tonelada? b. Calcular la probabilidad de que el siguiente pedido de una tonelada ingrese luego de transcurridos 2 días. c. Calcular la probabilidad de que el pedido se realice antes de que pase un día y medio.
85
View more...
Comments