Cuadernillo Estadística I.

March 1, 2024 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Cuadernillo Estadística I....

Description

-Estadística I-

INSTITUTO TECNOLÓGICO DE CHETUMAL

ESTADÍSTICA I Grupo: U3T Sistema Abierto. Trabajo: Cuadernillo de información. Alumno: Carlos Alberto Ramírez Pérez. Profesor: Mario Fernández Y Che Carrera: Ingeniería en Administración. Periodo escolar: Agosto – Febrero.

Viernes 30 de octubre del 2020.

2

-Estadística I-

INTRODUCCIÓN. El presente cuadernillo de texto ha sido concebido como material de apoyo para el estudio de la materia de Estadística I. Está orientado a cubrir aspectos relacionados con la asignatura aplicada a la Ingeniería. Se pretende que el alumno adquiera una base de conocimientos fundamentales, los cuales son indispensables para su preparación profesional. Su contenido se basa en la revisión de diversos autores — todos ellos destacados profesionistas, con reconocimiento en el ámbito nacional en el campo de la estadística — y tiene por objeto ser un instrumento de apoyo para el curso, que despierte el interés y la conciencia de los alumnos sobre la importancia de la estadística en cualquier entidad económica, sea esta pública o privada, con fines de lucro o sin ellos, así como también para la toma de decisiones en el ámbito gerencial o de otro tipo. Agradecemos a los compañeros directivos, profesores y alumnos por sus amables aportaciones y sugerencias para el mejoramiento del presente cuadernillo. Esperamos que este trabajo sea de utilidad para alcanzar los objetivos que nos hemos propuesto.

3

-Estadística IOBJETIVO GENERAL. El objetivo de la estadística es mejorar la comprensión de hechos a partir de datos (Moore, pág. 267). El principal objetivo de la estadística es hacer inferencias acerca de una población, con base en la información contenida en una muestra (Pérez Tejada, pág. 172).

OBJETIVOS ESPECÍFICOS. Algunos objetivos específicos son (Martínez Bencardino, pág. 9): 

Conocer la realidad de una observación o fenómeno.



Determinar lo típico o normal de esa situación.



Determinar los cambios que representa el fenómeno.



Relacionar dos o más fenómenos.



Determinar las causas que originan el fenómeno.



Hacer estimaciones sobre el comportamiento futuro del fenómeno.



Obtener conclusiones de un grupo menor (muestra) para hacerlas extensivas a un grupo mayor (población).



Determinar el grado de validez y confiabilidad ya sea de las predicciones o las conclusiones obtenidas a partir de muestras.

4

-Estadística I-

CONTENIDO: UNIDAD 1: ESTADÍSTICA DESCRIPTIVA. 1.1 Conceptos. 1.2 Tipos de estadística. 1.3 Distribuciones de frecuencia. 1.3.1Tablas de frecuencia. 1.3.2 Gráficos para tablas de frecuencia. 1.4 Medidas de tendencia central para datos sin agrupar y datos agrupados. 1.4.1 Media. 1.4.2 Mediana. 1.4.3 Moda. 1.5 Medidas de dispersión para datos sin agrupar y datos agrupados. 1.5.1 Rango. 1.5.2 Desviación media. 1.5.3 Varianza. 1.5.4 Desviación estándar. 1.6 Coeficiente de variación. 1.7 Coeficiente de asimetría de Pearson.

5

-Estadística IUNIDAD 2: INTRODUCCIÓN A LA PROBABILIDAD. 2.1 Conceptos. 2.1.1 Definición y expresión. 2.2 Tipos de eventos. 2.3 Reglas de la adición y la multiplicación. 2.4 Diagrama de árbol. 2.5 Teorema de Bayes. 2.6 Combinaciones y permutaciones.

UNIDAD 3: Tipos de distribuciones, variables aleatorias discretas y continuas. 3.1 Distribuciones de probabilidad para variables discretas 3.1.1 Distribución de probabilidad de la Binomial; características y propiedades. 3.1.2 Distribución de probabilidad Poisson características, propiedades 3.1.3 Distribución de probabilidad Híper geométrica; características y propiedades. 3.2 Distribuciones de probabilidad para variables continuas. 3.2.1 Distribución de probabilidad Normal; características y propiedades. 3.2.2 Distribución de probabilidad Ji cuadrada; características y propiedades. 3.2.3 Distribución de probabilidad aproximación de la normal a la binomial; características y propiedades.

6

-Estadística IUNIDAD 4: MUESTREO Y ESTIMACIONES. 4.1 Conceptos de muestreo. 4.1.1 Tipos de muestreo aleatorio, sistematizado, estratificado y conglomerados. 4.2 Concepto de distribución de muestreo de la media. 4.2.1 Distribución muestral de la media con σ2 conocida y desconocida. 4.2.2 Distribución muestral de la diferencia entre dos medias con σ2. conocida y desconocida. 4.2.3 Distribución muestral de la proporción. 4.2.4 Distribución muestral de la diferencia de dos proporciones. 4.3 Hipótesis estadística. 4.4 Tipos de errores. 4.5 Procedimiento para la prueba de hipótesis poblacional. 4.6 Intervalos de confianza Poblacional 4.6.1 Determinación del tamaño de la muestra con grado de confianza y estimación de μ.

UNIDAD 5: CONTROL ESTADÍSTICO DEL PROCESO. 5.1. Introducción a la calidad total 5.2. Control estadístico 5.3 Tipos de variación 5.4 Gráficas de control por atributos y variables.

7

-Estadística I-

UNIDAD

1

ESTADÍSTICA DESCRIPTIVA. 1.1

8

-Estadística I-

Unidad 1: Estadística Descriptiva. 1.1 Conceptos. 1.2 Tipos de estadística. 1.3 Distribuciones de frecuencia. 1.3.1Tablas de frecuencia. 1.3.2 Gráficos para tablas de frecuencia 1.4 Medidas de tendencia central para datos sin agrupar y datos agrupados. 1.4.1 Media 1.4.2 Mediana 1.4.3 Moda 1.5 Medidas de dispersión para datos sin agrupar y datos agrupados. 1.5.1 Rango. 1.5.2 Desviación media. 1.5.3 Varianza. 1.5.4 Desviación estándar. 1.6 Coeficiente de variación. 1.7 Coeficiente de asimetría de Pearson.

9

-Estadística I1.1

Conceptos. La estadística es la ciencia que se encarga de recopilar, organizar,

procesar, analizar e interpretar datos con el fin de deducir las características de un grupo o población objetivo, pero esta sería solo una visión estrecha de lo que comprende esta rama del saber. ¿Qué es estadística? Es la ciencia que estudia cómo debe emplearse la información y cómo dar una guía de acción en situaciones prácticas que entrañan incertidumbre (Gutiérrez Cabria, pág. 23). Es la ciencia de los datos, la cual implica su recolección, clasificación, síntesis, organización, análisis e interpretación, para la toma de decisiones frente a la incertidumbre (Ángel Gutiérrez, pág. 28). Es la rama del conocimiento humano que tiene como objeto el estudio de ciertos métodos inductivos aplicables a fenómenos susceptibles de expresión cuantitativa (López Cazuzo, pág. 1). Es el arte de aprender a partir de los datos. Está relacionada con la recopilación de datos, su descripción subsiguiente y su análisis, lo que nos lleva a extraer conclusiones (Ross, pág. 3). Es una ciencia exacta cuyo objetivo fundamental es el estudio de diversas formas de comportamiento de la sociedad, para lo cual se fundamenta en el uso de diversos métodos y procedimientos matemáticamente demostrables de manera formal y rigurosa (Cóndor, pág. 10). Es una ciencia que facilita la toma de decisiones mediante la presentación ordenada de los datos observados en tablas y gráficos estadísticos, reduciendo los datos observados a un pequeño número de medidas estadísticas que permitirán la comparación entre diferentes series de datos y estimando la probabilidad de éxito que tiene cada una de las decisiones posibles (Fernández Fernández, Cordero Sánchez, Córdoba Largo, & Cordero, pág. 18).

10

-Estadística I1.2

Tipos de estadística.

Básicamente se tienen dos tipos de estadística, a saber:

1. Estadística descriptiva. La estadística descriptiva se puede definir como un método para describir numéricamente conjuntos numerosos. Por tratarse de un método de descripción numérica, utiliza el número como medio para describir un conjunto, que debe ser numeroso, ya que las permanencias estadísticas no se dan en los casos raros. No es posible sacar conclusiones concretas y precisas de los datos estadísticos (Vargas Sabadías, pág. 33).

Objetivo. La finalidad última de la estadística descriptiva es resumir la información de conjuntos más o menos numerosos de datos. Para ello se asienta en un concepto inmediato a la tarea de recuento: la frecuencia, medida empírica de la ocurrencia de los distintos estados que puede presentar una variable (SGT, pág. 16).

2. Estadística inferencial, analítica o deductiva. La estadística inferencial estudia la probabilidad de éxito de las diferentes soluciones posibles a un problema en las diferentes ciencias en las que se aplica y para ello utiliza los datos observados en una o varias muestras de la población. Mediante la creación de un modelo matemático infiere el comportamiento de la población total partiendo de los resultados obtenidos en las observaciones de las muestras (Fernández Fernández, Cordero Sánchez, Córdoba Largo, & Cordero, pág. 17). Objetivo. La inferencia estadística intenta tomar decisiones basadas en la aceptación o el rechazo de ciertas relaciones que se toman como hipótesis. Esta toma de decisiones va acompañada de un margen de error, cuya probabilidad está determinada (Vargas Sabadías, pág. 33).

11

-Estadística ILa estadística inferencial tiene dos objetivos básicos: a) obtener conclusiones válidas acerca de una población sobre la base de una muestra, es decir, que las conclusiones que obtengamos de una muestra se puedan extrapolar a la población que dio origen a esa muestra y b) poder medir el grado de incertidumbre presente en dichas inferencias en términos de probabilidad (Díaz Narváez, pág. 287). Elementos de la estadística. A continuación, se definen algunos de los elementos más empleados en estadística: Población. Es el conjunto de todos los posibles elementos que intervienen en un experimento o en un estudio. La hay de dos tipos 

Población finita. Es aquella que indica que es posible alcanzarse o sobrepasarse al contar. Es aquella que posee o incluye un número limitado de medidas y observaciones.



Población infinita. Es infinita si se incluye un gran conjunto de medidas y observaciones que no pueden alcanzarse en el conteo. Son poblaciones infinitas porque hipotéticamente no existe límite en cuanto al número de observaciones que cada uno de ellos puede generar.

Muestra. Un conjunto de medidas u observaciones tomadas a partir de una población dada. Es un subconjunto de la población. Muestra representativa. Un subconjunto representativo seleccionado de una población de la cual se obtuvo. Muestreo. Al estudio de la muestra representativa. Censo. Al estudio completo de la población. Parámetro. Lo constituyen las características medibles en una población completa. Se le asigna un símbolo representado por una letra griega.

12

-Estadística IEstadístico o estadígrafo. Es la medida de una característica relativa a una muestra. La mayoría de los estadísticos muéstrales se encuentran por medio de una fórmula y suelen asignárseles nombres simbólicos que son letras latinas. Datos estadísticos (Variables). Los datos son agrupaciones de cualquier número de observaciones relacionadas. Para que se considere un dato estadístico debe tener 2 características: a) Que sean comparables entre sí. b) Que tengan alguna relación. Variable. Una característica que asume valores. Clases de datos Variable cuantitativa o escalar. Será una variable cuando pueda asumir sus resultados en medidas numéricas. Variable cuantitativa discreta. Es aquella que puede asumir sólo ciertos valores, números enteros. Ejemplo: El número de estudiantes (1,2,3,4) Variable cuantitativa continua. Es aquella que teóricamente puede tomar cualquier valor en una escala de medidas, ya sea entero o fraccionario. Ejemplo, Estatura: 1.90 m Variables cualitativas nominales. Cuando no es posible hacer medidas numéricas, son susceptibles de clasificación. Ejemplo: Color de autos: rojo, verde, azul. Experimento. Es una actividad planificada, cuyos resultados producen un conjunto de datos. Es el proceso mediante el cual una observación o medición es registrada. Ejemplo: ¿Cuál será la preferencia del consumidor ante dos marcas de refresco con similares características en un ambiente armónico y sin publicidad?

13

-Estadística I1.3

Distribuciones de frecuencia. En estadística, se le llama distribución de frecuencias a la agrupación de

datos en categorías mutuamente excluyentes que indican el número de observaciones en cada categoría.

Esto proporciona un valor añadido a la

agrupación de datos (Alvarado Valencia & Obagi A, pág. 19). Las distribuciones de frecuencias son tablas en que se dispone las modalidades de la variable por filas. En las columnas se dispone el número de ocurrencias por cada valor, porcentajes, etc. La finalidad de las agrupaciones en frecuencias es facilitar la obtención de la información que contienen los datos. Una distribución de frecuencia es un resumen tabular de datos que muestra el número (frecuencia) de elementos en cada una de las diferentes clases disyuntas (que no se sobreponen). 1.3.1Tablas de frecuencia. Las tablas de frecuencias son una de las técnicas básicas para el resumen de información a partir de una muestra de datos. Su construcción es sencilla, pero en conjuntos de datos de un tamaño moderado o grande su cálculo puede resultar laborioso, aunque se pueden obtener utilizando cualquier paquete estadístico. 

Tablas de frecuencias: Las tablas de frecuencias se utilizan para representar la información contenida en una muestra de tamaño n extraída de una población, (X1, …, Xn).



Modalidades: Cada uno de los valores que puede tomar una variable (cualitativa o cuantitativa discreta). Se denotan como: ci; i = 1, …, k. El número de individuos de la muestra en cada modalidad ci se denota por ni.



Frecuencia absoluta: Para cada modalidad ci, la frecuencia absoluta es ni; i = 1, …, k.



Frecuencia relativa: Para cada modalidad ci, la frecuencia relativa es fj = ni/n; i = 1, …, k.

14

-Estadística I

Frecuencia absoluta acumulada: La frecuencia absoluta acumulada de una modalidad ci es Ni = ∑i i=1 nj = n1 + … + ni; i = 1, …, k.



Frecuencia relativa acumulada: La frecuencia relativa acumulada de Ni una modalidad ci es Fi = ∑i j= 1 fj= fi= n ; i = 1,…, k. A partir de sus definiciones, se pueden demostrar algunas propiedades de

las frecuencias absolutas y relativas que se calculan en las tablas de frecuencias. Así, se tiene que:

A continuación, se muestra la disposición de los distintos elementos de una tabla de frecuencias.

Cuadro 1: Tabla de frecuencias. 

Para un grupo de 21 pacientes de la muestra, se tienen los siguientes datos sobre el antígeno.

Para estos datos, podemos construir una tabla de frecuencias, calculando frecuencias absolutas y relativas, así como las respectivas acumuladas. ¿Cuál es la proporción de individuos con grupo A en la muestra? ¿Y con grupo A o B?

15

-Estadística IEn el caso de variables cualitativas o cuantitativas discretas con pocos valores, es posible determinar las modalidades de la variable. Sin embargo, en el caso de variables cuantitativas continuas (o cuantitativas discretas con muchos valores), se tendrán que construir modalidades artificiales de manera que se agrupen valores por intervalos. Estas nuevas modalidades se denominan intervalos de clase. 

Intervalos de clase: para variables cuantitativas continuas, se agrupan los distintos valores obtenidos en la muestra en intervalos. Cada intervalo representará una modalidad en el caso de variables cuantitativas continuas. A partir de una muestra, los intervalos de clase se construyen de la siguiente forma:

16

-Estadística I1.3.2 Gráficos para tablas de frecuencia. La clasificación de variables que se ha expuesto en la sección anterior, distinguiendo entre variables cualitativas y cuantitativas (discretas y continuas) es de crucial importancia a la hora de construir representaciones gráficas. De modo esquemático, se introducen las principales técnicas de representación para variables cualitativas, variables cuantitativas discretas y cuantitativas continuas. En el caso de variables cuantitativas discretas, si tienen pocos valores, se puede hacer uso de las representaciones descritas para variables cualitativas (diagramas de barras y sectores). Si por el contrario toman muchos valores, entonces se pueden utilizar las representaciones para variables cuantitativas continuas. 

Variables cualitativas. Para la representación de variables cualitativas se suelen utilizar el diagrama de barras o el diagrama de sectores. Para construir un diagrama de barras, en el eje horizontal se representan las categorías o modalidades de la variable que se quiere representar y se levantan barras de altura proporcional a la frecuencia de cada modalidad (absoluta o relativa). En el diagrama de sectores también se representan las distintas modalidades y su frecuencia, de manera que el círculo se reparte de forma proporcional a la frecuencia de cada modalidad. Algunos ejemplos de estas representaciones para datos de participación en redes sociales en un grupo de 180 jóvenes se muestran en la Figura 1.

17

-Estadística I

Variables cuantitativas discretas. Además del diagrama de barras descrito para las variables cualitativas, que también se puede utilizar para variables cuantitativas discretas, para la representación de este tipo de variables se tiene el diagrama acumulativo de frecuencias. El diagrama acumulativo de frecuencias se construye representando, para cada modalidad de la variable ci, los puntos (ci;Ni) (o bien (ci; Fi)) y uniéndolos con segmentos horizontales y verticales, de forma que se obtiene una función escalonada. Si se utilizan las frecuencias relativas acumuladas, el valor máximo del diagrama acumulativo se alcanza en el 1, mientras que si se construye con las frecuencias absolutas acumuladas, el máximo será el número de datos de la muestra. Se muestran el diagrama de barras y el diagrama acumulativo de frecuencias para la variable "número de hijos de una familia" en la Figura 2.



Variables cuantitativas continuas. En el caso de variables cuantitativas continuas, podemos construir el polígono (acumulativo) de frecuencias, de igual modo que el diagrama acumulativo de frecuencias explicado para variables cuantitativas discretas, pero considerando las marcas de clase de cada intervalo ei en la representación. Sin embargo, son más usuales otras representaciones como el histograma y el diagrama de tallo y hojas.

18

-Estadística IEl histograma equivale en cierto modo al diagrama de barras, pero en el caso continuo, de forma que las barras aparecen contiguas. En el eje horizontal se representan los intervalos de clase de la variable, y sobre ellos se levantan barras de altura hi = ni/ai (o bien hi = fi/ai), donde ni es la frecuencia absoluta de cada intervalo (fi es la frecuencia relativa) y ai es la amplitud del mismo. Si el histograma se construye con frecuencias relativas, la suma de las áreas de las barras es igual a 1. El histograma da una idea clara de la distribución de los datos, pero es muy sensible a la elección de los intervalos de clase (véase Figura 3, panel izquierdo).

El diagrama de tallo y hojas es una representación que permite observar los datos y que a la vez da una idea de la distribución de los mismos. Primero se seleccionan el número de cifras significativas (tallo) que se colocan a la izquierda, se traza una línea vertical y se incluyen al lado las cifras siguientes de cada dato observado (hojas). Se puede ver un ejemplo de representación para el peso de 300 personas en la Figura 3. Si se gira el diagrama de tallo y hojas 90o en el sentido contrario a las agujas del reloj, se puede observar una forma muy similar a la del histograma. Para representar las observaciones de las variables del ejemplo debemos tener en cuenta si son cualitativas o cuantitativas. El sexo y el antígeno del grupo sanguíneo pueden representarse utilizando un diagrama de barras o un diagrama de sectores. Para el pH en sangre y el ácido úrico se puede utilizar un histograma o un diagrama de tallo y hojas. La edad, cuantitativa discreta, puede representarse con un diagrama de barras si no toma muchos valores distintos. En otro caso, se puede probar con un diagrama acumulativo de frecuencias o con alguna de las representaciones propias de variables cuantitativas continuas (histograma o diagrama de tallo y hojas).

19

-Estadística I1.4

Medidas de tendencia central para datos sin agrupar y datos agrupados.

Medidas de posición. Las medidas de posición o localización nos indican el valor o valores alrededor de los cuales se sitúan los datos observados. Distinguiremos medidas de localización de tendencia central (media, mediana y moda) y de tendencia no central (cuartiles, deciles y percentiles). Medidas de posición de tendencia central. Como medidas de posición de tendencia central se introducirán la media aritmética o media muestral, la mediana y la moda. Estas medidas nos proporcionan valores alrededor de los cuales se distribuyen los datos observados en la muestra. 1.4.1 Media. Se define como:

La media aritmética (media muestral) presenta las siguientes propiedades, que son fáciles de deducir a partir de la definición. 

Toma valores entre el mínimo y el máximo:



La media aritmética es lineal. Si consideramos los datos yi = axi +b, la media de los nuevos datos se obtendrá como ¯y = a ¯x + b.



La media de las desviaciones con respecto a la media es cero:



La media de los cuadrados de las desviaciones con respecto a una constante es mínima para la media:

20

-Estadística IEl valor de la media no tiene porqué pertenecer al conjunto de posibles valores de la variable. Por ejemplo, puede resultar que el número medio de hermanos de una muestra no sea un número entero. Uno de los problemas que presenta la media es que no es una medida robusta, es decir, su valor se ve influenciada por datos anormalmente altos o bajos. Los datos que difieren numéricamente de las demás observaciones se denominan valores atípicos. Algunas modificaciones para corregir la falta de robustez son la media truncada y media recortada. En la media truncada, un porcentaje de los datos atípicos se elimina del cálculo y para obtener una media recortada, estos valores atípicos se substituyen por el punto de corte, es decir, el dato inmediatamente inferior a los que se eliminan, para datos altos, y el inmediatamente superior para los datos bajos. Otra modificación es la media ponderada en la cual se asigna distintos pesos a las observaciones. En la media aritmética cada observación tiene una contribución de peso 1/n al valor de x. En la media ponderada, cada observación tendrá una ponderación wi, de tal modo que

En el caso de que se disponga de datos agrupados en una tabla de frecuencias, la media aritmética se calcula como:

Donde ci es la marca de clase y k denota el número de intervalos de clase de los que se dispone. Las propiedades anteriormente descritas también se aplican a este caso.

21

-Estadística I1.4.2 Mediana. Si suponemos que los datos de la muestra están ordenados de menor a mayor, la mediana es el valor hasta el cual se encuentran el 50 % de los casos. Por tanto, la mediana dejará la mitad de las observaciones por debajo de su valor y la otra mitad por encima. Así, si la muestra consta de un número impar de datos (n impar), la mediana será el dato central. Si el tamaño de la muestra n es par, entonces se tomará como mediana la media de los dos datos centrales. En el caso de tener la variable representada en una tabla de frecuencias, podemos definir el intervalo mediano, que será aquel cuya frecuencia relativa acumulada en el extremo inferior es menor que 1/2 y en el extremo superior mayor que 1/2. La mediana, a diferencia de la media, es una medida robusta ya que su valor se ve poco afectado por la presencia de datos atípicos. Si de una muestra se obtienen la media y la mediana y sus valores difieren sustancialmente, esto será indicativo de la presencia de datos atípicos. 1.4.3 Moda. Para variables discretas o cualitativas, la moda es el valor o valores que más se repiten. Esto implica que la moda no tiene porqué ser única. Para variables cuantitativas continuas, el intervalo modal es aquel con mayor frecuencia. La moda se denotará por Mo. Si los datos se encuentran agrupados, se puede obtener el intervalo modal como aquel que tiene una mayor frecuencia.

22

-Estadística I1.5

Medidas de dispersión para datos sin agrupar y datos agrupados. Las medidas de dispersión nos informan sobre cuánto se alejan del centro

los valores de la distribución. Las medidas de dispersión tratan, a través del cálculo de diferentes fórmulas, de arrojar un valor numérico que ofrezca información sobre el grado de variabilidad de una variable. En otras palabras, las medidas de dispersión son números que indican si una variable se mueve mucho, poco, más o menos que otra. La razón de ser de este tipo de medidas es conocer de manera resumida una característica de la variable estudiada. En este sentido, deben acompañar a las medidas de tendencia central. Juntas, ofrecen información de un sólo vistazo que luego podremos utilizar para comparar y, si fuera preciso, tomar decisiones. 1.5.1 Rango. Una forma natural de apreciar la variabilidad es considerar los valores extremos del grupo de datos. Esto da origen al recorrido o amplitud, que se define como la diferencia entre el valor mayor y el valor menor del conjunto de datos. Su cálculo es simple; por ejemplo, lo calcularemos para los siguientes datos: 3, 10, 2, 8, 7. Recorrido = 10 – 2 = 8. También puede indicarse dando directamente los valores extremos, o sea, para el ejemplo considerado: Recorrido de 2 a 10. No obstante lo simple de su cálculo y lo fácil que resulta percibir su significado, el recorrido no es muy usado debido a ciertas limitaciones que presenta. La más importante, como puede apreciarse en su definición es la de que no toma en cuenta todas las observaciones del grupo o muestra, sino únicamente el mayor y el menor. Esta característica hace que dependa sensiblemente del número de datos y que aumente al crecer este número ya que es probable que, entre las nuevas observaciones agregadas aparezca una más pequeña y/o una de mayor valor que las existentes y eso producirá un incremento en el valor del recorrido.

23

-Estadística IEn la práctica el recorrido se utiliza cuando se desea una medida simple de la variabilidad o cuando -por falta de tiempo- no se pueden emplear medidas más complejas. Fórmula del rango. Para calcular el rango de una muestra o población estadística utilizaremos la siguiente fórmula: R = Máxx – Mínx

Donde: 

R es el rango.



Máx. es el valor máximo de la muestra o población.



Mín. es el valor mínimo de la muestra o población estadística.



x

es la variable sobre la que se pretende calcular esta medida.

Para ello, no es necesario ordenar los valores de mayor a menor o viceversa. Si sabemos cuál son los números con mayor y menor valor, tan sólo tendremos que aplicar la fórmula. En Excel, por ejemplo, podemos utilizar las funciones =MAX (rango de datos) y MIN (rango de datos). A la celda que contiene MAX le restamos la celda que contiene MIN y obtenemos el rango. Ejemplo de rango en estadística Supongamos que tenemos una empresa que produce microchips para luego venderlos a las principales marcas de computadoras. Esta empresa encarga a un economista que realice un estudio sobre la evolución de las ventas (últimos 4 años) para, posteriormente, ofrecer consejos que mejoren los resultados empresariales. Entre otras muchas métricas, se pide que se calcule el rango de producción de microchips. A continuación se muestra la siguiente tabla de datos:

24

Mes 1 Mes 2 Mes 3 Mes 4 Mes 5 Mes 6 Mes 7 Mes 8 Mes 9 Mes 10 Mes 11 Mes 12 Mes 13

44.347 12.445 26.880 23.366 42.464 15.480 21.562 11.625 39.496 39.402 47.699 44.315 29.581

Mes 14 Mes 15 Mes 16 Mes 17

44.320 35.264 10.124 43.520

Mes 18 Mes 19 Mes 20 Mes 21 Mes 22 Mes 23 Mes 24 Mes 25

26.360 19.534 30.755 37.327 15.832 33.919 29.498 46.136

Mes 26 Mes 27 Mes 28 Mes 29 Mes 30 Mes 31 Mes 32 Mes 33 Mes 34 Mes 35 Mes 36 Mes 37 Mes 38 Mes 39 Mes 40 Mes 41

18.007 36.339 27.696 47.413 47.636 20.978 49.079 40.668 45.932 40.454 46.132 35.054 11.906 22.532 43.045 45.074

Mes 42 Mes 43 Mes 44 Mes 45

16.505 27.336 37.831 29.757

Mes 46 Mes 47 Mes 48

37.765 22.237 38.601

MÁXIMO MÍNIMO RANGO

-Estadística I-

49.079 10.124 38.955

25

-Estadística IEl mes que más microchips produjo la empresa (MÁXIMO) fue el mes 32 con 49.079 microchips producidos. Por su parte, el momento que menos microchips produjo tuvo lugar en el mes 16 con 10.124 microchips producidos. Por tanto, el rango estadístico que es la diferencia (49.079-10.124) se sitúa en 38.955. ¿Cómo se interpreta esto? Esto quiere decir, que durante los últimos 4 años la variación máxima que ha habido ha sido de 38.955 microchips producidos. Gráficamente podemos verlo del siguiente modo:

El punto verde es el máximo, el punto rojo el mínimo y la línea discontinua amarilla situada a la derecha es la diferencia. Esto es, el rango.

26

-Estadística I1.5.2 Desviación media. La necesidad de definir una medida de dispersión que tome en cuenta para su cálculo todos los datos y no esté tan estrictamente ligada al número de ellos, lleva casi automáticamente a la conclusión de que esta medida tiene que estar basada en las desviaciones o diferencias de los datos individuales respecto de un valor central o típico. Esta línea de razonamiento conduce lógicamente, a considerar la suma de las desviaciones de los datos con respecto a la media aritmética como una posible medida de dispersión. Sin embargo, como es sabido, la suma de las desviaciones de las observaciones con respecto a la media aritmética siempre es igual a cero, circunstancia que impide que pueda ser utilizada como medida de dispersión. Para obviar este problema, se puede emplear la suma de los valores absolutos de las diferencias y dividirla por el número de datos para obtener una medida de dispersión promedio o por observación. Así se origina la llamada desviación media.

Simbólicamente así:

Recuérdese que el símbolo ││se emplea para indicar que deben ser considerados los valores absolutos de las diferencias, es decir, ignorando su signo. Su cálculo se ilustra seguidamente para los valores: 3, 10, 2, 8, 7. Primero se obtiene la media aritmética:

27

-Estadística ISe recomienda hacer una tabla como la que se muestra a continuación:

Luego se calcula la desviación media:

La desviación media, no obstante las ventajas conceptuales que reúne, casi no se utiliza debido a que requiere el manejo de valores absolutos por una parte, y por el hecho de que existe otra medida, basada también en las desviaciones respecto a la media aritmética, que es mucho más cómoda y útil, y reúne numerosas ventajas prácticas y teóricas. Esta medida es la desviación típica. La desviación media de un conjunto de datos, es la media aritmética de los valores absolutos de lo que se desvía cada valor respecto a la media aritmética.



Donde:



x̄: media aritmética de los datos.



X1, x2, x3,…, Xn: datos.



Xi: cada uno de los datos.



n: número de datos.

Recuerda calcular la media aritmética x̄ antes de aplicar la fórmula de la desviación media. Su fórmula es esta:

La desviación media también es llamada desviación promedio de la media o desviación absoluta promedio. Es una medida de dispersión poco usada debido a la dificultad de hacer cálculos con la función valor absoluto.

28

-Estadística IEjemplo 1 Calcular la desviación media de los siguientes datos: 2, 4, 6 y 8. Solución: Empezamos calculando la media aritmética de los datos, teniendo en cuenta que tenemos 4 datos (n = 4).

El valor de la media aritmética es de 5. Ahora aplicamos la fórmula de la desviación media:

El valor de la desviación media, es de 2. Ejemplo 2 Calcular la desviación media de los siguientes datos: 3, 5, 8, 6, 2, 4, 7 y 5. Solución: Como son muchos datos, vamos a colocar los datos en una tablita:

29

-Estadística ISumamos los datos y calculamos su media aritmética, teniendo en cuenta que son 8 datos (n = 8).

Ahora sí, viene el cálculo de la media aritmética.

El valor de la media aritmética es 5. Agregamos una columna más a la tabla donde colocaremos los valores de xi – μ:

30

-Estadística IAgregamos otra columna más a la tabla donde colocaremos los valores de |xi – μ|:

Ahora sí, calculamos la desviación media con los valores obtenidos en la tabla:

El valor de la desviación media es de 1,5. La desviación media siempre queda expresada en las mismas unidades que los datos originales, por ejemplo, si los datos originales están expresados en kilogramos, pues la desviación media también quedará expresada en kilogramos.

31

-Estadística I1.5.3 Varianza.

Es conveniente hacer algunas observaciones acerca de la definición de varianza, según se considere una muestra o toda la población. Como ya se ha explicado, el estudio de una población se realiza observando no todos sus elementos, sino, tomando una muestra. Las medidas o valores calculados a partir de las muestras se utilizan luego para representar o estimar los valores de la población en los que estamos interesados. Con el propósito de establecer claramente si el cálculo ha sido realizado para toda la población o para una muestra, se acostumbra indicar con símbolos diferentes cada una de las situaciones. Comúnmente se utilizan letras latinas mayúsculas o letras griegas para indicar los valores de la población y letras latinas minúsculas para los valores calculados a partir de los datos de la muestra (estimadores). Además, es conveniente emplear la letra N para indicar el número total de elementos en la población y la n para representar el tamaño de la muestra. Seguidamente se presentan los símbolos y definiciones para el promedio y la variancia, según se refieran a la población o a una muestra:

32

-Estadística IAlgo que llama la atención inmediatamente es que, al definir s2 se utiliza n-1 como divisor en vez de n. Esto obedece al hecho de que, de acuerdo con la teoría de la estadística, al dividir por n-1 se obtiene una mejor estimación del valor poblacional õ2 (variancia de la población). Debe señalarse, sin embargo, que si la muestra es grande no tiene importancia alguna usar n o n-1 como divisor, ya que el resultado numérico que se obtendrá será prácticamente el mismo; en cambio, si la muestra es pequeña, entonces sí es importante el usar la fórmula apropiada, o sea, la correspondiente a s2 (minúscula). Cálculo de la variancia en datos no agrupados. Seguidamente se presentará el cálculo de la variancia cuando se tiene una muestra de n datos sin agrupar. Como ya se vio, la fórmula de

es la

siguiente:

Utilizando esta fórmula y sacando luego la raíz cuadrada, puede obtenerse el valor de la desviación estándar (s). Ahora se ilustra el cálculo de ambas medidas a partir de la definición. Ejemplo Para los valores: 3, 10, 2, 8, 7. Calcular s2 y s. Primero se obtiene la media aritmética:

33

-Estadística ISe recomienda hacer una tabla como la que se muestra a continuación:

En el ejemplo anterior, el promedio resultó ser un número entero y por lo tanto, el cómputo de las diferencias

y su elevación al cuadrado, fue

una labor relativamente fácil; sin embargo, en la mayoría de los casos, la utilización de la fórmula s2 implica una serie de operaciones incómodas y largas, al tener que elevar al cuadrado números con muchos decimales. Además, la expresión

no es la más apropiada cuando se trabaja con

calculadora, por ello, para fines de cálculo, es preferible emplear la expresión siguiente: A la cual se llega realizando ciertas transformaciones algebraicas en el numerador de s2. Seguidamente, se repite el cálculo de s2 y s, utilizando la “fórmula para cálculos” que se acaba de introducir:

Puede verse que los resultados obtenidos para la desviación típica y la variancia son idénticos a los hallados empleando la fórmula de la página anterior.

34

-Estadística I1.5.4 Desviación estándar. La desviación estándar -o típica- utiliza en lugar de los valores absolutos, los cuadrados de las desviaciones. La desviación estándar nos indica cuánto se alejan, en promedio, las observaciones de la media aritmética del conjunto. Es la medida de dispersión más usada en estadística, tanto para aspectos descriptivos como analíticos. Es, la raíz cuadrada del cuadrado de la suma de las desviaciones entre el número total de observaciones, así:

Simbólicamente es así:

También tiene mucha importancia el cuadrado de la desviación estándar, que recibe el nombre de variancia (en algunos textos aparece como “varianza”). La desviación estándar o desviación típica es una medida que ofrece información sobre la dispersión media de una variable. La desviación estándar es siempre mayor o igual que cero. Para entender este concepto necesitamos analizar 2 conceptos fundamentales. 

Esperanza matemática, valor esperado o media: Es la media de nuestra serie de datos.



Desviación: La desviación es la separación que existe entre un valor cualquiera de la serie y la media. Ahora, entendiendo estos dos conceptos la desviación típica se calculará

de forma similar a la media. Pero tomando como valores las desviaciones. Y aunque este razonamiento es intuitivo y lógico tiene un fallo que vamos a comprobar con el siguiente gráfico.

35

-Estadística I-

En la imagen anterior tenemos 6 observaciones, es decir, N = 6. La media de las observaciones está representa por la línea negra situada en el centro del gráfico y es 3. Entenderemos por desviación, la diferencia que existe entre cualquiera de las observaciones y la línea negra. Así pues, tenemos 6 desviaciones. 

Desviación -> (2-3) = -1



Desviación -> (4-3) = 1



Desviación -> (2-3) = -1



Desviación -> (4-3) = 1



Desviación -> (2-3) = -1



Desviación -> (4-3) = 1 Como podemos ver si sumamos las dos desviaciones 6 desviaciones y

dividimos entre N (6 observaciones), el resultado es cero. La lógica sería que la desviación media fuese de 1. Pero una característica matemática de la media respecto a los valores que la forman es, precisamente, que la suma de las desviaciones es cero.

¿Cómo arreglamos esto? Elevando al cuadrado las

desviaciones Fórmulas para calcular la desviación típica. La primera es elevando al cuadrado las desviaciones, dividir entre el número total de observaciones y por último hacer la raíz cuadrada para deshacer el elevado al cuadrado, tal que:

36

-Estadística IAlternativamente existiría otra forma de calcularla. Sería haciendo un promedio de la suma de los valores absolutos de las desviaciones. Es decir, aplicar la siguiente fórmula:

Sin embargo, esta fórmula no es una alternativa de la desviación típica pues arroja diferentes resultados. En realidad, la fórmula anterior es la desviación respecto de la media. La desviación estándar o típica y la desviación respecto de la media tienen similitudes, pero no son lo mismo. A esta última forma se le conoce como desviación media.

37

-Estadística IEjemplo de cálculo de la desviación estándar Vamos a comprobar cómo, con cualquiera de las dos fórmulas expuestas, el resultado de la desviación típica o desviación media es el mismo. Según la fórmula de la varianza (raíz cuadrada):

Según la fórmula del valor absoluto:

Tal como dictaba el cálculo intuitivo. La desviación media es de 1. Pero, ¿no habíamos dicho que la fórmula del valor absoluto y de la desviación típica daban valores diferentes? Así es, pero hay una excepción. El único caso en que la desviación estándar y la desviación respecto de la media ofrecen el mismo resultado es el caso en que todas las desviaciones son igual a 1.

38

-Estadística I1.6

Coeficiente de variación. Una situación corriente en la investigación, es la necesidad de comparar

dos o más conjuntos de datos en cuanto a su variabilidad. Si los datos están dados en las mismas unidades, y si los promedios de los conjuntos, es decir, la magnitud de los datos, son bastantes similares, la desviación estándar es una herramienta perfectamente apropiada para realizar la comparación. Pero, si alguna de las condiciones antes citadas no se cumple, la desviación estándar, y cualquier medida absoluta de dispersión, pierde casi toda su utilidad para este propósito. Si los datos están expresados en diferentes unidades, es obvio que no puede compararse su variabilidad utilizando la desviación estándar, ya que carece de sentido comparar, por ejemplo, una desviación estándar expresada en kg, con otra dada en minutos o en “años luz”. Por otra parte, aun cuando los conjuntos de datos están dados en la misma unidad de medida, la diferencia entre sus promedios puede ser tan importante que haga completamente inadecuada la comparación directa de las desviaciones estándar. Se

hace

necesario

entonces,

disponer

de

valores

que

sean

independientes de las unidades de medida y que no dependan de la magnitud general de los datos que se consideren. Con este propósito se utilizan las llamadas medidas de dispersión relativa, la más importante de las cuales es el coeficiente de variación. El coeficiente de variación indica la importancia de la desviación estándar en relación al promedio aritmético y cuya definición puede representarse de la siguiente forma:

39

-Estadística INótese que se da multiplicado por 100. De acuerdo con la simbología presentada anteriormente, se tendrían las siguientes fórmulas según se trate de una población o de una muestra:

Su definición obedece a las necesidades mencionadas anteriormente de contar con una medida independiente de las unidades y de la magnitud general de las observaciones. Al dividir la desviación estándar (“s” medida de dispersión absoluta) entre la media aritmética (“ẋ” medida de posición), se eliminan las unidades1, por una parte, y por otra, la inclusión del promedio en el divisor, permite corregir el efecto que sobre la desviación estándar tiene la magnitud general de los datos. En otras palabras, si la desviación estándar es grande porque los datos en sí son grandes, al dividirse entre la media aritmética ese factor queda eliminado. En cuanto a la multiplicación por 100, no tiene otro propósito que el de “amplificar” el número relativo y hacer más cómodo su uso. Ejemplo Los siguientes datos se refieren a estatura en centímetros de niñas de 2 y 16 años.

En términos absolutos es evidente que hay mayor variabilidad en el grupo de niñas de 16 años, ya que la desviación estándar es mayor; sin embargo, al calcular los coeficientes de variación se descubre que son muy parecidos, resultando más bien ligeramente inferior el correspondiente a niñas de 16 años.

1

Tanto la desviación estándar como la media aritmética vienen referidas a unidades concretas; por ejemplo, si se trata de la variable peso,

ambas vendrían dadas en kilogramos; al dividir una entre la otra, se dividen los kg entre kg, desapareciendo las unidades de referencia, es decir kg, quedando un número abstracto (un escalar) que no se refiere a ninguna unidad determinada.

40

-Estadística I-

Debe concluirse, entonces, que la dispersión relativa en ambos grupos de niñas es muy similar.

41

-Estadística I1.7

Coeficiente de asimetría de Pearson.

Asimetría. La asimetría es la medida que indica la simetría de la distribución de una variable respecto a la media aritmética, sin necesidad de hacer la representación gráfica. Los coeficientes de asimetría indican si hay el mismo número de elementos a izquierda y derecha de la media. Existen tres tipos de curva de distribución según su asimetría: 

Asimetría negativa: la cola de la distribución se alarga para valores inferiores a la media.



Simétrica: hay el mismo número de elementos a izquierda y derecha de la media. En este caso, coinciden la media, la mediana y la moda. La distribución se adapta a la forma de la campana de Gauss, o distribución normal.



Asimetría positiva: la cola de la distribución se alarga (a la derecha) para valores superiores a la media.

42

-Estadística ICoeficiente de asimetría de Pearson. El coeficiente de asimetría de Pearson CAP mide la diferencia entre la media y la moda respecto a la dispersión del conjunto X=(x1, x2,…, Xn). Este procedimiento, menos usado, lo emplearemos solamente en distribuciones unimodales y poco asimétricas.

  

Si CAP0: la distribución tiene una asimetría positiva, ya que la media es mayor que la moda.

43

-Estadística I-

UNIDAD

2

INTRODUCCIÓN A LA PROBABILIDAD.

44

-Estadística I-

Unidad 2: Introducción a la probabilidad. 2.1 Conceptos. 2.1.1 Definición y expresión. 2.2 Tipos de eventos. 2.3 Reglas de la adición y la multiplicación 2.4 Diagrama de árbol. 2.5 Teorema de Bayes. 2.6 Combinaciones y permutaciones.

45

-Estadística I2.1

Conceptos.

FENÓMENO (EXPERIMENTO): Es todo aquel acto o acción que se realiza con el fin de observar sus resultados y cuantificarlos. Los fenómenos pueden clasificarse de acuerdo al tipo de resultados en: 

Determinístico: Es aquel cuyos resultados se pueden predecir de antemano.



Probabilístico (aleatorio): Es aquel en el que para las limitaciones actuales del conocimiento científico, no se puede predecir con certeza el resultado.



Al conjunto de todos los posibles resultados de un experimento aleatorio se le denomina ESPACIO DE EVENTOS (S).



A cada posible resultado del espacio le llamaremos ELEMENTO.



Un EVENTO en general es un conjunto de eventos simples (o posibles resultados del experimento).



Si el evento está compuesto por un único elemento le llamaremos EVENTO SIMPLE.



Si el evento no tiene ningún resultado posible se le denomina EVENTO VACÍO.

El espacio de eventos puede ser FINITO o INFINITO y a su vez DISCRETO O CONTINUO.

46

-Estadística I2.1.1 Definición y expresión. Del latín probabilitas, verosimilitud (verus, verdadero y similis semejante). Fundada apariencia de verdad, calidad de probable, que puede suceder.

Significados de la probabilidad. Significado intuitivo. Las primeras ideas intuitivas sobre probabilidad surgen ligadas a las apuestas. Aunque los juegos de azar son tan antiguos como el hombre, el desarrollo de la teoría de probabilidades es relativamente reciente; una explicación es la antigua creencia en la imposibilidad de adivinar el futuro (Batanero, Henry, & Parzysz, 2005), por el carácter mítico supuesto a los fenómenos aleatorios. Este significado intuitivo y el interés de los niños por los juegos pueden usarse en la enseñanza para introducir la noción de probabilidad. Reconociendo la imprendicibilidad de los resultados, los niños pueden percibir que algunos sucesos merecen más confianza que otros, en función de su experiencia. La asignación de probabilidades, desde este significado, se puede hacer comparando la verosimilitud de sucesos con palabras del lenguaje habitual. Significado clásico. La teoría de la probabilidad tiene su origen formal en el siglo XVII a partir de la resolución de problemas sobre la ganancia esperada en juegos de azar; en particular, en la correspondencia entre Pascal y Fermat. Formalización que culmina con la definición de probabilidad, dada por Laplace en 1816, como cociente entre el número de casos favorables a un suceso y el número de casos posibles. Esta definición ha sido criticada por ser circular e introducir un elemento subjetivo, asociado a la necesidad de juzgar al equipo civilidad de diferentes resultados. En adición, tiene utilidad limitada, al ser aplicable sólo en caso de espacios muéstrales finitos formados por sucesos equiprobables (Batanero & Díaz, 2007). A pesar de estas deficiencias, este significado ha primado en la escuela durante muchos años; resultaba fácil calcular probabilidades simples en ejemplos de juegos con dados o monedas, que forman parte de la vida cotidiana del niño y donde puede aplicarse. Sin embargo, en la probabilidad compuesta, el cálculo se complica, pues se requiere razonamiento combinatorio, que es difícil para los estudiantes. Por otra parte, la ausencia de contraste con otros significados de la probabilidad promueve el sesgo de equi-probabilidad (Lecoutre, 1992) que es persistente con la edad.

47

-Estadística ISignificado frecuencial. El carácter objetivo de la probabilidad fue admitido tras la demostración de la primera ley de los grandes números, publicada por Bernoulli en 1713 (Batanero, Henry, & Parzysz, 2005) Esta demostración también llevó al significado frecuencial, definiendo la probabilidad como el número hacia el cual tiende la frecuencia relativa al estabilizarse, en un gran número de ensayos repetidos en las mismas condiciones. Un problema filosófico es que este método no da el valor exacto de la probabilidad, sino sólo una estimación. Un problema práctico es que a veces es imposible contar con idénticas condiciones en la experimentación y es difícil saber el número de veces que ha de repetirse el experimento para obtener una estimación fiable. Más aún, en algunos campos del conocimiento no es aplicable, por su naturaleza, al ser sucesos irrepetibles. El significado frecuencial es adecuado en la enseñanza, porque tiene una aplicación más amplia que el clásico y conecta la estadística con la probabilidad. Además, las posibilidades actuales de simulación facilitan el tratamiento de este enfoque (Fernandes, Batanero, C., Contreras, & Diàz, 2009) Significado subjetivo. El teorema de Bayes, publicado en 1793, lleva al significado subjetivo de la probabilidad, pues permite transformar probabilidades a priori en probabilidades a posteriori, utilizando la información de los datos observados. Las probabilidades podrían entonces revisarse y pierden de este modo el carácter objetivo, pues dependen de la información disponible, por lo que serían definidas como grados de creencia personal. Este significado sigue siendo controvertido (Borovcnik, 2012), debido a la asunción explícita del componente subjetivo; a pesar de ello su aplicación es usual. Desde el punto de vista de la enseñanza, Borovcnik señala su escasa presencia, en currículos vigentes. Aunque la probabilidad condicional y el teorema de Bayes se introducen habitualmente en la educación secundaria, este autor indica que el significado subjetivo no se suele desarrollar, a pesar que subyace en los procesos de simulación, pues los datos (números pseudoaleatorios) provienen de una función dada. Por otra parte, (Godino, Batanero, & Cañizares, 1987) sugieren usar en forma intuitiva este enfoque, en la educación primaria, con situaciones cotidianas del niño; se comenzaría asignando valores por parte del niño a las probabilidades, que se revisarían posteriormente con nuevas experiencias.

48

-Estadística I2.2

Tipos de eventos.

¡La vida está llena de eventos al azar! Necesitas tener una intuición y comprensión de estos eventos para que seas una persona inteligente y exitosa. El lanzamiento de una moneda, el lanzamiento de dados y los sorteos de lotería son ejemplos de eventos aleatorios. Eventos Cuando decimos "Evento" nos referimos a uno (o más) resultados.

Los eventos pueden ser: 

Independientes (cada evento no se ve afectado por otros eventos).



Dependientes (también llamado "Condicional", donde un evento se ve afectado por otros eventos).



Mutuamente Excluyentes (los eventos no pueden suceder al mismo tiempo).

Eventos Independientes. Los eventos pueden ser "independientes", lo que significa que cada evento no se ve afectado por ningún otro evento. ¡Esta es una idea importante! Una moneda no "sabe" que cayó Cara antes... cada lanzamiento de una moneda es una cosa perfectamente aislada.

49

-Estadística I-

Algunas personas piensan que "está en deuda para que caiga Escudo", pero realmente el próximo lanzamiento de la moneda es totalmente independiente de cualquier lanzamiento anterior.

Eventos dependientes. Pero los eventos también pueden ser "dependientes”... lo que significa que pueden verse afectados por eventos anteriores...

Esto se debe a que estamos quitando cartas del mazo.

50

-Estadística IMutuamente Excluyentes.

Es uno u otro, pero no ambos Ejemplos 

Girar a la izquierda y a la derecha son mutuamente excluyentes (no puedes hacer ambas cosas al mismo tiempo)



Cara y Escudo son mutuamente excluyentes



Reyes y Ases son mutuamente excluyentes

Lo que no es mutuamente excluyentes 

¡Los reyes y los corazones no son mutuamente excluyentes, porque podemos tener un rey de corazones!

Como aquí:

51

-Estadística I2.3

Reglas de la adición y la multiplicación.

La regla de adición o regla de la suma, establece que si tenemos un evento A y un evento B, la probabilidad de que ocurra el evento A o el evento B se calcula de la siguiente manera: Fórmula. P (A⋃B) = P (A) + P (B) – P (A⋂B)

Donde: 

P(A): probabilidad de que ocurra el evento A.



P (B): probabilidad de que ocurra el evento B.



P (A⋃B): probabilidad de que ocurra el evento A o el evento B.



P (A⋂B): probabilidad de que ocurra el evento A y el evento B a la vez.

¿Y si los eventos son mutuamente excluyentes? Dos eventos A y B son mutuamente excluyentes si no pueden ocurrir al mismo tiempo, es decir, si no tienen elementos comunes. Por ejemplo, sacar una carta al azar de una bajara, y obtener un 5 y un 7, son eventos mutuamente excluyentes, ya que no hay ninguna carta que tenga un 5 y un 7 al mismo tiempo. Entonces P (A⋂B) = 0, por lo tanto, partiendo de la misma fórmula, obtendríamos la siguiente expresión: P (A⋃B) = P (A) + P (B) – P (A⋂B) P (A⋃B) = P (A) + P (B) − 0 P (A⋃B) = P (A) +P (B) Ejemplo 1 La probabilidad de que un día cualquiera, Carlos almuerce pollo frito es de 0,4. La probabilidad de que almuerce hamburguesa es de 0,3; mientras que la probabilidad de que almuerce pollo frito y hamburguesa el mismo día es de 0,1. Calcula la probabilidad de que un día cualquiera, Carlos almuerce pollo frito o hamburguesa.

52

-Estadística ISolución: Definimos nuestras probabilidades: 

Probabilidad de que Carlos almuerce pollo frito: P(A) = 0,4.



Probabilidad de que Carlos almuerce hamburguesa: P (B) = 0,3.



Probabilidad de que Carlos almuerce pollo frito y hamburguesa el mismo día: P (A⋂B) = 0,1.



Probabilidad de que Carlos almuerce pollo frito o hamburguesa:



P (A⋃B) =?

Ahora, aplicamos nuestra fórmula: P (A⋃B) = P (A) + P (B) – P (A⋂B) P (A⋃B) = 0,4 + 0,3 − 0,1 P (A⋃B) = 0,6 Ejemplo 2 La probabilidad de que al tirar un dado, salga 1, es de 1/6. La probabilidad de que salga 3, es de 1/6. Calcular la probabilidad de que al tirar un dado, salga 1 o 3. Solución: Definimos nuestros eventos: 

Probabilidad de que salga 1: P(A) = 1/6.



Probabilidad de que salga 3: P (B) = 1/6.



Probabilidad de que salga 1 y 3 al mismo tiempo P (A⋂B) = 0. Este valor es cero, dado que son eventos mutuamente excluyentes. Si sale 1, ya no puede salir 3.



Probabilidad de que salga 1 o 3: P (A⋃B) =?

Ahora, aplicamos nuestra fórmula:

53

-Estadística ILa regla de la multiplicación o regla del producto, permite encontrar la probabilidad de que ocurra el evento A y el evento B al mismo tiempo (probabilidad conjunta). Esta regla depende de si los eventos son dependientes o independientes. Eventos dependientes. Dos eventos A y B son dependientes, si la ocurrencia de uno de ellos afecta la ocurrencia del otro. Para eventos dependientes, la regla de la multiplicación establece que:

Ejemplo 1 Una caja contiene 2 canicas azules y 3 rojas. Si se extraen dos canicas al azar sin reposición, ¿cuál es la probabilidad de que las dos sean azules? Solución: Dado que las canicas serán extraídas de la misma caja, y que las canicas que se extraigan, no serán devueltas a la caja (no hay reposición), entonces, se trata de eventos dependientes. 

Evento A: obtener una canica azul en la primera extracción.



Evento B: obtener una canica azul en la segunda extracción.

Por la regla de la multiplicación, sabemos que:

54

-Estadística IEventos independientes. Dos eventos A y B son independientes, si la ocurrencia de uno de ellos no afecta la ocurrencia del otro, es decir, cuando los eventos A y B no están relacionados. Para eventos independientes, la regla de la multiplicación establece que:

Esto se debe, a que en los eventos independientes, la ocurrencia de un evento, no afecta a la ocurrencia del otro:

Ejemplo 2 En un colegio, la probabilidad de que un alumno seleccionado al azar hable inglés es de 0,20; mientras que la probabilidad de que un alumno juegue fútbol es de 0,80. El hecho de que un alumno hable inglés, no afecta en nada que juegue fútbol; por lo tanto, se trata de eventos independientes. 

Evento A: que el alumno hable inglés. P (A) = 0,20.



Evento B: que el alumno juegue fútbol. P (B) = 0,80.

Usamos la regla de la multiplicación para eventos independientes:

55

-Estadística I2.4

Diagrama de árbol.

Un diagrama de árbol es una representación gráfica que muestra los resultados posibles de una serie de experimentos y sus respectivas probabilidades; consta de r pasos, donde cada uno de los pasos tiene un número finito de maneras de ser llevado a cabo. Para la construcción de un diagrama en árbol se partirá poniendo una rama para cada una de las posibilidades, acompañada de su probabilidad. En el final de cada rama parcial se constituye a su vez, un nudo del cual parten nuevas ramas, según las posibilidades del siguiente paso, salvo si el nudo representa un posible final del experimento (nudo final). Hay que tener en cuenta: que la suma de probabilidades de las ramas de cada nudo ha de dar 1.

El diagrama de árbol va de lo general a lo especifico, es decir, parte de un problema general (el “tronco”) y continua con niveles subsecuentes o causas (las “ramas”). Los diagramas en árbol son muy útiles para "fabricar" cualquier tipo de agrupación, ya sean variaciones, permutaciones o combinaciones.

56

-Estadística IEjemplo Experimento: Se lanza una moneda, si sale águila se lanza un dado y si sale sol se lanza la moneda de nuevo.

Espacio muestral S :{ A1, A2, A3, A4, A5, A6, SS, SA} N (s)=8

Experimento: Se tienen tres pelotas en una bolsa de color blanco, azul y amarillo, si se saca una pelota pero no se regresa y se vuelve a sacar otra. ¿Cuál será el espacio muestral?

S= {RB, RA, BR, BA, AR, AB} N (s) =6

57

-Estadística IEl diagrama de árbol y la probabilidad: Esta herramienta está fundamentada en el cálculo de probabilidades condicionadas, esto quiere decir que ocurra un evento A, sabiendo que también sucede otro evento B. Un evento dependiente se define de la siguiente forma. Se dice que un evento A es dependiente de otro B si para que ocurra A es necesario que ocurra el evento B. Un instrumento útil dentro de la probabilidad condicional son las representaciones que nos permiten analizar la problemática de los eventos cuando estos ocurren uno después del otro. Concretamente estamos hablando de los diagramas de árbol. Este está constituido de varias ramas, cada rama parte de un nodo que representa un evento aleatorio diferente. En el esquema que se presenta a continuación se observa que la rama principal está constituida de evento con diferentes posibilidades como son: A1, A2, A3...An la siguiente rama consta de eventos distintos, por ejemplo, B1, B2, B3...Bn que se realizan después de ocurrir A1, así de manera sucesiva pueden ocurrir eventos después de cualquiera de ellos. Otro ejemplo es el que se muestra, ocurren después del evento An ocurriendo los eventos C1, C2, C3...Cn. También observamos que cada evento forma un universo para cada evento por lo que cada rama, de acuerdo con el axioma de normalizabilidad, tendrá que ser igual a uno.

58

-Estadística I2.5

Teorema de Bayes.

El teorema de Bayes es utilizado para calcular la probabilidad de un suceso, teniendo información de antemano sobre ese suceso. Podemos calcular la probabilidad de un suceso A, sabiendo además que ese A cumple cierta característica que condiciona su probabilidad. El teorema de Bayes entiende la probabilidad de forma inversa al teorema de la probabilidad total. El teorema de la probabilidad total hace inferencia sobre un suceso B, a partir de los resultados de los sucesos A. Por su parte, Bayes calcula la probabilidad de A condicionado a B. El teorema de Bayes ha sido muy cuestionado. Lo cual se ha debido, principalmente, a su mala aplicación. Ya que, mientras se cumplan los supuestos de sucesos disjuntos y exhaustivos, el teorema es totalmente válido. Fórmula del teorema de Bayes Para calcular la probabilidad tal como la definió Bayes en este tipo de sucesos, necesitamos una fórmula. La fórmula se define matemáticamente como:

Donde B es el suceso sobre el que tenemos información previa y A(n) son los distintos sucesos condicionados. En la parte del numerador tenemos la probabilidad condicionada, y en la parte de abajo la probabilidad total. En cualquier caso, aunque la fórmula parezca un poco abstracta, es muy sencilla. Para demostrarlo, utilizaremos un ejemplo en el que en lugar de A (1), A (2) y A (3), utilizaremos directamente A, B y C.

59

-Estadística IEjemplo del teorema de Bayes Una empresa tiene una fábrica en Estados Unidos que dispone de tres máquinas A, B y C, que producen envases para botellas de agua. Se sabe que la máquina A produce un 40% de la cantidad total, la máquina B un 30%, y la máquina C un 30%. También se sabe que cada máquina produce envases defectuosos. De tal manera que la máquina A produce un 2% de envases defectuosos sobre el total de su producción, la máquina B un 3%, y la máquina C un 5%. Dicho esto, se plantean dos cuestiones:   

P (A) = 0, 40 P (B) = 0, 30 P (C) = 0, 30

P (D/A) = 0, 02 P (D/B) = 0, 03 P (D/C) = 0, 05

1. Si un envase ha sido fabricado por la fábrica de esta empresa en Estados Unidos ¿Cuál es la probabilidad de que sea defectuoso?

Se calcula la probabilidad total. Ya que, a partir los diferentes sucesos, calculamos la probabilidad de que sea defectuoso. P(D) =[ P(A) x P(D/A) ] + [ P(B) x P(D/B) ] + [ P(C) x P(D/C) ] = [ 0,4 x 0,02 ] + [ 0,3 x 0,03 ] + [ 0,3 x 0,05 ] = 0,032

Expresado en porcentaje, diríamos que la probabilidad de que un envase fabricado por la fábrica de esta empresa en Estados Unidos sea defectuoso es del 3,2%. 2. Siguiendo con la pregunta anterior, si se adquiere un envase y este es defectuoso ¿Cuáles es la probabilidad de que haya sido fabricado por la máquina A? ¿Y por la máquina B? ¿Y por la máquina C?

Aquí se utiliza el teorema de Bayes. Tenemos información previa, es decir, sabemos que el envase es defectuoso. Claro que, sabiendo que es defectuoso, queremos saber cuál es la probabilidad de que se haya producido por una de las máquinas.   

P (A/D) = [P (A) x P (D/A)] / P (D) = [0, 40 x 0, 02] / 0,032 = 0, 25 P (B/D) = [P (B) x P (D/B)] / P (D) = [0, 30 x 0, 03] / 0,032 = 0, 28 P (C/D) = [P(C) x P (D/C)] / P (D) = [0, 30 x 0, 05] / 0,032 = 0, 47 Sabiendo que un envase es defectuoso, la probabilidad de que haya sido

producido por la máquina A es del 25%, de que haya sido producido por la máquina B es del 28% y de que haya sido producido por la máquina C es del 47%.

60

-Estadística I2.6

Combinaciones y permutaciones.

¿Qué diferencia hay? Normalmente usamos la palabra "combinación" descuidadamente, sin pensar en si el orden de las cosas es importante. En otras palabras. "Mi ensalada de frutas es una combinación de manzanas, uvas y bananas": no importa en qué orden pusimos las frutas, podría ser "bananas, uvas y manzanas" o "uvas, manzanas y bananas", es la misma ensalada. "La combinación de la cerradura es 472": ahora sí importa el orden. "724" no funcionaría, ni "247". Tiene que ser exactamente 4−7−2. Así que en matemáticas usamos un lenguaje más preciso: 

Si el orden no importa, es una combinación.



Si el orden sí importa es una permutación.

¡Así que lo de arriba se podría llamar "cerradura de permutación"!

Con otras palabras: Una permutación es una combinación ordenada

61

-Estadística IPermutaciones. Hay dos tipos de permutaciones: 

Se permite repetir: como la cerradura de arriba, podría ser "333".



Sin repetición: por ejemplo los tres primeros en una carrera. No puedes quedar primero y segundo a la vez.

1. Permutaciones con repetición. Son las más fáciles de calcular. Si tienes n cosas para elegir y eliges r de ellas, las permutaciones posibles son: n × n × ... (r veces) = nr

(Porque hay n posibilidades para la primera elección, DESPUÉS hay n posibilidades para la segunda elección, y así.) Por ejemplo en la cerradura de arriba, hay 10 números para elegir (0,1,...,9) y eliges 3 de ellos: 10 × 10 ×... (3 veces) = 103 = 1000 permutaciones Así que la fórmula es simplemente:

nr donde n es el número de cosas que puedes elegir, y eliges r de ellas (Se puede repetir, el orden importa)

62

-Estadística I2. Permutaciones sin repetición En este caso, se reduce el número de opciones en cada paso. Por ejemplo, ¿cómo podrías ordenar 16 bolas de billar? Después de elegir por ejemplo la "14" no puedes elegirla otra vez. Así que tu primera elección tiene 16 posibilidades, y tu siguiente elección tiene 15 posibilidades, después 14, 13, etc. Y el total de permutaciones sería: 16 × 15 × 14 × 13... = 20.922.789.888.000 Pero a lo mejor no quieres elegirlas todas, sólo 3 de ellas, así que sería solamente: 16 × 15 × 14 = 3360 Es decir, hay 3.360 maneras diferentes de elegir 3 bolas de billar de entre 16. ¿Pero cómo lo escribimos matemáticamente? Respuesta: usamos la "función factorial" La función factorial (símbolo: !) significa que se multiplican números descendentes. Ejemplos:   

4! = 4 × 3 × 2 × 1 = 24 7! = 7 × 6 × 5 × 4 × 3 × 2 × 1 = 5040 1! = 1

Nota: en general se está de acuerdo en que 0! = 1. Puede que parezca curioso que no multiplicar ningún número dé 1, pero ayuda a simplificar muchas ecuaciones. Así que si quieres elegir todas las bolas de billar las permutaciones serían: 16! = 20.922.789.888.000

63

-Estadística IPero si sólo quieres elegir 3, tienes que dejar de multiplicar después de 14. ¿Cómo lo escribimos? ¡Hay un buen truco... dividimos entre 13!... 16 × 15 × 14 × 13 × 12 ... = 16 × 15 × 14 = 3360 13 × 12 ... ¿Lo ves? 16! / 13! = 16 × 15 × 14 La fórmula se escribe:

donde n es el número de cosas que puedes elegir, y eliges r de ellas (No se puede repetir, el orden importa)

Ejemplos Nuestro "ejemplo de elegir en orden 3 bolas de 16" sería: 16!

16! =

(16−3)!

20.922.789.888.000 =

= 3360

13!

6.227.020.800

¿De cuántas maneras se pueden dar primer y segundo premio entre 10 personas? 10!

10! =

(10−2)!

3.628.800 =

8!

= 90 40.320

(que es lo mismo que: 10 × 9 = 90) Notación En lugar de escribir toda la fórmula, la gente usa otras notaciones como:

64

-Estadística ICombinaciones. También hay dos tipos de combinaciones (recuerda que ahora el orden no importa): Se puede repetir: como monedas en tu bolsillo (5,5,5.10,10) Sin repetición: como números de lotería (2.14,15.27,30.33) 1. Combinaciones con repetición En realidad son las más difíciles de explicar, así que las dejamos para luego. 2. Combinaciones sin repetición Así funciona la lotería. Los números se eligen de uno en uno, y si tienes los números de la suerte (da igual el orden) ¡entonces has ganado! La manera más fácil de explicarlo es: 

imaginemos que el orden sí importa (permutaciones),



después lo cambiamos para que el orden no importe.

Volviendo a las bolas de billar, digamos que queremos saber qué 3 bolas se eligieron, no el orden. Ya sabemos que 3 de 16 dan 3360 permutaciones. Pero muchas de ellas son iguales para nosotros, porque no nos importa el orden. Por ejemplo, digamos que se tomaron las bolas 1, 2 y 3. Las posibilidades son: El orden importa 1 1 2 2 3 321

2 3 1 3 1

El orden importa

no

3 2 3 123 1 2

65

-Estadística IAsí que las permutaciones son 6 veces más posibilidades. De hecho hay una manera fácil de saber de cuántas maneras "1 2 3" se pueden ordenar, y ya la sabemos. La respuesta es: 3! = 3 × 2 × 1 = 6 (Otro ejemplo: 4 cosas se pueden ordenar de 4! = 4 × 3 × 2 × 1 = 24 maneras distintas, ¡prueba tú mismo!) Así que sólo tenemos que ajustar nuestra fórmula de permutaciones para reducir por las maneras de ordenar los objetos elegidos (porque no nos interesa ordenarlos):

Esta fórmula es tan importante que normalmente se la escribe con grandes paréntesis, así:

donde n es el número de cosas que puedes elegir, y eliges r de ellas (No se puede repetir, el orden no importa) Y se la llama "coeficiente binomial". Notación Además de los "grandes paréntesis", la gente también usa estas notaciones:

66

-Estadística IEjemplo Entonces, nuestro ejemplo de bolas de billar (ahora sin orden) es: 16!

16!

20.922.789.888.000

= 3!(16−3)!

=

= 560

3!×13!

6×6.227.020.800

O lo puedes hacer así: 16×15×14

3360 =

3×2×1

= 560 6

Así que recuerda, haz las permutaciones, después reduce entre "r!" ... o mejor todavía... ¡Recuerda la fórmula! Es interesante darse cuenta de que la fórmula es bonita y simétrica:

Con otras palabras, elegir 3 bolas de 16 da las mismas combinaciones que elegir 13 bolas de 16. 16!

16! =

3!(16−3)!

16! =

13!(16−13)!

= 560 3!×13!

67

-Estadística ITriángulo de Pascal Puedes usar el triángulo de Pascal para calcular valores. Baja a la fila "n" (la de arriba es n=0), y ve a la derecha "r" posiciones, ese valor es la respuesta. Aquí tienes un trozo de la fila 16: 1 1 1

15

14

91

364...

105 455 1365...

16 120 560 1820 4368...

1. Combinaciones con repetición OK, ahora vamos con este... Digamos que tenemos cinco sabores de helado: banana, chocolate, limón, fresa y vainilla. Puedes tomar 3 paladas. ¿Cuántas variaciones hay? Vamos a usar letras para los sabores: {b, c, l, f, v}. Algunos ejemplos son 

{c, c, c} (3 de chocolate)



{b, l, v} (uno de banana, uno de limón y uno de vainilla)



{b, v, v} (uno de banana, dos de vainilla)

(Y para dejarlo claro: hay n=5 cosas para elegir, y eliges r=3 de ellas. El orden no importa, ¡y sí puedes repetir!) Bien, no puedo decirte directamente cómo se calcula, pero te voy a enseñar una técnica especial para que lo averigües tú mismo. Imagina que el helado está en contenedores, podrías decir "sáltate el primero, después 3 paladas, después sáltate los 3 contenedores siguientes" ¡y acabarás con 3 paladas de chocolate!

68

-Estadística IEntonces es como si ordenaras a un robot que te trajera helado, pero no cambia nada, tendrás lo que quieres. Ahora puedes escribirlo como

(la flecha es saltar, el círculo es

tomar) Entonces los tres ejemplos de arriba se pueden escribir así: {c, c, c} (3 de chocolate): {b, l, v} (uno de banana, uno de limón y uno de vainilla): {b, v, v} (uno de banana, dos de vainilla): OK, entonces ya no nos tenemos que preocupar por diferentes sabores, ahora tenemos un problema más simple para resolver: "de cuántas maneras puedes ordenar flechas y círculos" Fíjate en que siempre hay 3 círculos (3 paladas de helado) y 4 flechas (tenemos que movernos 4 veces para ir del contenedor 1º al 5º). Así que (en general) hay r + (n−1) posiciones, y queremos que r de ellas tengan círculos. Esto es como decir "tenemos r + (n−1) bolas de billar y queremos elegir r de ellas". Es decir, es como el problema de elegir bolas de billar, pero con números un poco distintos. Lo podrías escribir así:

donde n es el número de cosas que puedes elegir, y eliges r de ellas

69

-Estadística I(Se puede repetir, el orden no importa) Es interesante pensar que podríamos habernos fijado en flechas en vez de círculos, y entonces habríamos dicho "tenemos r + (n−1) posiciones y queremos que (n−1) tengan flechas", y la respuesta sería la misma...

¿Qué pasa con nuestro ejemplo, cuál es la respuesta? (5+3−1)!

7! =

3!(5−1)!

5040 =

3!×4!

= 35 6×24

70

-Estadística I-

UNIDAD

3

TIPOS DE DISTRIBUCIONES, VARIABLES ALEATORIAS DISCRETAS Y CONTINUAS.

71

-Estadística I-

Unidad 3: Tipos de distribuciones, variables aleatorias discretas y continuas. 3.1 Distribuciones de probabilidad para variables discretas 3.1.1 Distribución de probabilidad de la Binomial; características y propiedades 3.1.2 Distribución de probabilidad Poisson características, propiedades 3.1.3 Distribución de probabilidad Hípergeométrica; características y propiedades 3.2 Distribuciones de probabilidad para variables continuas 3.2.1 Distribución de probabilidad Normal; características y propiedades. 3.2.2 Distribución de probabilidad Ji cuadrada; características y propiedades 3.2.3 Distribución de probabilidad aproximación de la normal a la binomial; características y propiedades

72

-Estadística I3.1 Distribuciones de probabilidad para variables discretas. ¿Qué es una distribución discreta? Una distribución discreta describe la probabilidad de ocurrencia de cada valor de una variable aleatoria discreta. Una variable aleatoria discreta es una variable aleatoria que tiene valores contables, tales como una lista de enteros no negativos. Con una distribución de probabilidad discreta, cada valor posible de la variable aleatoria discreta puede estar asociado con una probabilidad distinta de cero. Por lo tanto, una distribución de probabilidad discreta suele representarse en forma tabular. Ejemplo del número de quejas de clientes Con una distribución discreta, a diferencia de una distribución continua, usted puede calcular la probabilidad de que X sea exactamente igual a algún valor. Por ejemplo, puede utilizar la distribución discreta de Poisson para describir el número de quejas de clientes en un día. Supongamos que el número promedio de quejas por día es 10 y usted desea saber la probabilidad de recibir 5, 10 y 15 quejas de clientes en un día.

x

P (X = x)

5

0.037833

10 0.12511 15 0.034718

73

-Estadística IUsted también puede visualizar una distribución discreta en una gráfica de distribución para ver las probabilidades entre los rangos.

Gráfica de distribución del número de quejas de clientes Las barras sombreadas en este ejemplo representan el número de ocurrencias cuando las quejas diarias de los clientes son 15 o más. La altura de las barras suma 0.08346; por lo tanto, la probabilidad de que el número de llamadas por día sea 15 o más es 8.35%.

74

-Estadística I3.1.1 Distribución de probabilidad de la Binomial; características y propiedades. Una distribución binomial es una distribución de probabilidad discreta que describe el número de éxitos al realizar n experimentos independientes entre sí, acerca de una variable aleatoria. Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados bajo

esta

distribución de

probabilidad.

Imaginemos el

lanzamiento de una moneda en el que definimos el suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y contamos los éxitos (sacar cara) que obtenemos, nuestra distribución de probabilidades se ajustaría a una distribución binomial. Por lo tanto, la distribución binomial se entiende como una serie de pruebas o ensayos en la que solo podemos tener 2 resultados (éxito o fracaso), siendo el éxito nuestra variable aleatoria. Propiedades de la distribución binomial. Para que una variable aleatoria se considere que sigue una distribución binomial, tiene que cumplir las siguientes propiedades: 

En cada ensayo, experimento o prueba solo son posibles dos resultados (éxito o fracaso).



La probabilidad del éxito ha de ser constante. Esta se representa mediante la letra p. La probabilidad de que salga cara al lanzar una moneda es 0,5 y esta es constante dado que la moneda no cambia en cada experimento y las probabilidades de sacar cara son constantes.



La probabilidad de fracaso ha de ser también constate. Esta se representa mediante la letra q = 1-p. Es importante fijarse que, mediante esa ecuación, sabiendo p o sabiendo q, podemos obtener la que nos falte.



El resultado obtenido en cada experimento es independiente del anterior. Por lo tanto, lo que ocurra en cada experimento no afecta a los siguientes.



Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2 al mismo tiempo. No se puede ser hombre y mujer al mismo tiempo o que al lanzar una moneda salga cara y cruz al mismo tiempo.

75

-Estadística I

Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los 2 ha de ocurrir. Si no se es hombre, se es mujer y, si se lanza una moneda, si no sale cara ha de salir cruz.



La variable aleatoria que sigue una distribución binomial se suele representar como X~ (n, p), donde n representa el número de ensayos o experimentos y p la probabilidad de éxito.

Formula de la distribución binomial. La fórmula para calcular la distribución normal es:

Donde: n

= Número de ensayos/experimentos

x

= Número de éxitos

p

= Probabilidad de éxito

q

= Probabilidad de fracaso (1-p)

Es importante resaltar que la expresión entre corchetes no es una expresión matricial, sino que es un resultado de una combinatoria sin repetición. Este se obtiene con la siguiente formula:

El signo de exclamación en la expresión anterior representa el símbolo de factorial.

76

-Estadística IEjemplo de distribución binomial. Imaginemos que un 80% de personas en el mundo ha visto el partido de la final del último mundial de fútbol. Tras el evento, 4 amigos se reúnen a conversar, ¿Cuál es la probabilidad de que 3 de ellos hayan visto el partido? Definamos las variables del experimento: n

= 4 (es el total de la muestra que tenemos)

x

= número de éxitos, que en este caso es igual a 3, dado que buscamos la

probabilidad de que 3 de los 4 amigos lo hayan visto. p

= probabilidad de éxito (0,8)

q

= probabilidad de fracaso (0,2). Este resultado se obtiene al restar 1-p.

Tras definir todas nuestras variables, simplemente sustituimos en la formula.

El numerador de la factorial se obtendría de multiplicar 4*3*2*1 = 24 y en el denominador tendríamos 3*2*1*1 = 6. Por lo tanto, el resultado de la factorial sería 24/6=4. Fuera del corchete tenemos dos números. El primero sería 0,8^3=0,512 y el segundo 0,2 (dado que 4-3 = 1 y cualquier número elevado a 1 es el mismo). Por tanto, nuestro resultado final sería: 4*0,512*0,2 = 0,4096. Si multiplicamos por 100 tenemos que hay una probabilidad del 40,96% de que 3 de los 4 amigos haya visto el partido de la final del mundial.

77

-Estadística I3.1.2 Distribución de probabilidad Poisson características, propiedades. Siméon Denis Poisson, (1781-1840), astronauta francés, alumno de Laplace y Lagrange, en Recherchés sur la probabilité des jugements…, un trabajo importante en probabilidad publicado en el año 1837, la distribución de Poissonrecién aparecía. La

distribución

de

Poisson

describe

la

probabilidad

como

un

acontecimiento fortuito ocurrido en un tiempo o intervalo de espacio bajo las condiciones que la probabilidad de un acontecimiento ocurre es muy pequeña, pero el número de intentos es muy grande, entonces el evento actual ocurre algunas veces. Poisson, usos “La probabilidad de obtener “X “éxitos en un intervalo continuo” 

Se emplea para describir varios procesos:



Distribución de las llamadas telefónicas que llagan a un conmutador.



La demanda de servicios en un hospital por parte de los pacientes.



Los arribos de los camiones y automóviles a la caseta de cobro.



El número de accidentes en un cruce.



El número de defectos en una tela por m2.



El número de bacterias por cm2.

Poisson, características. Características 

El número medio (promedio) de eventos en el espacio temporal o región específica de interés, por lo general esta media se representa por la lambda griega (λ)



El número de resultados que ocurren en un intervalo de tiempo o región específicos es independiente del número que ocurre en cualquier otro intervalo de tiempo o región

78

-Estadística I

La probabilidad de que un resultado muy pequeño ocurra en un intervalo de tiempo muy corto o en una región pequeña es proporcional a la longitud del intervalo de tiempo o al tamaño de la región.



La probabilidad de que más de un resultado ocurra en un intervalo de tiempo tan corto o en esa región tan pequeña es inapreciable, que se puede asignar el valor de 0.

Fórmula de Poisson. P (x I λ) = λx * e-λ x! 

P (x I λ) = la probabilidad de que ocurran X éxitos cuando el número promedio de ocurrencia de ellos es λ.



λ media o promedio de éxitos por unidad de tiempo, área o producto e es la constante 2.7183, base de los logaritmos naturales, en tanto que los valores de e-λ pueden obtenerse de tablas.



X señala un valor específico que la variable pueda tomar (el número de éxitos que deseamos ocurran)



Por definición, el valor esperado (media en el intervalo o región de interés) de una distribución de probabilidad de Poisson es igual a la media de la distribución. E(X) = λ



La varianza del número de eventos de una distribución de probabilidad de Poisson también es igual a la media de la distribución λ. De este modo, la desviación estándar es la raíz cuadrada de λ. V(X) = λ σ = √λ

79

-Estadística IEjemplos P (x I λ) = λx * e-λ x! Supóngase que estamos investigando la seguridad de un crucero muy peligroso. Los archivos de la policía indican una media de cinco accidentes por mes en él. El número de accidentes está distribuido conforme a la distribución de Poisson, y la división de seguridad en carreteras quiere calcular la probabilidad de exactamente 0,1,2,3 y 4 accidentes en un mes determinado. Aplicando la fórmula anterior: 

P (0) = (5)0 (e-5) /0! = 0.00674



P (1) = (5)1 (e-5) /1! = 0.03370



P (2) = (5)2 (e-5) /2! = 0.08425



P (3) = (5)3 (e-5) /3! = 0.14042



P (4) = (5)4 (e-5) /4! = 0.17552

Para saber cuál es la probabilidad en 3 o menos (X ≤ 3), sumaremos las probabilidades de 0,1,2,3 lo que será igual a: P (X ≤ 3) = P (0) +P (1) +P (2) +P (3) = 0.26511 Dado que la probabilidad de que haya 3 o menos accidentes es de 0.26511 entonces la probabilidad de que ocurran más de tres (X > 3) debe ser = 1 –0.26511 = 0.73489. En una tienda de telas, unos promedios de 12 personas por hora le hacen preguntas a un decorador. La probabilidad de que 3 o más personas se acerquen al decorador para hacerle preguntas en un periodo de 10 minutos. Promedio por hora =12 λ= promedio por 10 minutos = 12/6 = 2.0 P (X ≥ 3 I λ= 2) = P (X=3 I λ= 2) + P (X=4 I λ= 2) + P (X=5 I λ= 2) + … O P (X ≤ 2 I λ= 2) = 1 – [ P (X=0 I λ= 2) + P (X=1 I λ= 2) + P (X=2 I λ= 2)]

80

-Estadística IAproximación de la distribución binomial por una de Poisson. Algunas veces, si se desea evitar el tedioso trabajo de calcular las distribuciones binomiales, sobre todo si n (ensayos) es muy grande y p o q (éxito y fracaso) es muy pequeña, se puede usar a cambio la de Poisson, pero debe cumplir con ciertas condiciones como: 

n ≥ 30



np o nq < 5 En los casos en que se satisfacen tales condiciones, podemos sustituir la

media de la distribución binomial en lugar de la media de la distribución de Poisson de modo: λ=np Ejemplo Se sabe que 1% de los artículos de un gran embarque de transistores procedente de un proveedor son defectuosos. Si se selecciona aleatoriamente una muestra de 30 transistores, la probabilidad de que dos o más de ellos sean defectuosos. P (X ≥ 2 I n=30, p= 0.01) = P (X=2) + P (X=3) + …= 0.0328+0.0031+0.0002 = 0.0361 Si λ=np=30(0.01) = 0.3, la aproximación de Poisson del anterior valor de probabilidad es P (X ≥ 2 I λ= 0.3) = P (X=2) + P (X=3) + …= 0.0333 + 0.0033 + 0.0002 = 0.0368 Así la diferencia entre la aproximación de Poisson y el valor de probabilidad binomial real es de sólo 0.0007

81

-Estadística I3.1.3 Distribución de probabilidad Hípergeométrica; características y propiedades La distribución Hípergeométrica es especialmente útil en todos aquellos casos en los que se extraigan muestras o se realizan experiencias repetidas sin devolución del elemento extraído o sin retornar a la situación experimental inicial. Modeliza, de hecho, situaciones en las que se repite un número determinado de veces una prueba dicotómica de manera que con cada sucesivo resultado se ve alterada la probabilidad de obtener en la siguiente prueba uno u otro resultado. Es una distribución. fundamental en el estudio de muestras pequeñas de poblaciones. pequeñas y en el cálculo de probabilidades de, juegos de azar y tiene grandes aplicaciones en el control de calidad en otros procesos experimentales en los que no es posible retornar a la situación de partida. La distribución Hípergeométrica puede derivarse de un proceso experimental puro o de Bernouilli con las siguientes características:   

El proceso consta de n pruebas, separadas o separables de entre un conjunto de N pruebas posibles. Cada una de las pruebas puede dar únicamente dos resultados mutuamente excluyentes: A y no A. En la primera prueba las probabilidades son: P(A)= p y P(A)= q; con p+q=l.

Las probabilidades de obtener un resultado A y de obtener un resultado no A varían en las sucesivas pruebas, dependiendo de los resultados anteriores. (Derivación de la distribución). Si estas circunstancias a leatorizamos de forma que la variable aleatoria X sea el número de resultados A obtenidos en n pruebas la distribución de X será una Hípergeométrica de parámetros N,n,p

así

82

-Estadística IUn típico caso de aplicación de este modelo es el siguiente : Supongamos la extracción aleatoria de n elementos de un conjunto formado por N elementos totales, de los cuales Np son del tipo A y Nq son del tipo

(p+q=l) .Si realizamos las extracciones sin devolver los elementos

extraídos , y llamamos X. al número de elementos del tipo A que extraemos en n extracciones X seguirá una distribución Hípergeométrica de parámetros N , n , p Función de cuantía. La función de cuantía de una distribución Hípergeométrica hará corresponder a cada valor de la variable X (x = 0,1,2, . . . n) la probabilidad del suceso "obtener x resultados del tipo A ", y (n-x) resultados del tipo no A en las n pruebas realizadas de entre las N posibles. Veamos:

Hay un total de x

resultados

del

formas distintas de obtener tipo

A

y

n-x

del

tipo

,

si partimos de una población formada por Np elementos del tipo A y Nq elementos del tipo

Por otro lado, si realizamos n pruebas o extracciones hay un total de

posibles muestras (grupos de n elementos) aplicando la regla de Laplace tendríamos

83

-Estadística I-

que para valores de X comprendidos entre el conjunto de enteros 0, 1…. n será la expresión de la función de cuantía de una distribución, Hípergeométrica de parámetros N, n, p. Media y varianza. Considerando que una variable Hípergeométrica de parámetros N, n, p puede considerarse generada por la reiteración de un proceso dicotómico n veces en el que las n dicotomías NO son independientes; podemos considerar que una variable Hípergeométrica es la suma de n variables dicotómicas NO independientes. Es bien sabido que la media de la suma de variables aleatorias (sean éstas independientes o no) es la suma de las medias y por tanto la media de una distribución Hípergeométrica será , como en el caso de la binomial : En cambio, si las variables sumando no son independientes la varianza de la variable suma no será la suma de las varianzas. Si se evalúa el valor de la varianza para nuestro caso se obtiene que la varianza de una distribución Hípergeométrica de parámetros N,n,p es : si

84

-Estadística IEsta forma resulta ser la expresión de la varianza de una binomial (n, p) afectada por un coeficiente corrector [N-n/N-1] , llamado coeficiente de exhaustividad o Factor Corrector de Poblaciones Finitas (F.C.P.F.) y que da cuenta del efecto que produce la no reposición de los elementos extraídos en el muestreo. Este coeficiente es tanto más pequeño cuanto mayor es el tamaño muestral (número de pruebas de n ) y puede comprobarse como tiende a aproximarse a 1 cuando el tamaño de la población N es muy grande . Este último hecho nos confirma lo ya comentado sobre la irrelevancia de la reposición o no cuando se realizan extracciones sucesivas sobre una población muy grande. Con una población muy grande se cual fuere el tamaño de n, el factor corrector sería uno lo que convertiría, en cierto modo a la Hípergeométrica en una binomial (ver D. Binomial) . Límite de la distribución Hípergeométrica cuando N tiende a infinito. Hemos visto como la media de la distribución Hípergeométrica [H{N,n,p)], tomaba siempre el mismo valor que la media de una distribución binomial [B{n,p)] también hemos comentado que si el valor del parámetro N crecía hasta aproximarse a infinito el coeficiente de exhaustividad tendía a ser 1, y, por lo tanto, la varianza de la Hípergeométrica se aproximaba a la de la binomial : puede probarse asimismo , cómo la función de cuantía de una distribución Hípergeométrica tiende a aproximarse a la función de cuantía de una distribución binomial cuando

85

-Estadística I-

Puede

comprobarse

en

la

representación gráfica de una Hípergeométrica

con

N

=100000

ésta

,es

como

idéntica a la de una binomial con los mismos parámetros restantes n y p , que utilizamos al hablar de la binomial Moda de la distribución Hípergeométrica. De manera análoga a como se obtenía la moda en la distribución binomial es fácil obtener la expresión de ésta para la distribución Hípergeométrica. De manera que su expresión X0 sería la del valor o valores enteros que verificasen.

86

-Estadística I3.2

Distribuciones

de

probabilidad

para

variables

continuas. Las distribuciones de probabilidad de variable continua son idealizaciones de las distribuciones estadísticas de variable continua. Estas se obtienen empíricamente (experimentando u observando). Aquellas son distribuciones teóricas.

Las distribuciones de probabilidad de variable continua se definen por medio de una función y = f(x) que se llama función de probabilidad o función de densidad. Ha de ser f(x)

0 para todo x.

Las probabilidades vienen dadas por el área bajo la curva. Por tanto, el área encerrada bajo la totalidad de la curva es 1. Es decir, tomamos como unidad el área bajo la curva completa.

Para que f(x) sea la función de densidad o de probabilidad de una variable aleatoria es necesario que: -

f(x) se no negativa para todo x

-

El área bajo la curva y = f(x) sea igual a 1

Para hallar la probabilidad P [a

x

b], obtendremos el área que hay bajo la

curva en el intervalo [a, b]

Las probabilidades de sucesos puntuales son cero: P [x = a] = 0.

Por tanto: P [a

x

b] = P [a < x < b]

cálculo de probabilidades a partir de la función de densidad. Para calcular probabilidades en distribuciones de probabilidad de variable continua, hay que hallar las áreas bajo la curva que representa la función de densidad y = f(x). Si las distribuciones son uniformes (rectángulos f(x) = k) P [a

x

b] = (b-a). k

(k = altura del rectángulo)

87

-Estadística IFunción de distribución.

Se llama función de distribución de una variable aleatoria, t, a la función F(x) que describe los valores que toma la probabilidad acumulada hasta la abscisa x : F(x) = P[t y lim F(x)

x]. Es una función continua creciente que cumple que lim F(x)

0

1 x

x

Si la función de densidad sólo toma valores no nulos en el intervalo [a, b], entonces F(x) = 0 para x

a y F(x) = 1 para x

b.

88

-Estadística I3.2.1 Distribución de probabilidad Normal; características y propiedades. La distribución normal fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (17771855) elaboró desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se la conozca, más comúnmente, como la "campana de Gauss".

La distribución de una variable normal está completamente

determinada por dos parámetros, su media y su desviación estándar, denotadas generalmente por

y

. Con esta notación, la densidad de la normal viene

dada por la ecuación:

Ecuación 1: que determina la curva en forma de campana que tan bien conocemos (Figura 2). Así, se dice que una característica media

y varianza

sigue una distribución normal de

, y se denota como

, si su función de

densidad viene dada por la Ecuación 1. Al igual que ocurría con un histograma, en el que el área de cada rectángulo es proporcional al número de datos en el rango de valores correspondiente si, tal y como se muestra en la Figura 2, en el eje horizontal se levantan perpendiculares en dos puntos a y b, el área bajo la curva delimitada por esas líneas indica la probabilidad de que la variable de interés, X, tome un valor cualquiera en ese intervalo. Puesto que la curva alcanza su mayor altura en torno a la media, mientras que sus "ramas" se extienden asintóticamente hacia los ejes, cuando una variable siga una distribución normal, será mucho más probable observar un dato cercano al valor medio que uno que se encuentre muy alejado de éste. Propiedades de la distribución normal: La distribución normal posee ciertas propiedades importantes que conviene destacar: i. Tiene una única moda, que coincide con su media y su mediana.

89

-Estadística Iii. La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre

y

es teóricamente posible. El área total bajo la

curva es, por tanto, igual a 1. iii. Es simétrica con respecto a su media

. Según esto, para este tipo

de variables existe una probabilidad de un 50% de observar un dato mayor que la media, y un 50% de observar un dato menor. iv. La distancia entre la línea trazada en la media y el punto de inflexión de la curva es igual a una desviación típica ( sea

). Cuanto mayor

, más aplanada será la curva de la densidad.

v. El área bajo la curva comprendido entre los valores situados aproximadamente a dos desviaciones estándar de la media es igual a 0.95. En concreto, existe un 95% de posibilidades de observar un valor comprendido en el intervalo vi. La

forma

parámetros

de

la y

campana

. de

Gauss

depende

de

los

(Figura 3). La media indica la posición de la

campana, de modo que para diferentes valores de

la gráfica es

desplazada a lo largo del eje horizontal. Por otra parte, la desviación estándar determina el grado de apuntamiento de la curva. Cuanto mayor sea el valor de

, más se dispersarán los datos en torno a la

media y la curva será más plana. Un valor pequeño de este parámetro indica, por tanto, una gran probabilidad de obtener datos cercanos al valor medio de la distribución. Como se deduce de este último apartado, no existe una única distribución normal, sino una familia de distribuciones con una forma común, diferenciadas por los valores de su media y su varianza. De entre todas ellas, la más utilizada es la distribución normal estándar, que corresponde a una distribución de media 0 y varianza 1. Así, la expresión que define su densidad se puede obtener de la Ecuación 1, resultando:

90

-Estadística IEs importante conocer que, a partir de cualquier variable X que siga una distribución

, se puede obtener otra característica Z con una distribución

normal estándar, sin más que efectuar la transformación:

Ecuación 2: Esta propiedad resulta especialmente interesante en la práctica, ya que para una distribución

existen tablas publicadas (Tabla 1) a partir de las que se

puede obtener de modo sencillo la probabilidad de observar un dato menor o igual a un cierto valor z, y que permitirán resolver preguntas de probabilidad acerca del comportamiento de variables de las que se sabe o se asume que siguen una distribución aproximadamente normal. Consideremos, por ejemplo, el siguiente problema: supongamos que se sabe que el peso de los sujetos de una determinada población sigue una distribución aproximadamente normal, con una media de 80 Kg y una desviación estándar de 10 Kg. ¿Podremos saber cuál es la probabilidad de que una persona, elegida al azar, tenga un peso superior a 100 Kg? Denotando por X a la variable que representa el peso de los individuos en esa población, ésta sigue una distribución

. Si su distribución fuese la de

una normal estándar podríamos utilizar la Tabla 1 para calcular la probabilidad que nos interesa. Como éste no es el caso, resultará entonces útil transformar esta característica según la Ecuación 2, y obtener la variable:

para poder utilizar dicha tabla. Así, la probabilidad que se desea calcular será:

Como el área total bajo la curva es igual a 1, se puede deducir que:

Esta última probabilidad puede ser fácilmente obtenida a partir de la Tabla 1, resultando ser

. Por lo tanto, la probabilidad buscada de que

91

-Estadística Iuna persona elegida aleatoriamente de esa población tenga un peso mayor de 100 Kg , es de 1–0.9772=0.0228, es decir, aproximadamente de un 2.3%. De modo análogo, podemos obtener la probabilidad de que el peso de un sujeto esté entre 60 y 100 Kg:

De la Figura 2, tomando a=-2 y b=2, podemos deducir que:

Por el ejemplo previo, se sabe qué

.

Para la segunda

probabilidad, sin embargo, encontramos el problema de que las tablas estándar no proporcionan el valor de

para valores negativos de la variable. Sin

embargo, haciendo uso de la simetría de la distribución normal, se tiene que:

Finalmente, la probabilidad buscada de que una persona elegida al azar tenga un peso entre 60 y 100 Kg., es de 0.9772-0.0228=0.9544, es decir, aproximadamente de un 95%. Resulta interesante comprobar que se obtendría la misma conclusión recurriendo a la propiedad (iii) de la distribución normal. No obstante, es fácil observar que este tipo de situaciones no corresponde a lo que habitualmente nos encontramos en la práctica. Generalmente no se dispone de información acerca de la distribución teórica de la población, sino que más bien el problema se plantea a la inversa: a partir de una muestra extraída al azar de la población que se desea estudiar, se realizan una serie de mediciones y se desea extrapolar los resultados obtenidos a la población de origen. En un ejemplo similar al anterior, supongamos que se dispone del peso de n=100 individuos de esa misma población, obteniéndose una media muestral de

Kg, y una desviación estándar muestral

Kg, querríamos

extraer alguna conclusión acerca del valor medio real de ese peso en la población original. La solución a este tipo de cuestiones se basa en un resultado elemental de la teoría estadística, el llamado teorema central del límite. Dicho axioma viene a decirnos que las medias de muestras aleatorias de cualquier

92

-Estadística Ivariable siguen ellas mismas una distribución normal con igual media que la de la población y desviación estándar la de la población dividida por

. En

nuestro caso, podremos entonces considerar la media muestral , con lo cual, a partir de la propiedad (iii) se conoce que aproximadamente un 95%

de

los

posibles

intervalo

valores

.

Puesto

de

que

caerían

los

valores

dentro

del

de

son

y

desconocidos, podríamos pensar en aproximarlos por sus análogos muestrales,

resultando

.

Estaremos, por lo tanto,

un 95% seguros de que el peso medio real en la población de origen oscila entre 75.6

Kg

y

80.3

Kg.

Aunque

la

teoría

estadística subyacente es mucho más compleja, en líneas generales éste es el modo de construir un intervalo de confianza para la media de una población.

93

-Estadística I3.2.2 Distribución de probabilidad Ji cuadrada; características y propiedades. Otro caso especial muy importante de la distribución gamma se obtiene haciendo

donde v es un entero positivo. El resultado se

llama distribución ji cuadrada. La distribución tiene un parámetro sencillo, v, que recibe el nombre de grados de libertad.

Definiciones: 

Distribución ji cuadrada La variable aleatoria continua X tiene una distribución ji cuadrada, con v grados de libertad, si su función de densidad es:



Distribución ji cuadrada (x2). Es la distribución de una variable aleatoria que siempre es positiva, con una posición oblicua hacia la derecha y unimodal. La forma de la distribución depende de un parámetro llamado grados de libertad. La figura 1.1 muestra una distribución ji cuadrada típica.

Estadística de prueba para ji cuadrada. Una variable aleatoria cuya distribución de muestreo es aproximada a la de x2 es:

94

-Estadística I-

Figura 1.1 Una distribución x2 

En realidad la distribución ji-cuadrada es la distribución muestral de s2. O sea que si se extraen todas las muestras posibles de una población normal y a cada muestra se le calcula su varianza, se obtendrá la distribución muestral de varianzas.

Para estimar la varianza poblacional o la desviación estándar, se necesita conocer el estadístico X2. Si se elige una muestra de tamaño n de una población normal con varianza

:

El estadístico tiene una distribución muestral que es una distribución jicuadrada con gl=n-1 grados de libertad y se denota X2 (X es la minúscula de la letra griega ji). El estadístico ji-cuadrada está dado por:

Donde n es el tamaño de la muestra, s2 la varianza muestral y

la varianza

de la población de donde se extrajo la muestra. El estadístico ji-cuadrada también se puede dar con la siguiente expresión:

95

-Estadística IPropiedades. 1. Los valores de X2 son mayores o iguales que 0. 2. La forma de una distribución X2 depende del gl=n-1. En consecuencia, hay un número infinito de distribuciones X2. 3. El área bajo una curva ji-cuadrada y sobre el eje horizontal es 1. 4. Las distribuciones X2 no son simétricas. Tienen colas estrechas que se extienden a la derecha; esto es, están sesgadas a la derecha. 5. Cuando n>2, la media de una distribución X2 es n-1 y la varianza es 2(n-l). 6. El valor modal de una distribución X2 se da en el valor (n-3). 7. La siguiente figura ilustra tres distribuciones X2.

Ejemplos Dados los grados de libertad y un valor de

, encuentre e interprete

para

cada uno de los siguientes problemas, en la tabla de la distribución X2

1. Dada una distribución ji cuadrada con 5 grados de libertad y

=0.05,

encuentre X20.05 (Véase fig. 1.2).

Solución. El problema es encontrar la porción sombreada en la cola de la curva. Buscando en la tabla x2, tabla V del Apéndice, en la intersección de la columna 0.05 y la fila de 5 grados de libertad, vemos que X20.05=11.070. Esto significa que la probabilidad es de 0.05 de que la estadística de prueba X2 calculada de una muestra será mayor que 11.070

96

-Estadística I-

Figura 1.2 Ejemplo 1 2. Datos gl = 16 y = 0.01, encuentre X20.01 Solución. X20.01 = 32.0 3. Datos gl = 20 y = 0.05, encuentre X20.05 Solución X20.05 = 31.410

4. Suponga que los tiempos requeridos por un cierto autobús para alcanzar un de sus destinos en una ciudad grande forman una distribución normal con una desviación estándar

=1 minuto. Si se elige al azar una muestra de 17 tiempos,

encuentre la probabilidad de que la varianza muestral sea mayor que 2. Solución: Primero se encontrará el valor de ji-cuadrada correspondiente a s2=2 como sigue:

El valor de 32 se busca adentro de la tabla en el renglón de 16 grados de libertad y se encuentra que a este valor le corresponde un área a la derecha de 0.01. En consecuencia, el valor de la probabilidad es P(s2>2).

97

-Estadística I3.2.3 Distribución de probabilidad aproximación de la normal a la binomial; características y propiedades. La distribución binomial, es una distribución discreta en la que n ensayos pueden producir un éxito o un fracaso.

La probabilidad de éxito la

denominamos p y la posibilidad de fracaso será q = (1 - p). Como se ha visto en otros apartados el cálculo de la distribución binomial puede exceder el límite de cualquier tabla y volverse muy engorrosa en su cálculo si el valor de n es muy grande.

Un método alternativo para el cálculo de la distribución binomial es por medio del uso de la distribución normal para aproximar la distribución binomial.

Para ello es fundamental que se satisfagan las siguientes

condiciones, np ≥ 5 y n(1 - p) ≥ 5 y además p está próximo a 0,5.

Si no se pudieran utilizar las tablas binomiales, se puede aproximar la respuesta utilizando la distribución normal. Para ello podemos obtener la media y la desviación estándar de la distribución normal con las siguientes fórmulas:

Debido a que la distribución normal es continua, y en consecuencia entre dos valores existirá una serie infinita de valores posibles, para estimar una variable aleatoria discreta se requiere de un leve ajuste, denominado factor de corrección de continuidad, sumando o restando 1/2 al valor de x. De esta forma el valor de z se obtiene mediante la fórmula:

98

-Estadística IEjemplos 1. El 45% de todos los empleados de una dependencia pública poseen título que los acredita para el puesto. ¿Cuál es la probabilidad de que de los 160 empleados elegidos al azar 75 posean título para el puesto? Solución: Datos: n = 160, x = 75, p = 0,45, q = 0,55

La probabilidad de que 75 empleados elegidos aleatoriamente posean título para el cargo es del 5,68%.

99

-Estadística I-

UNIDAD

4

MUESTREO Y ESTIMACIONES.

100

-Estadística I-

Unidad 4: Muestreo y estimaciones. 4.1 Conceptos de muestreo. 4.1.1 Tipos de muestreo aleatorio, sistematizado, estratificado y conglomerados. 4.2 Concepto de distribución de muestreo de la media. 4.2.1 Distribución muestral de la media con σ2 conocida y desconocida. 4.2.2 Distribución muestral de la diferencia entre dos medias con σ2 Conocida y desconocida. 4.2.3 Distribución muestral de la proporción. 4.2.4 Distribución muestral de la diferencia de dos proporciones. 4.3 Hipótesis estadística. 4.4 Tipos de errores. 4.5 Procedimiento para la prueba de hipótesis poblacional. 4.6 Intervalos de confianza Poblacional 4.6.1 Determinación del tamaño de la muestra con grado de confianza y estimación de μ.

101

-Estadística I4.1 concepto de muestreo. Es un procedimiento empleado para obtener una o más muestras de una población. Por ejemplo: religión y sexo de los estudiantes de educación del núcleo San Carlos de la UNESR. Muestra: Es la parte de la población a estudiar que sirve para representarla. Introducción al muestreo. a) Concepto e importancia. Es la actividad por la cual se toman ciertas muestras de una población de elementos de los cuales vamos a tomar ciertos criterios de decisión, el muestreo es importante porque a través de él podemos hacer análisis de situaciones de una empresa o de algún campo de la sociedad.

b) Terminología básica para el muestreo. Los nuevos términos, los cuales son frecuentemente usados en inferencia estadística son: Estadístico: Un estadístico es una medida usada para describir alguna característica de una muestra, tal como una media aritmética, una mediana o una desviación estándar de una muestra.

Parámetro: Un parámetro es una medida usada para describir alguna característica de una población, tal como una media aritmética, una mediana o una desviación estándar de una población.

Cuando los dos nuevos términos de arriba son usados, por ejemplo, el proceso de estimación en inferencia estadística puede ser descrito como le proceso de estimar un parámetro a partir del estadístico correspondiente, tal como usar una media muestral (un estadístico para estimar la media de la población (un parámetro). Los símbolos usados para representar los estadísticos y los parámetros, en éste y los siguientes capítulos, son resumidos en la tabla siguiente:

102

-Estadística ITabla 1 Símbolos para estadísticos y parámetros correspondientes

Medida

Símbolo para el estadístico (muestra)

Media Desviación estándar Número de elementos Proporción

X s n p

Símbolo para el parámetro (Población)

µ σ N P

Distribución en el muestreo: Cuando el tamaño de la muestra (n) es más pequeño que el tamaño de la población (N), dos o más muestras pueden ser extraídas de la misma población. Un cierto estadístico puede ser calculado para cada una de las muestras posibles extraídas de la población.

Una distribución del estadístico obtenida de las

muestras es llamada la distribución en el muestreo del estadístico. Por ejemplo, si la muestra es de tamaño 2 y la población de tamaño 3 (elementos A, B, C), es posible extraer 3 muestras (AB, BC Y AC) de la población. Podemos calcular la media para cada muestra. Por lo tanto, tenemos 3 medias muéstrales para las 3 muestras. Las 3 medias muéstrales forman una distribución. La distribución de las medias es llamada la distribución de las medias muéstrales, o la distribución en el muestreo de la media. De la misma manera, la distribución de las proporciones (o porcentajes) obtenida de todas las muestras posibles del mismo tamaño, extraídas de una población, es llamada la distribución en el muestreo de la proporción.

103

-Estadística I4.1.1 Tipos de muestreo aleatorio, sistematizado, estratificado y conglomerados. Muestreo aleatorio simple. Para población finita: Una muestra seleccionada de tal manera que cada muestra posible de tamaño n tiene la misma probabilidad de ser seleccionada. Para población infinita: Una muestra seleccionada de tal manera que cada elemento proviene de la misma población y los elementos sucesivos se seleccionan en forma independiente. Ejemplo Un muestreo aleatorio de todos los profesores de secundaria de California puede resultar en la selección (altamente improbable, por cierto) de 20 profesoras de francés. De hecho, nunca se puede tener la seguridad de que tal muestreo sea representativo o no de la población y lo único que se puede afirmar es que, bajo todo aspecto, es aleatoriamente representativo de ella. Una característica más importante del muestreo al azar es que puede determinarse el tipo de “no representatividad” que, a la larga, cabe esperar de numerosos muestreos similares, cosa que no es posible con otros tipos de selección. Muestreo aleatorio simple estratificado. Método para seleccionar una muestra en el que primero se divide a la población en estratos y a continuación se toma una muestra aleatoria simple de cada estrato. Ejemplo Una base de formación de los estratos puede ser por departamentos, ubicación, edad, giro industrial, etc., queda a discreción de quien diseña la muestra, sin embargo, los mejores resultados se obtienen cuando los elementos dentro de cada estrato son tan semejantes como sea posible. Después de formar los estratos se toma una muestra aleatoria simple de cada uno. Se dispone de fórmulas para combinar los resultados para la muestra de estrato individual en un estimado del parámetro poblacional de interés. El valor

104

-Estadística Idel muestreo aleatorio estratificado depende de cuán homogéneos sean los elementos dentro de los estratos. Si son similares, los estratos tendrán bajas varianzas. Si los estratos son homogéneos, el procedimiento de muestreo aleatorio estratificado producirá resultados tan precisos como el muestreo aleatorio simple, pero con menor tamaño total de muestra.

Muestreo sistemático. Método para elegir una muestra seleccionando al a los primeros k elementos y a continuación cada k-ésimo elemento. Ejemplo Si se desea una muestra de tamaño de 50 de una población con 5,000 elementos, podríamos muestrear un elemento de cada 5,000/50 = 100 en la población. Una muestra sistemática en este caso implica seleccionar al azar uno de los primeros 100 elementos de la lista de la población. Se identifican los demás elementos de la muestra comenzando por el primero obtenido al azar y a continuación seleccionando cada 100˳. elementos. En efecto, se identifica la muestra de 50 recorriendo la población en forma sistemática, e identificando cada 100˳. elemento después del primero que se seleccionó al azar. Muestreo por conglomerados Método probabilístico de muestreo en el cual primero se divide la población en conglomerados y después se selecciona uno o más conglomerados para muestrearlos.

105

-Estadística IEjemplo Cuando se realiza el muestreo de áreas, en los que los conglomerados son manzanas urbanas, u otras áreas, bien definida. Por lo general, el muestreo de conglomerados requiere un tamaño de muestra total mayor que el muestreo aleatorio simple o el muestreo aleatorio estratificado. Sin embargo, puede originar ahorros porque cuando se manda a un entrevistador a aplicar un cuestionario a un conglomerado muestreado (por ejemplo, una manzana urbana), se puede obtener muchas observaciones muéstrales en un tiempo relativamente corto. En consecuencia, se puede obtener un mayor tamaño de muestra con un costo bastante menor por elemento, y por ende, probablemente un costo total menor.

106

-Estadística I4.2 Concepto de distribución de muestreo de la media. Las muestras aleatorias obtenidas de una población son, por naturaleza propia, impredecibles. No se esperaría que dos muestras aleatorias del mismo tamaño y tomadas de la misma población tenga la misma media muestral o que sean completamente parecidas; puede esperarse que cualquier estadístico, como la media muestral, calculado a partir de las medias en una muestra aleatoria, cambie su valor de una muestra a otra, por ello, se quiere estudiar la distribución de todos los valores posibles de un estadístico. Tales distribuciones serán muy importantes en el estudio de la estadística inferencial, porque las inferencias sobre las poblaciones se harán usando estadísticas muestrales. Como el análisis de las distribuciones asociadas con los estadísticos muestrales, podremos juzgar la confiabilidad de un estadístico muestral como un instrumento para hacer inferencias sobre un parámetro poblacional desconocido. Como los valores de un estadístico, tal como x, varían de una muestra aleatoria a otra, se le puede considerar como una variable aleatoria con su correspondiente distribución de frecuencias. La distribución de frecuencia de un estadístico muestral se denomina distribución muestral. En general, la distribución muestral de un estadístico es la de todos sus valores posibles calculados a partir de muestras del mismo tamaño. Suponga que se han seleccionado muestras aleatorias de tamaño 20 en una población grande. Se calcula la media muestral x para cada muestra; la colección de todas estas medias muestrales recibe el nombre de distribución muestral de medias, lo que se puede ilustrar en la siguiente figura

107

-Estadística I4.2.1 Distribución muestral de la media con σ2 conocida y desconocida. Distribución Muestral de Medias Si recordamos a la distribución normal, esta es una distribución continua, en forma de campana en donde la media, la mediana y la moda tienen un mismo valor y es simétrica. Con esta distribución podíamos calcular la probabilidad de algún evento relacionado con la variable aleatoria, mediante la siguiente fórmula:

En donde z es una variable estandarizada con media igual a cero y varianza igual a uno. Con esta fórmula se pueden a hacer los cálculos de probabilidad para cualquier ejercicio, utilizando la tabla de la distribución z. Sabemos que cuando se extraen muestras de tamaño mayor a 30 o bien de cualquier tamaño de una población normal, la distribución muestral de medias tiene un comportamiento aproximadamente normal, por lo que se puede utilizar la fórmula de la distribución normal con

y

, entonces la fórmula para

calcular la probabilidad del comportamiento del estadístico, en este caso la media de la muestra , quedaría de la siguiente manera:

y para poblaciones finitas y muestro con reemplazo:

108

-Estadística IEjemplo Una empresa eléctrica fabrica focos que tienen una duración que se distribuye aproximadamente en forma normal, con media de 800 horas y desviación estándar de 40 horas. Encuentre la probabilidad de que una muestra aleatoria de 16 focos tenga una vida promedio de menos de 775 horas. Solución:

Este valor se busca en la tabla de z

La interpretación sería que la probabilidad de que la media de la muestra de 16 focos sea menor a 775 horas es de 0.0062. Ejemplo Las estaturas de 1000 estudiantes están distribuidas aproximadamente en forma normal con una media de 174.5 centímetros y una desviación estándar de 6.9 centímetros. Si se extraen 200 muestras aleatorias de tamaño 25 sin reemplazo de esta población, determine: a. El número de las medias muestrales que caen entre 172.5 y 175.8 centímetros. b. El número de medias muestrales que caen por debajo de 172 centímetros. Solución: Como se puede observar en este ejercicio se cuenta con una población finita y un muestreo sin reemplazo, por lo que se tendrá que agregar el factor de

109

-Estadística Icorrección. Se procederá a calcular el denominador de Z para sólo sustituirlo en cada inciso.

a.

(0.7607) (200) =152 medias muestrales

b.

(0.0336) (200) = 7 medias muestrales

110

-Estadística I4.2.2 Distribución muestral de la diferencia entre dos medias con σ2. Conocida y desconocida. Distribución Muestral de Diferencia de Medias. Suponga que se tienen dos poblaciones distintas, la primera con media desviación estándar

1,

y la segunda con media

2

1

y desviación estándar

y 2.

Más aún, se elige una muestra aleatoria de tamaño n1 de la primera población y una muestra independiente aleatoria de tamaño n 2 de la segunda población; se calcula la media muestral para cada muestra y la diferencia entre dichas medias. La colección de todas esas diferencias se llama distribución muestral de las diferencias entre medias o la distribución muestral del estadístico

La distribución es aproximadamente normal para n 1 30 y n2 30. Si las poblaciones son normales, entonces la distribución muestral de medias es normal sin importar los tamaños de las muestras. En ejercicios anteriores se había demostrado que

que no es difícil deducir que

y que

y que

, por lo

.

La fórmula que se utilizará para el cálculo de probabilidad del estadístico de diferencia de medias es:

111

-Estadística I-

Ejemplo En un estudio para comparar los pesos promedio de niños y niñas de sexto grado en una escuela primaria se usará una muestra aleatoria de 20 niños y otra de 25 niñas. Se sabe que tanto para niños como para niñas los pesos siguen una distribución normal. El promedio de los pesos de todos los niños de sexto grado de esa escuela es de 100 libras y su desviación estándar es de 14.142, mientras que el promedio de los pesos de todas las niñas del sexto grado de esa escuela es de 85 libras y su desviación estándar es de 12.247 libras. Si promedio de los pesos de 20 niños y

representa el

es el promedio de los pesos de una

muestra de 25 niñas, encuentre la probabilidad de que el promedio de los pesos de los 20 niños sea al menos 20 libras más grande que el de las 25 niñas. Solución: Datos: 1=

2

100 libras

= 85 libras

1=

2=

14.142 libras

12.247 libras

n1 = 20 niños n2 = 25 niñas =?

112

-Estadística I-

Por lo tanto, la probabilidad de que el promedio de los pesos de la muestra de niños sea al menos 20 libras más grande que el de la muestra de las niñas es 0.1056.

Ejemplo Uno de los principales fabricantes de televisores compra los tubos de rayos catódicos a dos compañías. Los tubos de la compañía A tienen una vida media de 7.2 años con una desviación estándar de 0.8 años, mientras que los de la B tienen una vida media de 6.7 años con una desviación estándar de 0.7. Determine la probabilidad de que una muestra aleatoria de 34 tubos de la compañía A tenga una vida promedio de al menos un año más que la de una muestra aleatoria de 40 tubos de la compañía B. Solución: Datos: A=

B

7.2 años

= 6.7 años

A=

B=

0.8 años

0.7 años

nA = 34 tubos

113

-Estadística InB = 40 tubos =?

Ejemplo Se prueba el rendimiento en km/L de 2 tipos de gasolina, encontrándose una desviación estándar de 1.23km/L para la primera gasolina y una desviación estándar de 1.37km/L para la segunda gasolina; se prueba la primera gasolina en 35 autos y la segunda en 42 autos. a. ¿Cuál es la probabilidad de que la primera gasolina de un rendimiento promedio mayor de 0?45km/L que la segunda gasolina? b. ¿Cuál es la probabilidad de que la diferencia en rendimientos promedio se encuentre entre 0?65 y 0.83km/L a favor de la gasolina 1? Solución: En este ejercicio no se cuenta con los parámetros de las medias en ninguna de las dos poblaciones, por lo que se supondrán que son iguales. Datos: 1=

1.23 Km/Lto

2=

1.37 Km/Lto

114

-Estadística In1 = 35 autos n2 = 42 autos a.

=?

b. ?

La probabilidad de que la diferencia en rendimientos promedio en las muestras se encuentre entre 0.65 y 0.83 Km/Lto a favor de la gasolina 1 es de 0.0117.

115

-Estadística I4.2.3 Distribución muestral de la proporción. Existen ocasiones en las cuales no estamos interesados en la media de la muestra, sino que queremos investigar la proporción de artículos defectuosos o la proporción de alumnos reprobados en la muestra. La distribución muestral de proporciones es la adecuada para dar respuesta a estas situaciones. Esta distribución se genera de igual manera que la distribución muestral de medias, a excepción de que al extraer las muestras de la población se calcula el estadístico proporción (p=x/n en donde "x" es el número de éxitos u observaciones de interés y "n" el tamaño de la muestra) en lugar del estadístico media.

Una población binomial está estrechamente relacionada con la distribución muestral de proporciones; una población binomial es una colección de éxitos y fracasos, mientras que una distribución muestral de proporciones contiene las posibilidades o proporciones de todos los números posibles de éxitos en un experimento binomial, y como consecuencia de esta relación, las afirmaciones probabilísticas referentes a la proporción muestral pueden evaluarse usando la aproximación normal a la binomial, siempre que np 5 y n(1-p)

5. Cualquier evento se puede convertir en una proporción si se divide el

número obtenido entre el número de intentos.

116

-Estadística IGeneración de la Distribución Muestral de Proporciones. Suponga que se cuenta con un lote de 12 piezas, el cual tiene 4 artículos defectuosos. Se van a seleccionar 5 artículos al azar de ese lote sin reemplazo. Genere la distribución muestral de proporciones para el número de piezas defectuosas. Como se puede observar en este ejercicio la Proporción de artículos defectuosos de esta población es 4/12=1/3. Por lo que podemos decir que el 33% de las piezas de este lote están defectuosas. El número posible de muestras de tamaño 5 a extraer de una población de 12 elementos es

12C5=792,

las cuales se pueden desglosar de la siguiente

manera: Artículos Buenos

Artículos

Proporción de

Número de maneras

Malos

artículos

en las que se puede

defectuoso

obtener la muestra

1

4

4/5=0.8

8C1*4C4=8

2

3

3/5=0.6

8C2*4C3=112

3

2

2/5=0.4

8C3*4C2=336

4

1

1/5=0.2

8C4*4C1=280

5

0

0/5=0

8C5*4C0=56

Total

792

Para calcular la media de la distribución muestral de proporciones se tendría que hacer la sumatoria de la frecuencia por el valor de la proporción muestral y dividirla entre el número total de muestras. Esto es:

Como podemos observar la media de la distribución muestral de proporciones es igual a la Proporción de la población. p

=P

117

-Estadística ITambién se puede calcular la desviación estándar de la distribución muestral de proporciones:

2=

La varianza de la distribución binomial es distribución muestral de proporciones es

2 p

npq, por lo que la varianza de la

=(Pq)/n. Si se sustituten los valores

en esta fórmula tenemos que:

, este valor no coincide con el de 0.1681, ya que nos falta agregar el factor de corrección para una población finita y un muestreo sin reemplazo:

La fórmula que se utilizará para el cálculo de probabilidad en una distribución muestral de proporciones está basada en la aproximación de la distribución normal a la binomial. Esta fórmula nos servirá para calcular la probabilidad del comportamiento de la proporción en la muestra.

118

-Estadística I-

A esta fórmula se le puede agregar el factor de corrección de

si se

cumple con las condiciones necesarias. Ejemplo Se ha determinado que 60% de los estudiantes de una universidad grande fuman cigarrillos. Se toma una muestra aleatoria de 800 estudiantes. Calcule la probabilidad de que la proporción de la muestra de la gente que fuma cigarrillos sea menor que 0.55. Solución: Este ejercicio se puede solucionar por dos métodos. El primero puede ser con la aproximación de la distribución normal a la binomial y el segundo utilizando la fórmula de la distribución muestral de proporciones. Aproximación de la distribución normal a la binomial: Datos: n=800 estudiantes p=0.60 x= (.55) (800) = 440 estudiantes p (x

440) =?

Media= np= (800) (0.60) = 480

119

-Estadística Ip (x

440) = 0.0017. Este valor significa que existe una probabilidad del 0.17%

de que, al extraer una muestra de 800 estudiantes, menos de 440 fuman cigarrillos.

Distribución Muestral de Proporciones Datos: n=800 estudiantes P=0.60 p= 0.55 p(p

0.55) = ?

Observe que este valor es igual al obtenido en el método de la aproximación de la distribución normal a la binomial, por lo que si lo buscamos en la tabla de "z" nos da la misma probabilidad de 0.0017. También se debe de tomar en cuenta que el factor de corrección de 0.5 se esta

120

-Estadística Idividiendo entre el tamaño de la muestra, ya que estamos hablando de una proporción. La interpretación en esta solución, estaría enfocada a la proporción de la muestra, por lo que diríamos que la probabilidad de que al extraer una muestra de 800 estudiantes de esa universidad, la proporción de estudiantes que fuman cigarrillos sea menor al 55% es del 0.17%. Ejemplo Un medicamento para malestar estomacal tiene la advertencia de que algunos usuarios pueden presentar una reacción adversa a él, más aún, se piensa que alrededor del 3% de los usuarios tienen tal reacción. Si una muestra aleatoria de 150 personas con malestar estomacal usa el medicamento, encuentre la probabilidad de que la proporción de la muestra de los usuarios que realmente presentan una reacción adversa, exceda el 4%. a. Resolverlo mediante la aproximación de la normal a la binomial b. Resolverlo con la distribución muestral de proporciones a. Aproximación de la distribución normal a la binomial: Datos: n=150 personas p=0.03 x= (0.04) (150) = 6 personas p(x>6) =? Media = np= (150) (0.03) = 4.5

121

-Estadística I-

p(x>6) = 0.1685. Este valor significa que existe una probabilidad del 17% de que, al extraer una muestra de 150 personas, más de 6 presentarán una reacción adversa. b. Distribución Muestral de Proporciones Datos: n=150 personas P=0.03 p= 0.04 p(p>0.04) =?

122

-Estadística IObserve que este valor es igual al obtenido y la interpretación es: existe una probabilidad del 17% de que al tomar una muestra de 150 personas se tenga una proporción mayor de 0.04 presentando una reacción adversa. Ejemplo Se sabe que la verdadera proporción de los componentes defectuosos fabricadas por una firma es de 4%, y encuentre la probabilidad de que una muestra aleatoria de tamaño 60 tenga: a. Menos del 3% de los componentes defectuosos. b. Más del 1% pero menos del 5% de partes defectuosas. Solución: a. Datos: n= 60 artículos P=0.04 p= 0.03 p(p
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF