ESTADÍSTICA NO PARAMÉTRICA

June 6, 2019 | Author: Diego Delgado | Category: Analysis Of Variance, Statistics, Nonparametric Statistics, Probability, Hypothesis
Share Embed Donate


Short Description

Download ESTADÍSTICA NO PARAMÉTRICA...

Description

ESTADÍSTICA NO PARAMÉTRICA 1. Introducción:

Los métodos de estadística inferencial que hemos hemos estudiado a durante el curso, son llamados métodos paramétricos porque ellos son basados en muestreos de una población con parámetros específicos, como la media (), la desviación estándar () o la proporción ( p). Estos métodos paramétricos usualmente tienen que ajustarse a algunas condiciones com pletamente estrictas, así como el requisito de que los datos de la muestra provengan de una población normalmente distribuidas. Esta sección presenta los métodos no paramétricos, los cuales no tienen tales estrictos requisitos. La mayor parte de las técnicas estudiadas hacen su posiciones sobre la composición de los datos de la población. Las su posiciones comunes son que la población sigue una distribución normal, que varias

poblaciones

tienen

varianzas iguales y que los datos se miden en una escala de intervalos o en una escala de razón. Este tema presentará un gru po de técnicas llamadas no paramétricas

que son útiles cuando estas su posiciones no se cum plen.

2.

ESTADÍSTICA NO PARAMÉTRICA:

La estadística no

paramétrica

es una rama de la estadística que

estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser  definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se

puede

asumir que los datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo. Las principales pruebas no paramétricas son las siguientes: y

Prueba ² de Pearson

y

Prueba binomial

y

Prueba de Anderson-Darling

y

Prueba de Cochran

y

Prueba de Cohen ka ppa

y

Prueba de Fisher 

y

Prueba de Friedman

y

Prueba de Kendall

y

Prueba de Kolmogórov-Smirnov

y

Prueba de Kruskal-Wallis

y

Prueba de Kui per 

y

Prueba de Mann-Whitney o prueba de Wilcoxon

y

Prueba de McNemar 

y

Prueba de la mediana

y

Prueba de Siegel-Tukey

y

Coeficiente de correlación de S pearman

y

Tablas de contingencia

y

Prueba de Wald-Wolfowitz

y

Prueba de los signos de Wilcoxon

3.

PRUEBAS NO PARAMÉTRICAS: Definición:

Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos, por ello se conocen también como de distribución libre ( distribution free ). En la mayor  parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento, por lo que su base lógica es de fácil com prensión. Cuando trabajamos con muestras

pequeñas

(n < 10) en las que se

desconoce si es válido su poner la normalidad de los datos, conviene utilizar  pruebas

no paramétricas, al menos para corroborar los resultados obtenidos

a partir de la utilización de la teoría basada en la normal. En estos casos se emplea como parámetro de centralización la

mediana ,

que

es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima.  Aunque el término no paramétrico sugiere que la prueba no está basada en un parámetro, hay algunas pruebas no paramétricas que de penden de un parámetro

tal como la media. Las pruebas no paramétricas, sin embargo, no

requieren una distribución

particular,

de manera que algunas veces son

referidas como pruebas de libre distribución. Aunque libre distribución es una descripción más exacta, el término no paramétrico es más comúnmente usado.

De ventaja de lo M todo No Para métrico

1. Los métodos no paramétricos tienden a perder información porque datos numéricos exactos son frecuentemente reducidos a una forma cualitativa. . Las pruebas no paramétricas no son tan eficientes como las paramétricas,

pruebas

de manera que con una prueba no paramétrica generalmente

se necesita evidencia más fuerte (así como una muestra más grande o mayores diferencias) antes de rechazar una hi pótesis nula. Cuando los requisitos de la distribución de una

población

son satisfechos,

las pruebas no paramétricas son generalmente menos eficientes que sus contrapartes

paramétricas,

pero

la reducción de eficiencia

compensada por un aumento en el tamaño de la muestra.

puede

ser 

5.

PRUEBA DE FRIEDMAN 5.1.

DEFINICION

En estadística la prueba de Fried man es una prueba no paramétrica desarrollado por el economista Milton Friedman. Equivalente a la

prueba

 ANOVA para dos factores en la versión no paramétrica, el método consiste en ordenar los datos p or filas o bloques, reemplazándolos por su respectivo orden. Al ordenarlos, debemos considerar la existencia de datos idénticos. 5 . 2.

Co mparación de vario cla ificadore

Los métodos anteriores no fueron diseñados

para

la media de varias

variables. Cuando se hacen muchos test,

parte

de la hi pótesis nula se rechaza

debido a la aleatoriedad (Salzberg97). Dos

posibles

alternativas:

 ± ANOVA  ± Prueba de Fried man ANOVA

Friedman te t

Método estadístico habitual.

Es la versión no- paramétrica del

Condiciones:

 ANOVA.

 ± Distribución normal.

Utilizar la modificación de Iman y

  ± Requiere que las variables aleatorias Davenport (1980) al ser un mejor  tengan

estadístico (menos conservativo).

igual varianza.

¿Se cum plen las condiciones

La naturaleza de los datos no da

pistas

impuestas por ANOVa?

sobre la satisfacción de la condición

 ± SI => Utilizar ANOVA.

anterior.

 ± NO => Utilizar Friedman test.

La violación de las condiciones tiene un gran efecto en el post-hoc test.

5 . 3.

MUESTRAS RELACIONADAS. PRUEBA DE FRIEDMAN

Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n gru pos de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible entre sí, y a cada uno de los elementos del gru po se le aplica uno de entre k ''tratamientos'', o bien cuando a cada uno de los elementos de una muestra de tamaño n se le aplican los k ''tratamientos''. La hipótesis nula que se contrasta es que las res puestas asociadas a cada uno de los ''tratamientos'' tienen la misma distribución de probabilidad

o distribuciones con la misma mediana, frente a la hi pótesis

alternativa de que por lo menos la distribución de una de las res puestas difiere de las demás. Para

poder

utilizar esta

deben ser variables continuas y estar medidas

prueba por

las respuest as

lo menos en una

escala ordinal. Hipótesis: Hipótesis nula (H0): No existen diferencias entre los gru pos. Hipótesis alternativa (H1): Hay diferencias entre los gru pos.

Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los k elementos de cada gru po a los k tratamientos: Grupo\ Trata miento

1

2

...

j

...

k

1

x11

x12

...

x1j 

...

x1k 

...

....

....

...

....

...

....

i

xi1

xi2

...

xij 

...

xik 

...

...

...

...

...

...

...

n

xn1

xn2

...

xnj 

...

xnk 

A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k; a continuación se suman los rangos correspondientes a cada columna, siendo R J  la suma correspondiente a la columna j-ésima. Si la hi pótesis nula es cierta, la distribución de los rangos en cada fila se debe al azar, y es de es perar que la suma de los rangos correspondientes a cada columna sea a proximadamente igual a n(k + 1)/ . La prueba de Friedman determina si las RJ  observadas difieren significativamente del valor es perado bajo la hi pótesis nula. El estadístico de prueba es:

               

             Si Ho es cierta y el número de columnas y/o de filas es moderadamente grande la distribución de F se a proxima a una chi-cuadrado con k - 1 grados de libertad; de forma que se rechaza la hi pótesis nula para valores de  superiores al valor crítico para el nivel de significación fijado.

5.4.

CARACTERÍSTICAS X r  Se utiliza cuando:  

y

Trabaja con datos ordinales.

y

Sirve para establecer diferencias.

y

Se utiliza para más de tres tratamientos.

y

Las muestras son sacadas de la misma población.

y

Para muestras pequeñas: K = grandes: K =

y

- 4 y H = - 9; para muestras

- 4 y H = > 9.

 Asignar al azar a los sujetos a cada condición.

y

Muestras igualadas (igual número de sujetos en cada condición).

y

Se asignan rangos por condición.

y

Se trabaja con tablas de doble entrada. Pasos:

1. Ordenar las observaciones en función de los cambios advertidos después del tratamiento o tratamientos. . Asignar rangos del dato más pequeño al mayor en función de las hileras. . Efectuar la sumatoria de los rangos en funci ón de las columnas  Rc y elevarlos al cuadrado  Rc .  

4. Aplicar la fórmula de análisis de varianza de doble entrada

por 

rangos de Friedman. 5. Comparar el valor de X r  de Friedman con las tablas de valores  

críticos de probabilidad propia, cuando la muestra es pequeña. En caso de muestras grandes, utilizar las tablas de valores críticos de ji cuadrada de Pearson.

5 .5 .

E ERCICIOS:

1. La asociación de padres de un centro convoca sucesivamente tres reuniones dirigidas a los padres de alumnos de un mismo gru po o clase, en las que se abordaron res pectivamente

temas

relacionados con el a poyo de la familia al estudio (Tema A), el  juego y el tiempo libre de los niños (Tema B), y la part icipación de los padres en el centro (Tema C). Si contamos los datos de asistencia a cada una de las tres reuniones

para

los padres de

alumnos de 6 clases, ¿podemos afirmar que los tres temas atrajeron de modo distinto a los convocados? ( = 0.05)

Tema A Tema B Tema C 3 1 3 1 3 1 2 1 3 1 3 1 SOLUCIÓN. Dado que el número de sujetos es pequeño, deberemos utilizar una prueba

no paramétrica, y puesto que los casos se hayan relacionados, la

prueba

más idónea es el análisis de la varianza de dos clasificaciones

por

rangos de Friedman. En primer lugar, plantea remos las hipótesis:

H0: No existen diferencias entre en la atracción a los tres temas. H1: Existen diferencias significativas entre en la atracción a los tres temas. El estadístico de contraste que em plearemos será:

               

Por lo tanto, calcularemos la suma de rangos

para

cada columna:

Tema A Tema B Tema C 3 1 3 1 3 1 2 1 3 1 3 1 R A = 17, R B = 1 y RC = 7. Sustituyendo:

                          Comparamos el valor observado con el que nos ofrece la tabla, teniendo en cuenta que X sigue una distribución de chi cuadrado con k -1 grados de libertad. Por tanto, el valor crítico será 0.95 = 5.991 ¡ 

¡ 

Puesto que el valor observado es mayor que el crític o, aquél entra en la región de rechazo, por lo que podemos rechazar con una confianza del 95% que existen diferencias significativas en cuanto a la atracción a los distintos temas.

2. Un investigador desea comparar los niveles de memoria en niños de 4, 6, 8, 10 y 12 años después de 3 diferentes tratamientos.  Elección de la prueba estadística. El modelo experimental tiene tres o más muestras dependientes. Véase: Flujograma 5 SOLUCION  P lanteamiento y

y

de la hipótesis.

Hipótesis alterna (Ha). Hay diferenci a signific ati va en niños de 4, 6, 8, 10 y 12 a ños, después de aplicar 3 diferentes tipos de tratamiento. Hipótesis nula (Ho). No hay diferencia significativa en niños de 4, 6, 8, 10 y 12 a ños, después de aplicar 3 diferentes tipos de tratamiento.  N ivel

de significación. Para todo valor de probabilidad igual o menor que 0.05, se acepta Ha y se rechaza Ho.

 Z ona

de rechazo. Para todo valor de probabilidad mayor que 0.05, se acepta Ho y se rechaza Ha. Escala = 0 - 20

 A plicación

de la prueba estadística. Transformamos los valores en rangos de acuerdo con la prueba de Friedman, en función de las hileras. Al valor más bajo le corresponde el rango 1, respetando el orden hasta el dato que tiene la cifra más alta. Rango1

=8

Rango2

=9

Rango3

=13

Calculamos

2

la X r  de Friedman.

Se utiliza la tabla N para pruebas pequeñas. Con

tres columnas y cinco hileras se compara el valor calculado de X r  de Friedman con la tabla correspondiente de distribución de probabilidad. Las cifras aproximadas al estadístico calculado 2.8 = 0.367. 2

 D ecisión. Como

2

el valor de X r  calculado es igual a 2.8, la probabilidad es de 0.367, esto indica que es menor que el nivel de significancia,  por lo cual, se acepta Ha y se rechaza Ho.  Interpretación. Aceptada Ha, se acepta que entre los tres tratamientos ex isten distintos grados de memoria adquirida. Se distingue notoriamente que el tratamiento A es menos eficaz, con respecto a los otros dos tratamientos. Por otro lado, el tratamiento B ofrece mayores ventajas para la adquisición de memoria

5.6.

BIBLIOGRAFÍA y

www.wikipedia.com/estadistica_no_ parametrica

y

www.rincondelvago.com/ prueba_no_ parametrica

y

www.monografias.com/ED800Estadisticas_no_ parametricas.

y

http://tarwi.lamolina.edu.pe/~f mendiburu/index-filer/academic/metodos1.htm

y

http://ocwus.us.es/metodos-de-investigacion-y-diagnostico-en-

educacion/analisis-de-datos-en-la-investigacioneducativa/Bloque_II/page_95.htm/

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF