Aplicacion de La Estadistica a La Psicologia
April 14, 2017 | Author: angulilla | Category: N/A
Short Description
Download Aplicacion de La Estadistica a La Psicologia...
Description
Esta investigación, arbitrada por pares académicos, se privilegia con el aval de la institución propietaria de los derechos correspondientes.
Ia edición, julio del año 2005 Ia reimpresión, junio del año 2012 ©2005-2012 UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES ZARAGOZA ©2005-2012 Por características tipográficas y de diseño editorial MIGUEL ÁNGEL PORRÚA, librero-editor
Derechos reservados conforme a la ley ISBN 970-701-587-X Queda prohibida la reproducción parcial o total, directa o indirecta del contenido de la presente obra, sin contar previamente con la autorización por escrito de los editores, en términos de la Ley Federal del Derecho de Autor y, en su caso, de los tratados internacionales aplicables.
A Osiris, Alan y Astrid, por lo que representan para mí. A Javier y Monse, por ser lo más importante en mi vida.
En la realización de este libro participó un grupo de personas con aportaciones que fueron valiosas para el buen término de este proyecto: Cinthia Cruz del Castillo, Angélica Romero Palencia, Gerardo Benjamín, Tonatiuh Villanueva Orozco, Blanca Inés Vargas Núñez y Claudia López Becerra. También queremos agradecer a Argentina López Becerra por ayudar a transcribir estos apuntes MIRNA Y SOFÍA
Prólogo
La
investigación en psicología es fundamental para el entendimiento del
comportamiento humano y para el desarrollo de programas e intervenciones efectivas. Adicionalmente, la investigación representa un proceso complejo en el que
los
fenómenos
o
constructos
a
investigar
son
multidimensionales,
multicausales y multideterminados. Hacer justicia a los eventos y problemáticas estudiadas y asegurar la validez y confiabilidad de los hallazgos requiere de una sofisticación conceptual y técnica profunda y sistemática. De hecho, es necesario que diferentes investigadores indaguen distintos aspectos de un mismo problema, obteniéndose así resultados que contribuyen a explicar el fenómeno de manera integral. La
obtención
de
hallazgos
contundentes
y
replicables
implica
una
conceptualización teórica sólidamente fundamentada y la realización de una serie de pasos metodológicos y estadísticos sistematizados -protocolo científico- que permitan sopesar la congruencia de los resultados con la realidad y su grado de generalización. Como uno de estos pasos, el análisis estadístico de los datos, implica la selección de pruebas estadísticas contingentes con el nivel de medición, consistentes con el método planteado y aplicados e interpretados por el investigador de manera apropiada. Para los psicólogos que consumen investigación para sus intervenciones, realizan investigaciones o están en formación, la tarea de elegir la prueba estadística adecuada, requiere de apoyo didáctico. En este sentido, el que ese sea el objetivo principal de este libro es un evento afortunado, lo cual sólo es superado por el hecho de que su utilidad se multiplique al ser un texto planteado en términos didácticos, sencillos y precisos, que les permita discernir la lógica inherente a la estadística en general y a cada prueba en particular.
Con el propósito de arribar a un utensilio concreto, aplicable, práctico, claro y útil, las autoras del texto desarrollan paso a paso las diferentes pruebas estadísticas necesarias a la investigación psicológica, acompañadas de su manejo minucioso a través del paquete estadístico para las ciencias sociales (SPSS), acompañados de la forma correcta de interpretación de los resultados. Los elementos de la obra hacen de ella una consulta indispensable, a partir de un material básico y comprensible. Colateralmente, el libro ofrece la aplicación de la estadística a partir de ejemplos relacionados a los problemas sociales del país. Como punto final, además de recomendar ampliamente el uso de la obra, felicito a las autoras y al programa PAPIME de la UNAM que a través del financiamiento del proyecto EN314903 hizo este trabajo posible. ROLANDO DÍAZ LOVING
Introducción
La
curiosidad del ser humano por saber ¿por qué? y ¿para qué? de las
relaciones interpersonales, y cómo ocurren éstas en diferentes contextos -pareja, familia, amigos, trabajo, escuela, etcétera- ha generado infinidad de explicaciones y descripciones en tomo al tema. Algunas de estas explicaciones surgen de la vida cotidiana y se asumen como hechos verdaderos, sin ser cuestionados; por ejemplo, la aseveración de que las mujeres son emocionalmente débiles. Esta es una afirmación compartida por muchos, sin embargo, carece de evidencia empírica y sustento teórico que la respalde, elementos que marcan la diferencia entre las aseveraciones populares y aquellas que están sustentadas teóricamente y que son medidas rigurosamente. En el ejemplo anterior surgen preguntas como, ¿todas las mujeres?, ¿las que caen dentro de un rango de edad determinado?, ¿las solteras, casadas, viudas, divorciadas o que viven en unión libre?, ¿las que tienen determinado nivel de escolaridad?, ¿las que trabajan o las que son amas de casa?... De una afirmación aparentemente simple emanan una serie de interrogantes, lo que conduce a uno de los puntos centrales de la investigación: el objetivo que se quiere alcanzar, esto es, para delimitar lo que se va a investigar es necesario tener claridad en el propósito de la investigación. En este escenario, la estadística es una herramienta que emplea el investigador para describir sus datos y para tomar decisiones. El tipo de prueba estadística a usar dependerá del objetivo de la investigación, de su diseño, del tamaño de la muestra y de sus hipótesis. De esta forma, la estadística es una colección de hechos numéricos que permiten hacer inferencias de una muestra a una población. Se clasifica en
descriptiva e inferential. La estadística inferencial a su vez se clasifica en no paramétrica y paramétrica. 13
Así, la estadística es una herramienta imprescindible del psicólogo, sobre todo cuando realiza investigación. Su aplicación en el campo de la psicología no es nueva, tal como lo señala Downie y Heat (1973) quienes refieren que en la década de 1880 Cattell se relacionó con estadísticos europeos, evento que influyó en la aplicación de los métodos estadísticos en el ámbito de la psicología. De igual forma, tampoco es de sorprender la complejidad que representa comprender y aplicar las pruebas estadísticas a situaciones específicas de investigación. Es el caso que al incursionar en el área de la investigación surja una serie de interrogantes con relación a, ¿qué prueba es la más adecuada para lo que se está investigando?, ¿el tipo de medición elegido será el apropiado para la prueba elegida?, ¿el modelo estadístico seleccionado: paramétrico o no paramétrico es congruente con el tamaño de la muestra y con el tipo de medición empleado? En fin, pueden ser muchas las dudas, y cuando se toman decisiones inapropiadas los resultados y conclusiones derivados de esa investigación pueden ser falsos, además de que se tiene el riesgo de cometer el error estadístico tipo 1 (Alfa) o el error estadístico tipo 2 (Beta) los cuales se describirán en este texto. Precisamente este manuscrito tiene la intención de proporcionar a los estudiantes y profesionales de la psicología un texto que incluya los elementos básicos de la estadística, descritos de una manera sencilla y apoyados con ejercicios, algunos de ellos, derivados de la investigación de la psicología en México, tratando de evitar explicaciones complicadas, por lo que las fórmulas que se presentan, así como el desarrollo de las mismas, tienen como propósito que el lector conozca las operaciones que subyacen a cada una de éstas con la intención de que comprenda la lógica mediante la cual se obtienen. Al presente, por cuestiones prácticas es poco probable que el tratamiento de los datos, derivados de una investigación, se realice en forma manual -sobre todo cuando las muestras son grandes- lo que conduce a utilizar el paquete estadístico SPSS que permite en poco tiempo obtener
Sofía Rivera Aragón 14 Mirna García Méndez
resultados precisos. Sin embargo, si las instrucciones dadas al SPSS fueron erróneas, los resultados se verán alterados lo que conlleva a interpretaciones equivocadas. Con la intención de disminuir estos errores, después del desarrollo de las fórmulas inherentes a los estadísticos incluidos en el libro, se exponen ejercicios paso a paso de las pruebas estadísticas, a través del Statistical Package for the Social Science (SPSS: paquete estadístico aplicado a las ciencias sociales). En ambos casos -fórmulas desarrolladas y SPSS- cada ejercicio concluye con la interpretación de los resultados.1 Con base en lo aquí expuesto, el libro inicia con la exposición de los niveles de medición por considerarse fundamentales en la toma de decisiones referentes a los pasos que proceden en la investigación. Posteriormente se aborda lo relacionado con la estadística descriptiva en el capítulo 2, estadística que nos permite hacer una descripción de los hallazgos empíricos. En este capítulo se hace énfasis en el tipo de distribución, medidas de tendencia central y de variabilidad, a través de una serie de ejemplos que tienen como objetivo facilitar la comprensión de los elementos expuestos. En el capítulo 3 se expone lo que compete a la estadística inferencial, la cual nos permite además de describir los datos encontrados, realizar generalizaciones a partir de los hallazgos reportados en una muestra a una población en términos de probabilidad. En esta parte del texto se presentan los principios que sustentan a los dos grandes modelos estadísticos derivados de la estadística inferencial: la estadística no para- métrica y la estadística paramétrica. Los capítulos 4 y 5 abordan de manera específica algunas de las pruebas no paramétricas y paramétricas más empleadas por el investigador social. En estos dos capítulos, la explicación de las pruebas es acompañada por ejemplos que permitan una mejor comprensión de las mismas.
1Debido
al uso de este sofware (SPSS), varias de las tablas reportadas en los diferentes
capítulos de este libro aparecerán en inglés.
Introducción 15
Como parte final pero no por ello menos importante, cabe destacar que el contenido de este libro se basa en los apuntes de la cátedra sobre estadística, dictada por la doctora Sofía Rivera Aragón, en el doctorado de psicología de la Facultad de Psicología de la Universidad Nacional Autónoma de México. Es conveniente denotar que para su publicación se contó con la autorización y coautoría de la doctora Rivera Aragón.
Medición
Del o los objetivos de investigación derivan las fases subsiguientes del proceso de investigación. Una de estas fases se refiere al tipo de medición empleada para evaluar una o más variables de estudio, componente que tiene una relación directa con la estadística empleada en el tratamiento de los datos. De esta manera la medición consiste en reglas que asignan símbolos a objetos, de tal forma que a) representan numéricamente cantidades o atributos, o b) definen si los objetos caen en las mismas o en diferentes categorías con respecto a un atributo de medición. En esta definición, las reglas se refieren a que la asignación de números sea explícita; y los atributos denotan que la medición implica características particulares del objeto, esto es, los objetos per se no pueden medirse, se miden sus atributos (Nunnally y Bernestein, 1995). Nunnally y Bernestein, indican que los números representan cantidades en escalas de medición, lo que significa que la cuantificación implica qué tanto de un atributo está presente en un objeto. En la literatura se mencionan cuatro niveles de medición, aunque en psicología generalmente se emplean tres: nominal, ordinal e intervalar, los que se describen a continuación.
Escalas de medición Nominal
Es el nivel más bajo de medición de una variable en el que se le asignan números a los objetos, personas o características que se deseen evaluar, las cuales no pueden ordenarse o sumarse. Precisamente a todos los miem-
bros de un conjunto se les asigna el mismo valor numérico, e.g. al preguntarles a 100 ciudadanos del Distrito Federal, ¿para usted la infidelidad es positiva o negativa? Se está empleando una medida nominal al registrar la frecuencia de las respuestas, dándole el valor de 1 a la infidelidad positiva y el valor de 2 a la infidelidad negativa, lo que se muestra en la tabla 1.
TABLA 1 OPINIÓN DE LOS CIUDADANOS DEL DISTRITO FEDERAL SOBRE LA INFIDELIDAD
Infidelidad Frecuencia 1 2
40 60
Esta medición coloca los casos dentro de categorías o conjuntos, y se cuenta la frecuencia de ocurrencia, sin asignar el mismo valor a dos categorías, e.g. sexo, no se puede clasificar a la misma persona como hombre y mujer. Ordinal
Requiere que los objetos de un conjunto de variables puedan ser ordenados por rangos respecto a una característica o propiedad. Los valores numéricos asignados a los objetos ordenados se llaman valores de rango. En esta medición los números no indican cantidades absolutas ni tampoco que los intervalos entre los números sean iguales, por lo que marca la organización de los rangos pero no señala la magnitud de las diferencias entre éstos, e.g. las etapas del desarrollo humano: Niñez Adolescencia Adultez Vejez
Sofía Rivera Aragón 20 Mirna García Méndez
Otro ejemplo es el ciclo de vida de la pareja de acercamiento-alejamiento (Díaz-Loving, 1999): 1. Extraño/desconocido 2. Conocido 3. Amistad 4. Atracción 5. Pasión 6. Romance 7. Compromiso 8. Mantenimiento 9. Conflicto 10. Alejamiento 11. Desamor 12. Separación 13. Olvido Como se puede observar en ambos ejemplos, no existe una distancia exacta entre cada una de las etapas y tampoco se sabe con exactitud cuándo termina una e inicia la siguiente. Intercalar
Esta medición posee las características de las escalas nominales y ordinales, de manera particular las de rango. Las distancias numéricamente iguales de los intervalos representan distancias iguales en la propiedad de la variable que se mide. En este nivel de medición se incluyen las escalas tipo Likert, e.g. la clasificación de la inteligencia a través de la escala WAIS (Barragán, Benavides, Brugman y Lucio, 1988) presentada en la tabla 2. Tal como se observa en la tabla 2, existe la misma distancia entre los diferentes niveles de medición de la inteligencia, lo que indica una distribución igual de los intervalos de medición.
Medlción 21
TABLA 2
CLASIFICACIÓN DE LA INTELIGENCIA EN ADULTOS
Coeficiente intelectual 130 o más 120-129 110-119 90-109 80-89 70-79 50-69 30-49 29 o menos
Clasificación Muy superior Superior Normal brillante Normal Subnormal Limítrofe Deficiente mental superficial Deficiente mental medio Deficiente mental profundo
De razón
Es el nivel más alto de medición de una variable. Es una medida poco empleada en la psicología, por ende, no se hablará más de él. Con base en lo expuesto, a continuación se presenta un ejemplo que involucra tres de los cuatro niveles de medición: nomina], de rangos e intervalar.
Ejemplo En una investigación que tiene por objetivo conocer la relación entre la satisfacción marital, la escolaridad y el sexo. El sexo (hombres y mujeres) es una variable nominal en la que a los hombres (H) se les asigna el valor numérico de 1 y a las mujeres (M) se les asigna el valor numérico 2. El nivel de escolaridad (primaria, secundaria, preparatoria, licenciatura y posgrado) es una variable ordinal que va de menor a mayor escolaridad, ordenada de la siguiente manera: Primaria
1
Secundaria
2
Preparatoria
3
Licenciatura
4
Posgrado
5
Sofía Rivera Aragón García Méndez
22 Mirna
TABLA 3
REPRESENTACIÓN DE LOS DIFERENTES NIVELES DE MEDICIÓN Clasificación
Definición
Función
Propiedad
Estadística empleada
Nominal
Categoriza una variable.
Nombra
Igualdad
No
Ordinal
Ordena una variable.
Jerarquiza las categorías
Intervalo
Conoce la distancia entre intervalos.
Cuantifica una Cero Relativo. variable.
Paramétrica.
Conoce la Cuantifica una Cero absoluto. proporción variable. entre las variables.
Paramétrica.
Razón
categorías.
paramétrica.
>o< (mayor menor)
La satisfacción marital se medirá con el
IMSM
No o paramétrica
Ejemplo Estado civil: solteros, casados, unión libre, viudos, divorciados: sexo: hombres y mujeres.
Escolaridad: primarla, secundarla, preparatoria. Inteligencia: limítrofe, normal, nomal brillante, superior. Las medidas de distancia: metro, decámetro, hectómetro y kilómetro.
integrado por 47 enunciados
positivos, con intervalos de respuesta del 1 al 5 (Cortés, Reyes, Díaz-Loving, Rivera y Monjaraz, 1994). Me gusta mucho = 5 Me gusta = 4 Ni me gusta, ni me disgusta = 3 Me disgusta = 2 Me disgusta mucho = 1
Medición
23
Por sus características, este inventario evaluará la satisfacción marital de manera intervalar, debido a que medirá las distancias o intervalos del constructo de interés. Las variables nominal (sexo) y ordinal (escolaridad) son generalmente denominadas variables sociodemográficas o de clasificación por el investigador. Ahora bien, si la satisfacción marital se mide preguntándoles a las personas si están o no satisfechas con su relación de pareja, la respuesta será dicotómica Sí o No, convirtiéndose la medición en nominal. Los resultados que se obtendrán serán frecuencias en relación con el número de hombres y mujeres que están satisfechos o insatisfechos maritalmente. Este ejemplo denota que el tipo de medición utilizada, estará en función de los objetivos que pretenda alcanzar el investigador. De esta manera, se observa que cada una de las escalas de medición tiene características y funciones específicas, las que se presentan en la tabla 3.
Estadística descriptiva
La estadística descriptiva permite conocer la distribución de los datos a partir de la cuantificación de los atributos de una categoría o variable. De acuerdo con Nunnally (1995) no necesariamente incluye la generalización. Sus funciones son: a) Conocer el tipo de distribución. b) Representación gráfica. c) Obtener medidas de tendencia central (toma de decisiones). d) Calcular medidas de variabilidad.
Conocer el tipo de distribución 1. Frecuencia absoluta (f) 2. Frecuencia relativa (fr %) 3. Frecuencia ajustada (fa %) 4. Frecuencia acumulada (fa) La frecuencia absoluta describe objetos, la relativa los ordena en porcentajes, la ajustada recalcula las frecuencias absolutas y relativas, eliminando datos con base en valores perdidos o missing, y la acumulada los ordena de mayor a menor o viceversa. Estas frecuencias se obtienen en el programa estadístico SPSS en cualquiera de sus versiones. Después de haber elaborado una base de datos e insertado los datos en bruto, se le pide al SPSS las frecuencias de la variable de estudio y despliega los cuatro tipos de frecuencia en una tabla.
27
Para comprender la lógica de las operaciones involucradas en la distribución de frecuencias, se expondrá un ejemplo a partir del cual se explicará la forma en la cual se obtiene cada una de las frecuencias.
Ejemplo Se encuesto con un cuestionario abierto a una muestra de 300 personas, hombres y mujeres, sobre el significado del funcionamiento familiar. Una vez que se obtuvieron los datos se procedió a su organización, lo que se hizo mediante una distribución de frecuencias, tal como se observa en la tabla 4.
TABLA 4
TOTAL DE HOMBRES Y MUJERES QUE OPINARON SOBRE EL SIGNIFICADO DEL FUNCIONAMIENTO FAMILIAR
Sexo
f
Hombres
144
Mujeres
156
Total
300
Esta tabla muestra el total de hombres y mujeres que participaron en la investigación, sin embargo, para identificar la preferencia de hombres y mujeres por uno u otro de los significados del funcionamiento familiar, se obtuvieron las frecuencias absolutas de ocurrencia de respuesta por sexo. Estos resultados se presentan en la tabla 5. En la tabla 5 se enuncian las frecuencias absolutas (f) de ocurrencia de respuesta de la categoría de análisis sexo: hombres (H) y mujeres (M), en cada uno de los significados generales de funcionamiento familiar. En este ejemplo la muestra no tiene una distribución igual en cuanto al número de H y M incluidos, por lo que para comparar a los dos grupos aun
28
Sofía Rivera Aragón Mirna García Méndez
TABLA 5
FRECUENCIAS DEL SIGNIFICADO DE FUNCIONAMIENTO FAMILIAR EN HOMBRES Y MUJERES
Significados generales Organización y estructura Emocional-valorativa Afectivo-funcional Funcional Afectiva total
Hombres
Mujeres
f
f
25 44 53 16 6 144
20 66 54 13 3 156
cuando existen diferencias en su tamaño se emplea la frecuencia relativa (fr %). La frecuencia relativa (fr %) se refiere a la ocurrencia de los niveles de una categoría -en este ejemplo (H y M)- por cada 100 casos. Su cálculo se obtiene al multiplicar cualquier proporción dada por 100 (Levin y Levin, 2002).
Siguiendo con el ejemplo de los significados generales del funcionamiento familiar, para obtener la frecuencia relativa de los H que respondieron el cuestionario, se multiplica 100 por 144 y el resultado se divide entre 300 que es el total de personas que participaron en la investigación, y se extrae la fr que es de 48 por ciento.
La tabla 6 presenta que del total de la muestra, el 48 por ciento son hombres y el 52 por ciento son mujeres.
Estadística descriptiva 29
TABLA 6 FRECUENCIAS ABSOLUTA Y RELATIVA DE LA CATEGORÍA SEXO
Sexo
f
fr (%)
Hombres
144
48.0
Mujeres Total
156
52.0
300
100
Con respecto a las respuestas de la muestra en relación con los significados del funcionamiento familiar, éstas varían tal como se observa en la tabla 5 por lo que también se aplica la frecuencia relativa al igual que en la categoría de sexo. Los datos se presentan en la tabla 7.
TABLA 7
FRECUENCIAS ABSOLUTA Y RELATIVA DEL SIGNIFICADO DE FUNCIONAMIENTO FAMILIAR EN HOMBRES Y MUJERES
Hombres f fr(%)
Mujeres f r(%)
Organización y estructura
25
17.4
20
12.8
Emocional-valorativa Afectivo-funcional Funcional Afectiva Total
44 53 16
30.6 36.8
66
42.3 34.6 8.3
11.1
54 13
6
4.2
3
1.9
144
100
156
100
La frecuencia ajustada recalcula la frecuencia absoluta quitando datos o con base en elementos perdidos que generalmente se computan con cero (en el SPSS aparecen como missing). Estos elementos perdidos se refieren a los enunciados o preguntas que la muestra no respondió. Con base en el ejemplo del significado del funcionamiento familiar en H y M, la tabla 8 presenta las frecuencias absolutas, las relativas y las ajustadas.
Sofía Rivera Aragón García Méndez
30 Mirna
TABLA 8 FRECUENCIAS ABSOLUTA, RELATIVA Y AJUSTADA DEL SIGNIFICADO DE FUNCIONAMIENTO FAMILIAR EN HOMBRES Y MUJERES
Significados generales
Organización y estructura Emocional-valorativa Afectivo-funcional
Funcional Afectiva Total
Hombres
Mujeres
f
fr (%)
25
17.4
17.4
20
12.8
20
44 53 16 6 144
30.6 36.8 11.1 4.2 100
30.6 36.8 11.1 4.2 100
66 54 13 3 156
42.3 34.6 8.3 1.9 100
86 140 153 156
fa (%)
f
fr (%)
fa (%)
En esta tabla la fr y fa (%) son iguales debido a que no hubo valores perdidos. Con fines de ejemplificar la fa (%) la tabla 9 muestra las frecuencias del estado civil de la muestra.
Tabla 9 FRECUENCIAS DEL ESTADO CIVIL DE HOMBRES Y MUJERES
Estado civil
f
fr(%)
Casado
120
40.0
40.3
Soltero Unión libre Divorciado Separado Viudo Total
151 13 8 3 3 298 2
50.3 4.3 2.7 1.0 1.0 99.3 .7
50.7 4.4 2.7 1.0 1.0 100.0
300
100.0
Valores perdidos (missing) 0 Total
fa (%)
Estadística descriptiva 31
La frecuencia acumulada (la) ordena los puntajes del total de casos de una categoría. Se obtiene al sumar la frecuencia de un puntaje dado a la frecuencia de la categoría debajo de ella. Al resultado de esta operación, se suma en forma acumulativa el puntaje de la categoría debajo de ella, y así sucesivamente hasta tener incluidos el total de los casos. Siguiendo el ejercicio de los significados de funcionamiento familiar, la tabla 10 presenta las frecuencias absolutas, relativas, ajustadas y acumuladas por hombres y mujeres.
TABLA 10 FRECUENCIAS ABSOLUTAS, RELATIVAS, AJUSTADAS Y ACUMULADAS DE HOMBRES Y MUJERES CON RELACIÓN AL SIGNIFICADO DEL FUNCIONAMIENTO FAMILIAR
Significados generales
Hombres f
fr (%) fa (%)
Mujeres fa
f
fr(%)
fa (%)
fa
20 66 54 13 3
12.8 42.3 34.6 8.3 1.9 100
12.8 12.8 42.3 55.1 34.6 89.7 8.3 98.1 1.9 100.0 100
Organización y estructura Emocional-valorativa Afectivo-funcional Funcional Afectiva total
25 44 53 16 6 144
17.4 17.4 17.4 30.6 30.6 47.9 36.8 36.8 84.7 11.1 11.1 95.8 4.2 4.2 100.0 100 100 156
Ejercicio SPSS
Para obtener los cuatro tipos de frecuencia en SPSS de las 300 personas, se realizan los siguientes pasos:
Paso 1. En la base de datos se coloca el cursor en Analyze, se presiona el botón izquierdo del mouse.
Paso 2. Al presionar Analyze, aparece un menú en el que se coloca el cursor en Descriptive Statistics, se presiona con el botón izquierdo del mouse y aparece otro menú, se coloca el cursor en Frequencies y una vez más se presiona con el botón izquierdo del mouse.
32
Sofía Rivera Aragón Mirna García Méndez
Paso 3. Al presionar Frequencies, se abre un menú que contiene las variables de la investigación, se marca con el botón izquierdo del mouse la variable siggene (significados generales del funcionamiento familiar).
Estadística descriptiva 33
Paso 4. Una vez señalada la variable siggene, se coloca el cursor en el icono que está entre las variables de estudio y variable(s), se presiona el botón izquierdo del mouse, de esta operación siggene aparece en el cuadro de variable(s).
Paso 5. Se coloca el cursor en el icono de OK, se presiona el botón izquierdo del mouse obteniéndose los cuatro tipos de frecuencias, en donde: frequency es frecuencia absoluta, percent es frecuencia relativa, valid percent es frecuencia ajustada y cumulative percent es frecuencia acumulada. Sofía Rivera Aragón 34 Mima García Méndez
SIGNIFICADOS GENERALES
Frequency Percent
Valia Percent
Cumulative Percent
15.0 36.7 35.7 9.7 3.0 100.0
15.0 51.7 87.3 97.0 100.0
Valid organización y estructura emocional-valorativa afectivo-funcional funcional afectiva Total
45 110 107 29 9 300
15.0 36.7 35.7 9.7 3.0 100.0
Estos resultados indican que los significados de funcionamiento familiar con mayor ocurrencia de respuesta fueron el emocional-valorativo y el afectivofuncional.2 Una vez descritos los cuatro tipos de frecuencias, se proseguirá con la distribución de frecuencias agrupadas, las que se emplean para incluir las frecuencias absolutas en intervalos de clase (Levin y Levin, 2002; Downie y Heat, 1973). Estos intervalos de clase son comúnmente empleados cuando la distribución de frecuencia es tan amplia que resulta poco práctica. Es el caso del ejemplo de la tabla 11 que presenta una distribución de frecuencias por edad en una muestra de 351 personas, que varía de 21 a 60 años. La tabla 11 indica que se tiene una persona de 21 años, dos personas de 22 años, 13 personas de 23 años y así sucesivamente. Con el propósito de que los datos tengan una presentación sencilla y clara, se obtienen los intervalos de clase que para este caso es de cinco, tal como se observa en la tabla 12. La decisión del tamaño del intervalo es responsabilidad del investigador, quien generalmente parte de su base de datos y de los objetivos de su investigación.
2Con fines didácticos se presentarán las tablas del SPSS, aunque éstas no se reportan en una investigación, se abstraen los datos que el investigador desea resaltar y se muestran en otro formato.
Estadística descriptiva 35
TABLA 11 DISTRIBUCIÓN DE EDAD POR FRECUENCIAS EN HOMBRES Y MUJERES.
Edad
f
Edad
21
1
31
22
2
32
23
13
24
f
Edad
f
Edad
f
15
41
8
51
2
18
42
52
5
33
16
43
1 1 7
53
6
13
34
13
44
7
54
1
25
11
35
16
45
4
55
2
26
17
36
9
46
7
56
0
27
11
37
18
47
4
57
2
28
13
38
14
48
3
58
0
29
19
39
15
49
8
59
0
30
15
40
13
50
8
60 Total
4 351
TABLA 12 DISTRIBUCIÓN DE EDAD POR INTERVALOS EN HOMBRES Y MUJERES
Intervalo de clase
f
56-60
6
51-55 46-50 41-45
16 30 37
36-40 31-35 26-30 21-25
69 78 75 40 Total 351
A su vez los intervalos de clase tienen un límite inferior y un límite superior (véase tabla 13). Como se observa en la tabla 13, el límite inferior del intervalo de edad 21-25 es 20.5 y su límite superior es 25.5, que también es el límite inferior del intervalo 2650, esto es, el límite superior de cada uno de los intervalos se convierte en el límite inferior del intervalo subsiguiente.
36
Sofía Rivera Aragón Mirna García Méndez
TABLA 13
LÍMITES SUPERIOR E INFERIOR DE LOS INTERVALOS DE EDAD EN UNA MUESTRA DE 351 SUJETOS
Limits inferior
Intervalo de clase
Límite superior
55.5 50.5 45.5
56-60 51-55 46-50
60.5 55.5 50.5
40.5 35.5 30.5 25.5
41-45 36-40 31-35 26-30
45.5 40.5 35.5 30.5
20.5
21-25
25.5
Representación gráfica Los resultados que se obtienen de la investigación se pueden representar en tablas o gráficas, pero nunca se deberán emplear ambas alternativas para presentar los mismos datos; por ejemplo, si la escolaridad de la muestra se presenta en tablas, ya no se utilizará la figura, porque ello implica repetir la información. Hay investigadores que se inclinan por el uso de figuras debido a que atraen la atención visual del observador. Una de las características de las gráficas consiste en que se basan en una recta numérica (véase gráfica 1).
GRÁFICA 1
REPRESENTACIÓN DE LA RECTA NUMÉRICA
Estadístico descriptiva 37
Las gráficas que se utilizan con mayor regularidad son:
1. Barras 2. Pastel 3. Histograma 4. Ojivas 5. Polígonos de frecuencia Las gráficas de barras y pastel se aplican únicamente a variables nominales y ordinales; mientras que los histogramas, ojivas y polígonos de frecuencia se emplean en variables ordinales, intervalares y de razón.
Gráfica de barra
En esta figura no hay continuidad en las barras cuando se emplea en datos nominales, razón por la que están separadas. La gráfica 2 muestra el grado de escolaridad de los 300 sujetos a los que se les aplicó el cuestionario abierto del significado de funcionamiento familiar. Los números que aparecen al interior de cada una de las barras son opcionales, se incluyen si el investigador quiere indicar el número de sujetos que corresponde a cada nivel educativo. Así el número 22 que aparece en la barra de primaria, indica que de la muestra total de 300 personas, 22 de ellas tienen educación primaria. La gráfica 3 presenta las cinco categorías que resultaron de la aplicación del cuestionario abierto del significado de funcionamiento familiar (organización y estructura, emocional-valorativa, afectivo-funcional, funcional y afectiva) así como la distribución de la muestra en cada categoría. La diferencia entre las gráficas 2 y 3, es que en la gráfica 2 cada barra muestra el número exacto de sujetos ubicados en cada grado escolar, mientras que en la gráfica 3 se observa de manera general la distribución de la muestra en las cinco categorías de funcionamiento familiar. La elección de una u otra figura está en función de lo que el investigador quiera resaltar de sus resultados.
38
Sofía Rivera Aragón Mirna García Méndez
GRÁFICA 2 NIVEL DE ESCOLARIDAD
GRÁFICA 3
DISTRIBUCIÓN DE LA MUESTRA EN LAS CATEGORÍAS DE FUNCIONAMIENTO FAMILIAR
Estadística descriptiva 39
Gráfica de pastel o de sectores Se utiliza con frecuencias absolutas y relativas, es útil para mostrar diferencias de frecuencias en categorías de nivel nominal. La gráfica 4 presenta la variable ocupación de una muestra de 352 personas, hombres y mujeres del Distrito Federal. Gráfica 4
OCUPACIÓN DE HOMBRES Y MUJERES
Cada sección de la gráfica tiene el número de individuos agrupados por cada uno de los cinco tipos de ocupación. También con la figura de pastel se puede presentar la distribución de la muestra con porcentajes, como se aprecia en la gráfica 5. Del total de las 352 personas que integran la muestra, su escolaridad se distribuye de la siguiente manera: 18 por ciento tiene primaria, 36 por ciento secundaria, 31 por ciento preparatoria y 25 por ciento licenciatura.
Gráfica de histograma Se emplean en variables continuas3 y se elaboran con base en el límite inferior del intervalo. La gráfica 6 muestra los intervalos de edad de la
3
Una variable continua es aquella que asume un conjunto ordenado de valores dentro de un
rango (Kerlinger y Lee, 2001).
Sofía Rivera Aragón 40 Mirna García Méndez
GRÁFICA 5 NIVELES DE ESCOLARIDAD EN HOMBRES Y MUJERES
muestra de 351 sujetos de las tablas 12 y 13. Las barras están unidas porque denotan continuidad del intervalo de menor edad (21-25) al de mayor edad (56-60).
GRÁFICA 6
INTERVALOS DE EDAD EN UNA MUESTRA DE 351 HOMBRES Y MUJERES
Estadística descriptiva 41
Otro ejemplo relacionado con los histogramas es el caso del constructed esperanza, medida por una escala cuyos intervalos de respuesta van del 1 al 5. Esta escala se constituye por dos dimensiones: importancia y probabilidad, cada una con 10 factores (Vargas, García-Méndez, DíazLoving y Rivera, 2004). El histograma de la figura 7 muestra el comportamiento de uno de los factores de probabilidad -ayuda paterna- en una muestra de 300 personas del D.E GRÁFICA 7
NÚMERO DE PERSONAS POR INTERVALO DE RESPUESTA EN EL FACTOR DE AYUDA PATERNA EN LA ESCALA DE ESPERANZA
Gráfica de ojiva o de polígono de frecuencia acumulada Se basa en la frecuencia absoluta y se grafica con el límite superior. En esta figura, la línea que conecta los puntos es ascendente, razón por la que no toca la línea base horizontal (Downie y Heath, 1973). La gráfica 8 presenta los rangos de edad de una muestra de 351 personas, rangos distribuidos con base en el límite superior presentado en la tabla 13 de este capítulo.
42
Sofía Rivera Aragón Mirna García Méndez
G RÁFICA 8 RANGOS DE EDAD
Gráfica de polígonos de frecuencia Se conoce también como curva. Es más fácil de graficar después de hacer un histograma. Un ejemplo de polígonos de frecuencia se expone en la gráfica 9, en una muestra de 168 parejas heterosexuales, cuyos años de unión se distribuyeron por rangos. Gráfica 9
RANGOS AÑOS DE UNIÓN
Estadística descriptiva 43
Obtener medidas de tendencia central Es común en el ámbito de la investigación, querer saber lo típico o el promedio en el que se encuentra la muestra de estudio, con la finalidad de describirla en forma global. Este promedio o valor se conoce como medida de tendencia central debido a que se encuentra en el centro de una distribución en la que se localizan la mayoría de los puntajes de la muestra (Levin y Levin, 2002). La forma de obtener este promedio es a través de las medidas de tendencia central: media, mediana y moda expuestas en la tabla 14. 1. 2. 3.
Media → es un promedio. Mediana → divide en dos a la muestra. Moda → es el valor que se repite con mayor frecuencia.
Tabla 14 MEDIDAS DE TENDENCIA CENTRAL
Representación Paramétrica No paramétrica
X μ (media) Md (mediana) Mo (moda)
Nivel de medición Intervalar Ordinal Nominal
Exactitud Exacta Variable Inestable
Como se observa en la tabla 14 es usual emplear letras latinas para representar las características de una muestra y las letras griegas para los parámetros de una población (Downie y Heath, 1973). En el caso de la tabla 14, la X(media) es un estimador debido a que es un valor que representa una característica de la muestra, y la μ (media) es un parámetro, porque es un valor que representa las características de una población. Estas medidas de tendencia central son empleadas en la toma de decisiones e indican el punto medio de una distribución, tal como se observa en la gráfica 10.
44
Sofía Rivera Aragón Mirna García Méndez
GRÁFICA 10
DISTRIBUCIÓN NORMAL
Media La media aritmética X es la medida de tendencia central más utilizada en la investigación, se obtiene al sumar el total de puntajes obtenido por la muestra, dividido entre el número total de la muestra (Clark-Carter, 1997; Levin y Levin, 2002; Downie y Heath, 1973). Su fórmula es:
Donde:
La media. La suma expresada por la letra griega sigma Datos crudos Número de casos Esta fórmula se emplea en datos no agrupados (datos crudos) en muestras pequeñas.
Estadística descriptiva
45
Ejemplo 1 Conocer la media de edad de una muestra de diez sujetos
Cuando se trabaja con datos agrupados por frecuencias o por intervalos y con muestras grandes, la media se obtiene con la siguiente fórmula:
donde: La media. La suma expresada por la letra griega sigma Los puntajes en crudo de la muestra Un puntaje multiplicado por su frecuencia de ocurrencia La suma de los fx Número de casos
46
Sofía Rivera Aragón Mirna García Méndez
Ejemplo 2 Se aplicó a una muestra de 330 hombres y mujeres la escala de depresión de Zung (1965) (SDS).4 La presencia o ausencia de depresión se evaluó con base en cuatro niveles: 1 = < 50% sin depresión 2 = > 50% depresión leve 3 = > 60% depresión moderada 4 = > 70% depresión grave Primero se obtienen las frecuencias de ocurrencia en cada uno de los niveles de depresión.
Niveles de depresión 1 2 3 4
f 264 45 14 7
Después se obtiene la fx, al multiplicar cada una de las frecuencias por el nivel de depresión correspondiente.
4 SDS
son las siglas del nombre de la escala en inglés: Self-Rating Depression Scale.
Estadística descriptiva 47
Esta media de 1.3 indica que la mayoría de los 330 sujetos se ubican en el nivel 1, lo que significa que en promedio la muestra no tiene depresión. Ejemplo 3
Para obtener la media de años de unión de una muestra de 352 sujetos que vivían con una pareja al momento de la investigación, los datos se agruparon en intervalos. Una vez derivados los intervalos, se obtiene la marca de clase (Mx) o punto medio de cada intervalo donde 33 es el, punto medio del intervalo 31-35 porque 33 + 2 = 35 y 33- 2 = 31.
Intervalo
Mx
31-35
33
26-30 21-25 16-20 11-15 6-10 1-5
28 23 18 13 8 3
Enseguida se obtiene la frecuencia de ocurrencia (f) de cada intervalo, así en el intervalo de 26-30 años de unión, se encuentran 24 personas.
48
Intervalo
Mx
31-35
33
8
26-30 21-25 16-20 11-15 6-10 1-5
28 23 18 13 8 3
24 34 49 84 110 43
Sofía Rivera Aragón Mirna García Méndez
f
Posteriormente se multiplica cada frecuencia por su respectiva Mx y se consiguen de esta manera las fx.
De esta manera se concluye que la media de años de unión de esta muestra es de 13.3. Mediana
La mediana (Md) es el valor medio de la distribución, divide el total de los casos en dos, razón por la que se dice que divide en dos a la muestra, dejando el mismo número de casos a cada lado de ella (Downie y Heath, 1973). Cuando se tiene un número impar de casos, la Md se ubica exactamente a la mitad de la distribución. En los datos que a continuación se presentan, la Md de edad de los 145 sujetos es de 21 años y le quedan tres rangos de edad hacia arriba y tres rangos de edad hacia abajo.
Edad
f
18
21
19 20 21 22 23 24
22 32 26 14 18 12 n = 145
Estadística descriptiva 49
De acuerdo con Levin y Levin (2002) la posición del valor de la Md también se puede obtener con la fórmula:
Posición de la Md Siguiendo con el ejemplo de la edad: Posición de la Md Para localizar el número 73 se saca la frecuencia acumulada (fa) la cual se revisó al inicio de este capítulo. Edad
f
fa
18
21
145
19 20 21 22 23 24
22 32 26 14 18 12 n= 145
124 102 70 44 30 12
Una vez obtenida la fa se localiza la posición de la Md 73 en la columna de la fa. El número más cercano al 73 es el 70 por lo que la Md de edad es 21. Si el número de casos es par, entonces se procede de acuerdo con el siguiente ejemplo. En una muestra de 90 sujetos, la posición de la Md 45.5 se ubica entre las fa 35-50 por lo que la Md es de 10.5 años de escolaridad, situada a la mitad de la distribución. Moda
La moda (Mo) es una medida de tendencia central para datos no agrupados, cuyo valor se presenta más veces. En el ejemplo anterior la Mo es
50
Sofía Rivera Aragón Mirna García Méndez
10 años de escolaridad, debido a que su frecuencia es la más alta en la distribución: son 15 los sujetos que tienen estos años de escolaridad.
Ejercicio
SPSS
Para obtener las medidas de tendencia central en
SPSS ,
se retomará el ejercicio de
los significados generales del funcionamiento familiar desarrollado para extraer los cuatro tipos de frecuencias. Recuerde que después de realizar los pasos 1, 2, 3 y 4 en el SPSS se obtuvo un menú. En este menú, ahora se coloca el cursor en el icono de statistics y se presiona el botón izquierdo del mouse:
Estadística descriptiva 51
Al presionar statistics aparece un menú en el que se coloca el cursor en cada uno de los cuadros de las tres medidas de tendencia central de nuestro interés media, mediana y moda— se presiona en estos cuadros con el botón izquierdo del mouse, enseguida se coloca el cursor en el ícono de continue que se presiona con el botón izquierdo del mouse.
Al presionar el icono de continue reaparece el menú del paso 4 y se presiona el icono OK.
Sofía Rivera Aragón 52 Mirna García Méndez
Después de presionado el icono de OK aparecen en una tabla las medidas de tendencia central con sus respectivos valores. STATISTICS
Significados generales N
Valid Missing
Mean Median Mode
300 0 2.4900 2.0000 2.00
El valor de la media, mediana y moda es de 2, lo que indica una distribución normal de las respuestas de la muestra. Calcular medidas de dispersión (variabilidad)
Las medidas de dispersión son importantes en la descripción de la distribución, debido a que indican el grado en que varían los datos con relación a la parte central de la curva normal, lo que las convierte en un elemento inseparable de las medidas de tendencia central; además estas medidas de dispersión sólo pueden aplicarse a medidas de rango e intervalares. Las más empleadas son: 1. Rango 2. Desviación estándar 3. Varianza 4. Sesgo 5. Curtosis 6. Error estándar Rango (R)
El rango también conocido como recorrido (Mendenhall, 1982; Downie y Heath, 1973) es la distancia entre el valor mínimo y el valor máximo de
Estadística descriptiva
53
una distribución. Su cálculo es fácil y rápido, no requiere de fórmula y se puede utilizar en medidas ordinales e intervalares. Su desventaja radica en su inestabilidad, esto es, de una muestra a otra, presenta grandes variaciones, por lo que se recomienda emplearse como una medida preliminar. Un ejemplo de esta medida de variabilidad es conocer el rango de rendimiento escolar de 42 alumnos, cuya calificación más alta fue de 9 y la más baja de 2. El R se obtiene de la resta 9-2 esto es el R = 7.
Desviación estándar (o = parámetro de la población) (s = estimador de la muestra) La desviación estándar únicamente se puede emplear en medidas intervalares. Es una puntuación que indica la distancia con relación a la media, razón por la que la media no tiene significado sin la desviación. De esta forma, como se observa en la gráfica 11, la desviación representa la variabilidad promedio de una distribución.
G RÁFICA 11 REPRESENTACIÓN DE LA DESVIACIÓN ESTÁNDAR EN UNA DISTRIBUCIÓN NORMAL
54
Sofía Rivera Aragón Mirna García Méndez
Su fórmula es:
donde: s = Desviación estándar Suma de frecuencias de puntajes crudos elevados al cuadrado n = Número total de casos (X)2 = Media elevada al cuadrado Para entender la desviación estándar de la cual depende la significancia, es necesaria la curva (véase gráfica 12) que representa el 100 por ciento de la probabilidad. De esta manera, 100 por ciento es el área bajo la curva.
GRÁFICA 12 REPRESENTACIÓN DE LA SIGNIFICANCIA A PARTIR DE LA DESVIACIÓN ESTÁNDAR EN UNA DISTRIBUCIÓN NORMAL
Estadística descriptiva
54
Ejemplo
Para calcular la desviación estándar del número de hijos en una muestra de 176 parejas, se realiza lo siguiente: 1. Se obtiene la distribución de frecuencia (/)
Núm. de hijos (x)
f
1
49
2 3 4 5
74 34 15 4 n = 176
2. Se multiplica cada frecuencia por el número de hijos, esto es, 49 parejas tienen un hijo, se multiplica 49 X 1; 74 parejas tienen dos hijos, se multiplica 74 X 2, y así sucesivamente. Núm. de hijos (x)
f
fx
1
49
49
2 3 4 5
74 34 15 4 n = 176
148 102 60 20 S/x = 379
3. Se multiplica cada fx por el número de hijos y así se obtienen las fx2.
Núm. de hijos (x)
56
fx
fx2
1
49
49
2 3 4 5
148 102 60 20
296 306 240 100 2/x2 = 991
Sofía Rivera Aragón Mirna García Méndez
De acuerdo con la fórmula de la desviación estándar falta obtener la media
por lo que
se toma del punto dos.
4. Una vez que se tiene la X = 2.15 hijos, ésta se eleva al cuadrado (X)2 — 4.62 y entonces:
Varianza (s2 o σ2)
La varianza es la desviación estándar al cuadrado, indica una distancia con respecto a la X, su aplicación es el análisis de varianza (Anova)5 e indica cuánto de la variabilidad de la variable dependiente es explicada por la variable independiente. De esta forma muestra qué tanto de la variabilidad de la variable dependiente es explicada por las diferencias de los individuos, proceso al que se le conoce como varianza de error.
5
Siglas en inglés del análisis de varianza.
Estadística descriptiva
57
Sesgo El sesgo se refiere a la variación de una distribución, es el grado de asimetría de la distribución observada por el número de casos agrupados en una sola dirección. Su interpretación está asociada con el valor y el signo, esto es: Valor - 4 a + 4 Signo + El signo implica el nivel de asimetría de la curva, cuando más cercana está al cero, la curva es normal, cuando más cercana está al cuatro, la curva es asimétrica o sesgada. Ejemplos Una muestra de 60 mujeres se clasificó por la actividad que realizaban de la siguiente manera: 1. estudiantes, 2. empleadas, y 3. sin actividad. En la gráfica 13 se puede ver que la mayoría de la muestra era estudiante, lo que se refleja en el sesgo positivo de la gráfica 13.
GRÁFICA 13 ACTIVIDADES REALIZADAS POR MUJERES
Sofía Rivera Aragón 58 Mirna García Méndez
Al indagar en torno a los elementos que intervienen en el funcionamiento familiar en una muestra de 300 sujetos, se encontró que 232 reportaron que la comunicación es un indicador que interviene en el funcionamiento familiar. Estos hallazgos se observan en la gráfica 14 que muestra un sesgo negativo debido a que la curva está cargada a la derecha.
GRÁFICA 14 LA COMUNICACIÓN COMO ELEMENTO DEL FUNCIONAMIENTO FAMILIAR
Curtosis (K) Es el nivel de picudez de una curva, esto es, su grado de elevación o aplanamiento. A diferencia del sesgo, la curtosis es una z4 sobre el número de sujetos.
La curtosis al igual que el sesgo depende del valor y del signo: a) Valor. Si el cero va de + 4 a - 4 la curva es mesocúrtica. b) Signo. Si es positivo se habla de una curva leptocúrtica.
Estadística descriptiva
59
Ejemplos El número de hijos en una muestra de 176 parejas fluctuó entre uno y cinco, predominando las parejas con dos hijos, tal como se observa en la gráfica 15, lo que hace que la curva sea alta o picuda (leptocúrtica).
GRÁFICA 15 NÚMERO DE HIJOS
La gráfica 16, representa una curva mesocúrtica, esto es, una distribución normal en una muestra de 60 mujeres, 30 con diagnóstico que indica problemas de alimentación y 30 sin problemas alimenticios. La gráfica 17, muestra una curva platocúrtica hipotética, que se caracteriza por su distribución relativamente plana. De esta manera se observa que el sesgo y la curtosis indican la asimetría, el sesgo hacia uno u otro lado de la curva y la curtosis a través de la elevación de la misma.
60
Sofía Rivera Aragón Mirna García Méndez
GRÁFICA 16 DIAGNÓSTICO DE PROBLEMAS EN LA ALIMENTACIÓN
G RÁFICA 17 CURVA PLATOCÚRTICA
Error estándar (σ o e) El error estándar es la diferencia entre la media muestral y la media poblacional, está vinculado al error de muestreo.
Estadística descriptiva
61
Ejercicio SPSS
Para obtener las medidas de dispersión en
SPSS
de una muestra de 300 personas a
las que se les aplicó la escala de depresión de Zung (1965) se llevan a cabo los siguientes pasos: Paso 1. En la base de datos se coloca el cursor en analyze, se presiona el botón izquierdo del mouse, aparece un menú en el que se coloca el cursor en descriptive statistics y se presiona el botón izquierdo del mouse, nuevamente se muestra un menú en el que se presiona con el botón izquierdo del mouse, frequencies.
Paso 2. Al presionar frequencies, se abre un menú que contiene las variables de la investigación, se marca con el botón izquierdo del mouse la variable rangos (niveles de depresión). Paso 3. Una vez señalada la variable rangos, se coloca el cursor en el icono que está entre las variables de estudio y variable(s), se presiona el botón izquierdo del mouse, lo que resulta en que rangos aparece en el cuadro de variable(s). Posteriormente se coloca el cursor en el icono de statistics y se presiona el botón izquierdo del mouse.
Sofía Rivera Aragón 62 Mirna García Méndez
Paso 3
Paso 4. Al presionar el icono de statistics aparece un menú en el que se colocará el cursor en cada uno de los cuadros de las tres medidas de dispersión -desviación estándar, varianza y rango- para después presionar en cada cuadro con el botón izquierdo del mouse. De igual forma se Estadística descriptiva
63
coloca el cursor en el cuadro de kurtosis y se presiona el botón izquierdo del mouse.
Paso 5. Después de presionar las medidas de dispersión y la curtosis, se coloca el cursor en el icono de continue y se presiona con el botón izquierdo del mouse, de lo que resulta el menú del paso tres. En el menú del paso tres, se coloca el cursor en el icono de OK, se presiona el botón izquierdo del mouse y aparecen las medidas de dispersión y la curtosis con sus respectivos valores.
STATISTICS
Rangos N
Valid Missing
Std. Deviation Variance Kurtosis Std Error of Kurtosis Range
64
Sofía Rivera Aragón Mirna García Méndez
330 22 .6458 .4171 6.138 .268 3.00
Los valores de la tabla del SPSS indican que de los 330 casos analizados, 22 quedaron fuera debido a que dejaron sin contestar varios de los reactivos que incluye la escala. Los valores de la desviación estándar y la varianza indican una distribución normal, la curtosis muestra que la mayoría de las personas se ubica en uno de los cuatro rangos de depresión, y el rango señala que de los cuatro intervalos de respuesta de la escala, el 3 fue el que obtuvo mayor frecuencia. Como parte final de este capítulo, la tabla 15 presenta las pruebas de la estadística descriptiva y los tipos de gráficas asociadas con el nivel de medición revisados en el capítulo uno.
TABLA 15 ESTADÍSTICA DESCRIPTIVA
Nominal
Gráficas Barras
Medidas de tendencia central
Medidas dispersión
de
Correlación
Moda
No hay
Coeficiente Phl C de contingencia V de Cramer
Pastel Ordinal
Barras Pastel
Moda Mediana
No hay
Tau b de Kendall Tau c de Kendall Gamma de KrusKal y Godman Spearman Incertldumbre
Intervalar
Ojiva Polígonos de frecuencia Histograma
Moda Mediana Media
1. Rango 2. Error 3. Desviación 4. Varianza 5. Sesgo 6. Curtosis
Eta Pearson
Estadística descriptiva
65
Estadística inferencial
La estadística inferencial se basa en la prueba de hipótesis, se define como un conjunto de técnicas que permiten al investigador obtener conclusiones a partir de una muestra para después ser generalizadas a una población. De este modo, su principal función es la generalización en una población (parámetros) habitualmente en términos de probabilidad (Nunnally y Bernstein, 1995) a partir de las conclusiones obtenidas, resultado de la manipulación de variables en muestras observadas.
Aplicaciones de la estadística inferencial
a) Comparar parámetros. Un parámetro es cualquier característica de una población. b) Aplicar pruebas de hipótesis. Hipótesis conceptual Deriva del marco teórico, parte de una teoría, un modelo teórico o un metanálisis. Son hipótesis que ya fueron planteadas por otro investigador. Ejemplo
A mayor frustración mayor agresión (Dollar, Doob, Miller, Mowrer y Sears, 1939). Hipótesis de trabajo Estas hipótesis se refieren a lo que espera encontrar el investigador a partir de un marco teórico.
69
Ejemplo
Existe relación entre el aprovechamiento escolar y la autoestima. Hipótesis estadísticas Se clasifican en nulas y alternas, presentan las siguientes características: 1. implican la relación entre variables, y 2. se plantean sólo cuando se aplica estadística en la investigación (véase tabla 16). Un punto importante de señalar es que en los estudios exploratorios no se deberán proponer ninguna de estas hipótesis (nulas y alternas).
TABLA 16 HIPÓTESIS ESTADÍSTICAS
Tipo
Notación
Nula
Ho
Definición Niega la relación o diferencia entre variables
Formas a) b)
Función
Comparación Diferencias entre grupos Relación Asociación entre variables
Alterna H1
70
Presencia de la relación o la diferencia
Sofía Rivera Aragón Mirna García Méndez
a) Comparación I. Con dirección. Indica que b) Relación uno de los parámetros es más bajo o más alto que otro. II. Sin dirección. Sólo compara grupos. II. Con dirección. Indica que las variables aumentan o disminuyen. II. Sin dirección. Sólo establece relaciones.
Ejemplos
Ho de comparación Se identifica la variable dependiente (VD) y la independiente (VI) o de clasificación (VE). VD =
Asertividad
vc = Sexo: hombres y mujeres Ho = No existen diferencias estadísticamente significativas en la asertividad entre hombres y mujeres. Con notación estadística
Ho de relación V1 = Agresión (X) v2 = Niveles de testosterona (Y) Ho = No existe relación entre agresión y el nivel de testosterona en hombres. Con notación estadística Ho: rxy = 0
H1 de comparación sin dirección. Utiliza los dos lados de la curva.
Estadística inferencial 71
VD =
Calidad de vida vc = Estado civil: casados y solteros H1 = Sí hay diferencias estadísticamente significativas en la calidad de vida entre solteros y casados. Con notación estadística
H1 de comparación con dirección. Se ocupa de un solo lado de la curva
Los solteros tienen mayor calidad de vida que los casados. Con notación estadística
H1 de relación sin dirección V1 = identidad nacional (X) V2 - Edad (Y)
72
Sofía Rivera Aragón Mirna García Méndez
H1 = Existe relación entre la identidad nacional y la edad en los universitarios. Con notación estadística H1 = rxy ≠ 0 H1 de relación con dirección H1 = a mayor identidad nacional mayor edad en los universitarios
Con notación estadística H1 = rxy > + 0 H1 = a mayor identidad nacional menor edad en los universitarios
Con notación estadística H1 = rxy > - 0
Clasificación de la estadística inferencial
No paramétrico
Es una estadística de distribución libre, se basa en frecuencias, porcentajes y rangos, estos últimos basados en rangos de ordenación los cuales son buenas medidas de variabilidad para muestras pequeñas, no así para muestras grandes. Las pruebas de la estadística no para- métrica se enfocan en las diferencias entre las medianas y parten de un modelo que especifica únicamente condiciones muy generales en torno a la distribución de la cual fue obtenida la muestra (Siegel y Castellan, 2003).
Estadística inferencial
73
Ventajas
a) Se puede aplicar a muestras pequeñas en las que la n > 4. b) Sus niveles de medición son nominal y ordinal. En el nivel nominal se pueden tratar datos que impliquen clasificación (sexo: hombre o mujer). En el nivel de medición ordinal, el investigador concluye que algunos sujetos de investigación tienen más o menos del atributo medido, sin determinar qué tanto más o qué tanto menos. c) Si se aplica a variables intervalares, éstas deberán ser convertidas en categorías. Por ejemplo:
d) Está libre de parámetros. Se refiere a que su distribución es libre.
Desventajas
Cuando se aplica a variables intervalares sin ser convertidas en categorías, se infla el valor de la prueba y se comete el error estadístico conocido como error tipo 1 o alfa que consiste en rechazar la Ho cuando es verdadera, situación que conduce a conclusiones falsas. Dadas las características de la estadística no paramétrica, existe una diversidad de pruebas que pueden ser empleadas con base en los requisitos citados. En la tabla 17 se presentan las pruebas no paramétricas más utilizadas, así como una serie de elementos que facilitan la toma de decisiones con relación a las condiciones que se deben cubrir para emplear una u otra prueba.
74
Sofía Rivera Aragón Mirna García Méndez
TABLA 17
PRUEBAS DE LA ESTADÍSTICA NO PARAMÉTRICA
Prueba
Objetivo
Nivel de medición
X2
Conocer la distribución de la muestra
Nominal y ordinal
Bondad de ajuste
Por homogeneidad
Conocer si existen diferencias entre dos o más grupos IndepenConocer si dencia existe relación entre dos o más variables Corrección de Conocer difeYates rencias o asociación entre variables en muestras pequeñas McNemar Comparar si existen diferencias antes y después de un evento T de Comparar si Wilcoxon existen diferencias antes y después de un evento U de Mann Comparar si Whitney existen diferencias entre dos grupos
Nominal y ordinal
Análisis de varlanza de KrusKall Wallis
Comparar si existen diferencias entre tres o más grupos
Diseño De una muestra
Muestreo
Instrumentos
No probabilísticos
Cuestionarios: abiertos cerrados Jerarquización observaciones
De dos o más muestras independientes
Nominal y ordinal
De una muestra
Nominal y ordinal
De una muestra o de dos muestras independientes
Nominal y ordinal
Pretest-postest No probaAntes-después bilístico Una sola muestra medida dos veces
Cuestionarios: abiertos cerrados jerarquización observaciones
Ordinal
No probaPretest-postest bilístico Antes-después Una sola muestra medida dos veces
Los mismos que en X2 y McNemar
Ordinal
Dos muestras independ ¡entes
No probabilístico
Los mismos que en las pruebas anteriores, además de escalas
Ordinal
Más de dos muestras independientes
Probabilístico
Escalas
Estadística Inferencial
75
TABLA 17 (Continuación)
Prueba
Nivel de medición
Diseño
Muestreo
Instrumentos
Comparar tres o más mediciones en un grupo
Ordinal
De medidas repetidas Tres o más muestras relacionadas
No probabilístico Probabilístico
Escalas
Spearman rho Conocer re(rs) coeficiente laciones entre de asociación dos variables
Ordinal
De una sola muestra
Escalas
Phi Coeficiente Conocer re-
Nominal. De una sola Se aplica a muestra tablas de contingencia de 2x2 (tablas pequeñas)
No probabilístico Probabllístico No probabilístico en muestras grandes
Análisis de varianza de Friedman
Objetivo
Pruebas* comparadas que se aplican en
de asociación
laciones entre dos variables
C de contingencia
Conocer relaciones entre dos variables
Nominal. De una sola Se aplica a muestra tablas de contingencia mayores de 2x2 (tablas medianas)
No probabilístico
Pruebas comparadas que se aplican en X2
V de Cramer
Conocer relaciones entre dos variables
Nominal. De una sola Corrección a la muestra C de contingencia
No probabilístico
Cuestionarios: abiertos cerrados jerarquización observaciones
*La prueba Phi y la C de contingencia dependen de la X2. Paramétrica
La estadística inferencial paramétrica se sustenta en supuestos o parámetros y para poder emplearla es necesario cubrir los siguientes principios: 1. Distribución normal. Indica que los grupos tienen una curva normal o mesocúrtica (esta curva se describe en el capítulo 2, figura 8). Con esta afirmación se asume que las muestras (n) con las que se está trabajando se han extraído de 76
Sofía Rivera Aragón Mirna O a roía Méndez
poblaciones normalmente distribuidas, si no es éste el caso, se dice que las pruebas estadísticas que dependen del principio do normalidad están viciadas, razón por la que las conclusiones obtenidas a partir de las observaciones de estas muestras estarán en tela de juicio. 2. Homecedasticidad de varianza u homogeneidad de varianza. La distancia entre la calificación de un grupo y los de otro grupo deben ser iguales, esto es, la distancia de las X a todas las puntuaciones individuales. Este principio supone que las varianzas dentro de los grupos son estadísticamente las mismas, o sea, que las varianzas son homogéneas de un grupo a otro (Kerlinger y Lee, 2001). Esta situación puede provocar el error estadístico tipo 2 o beta, que consiste en aceptar la Ho cuando es falsa. 3. Selección y asignación aleatoria. Sólo se aplican muestreos probabilísticos entendidos como la técnica en la cual todos los sujetos tienen la misma probabilidad de ser elegidos. También en la estadística paramétrica se utiliza el muestreo no probabilístico, definido como aquel en el que las personas no tienen la misma probabilidad de ser elegidos. Sin embargo, al emplear alguna de las técnicas de muestreo no probabilístico es conveniente replicar los estudios. De acuerdo con Kerlinger y Lee (2001) el muestreo probabilístico no es necesariamente superior al no probabilístico en todas las situaciones. Refieren que en el primero el énfasis está en el método y la teoría que lo sustenta, mientras que en el segundo, el énfasis se encuentra en la persona que hace el muestreo. Puesto que no es el propósito de este apartado profundizar en las técnicas de muestreo, en la tabla 18 se mencionan algunas de ellas. 4. La variable dependiente debe ser medida a nivel intervalar. Esto significa que las medidas deberán ser continuas con intervalos iguales, ejemplo, las escalas tipo Likert de estilos y estrategias de poder (Rivera y Díaz-Loving, 2001) y el inventario multifacético de satisfacción marital (Cañetas, 2000). Ambas son pruebas con cinco intervalos de respuesta.
Estadística inferencial
77
TABLA 18 TÉCNICAS DE MUESTREO
Técnicas de muestreo probabilístico
Técnicas de muestreo no probabilístico
Aleatorio simple
Accidental
Aleatorio con reemplazo Estratificado Por conglomerado Estratificado
Intencional Por cuota
La tabla 19 muestra las pruebas paramétricas más empleadas por el investigador social, además de los criterios que se deben tomar en cuanta para emplear una u otra prueba. La revisión en detalle de algunas de estas pruebas se expondrá en el capítulo 5 de este texto. TABLA 19 PRUEBAS DE LA ESTADÍSTICA PARAMÉTRICA*
Prueba
Objetivo
Nivel de medición
Diseño
Muestreo
Coeficiente Relacionar dos Productovariables m o m e n t o de Pearson
Intervalar
De una sola muestra Correlacional bivariado
Proba bilistico: Muestra grande
Prueba t de student
VD a nivel De dos muestras Probabilístico: I n t e r v a l a independientes Muestra r pequeña n relacionadas 30 pretest-pos- test Antes-después
Discriminación de reactivos
Comparar dos grupos Comparar dos condiciones o mediciones Prueba post hoc del Anova
78
Sofía Rivera Aragón Mirna García Méndez
Instrumentos Escalas
Escalas
Prueba
Objetivo
Nivel de medición
Anova (análisis de varianza)
Compara tres o La VD debe ser más grupos in-ervalar
Diseño
Muestreo
Tres o más muestras independientes
Probabilistico: Muestra grande
Factoriales
Muestra grande 15 sujetos mínimo por celdilla
Instrumentos Escalas
a) simple de una vía b) factorial de Comparar dos o dos vías más variables Independientes con tres o más categorías
vi {Nominal vc {y ve {Ordinal
*VC se refiere a las variables de clasificación y VE a las variables de estímulo.
Pruebas de la estadística no paramétrica
Cuando
existe
duda
respecto a la normalidad de la población o
cuando la población no es normal es conveniente emplear una prueba no paramétrica, que como ya se mencionó en el capítulo 3 no parten del principio de normalidad. Asimismo, las pruebas no paramétricas se clasifican en tres grupos: para una muestra simple, para muestras relacionadas y para muestras independientes. Debido a la amplia variedad de pruebas en cada uno de estos grupos, en este capítulo sólo se describirán las de mayor uso en la investigación en psicología.
Pruebas para una muestra simple
Generalmente las pruebas para una muestra simple son pruebas de bondad de ajuste que tienen como objetivo conocer la distribución de la muestra. Chi cuadrada (X2)
La chi cuadrada es la prueba más empleada en la investigación en psicología. Esta prueba se aplica para comparar las frecuencias esperadas (poblacionales) y las frecuencias obtenidas (muestra) y a partir de esta comparación decidir si existen diferencias significativas. Las frecuencias esperadas se refieren a la hipótesis nula (Ho) y las frecuencias obtenidas son los resultados alcanzados por el investigador. De este modo, mientras mayor sea el valor de X2 menor es la probabilidad de que las frecuencias obtenidas se deban a la población, esto
83
significa que el valor de chi cuadrada es significativo si la diferencia entre las frecuencias esperadas y las frecuencias obtenidas es lo suficientemente grande (Siegel y Castellan, 2003; Levin y Levin, 2002). Su fórmula es:
donde: suma de todas las casillas, de la primera a la última. frecuencia obtenida, frecuencia esperada. La fórmula para obtener las fe es fe= N /k donde: N = número de personas. k = número de categorías o columnas. De esta manera, el procedimiento para obtener la X2 consiste en restar cada frecuencia esperada de su correspondiente frecuencia obtenida, la diferencia de esta resta, se eleva al cuadrado y se divide entre la frecuencia esperada, estos resultados parciales se suman y se obtiene el valor de la chi cuadrada. Una vez que se obtiene el valor de la chi cuadrada, se requiere conocer los grados de libertad (gl) que se definen como la amplitud de variación contenida en una condición de investigación, lo que significa la posibilidad de variación (Kerlinger y Lee, 2001; Downie y Heath, 1973). Asimismo, junto con los grados de libertad, se requiere de una tabla de valores de X2 para conocer de acuerdo con los gl y al valor de la X2, si ésta es o no significativa.
84
Sofía Rivera Aragón Mirna García Méndez
La fórmula para obtener los grados de libertad es: gl = k - 1
donde: k = número de columnas de la tabla de contingencia También la X2 se utiliza en muestras independientes, en este caso se le conoce como prueba de homogeneidad y su objetivo es conocer si existen diferencias entre dos o más grupos. Un tercer uso de esta prueba, es como prueba de independencia, aquí su objetivo es conocer si existen relaciones entre dos o más variables en una muestra. Un cuarto uso es como prueba de corrección por continuidad de Yates, la cual le da mayor precisión a la X2 cuando tiene fe pequeñas. En los tres primeros casos -bondad de ajuste, homogeneidad, independencia- la chi cuadrada se obtiene con la misma fórmula. Reglas para su empleo
1. Las observaciones deben ser independientes, no se puede observar o medir a la misma persona más de una vez. 2. El nivel de medición utilizado será nominal u ordinal. 3. Se aplicará en muestreos no probabilísticos. 4. La muestra deberá ser mayor a 20 {N > 20). 5. Si la muestra N < 20 entonces se utiliza la prueba de probabilidad exacta de Fisher. 6. Las frecuencias esperadas deben ser mayores a 5. 7. Si la frecuencia esperada es > 5 y < 10, entonces se aplica la corrección por continuidad de Yates. 8. Si la N > 20 y < 40, se aplica la prueba de corrección por continuidad de Yates. 9. Si la tabla de contingencias es de 1 X i columnas, se aplica la X2 de bondad de ajuste.
Pruebas de la estadística no paramétrica
85
10. Si la tabla de contingencia ese de 2 x 2 y cumple los requisitos 7 y 8, se aplica la prueba de corrección por continuidad de Yates. Procedimiento
1. Plantear las hipótesis estadísticas. 2. Determinar la probabilidad con la que se trabajará: p = .05, p = .01. 3. Distribuir los puntajes en la tabla de contingencia. 4. Calcular las frecuencias esperadas: 5. Aplicar la fórmula. 6. Obtener los gl. 7. Plantear regla de decisión. Este estudio tiene como propósito identificar el consumo de productos chatarra, en una muestra de 60 niños preescolares de la ciudad de México, así como la preferencia por alguno de estos productos. Entendiéndose por productos chatarra: pastelitos, frituras, refrescos y dulces. Paso 1. Hipótesis. Ho: no existen diferencias significativas en el consumo de productos chatarra en niños preescolares. H1: existen diferencias significativas en cuanto al consumo de productos chatarra por parte de los niños preescolares. Paso 2. Nivel de significancia p = .05. Paso 3. Distribución de los datos. Pastelitos
Frituras
fo 15
fo 28
fe 15
Paso 4. Cálculo de fe.
86
Sofía Rivera Aragón Mirna García Méndez
fe 15
Refrescos fo 0
fe 15
Dulces
N
fo 7
60
fe 15
Paso 5. Desarrollo de la fórmula.
Paso 6. Obtener los grados de libertad. gl = k - 1 gl = 4 - 1 gl = 3 Paso 7. Regla de decisión. X2 ≥ X2t
H1 se acepta y Ho se rechaza.
X2t = chi cuadrada en tablas. En la tabla A del apéndice, se busca en la parte horizontal, el nivel de significancia previamente establecido .05, y en la parte vertical los gl, que en este ejemplo fue de 1. Esto resulta en lo siguiente: 17.18 ≥ 7.82. Se acepta la H1
Pruebas de la estadística no paramétrica
87
Interpretación de resultados
Se encontraron diferencias significativas X2 = 1 7 . 1 8 , p = .05 en el consumo de alimentos chatarra en los niños preescolares, lo que significa que difieren en el consumo de estos productos.
Ejercicio SPSS Se empleará el mismo ejercicio desarrollado por la fórmula de preferencias de productos chatarra por niños preescolares. Paso 1. Se crea una variable que se denominará preferencias e incluirá 5 niveles de respuesta: 1 = pastelitos; 2 = frituras; 3 = refrescos; y 4 = dulces. Debido a que incluir las respuestas de los 60 niños en la base de datos implica mucho espacio, únicamente se presentarán los datos de 10 niños, pero el análisis y los resultados se llevarán a cabo con el total de las respuestas de los participantes. De esta manera la base de datos queda así:
88
Sofía Rivera Aragón Mirna García Méndez
Paso 2. Se coloca el cursor en Analyze, se presiona el botón izquierdo del mouse y se muestra un menú en el que se coloca el cursor en Non-parametric test, aparece un menú en el que se coloca el cursor en Chi- Square y se da clic.
Paso 3. Al hacer clic en Chi-Square se abre un menú.
Pruebas de la estadística no paramétrica
89
Paso 4. En el menú del paso 3, se marca con el cursor la variable preferencias, se da clic en el icono ubicado entre la variable preferencia y Test Variable List, inmediatamente la variable preferencias aparece en Test Variable List.
Paso 5. Se da clic en OK y se muestran los resultados en tablas. PREFERENCIAS Observed N
Expected N
Pastelillos
15
15.0
.0
Frituras Refrescos Dulces Total
28 10 7 60
15.0 15.0 15.0
13.0 -5.0 -8.0
90
Sofía Rivera Aragón Mirna García Méndez
Residual
TEST STATISTICS Preferencias Chi-Squarea df Asymp. Sig.
17.200 3 .001
a.0 cells (.0%) have expected frequencies less than 5. The minimum expected cell frequency is 15.0.
Estas tablas no se presentan en el reporte de investigación, los datos contenidos en ellas se pueden presentar en tablas en otro formato. TABLA 20
DIFERENCIAS EN EL CONSUMO DE PRODUCTOS CHATARRA Pastelitos 15
Frituras
Refrescos
Dulces
X2
28
10
7
17.20
gl 3
p .00 1
N = 60.
Como se puede observar en la tabla 20, la X2 y la p difieren un poco de los resultados con la fórmula desarrollada, esto se debe a que en el
SPSS
las
operaciones se realizan en forma precisa.
Interpretación de resultados
Se encontraron diferencias significativas X2 = 17.20, p = .001 en el consumo de alimentos chatarra en los niños preescolares, lo que significa que difieren en el consumo de estos productos.
Pruebas para muestras relacionadas
Estas pruebas implican dos medidas de una sola muestra. Se emplean cuando el investigador desea conocer si un tratamiento es mejor que otro o si dos tratamientos son diferentes. En este tipo de estudios se pueden em-
Pruebas de la estadística no paramétrica
91
plear dos grupos, sin embargo, los resultados que se obtengan pueden estar relacionados con un conjunto de eventos ajenos al tratamiento. Estos eventos se conocen como variables extrañas. Con la finalidad de controlar el efecto de estas variables extrañas, la persona puede fungir como su propio control, esto es, se le expone a ambas condiciones en diferentes ocasiones. Otra alternativa es el método de apareamiento, en el que se seleccionan pares de personas lo más semejantes posible en torno de las variables extrañas que puedan influir en los resultados del tratamiento. El inconveniente de este método es que depende de la capacidad del investigador para establecer que tan iguales son los pares (Siegel y Castellan, 2003). McNemar
Es una prueba útil en los diseños antes-después (Álvarez, 1995) en los que cada sujeto se utiliza como su propio control. En la prueba de McNemar el objetivo es probar la significación de los cambios observados a partir de una tabla de contingencia 2x2 (Siegel y Castellan, 2003; Conover, 1980).
Para probar la significancia de los cambios observados, los datos en la tabla expresan lo siguiente:
92
Sofía Rivera Aragón Mirna García Méndez
Los signos positivo y negativo sólo se emplean para indicar que hubo un cambio sin connotación de bueno o malo. Como se observa en la tabla, A + D son las personas cuyas respuestas cambiaron. De esta manera, la Ho plantea que el número de cambios en cada dirección es el mismo. Sustituyendo la fórmula:
donde: suma frecuencia obtenida frecuencia esperada se obtiene lo siguiente:
Los grados de libertad empleados en McNemar es 1. gl = 1. Para obtener resultados más precisos, se emplea la corrección por continuidad que permite eliminar la fuente de imprecisión que resulta de emplear una distribución continua para aproximarse a una distribución discreta (Siegel y Castellan, 2003). Con esta corrección, la fórmula se expresa de la siguiente manera:
El signo | indica que al resultado de la resta de A - D, sin importar el signo + o - se le resta el 1. Por ejemplo, 6-15 = - 9, entonces se resta 9 - 1 = 8
Pruebas de la estadística no paramétrica
93
Reglas para su empleo
• En mediciones nominales y ordinales. • Que el número total de cambios sea mayor a 10. • Cuando la frecuencia esperada es menor a 5, se debe usar otra prueba. Procedimiento
1. Plantear las hipótesis estadísticas. 2. Determinar la probabilidad con la que se trabajará p=05, p = . 0 1 . 3. Distribuir los puntajes en la tabla de contingencia. 4. Aplicar la fórmula. 5. Plantear regla de decisión. Ejercicio
Para evaluar la efectividad de un programa de intervención con 50 padres de familia de ciudad Nezahualcóyotl, se les preguntó si estaban de acuerdo o en desacuerdo con que sus hijos recibieran educación sexual en la escuela, tema a tratar como parte del programa a través de un taller. Antes del taller se les preguntó si estaban de acuerdo o en desacuerdo y al término del taller se les volvió a hacer la misma pregunta. Paso 1. Hipótesis Ho. La probabilidad de las madres que cambiaron de acuerdo a desacuerdo es igual a la probabilidad de las madres que cambiaron de desacuerdo a acuerdo en lo concerniente a que sus hijos reciban educación sexual en la escuela. H1. Después de haber asistido a un taller, las madres aceptan que sus hijos reciban educación sexual en la escuela. Paso 2. Nivel de significancia a emplear p = .05.
94
Sofía Rivera Aragón Mirna García Méndez
Paso 3. Distribución de las respuestas de los padres antes y después del taller.
Despues Desacuerdos
Acuerdos
Acuerdos
9
6
Desacuerdos
5
30
Antes
Paso 4. Desarrollo de la fórmula.
Paso 5. Regla de decisión. X2 ≥ X2t H1 se acepta e Ho se rechaza. X2t = chi cuadrada tablas. En la tabla A del apéndice, se busca en la parte horizontal, el nivel de significancia previamente establecido .05, y en la parte vertical los gl, que en este ejemplo fue de 1. Esto resulta en que se acepta la H1. 10.25 ≥ 3.84. Se acepta la H1.
Interpretación de resultados
Estos resultados indican que el taller influyó en la opinión, ya que las madres que estaban en desacuerdo con que sus hijos reciban educación sexual en la escuela, ahora en su mayoría están de acuerdo (X2 =10.25, p=.05)
Pruebas de la estadística no paramétrica
95
Ejercicio SPSS
La base de datos contiene las respuestas de los 50 padres de familia; sin embargo, con fines prácticos en esta tabla únicamente se incluye la información de 20 padres. La base de datos del paso 2, sólo incluye 10 de los 20 casos, no obstante los análisis que se presentan son a partir de todos los casos Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Descriptive statistics, se da clic y aparece otro menú, se coloca el cursor en Crosstabs, se da clic.
96
Sofía Rivera Aragón Mima García Méndez
Paso 3. Al hacer clic en Crosstabs, se abre un menú en el que aparecen las dos condiciones de investigación (antes/después), se da clic en el cuadro de Statistics.
Pruebas de la estadística no paramétrica
97
Paso 4. Al hacer clic en Statistics se coloca el cursor en Chi-square y en McNemar, se da clic en el cuadro de cada una de éstas pruebas,- se coloca el cursor en Continue y se da clic.
Paso 5. Al hacer clic en Continue reaparece el menú del paso 3 de la investigación. Se coloca el cursor en antes y se da clic en el icono que está entre antes-después y Row(s), entonces antes se muestra en Row(s).
Sofía Rivera Aragón 98 Mirna García Méndez
Se coloca el cursor en después y se da clic en el icono que está entre antesdespués y Column(s), entonces después aparece en Column(s). Se hace clic en OK y se muestran los resultados en tablas. ANTES-DESPUÉS CROSSTABULATION
Count
Después Acuerdo Desacuerdo
ANTES
Acuerdo
6
Desacuerdo
30 36
Total
Total
9
15
5 14
35 50
CHI-SQUARE TESTS
Pearson Chi-Square Countinity Correctiona Likelihood Ratio
Value
df
Asymp.Sig. Exact sig. Exact sig. (1 (2-sided) (2-sided) sided)
10.884b
1
.001
8.735
1
.003
10.397
1
.001
Fisher's Exact Test Linear-by-Linear
.002 10.667
1
.002
.001
Association McNemar Test N of Valid Cases
.00lc 50
Computed only for a 2x2 table. l cells (25.0%) have expected count less than 5. The minimum expected count is 4.20. cBinomial distribution used. a
b
Una forma de presentar estos resultados es la siguiente: La distribución de las respuestas de los padres de familia antes y después de haber tomado el taller se presenta en la tabla 21. Pruebas de la estadística no paramétrica
99
TABLA 21
DISTRIBUCIÓN DE RESPUESTAS DE LOS PADRES DE FAMILIA.
Después
Antes
Desacuerdos
Acuerdos
Acuerdos
9
6
Desacuerdos
5
30
Con base en esta distribución de respuestas, se obtuvo una X2 — 10.88, p = .001 lo que indica diferencias significativas en los acuerdos/desacuerdos por parte de los padres, antes y después de asistir al taller, modificándose la respuesta de desacuerdo por acuerdo en lo concerniente a que sus hijos reciban educación sexual en la escuela. t de Wilcoxon (t w)
La prueba t de Wilcoxon considera la magnitud relativa y la dirección de las diferencias, lo que la convierte en una prueba poderosa. Esta prueba otorga mayor peso a los pares que tienen mayores diferencias entre el antes y después que a los pares cuya diferencia es pequeña. De esta manera el investigador puede determinar qué miembro del par es más grande que, por lo que puede hacer juicios de mayor que entre los valores de cualquier par (Siegel y Castellan, 2003). Procedimiento
1. Plantear hipótesis. 2. Determinar probabilidad alfa (α ). 3. Obtener las calificaciones de la muestra antes y después. 4. Obtener las diferencias de la primera y segunda aplicación. 5. Ordenar de mayor a menor las diferencias (R) (se toma en cuenta el signo). Cuando la diferencia es cero, no se ordena. 6. Sumar por separado los rangos de los valores positivos (∑ R+) Y los rangos de los valores negativos (∑ R-).
100
Sofía Rivera Aragón Mirna García Méndez
7. Elegir el valor más pequeño de la ∑R + o ∑R - el cual constituye la t de Wilcoxon. 8. Plantear la regla de decisión: t we ≤ t wr entonces ( ) la hipótesis alterna se acepta y la hipótesis nula se rechaza. Ejercicio
El Instituto Nacional Indigenista plantea que en México existe discriminación, si no al color de la piel, sí a los rasgos indígenas. De hecho se usa la expresión "eres un indio" como sinónimo de tonto, no hablas bien, etcétera. Para probar esta aseveración, se llevó a cabo un estudio con una muestra de nueve estudiantes que se distribuyeron en comunidades del sureste, con el propósito de que convivieran en estas comunidades. Antes de irse, se les aplicó una escala de actitudes hacia la discriminación indígena, misma que se les aplicó cuando regresaron. Paso 1. Hipótesis. Ho. No existen diferencias significativas en las actitudes hacia la discriminación de los indígenas, antes y después de convivir en comunidades indígenas. H1. Si existen diferencias en las actitudes hacia la discriminación de los indígenas, antes y después de convivir en comunidades indígenas. Paso 2. Nivel de significancia utilizado p = .05. Paso 3. Obtención de las calificaciones.
Antes
Después
118 100 120 141 51 170 179 47 161 N=9
100 90 38 60 171 64 89 52 101
N=9
Pruebas de la estadística no paramétrica
101
Pasos 4 y 5. Se obtienen las diferencias de las calificaciones antes-después, por ejemplo, 118 - 100 = 18. Se ordenan los rangos de menor a mayor, el rango 1 es para la diferencia más pequeña, que en este caso es -5. Como la diferencia es negativa, el rango también será negativo.
Antes
Después
118 100 120 141 51 170 179
100 90 38 60 171 64 89 52 101
47
161
d
Rd
18 10 82 81 -120 106 90 -5 60
3 2 6 5 -9 8 7 -1 4
Paso 6. Se obtiene la suma de rangos positivos y negativos. ∑R + = 3 + 2 + 6 + 5 + 8 + 7 + 4 ∑ R+ = 35 ∑R - = -9 - 1 ∑ R- = -10
Paso 7. Se elige el valor más pequeño resultado de la suma de rangos positivos y negativos. En este ejercicio el valor menor lo tiene la suma de rangos negativos, convirtiéndose en el valor tw. tw = -10 Paso 8. Regla de decisión. t we ≤ t wt se acepta la Ho.
102
Sofía Rivera Aragón Mirna García Méndez
donde: t we = El valor obtenido con el desarrollo de la fórmula (-10).
t wt = Es el valor en tablas, que en este caso se busca en la tabla B del apéndice, siguiendo el procedimiento descrito en chi cuadrada y McNemar. El resultado es 6.
10 > 6 se rechaza la H1.
Interpretación de resultados
Estos resultados indican que no existen diferencias respecto a las actitudes hacia la discriminación de los indígenas antes y después de haber convivido con ellos.
Ejercicio SPSS Para este ejercicio se retomarán los datos del Instituto Nacional Indigenista. Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.
Pruebas de la estadística no paramétrica
103
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Nonparametric tests, se da clic y aparece otro menú, se coloca el cursor en 2 Related Samples y se da clic.
Paso 3. Al hacer clic en 2 Related Samples, se abre un menú que contiene las variables de estudio. En este menú se da clic en el cuadro de Wilcoxon.
104
Sofía Rivera Aragón Mirna García Méndez
Paso 4. Se coloca el cursor en la variable antes y se da clic en el icono que está entre las variables de estudio y Test Pair(s) List, antes aparece en variable 1, se sigue el mismo procedimiento con la variable después e igual aparece en variable 2.
Paso 5. Se da clic en el icono que está entre las variables de estudio y Test Pair(s) List, las variables antes después aparecen en Test Pair(s) List y se eliminan de variable 1 y variable 2.
Pruebas de la estadística no paramétrica
105
Se da clic en el icono de OK y se muestran los valores de la prueba t de Wilcoxon en tablas. RANKS
N Despues-Antes Negative Ranks Positive Ranks Ties Total
Mean-Rank
Sum of Ranks
7a
5.00
35.00
2 0C 9
5.00
10.00
b
Después < antes. Después > antes. c Antes = despues. a
b
TEST STATISTICSb
Después-Antes Z Asymp. Sig.(2-tailed)
-1.481a .139
Based on positive ranks. Wilcoxon Signed Ranks Test.
a
b
Interpretación de resultados
De acuerdo con los resultados, no se encontraron diferencias significativas en la actitud hacia la discriminación de los indígenas antes y después de haber convivido con ellos en sus comunidades. Pruebas para muestras independientes
Los métodos no paramétricos de análisis de varianza dependen del ordenamiento de rangos. Las pruebas empleadas en este rubro son: U de Mann Whitney y análisis de varianza en una dirección por rangos de Krus-Kal-Wallis (Kerlinger y Lee, 2001).
Sofía Rivera Aragón 106 Mirna García Méndez
U de Mann Whitney (U)
La prueba U de Mann Whitney se aplica en muestras aleatorias extraídas independientemente (N I y N 2 ) cuyos tamaños pueden ser diferentes. En esta prueba las puntuaciones de la distribución de ambas muestras se ordenan por rangos de acuerdo con valores crecientes en magnitud. De esta manera, a la puntuación de ambas distribuciones con menor puntaje se le asigna el rango 1, la subsiguiente, el rango 2, y así sucesivamente. Cuando una puntuación aparece en ambas distribuciones, se promedian y el resultado se asigna en los dos casos (Downie y Heath, 1973). Su fórmula es:
donde: N1 = muestra 1. N2 = muestra 2. ∑ R1 = suma de rangos muestra 1. ∑ R2= suma de rangos muestra 2. Reglas para su empleo
• En mediciones ordinales. • En muestras independientes cuyos tamaños sean iguales o diferentes. • En datos expresados por rangos. • La fórmula aplica para N2 > 9 personas. Procedimiento
1. Plantear las hipótesis. 2. Determinar la probabilidad.
Pruebas de la estadística no paramétrica
107
3. Ordenar las respuestas de las muestras N1 y N2 de menor a mayor. 4. Obtener los rangos de cada respuesta, dándole el rango menor 1 a la respuesta más pequeña, el 2 a la siguiente y así sucesivamente. Cuando se repiten dos respuestas en ambas muestras, éstas se suman y se dividen entre dos, el resultado de esta operación es el rango para ambas respuestas. Por ejemplo, el número 11 se repite en ambos grupos en el desarrollo de la fórmula (paso 2), les corresponde los rangos 7 y 8, entonces, se suman 7 + 8 = 1 5 , este resultado se divide entre dos, que se refiere a los dos rangos, el resultado 7.5 es para los dos valores de 11. 5. Desarrollar la fórmula. 6. Plantear la regla de decisión. Ejercicio
Se realizó un estudio con la finalidad de identificar los efectos de reforzamiento positivo como parte de una terapia de aprendizaje para problemas de dislexia en niños de cuatro a seis años de edad. Se tuvieron dos muestras, una con ocho niños (con reforzamiento) y la otra con 10 niños (sin reforzamiento) se registró la frecuencia de respuestas correctas de un total de 20 palabras presentadas en ambos grupos. Paso 1. Hipótesis. Ho. El aprendizaje de los niños con problemas de dislexia, es el mismo con o sin reforzamiento positivo. H1. El reforzamiento positivo favorece el aprendizaje de los niños con problemas de dislexia. Paso 2. Nivel de significancia a emplear p = .05. Pasos 3 y 4. se ordenan las respuestas de menor a mayor y se obtienen los rangos en cada N.
108
Sofía Rivera Aragón Mirna García Méndez
Respuestas correctas N1
15 18 19 16 14 17 11 10 N1 = 8
R1 13.5 17 18 15 11.5 16 7.5 6
∑R 1 =104.5
Respuestas correctas N2
8 6 13 9 7 15 12 11 5 14 N 2 = 10
R2
4 2 10 5 3 13.5 9 7.5 1 11.5 ∑R 2 = 66.5
Paso 5. Desarrollo de la fórmula.
Pruebas de la estadística no paramétrlca
109
Prueba de comprobación: N I N 2 = (8)(10) = 80 U1 U2 = (11.5)(68.5) = 80 Paso 6. Regla de decisión: U ≤ Ut se acepta H1 11.5 ≤ 13 se acepta H1
Para encontrar el valor en tablas, de acuerdo con Runyon y Haber (1987) se busca en la parte vertical de tablas N1 (el total de personas en la muestra 1) y en la parte horizontal N2 (el total de personas en la muestra 2). A manera de ejemplo, se presenta un fragmento de la tabla de valores críticos de U de Mann-Whitney (véase tabla C del apéndice) retomados de Downie y Heath (1970) al nivel de significancia .01.
n1
n2
10
11
12
13
14
15
16
17
18
19
20
0
0
0
0
0
0
1
1
2 5 9 12 16 20 23
2 6 10 13 17 22 26
3 7 11 15 19 24 28
3 7 12 16 21 26 31
4 8 13 18 23 28 33
4 9 14 19 24 30 36
4 9 15 20 26 32 38
5 10 16 22 28 34 40
9 1 2 3 4 5 6 7
8
1 3 5 7 9 11
1 3 ó 8 77
13
1 4 7 9 12 15
2 5 8 11 14 17
Interpretación de resultados
Se observaron diferencias significativas U = 11.5, p = .01 entre los niños que tuvieron reforzamiento positivo durante la terapia de aprendizaje y los niños que no lo tuvieron, lo que sugiere un mejor aprendizaje en los niños con reforzamiento positivo.
110
Sofía Rivera Aragón Mirna García Méndez
Ejercicio
SPSS
El paso 1 contiene la base de datos con las variables a manipular. La variable grupo con/sin, se refiere a los dos grupos de estudio (1 = con reforzamiento, 2 = sin reforzamiento), reí a re20, son las respuestas a cada una de las 20 palabras (1 = respuesta correcta y 2 = respuesta incorrecta).
Paso 2. Para obtener la frecuencia de respuestas correctas es necesario crear una nueva variable, para ello se da clic en transform y aparece un menú en el que se da clic en count y aparece un menú. Paso 3. En el menú de count, en Target Variable, se escribe el nombre de la nueva variable, en este caso será rescorre. En Target Label se escribe el
nombre
completo
de
la
variable:
respuesta
correcta.
Ensegui-
Pruebas de la estadística no paramétrica
111
Paso 2
da se marcan con el cursor las 20 respuestas ( r e í . . ,re20) que están debajo del cuadro de Target Label, se da clic en el icono que se encuentra entre r e 1 . . , re20 y Variables, entonces las 20 respuestas aparecen en el cuadro de Variables que ahora se denomina Numeric Variables. Paso 3
Sofía Rivera Aragón 112 Mirna García Méndez
Paso 4. Una vez que se tienen las Numeric Variables, se presiona el icono Define Values y se muestra el siguiente menú, en el que se escribe en Values, el número 1, se da clic en Add y el número 1 se pasa a Values to Count, posteriormente se presiona el icono de Continue y se muestra el menú del paso 3 en el que se presiona OK.
Paso 5. Al presionar if se muestra un menú que tiene marcado include cases, se da clic en Continue.
Pruebas de la estadística no paramétrica
113
Paso 6. Cuando se da clic en Continue se muestra nuevamente el menú del paso 3 en el que se da clic en OK y aparece la base de datos con la nueva variable rescorre que contiene las frecuencias de respuestas correctas por niño. Para fines prácticos, sólo se incluirá parte de la información de la base de datos.
Paso 7. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Nonparametric tests, se da clic y aparece otro menú, se coloca el cursor en 2 independent sample y se da clic.
Sofía Rivera Aragón 114 Mirna García Méndez
Paso 8. Al hacer clic en 2 Independent Samples, se abre un menú que contiene las variables de estudio y se marca Mann-Whitney.
Paso 9. La variable rescorre se marca con el cursor, se da clic en el icono que está entre las variables de estudio y Test Variable List, lo que resulta en que rescorre aparecerá en el cuadro de Test Variable List. La variable grupo con/sin sigue el mismo procedimiento, sólo que se da clic en el icono que está entre las variables de estudio y Grouping Variable mostrándose Grupo ?? en el cuadro de Grouping Variable. Se da clic en Define groups.
Pruebas de la estadística no para métrica 115
Paso 10. Después de dar clic en Define groups aparece una ventana en la que se pone el número 1 en group 1, y el número 2 en group 2. Esto se hace así porque la variable grupo con/sin que se muestra en los pasos 1, 2 y 3 tiene dos niveles: 1 (con reforzamiento) y 2 (sin reforzamiento).
Posteriormente se da clic en continue y reaparece el cuadro del paso 4, sustituidas las interrogaciones de Grouping Variable por los números 1 y 2, se da clic en el icono de OK y se muestran los resultados de la prueba U de Mann Whitney.
RANKS CORRECTA
Grupo con/sin
N
Mean-Rank
Sum of Ranks
correcta
8
13.06
1 04.50
control Total
10 18
6.65
66.50
Respuesta correcta
116
Sofía Rivera Aragón Mirna García Méndez
TEST STATISTICSb
Respuesta correcta Mann-Whitney U Wilcoxon W Z Asymp.Sig (2-tailed) Exact Sig (2*(1 -tailed Sig.))
11.5000 66.500 -2.536 .011 .009a
Not corrected for ties. Grouping variable: grupo control/experimental.
a
b
Estos resultados indican diferencias significativas entre el grupo con reforzamiento ∑ R1 = 104.5, X = 13.06 y el grupo sin reforzamiento ∑ R2 = 66.50, X = 6.65, lo que sugiere que el reforzamiento positivo favorece el aprendizaje en los niños con problemas de dislexia p = .009. Análisis de varianza en una dirección por rangos de KrusKal-Wallis (H)
El análisis de varianza en una dirección de KrusKal-Wallis es una alternativa no paramétrica al análisis de varianza (razón F) utilizada para comparar varias muestras independientes (Levin y Levin, 2002). Cuando la única forma factible de medición es la ordinal o el rango, la opción es emplear la prueba de KrusKal-Wallis (Kerlinger y Lee, 2001). Su fórmula es:
donde:
N = el número total de casos.
Pruebas de la estadística no paramétrica
117
n = el número de casos en una muestra dada. ∑ R1 = la suma de los rangos para una muestra dada.
12, 1 y 3 son constantes. Reglas para su empleo
• En mediciones ordinales. • En comparaciones de tres o más muestras independientes. Procedimiento
1. Plantear las hipótesis estadísticas: Ho: Ml = M2 = M3 HI: M1 ≠ M2 = M3 2. Definir el nivel de probabilidad alfa (α )( α = 95 o 99%). 3. Ordenar las calificaciones de menor a mayor y obtener los rangos de la misma manera que para la prueba U de Mann Whitney. 4. Sumar los rangos. 5. Aplicar la fórmula. 6. Plantear la regla de decisión. Ejemplo
La literatura plantea que el locus de control interno mejora el aprendizaje. Para confirmar este planteamiento se aplicó la escala de locus de control De la Rosa (1986) a 14 personas distribuidas en tres grupos: niños, adolescentes y adultos. El investigador plantea que a mayor edad, las personas tienen un locus de control preferentemente externo debido a los efectos de la socialización. Así, a mayor calificación, mayor locus de control externo, y a menor calificación, mayor locus de control interno.
118
Sofía Rivera Aragón Mirna García Méndez
Paso 1. Hipótesis. Ho. No existen diferencias en el locus de control a partir de la edad de las personas. H1. Existen diferencias en el locus de control a partir de la edad de las personas. Paso 2. Nivel de significancia p =.05. Pasos 3 y 4. Calificaciones niños
R
Calificaciones adolescentes
R
Calificaciones adultos
R
100
10
90
9
70
6
150
13
85
8
60
4
160
14
75
7
50
3
120
11
65
5
40
2
130
12
N1= 5
∑ R1 =60
N2= 4
∑ R2=29
25
1
N3= 5
∑ R3 =16
Paso 5. Aplicación de la fórmula.
Pruebas de la estadística no paramétrica
119
Paso 6. Regla de decisión.
H ≥ Ht 11.08 ≥ 7.82 Para que los resultados sean significativos, la H tiene que ser igual o mayor que el valor de Ht en tablas. En la tabla D del apéndice, se busca en los renglones, los tamaños de las tres muestras, en este caso son N1 — 5, N2= 4 y N3 = 5. Junto a estos valores se encuentra el valor de H y su nivel de significancia que es de .01. Interpretación de resultados
Existen diferencias en el locus de control a partir de la edad de las personas H = 11.08 p = .01, lo que significa que hay mayor locus de control externo en los niños y mayor locus de control interno en los adultos. Ejercido SPSS
Paso 1. Una vez capturada la información en la base de datos, es necesario obtener los rangos de calificaciones. Para obtener estos rangos, se coloca el cursor en Transform, se da clic y aparece un menú en el que se da clic en Rank Cases. Es importante aclarar que la variable edad fue creada para incluir la información concerniente a las tres muestras. Sus valores son: niños = 1, adolescentes = 2 y adultos = 3. Paso 2. Al hacer clic en Rank Cases se muestra el menú en el que se encuentran las variables.
120
Sofía Rivera Aragón Mirna García Méndez
Paso 1
Paso 2
Pruebas de la estadística no paramétrica 121
Paso 3. Se coloca el cursor en califica, se da clic en el icono ubicado entre los cuadros de las variables y Variable(s), entonces califica aparece en Variable(s). El círculo de Smallest value debe estar marcado al igual que el cuadro de Display summary tables, de no ser así se marcan con el cursor, posteriormente se da clic en Rank Types.
Paso 4. Al hacer clic en Rank Types, surge un menú en el que se da clic en el cuadro de Rank y en Continue.
Sofía Rivera Aragón 122 Mirna García Méndez
Paso 5. Después de marcar Rank, en el menú del paso 4 se da clic en Ties y se muestra un menú en el que se da clic en Mean y en Continue.
Paso 6. Al hacer clic en Continue, reaparece el menú del paso 4 en el que se da clic en OK. El resultado de esta operación aparece en la base de datos con la nueva variable rcalific (son los rangos de las calificaciones). En la base de datos se da clic en Analyze, aparece un menú, se da clic en Non-parametric tests, aparece un menú, se da clic en K independent samples.
Pruebas de la estadística no paramétrica 12 3
Paso 7. Al hacer clic en K independent samples, aparece el siguiente menú.
Recuerde que el propósito de esta investigación es saber si el locus de control se modifica con la edad y con ello el aprendizaje. Paso 8. Se coloca el cursor en la variable RANK of CALIFICA (rcalific) que se refiere a los rangos de calificación, se da clic en el icono ubicado entre las variables y Test Variable List, entonces (rcalific), aparece en Test Variable List. Enseguida se repite el mismo procedimiento con la variable edad (edad), sólo que ahora se da clic en el icono que está entre las variables y Grouping variable, aparece en este cuadro edad {??). Se da clic en Define range.
Sofía Rivera Aragón 124 Mirna García Méndez
Paso 9. Al dar clic en Define range, aparece el siguiente menú. En el cuadro de Minimum se escribe el número 1, que corresponde a la muestra 1 integrada por niños. En el cuadro de Maximum se escribe el número 3, que corresponde a la muestra de adultos. Enseguida se da clic en Continue.
Paso 10. Al hacer clic en Continue reaparece el menú del paso 8 en el que se da clic en OK mostrándose los resultados en tablas.
RANKS
Rank of califica
Edad
N
Mean-Rank
niños
5
12.00
adolecentes adultos Total
4 5 14
7.25 3.20
TEST STATISTICSab
Rank of califica Chi-Square df Asymp. Sig. aKruskal
11.083 2 .004
Wallis Test. Variable: edad.
bGrouping
Pruebas de la estadística no para métrica 125
La interpretación de estos resultados es igual a la presentada en el ejercicio de la fórmula desarrollada, sólo que aquí, la p = .004 lo que se relaciona con la exactitud de las operaciones realizadas por el
SPSS.
Es conveniente destacar que
el valor de la-Chi es el mismo reportado en ambos ejercicios. Chi cuadrada para muestras independientes X2
La chi cuadrada también se emplea en muestras independientes, una de las diferencias con las pruebas U de Mann Whitney y análisis de varianza en una dirección por rangos de KrusKal-Wallis, es que no emplea rangos. En este rubro, la chi cuadrada se emplea para determinar diferencias significativas entre dos grupos, es el caso de la X2 por homgeneidad. Ejercicio. X2 por homogeneidad
Este ejemplo se sustenta en una investigación de Romero y Rivera (2004) que indagaron sobre los elementos que motivan a hombres y mujeres a ser infieles, contenidos en cinco categorías: motivos emocionales, motivos circunstanciales, motivos instrumentales, motivos de personalidad y motivos sexuales. La muestra estuvo constituida por 454 personas, 181 hombres y 273 mujeres, sus respuestas observadas se presentan en la tabla 22. Paso 1 Ho. Los hombres y las mujeres consideran que los motivos emocionales, circunstanciales, instrumentales, de personalidad y sexuales son elementos que favorecen de igual forma la infidelidad. H1. Existen diferencias entre hombres y mujeres con relación a los motivos emocionales, circunstanciales, instrumentales, de personalidad y sexuales que favorecen la infidelidad.
126
Sofía Rivera Aragón Mirna García Méndez
Paso 2. La probabilidad que se empleará es p = .05. Paso 3. Distribución de los puntajes. TABLA 22 FRECUENCIAS OBSERVADAS POR CATEGORÍA EN HOMBRES Y MUJERES
Categorías
f0
fo
Hombres
mujeres
Motivos emocionales
53
87
Motivos circunstanciales Motivos instrumentales Motivos de personalidad Motivos sexuales Total
31 64 23 10 181
19 125 22 20 273
Paso 4. Obtención de las frecuencias esperadas (fe) de cada una de las categorías enunciadas en la tabla 23 sustituyendo la fórmula en motivos emocionales: fe = N/k donde: W = 140. Total de hombres y mujeres que respondieron en motivos emocionales (fe) k = 2 (número de categorías o columnas-, hombres y mujeres)
Motivos circunstanciales
Motivos instrumentales
Pruebas de la estadística no paramétrlca 127
Motivos de personalidad
Motivos sexuales
Los resultados se presentan en la tabla 23.
TABLA 23 FRECUENCIAS OBSERVADAS Y ESPERADAS POR CATEGORÍA EN HOMBRES Y MUJERES
Categorías
fo hombres
fo mujeres
fo
Motivos emocionales
53
87
Motivos circunstanciales
31
19
Motivos instrumentales
64
125
94.5
Motivos de personalidad
23
22
22.5
Motivos sexuales
10
20
15
Paso 5. Aplicación de la fórmula para cada una de las categorías
Motivos emocionales
Sofía Rivera Aragón 128 Mirna García Méndez
70 25
Motivos circunstanciales
Motivos instrumentales
Motivos de personalidad
Pruebas de la estadística no paramétrica
129
Motivos sexuales
Paso 6. Una vez que se obtuvieron las .X2 de cada categoría, se obtienen los gl: gl = k - 1 gl = 2-1 El número 2 se refiere a las dos columnas de la tabla 23 (hombres y mujeres): gl= 1 Con el valor de la X2 y los grados de libertad, se busca en tablas su nivel de significancia. Los resultados se muestran en la tabla 24.
130
Sofía Rivera Aragón Mirna García Méndez
TABLA 24
ELEMENTOS QUE MOTIVAN LA INFIDELIDAD Categorías
fo
fo
fo
hombres
mujeres
Motivos emocionales
53
87
70
Motivos circunstanciales Motivos instrumentales Motivos de personalidad Motivos sexuales
31 64 23 10
19 125 22 20
25 94.5 22.5 15
X2
P
8.25
.01
2.88 19.68 0.02 3.32
.001
Interpretación de resultados
Estos resultados indican que existen diferencias significativas entre hombres y mujeres, en dos de los elementos que ellos consideran favorecen la infidelidad. Estas diferencias se encuentran en las categorías de motivos emocionales X2 = 8.25, p = .01 y motivos instrumentales X2 = 19.68, p = .001, que de acuerdo con las frecuencias observadas, para las mujeres tienen mayor importancia que para los hombres. Se rechaza la Ho. Ejercicio SPSS
Con el propósito de conocer el significado del funcionamiento familiar, se aplicó un cuestionario abierto a 300 hombres y mujeres de la ciudad de México. Para este ejercicio únicamente se empleará lo concerniente a los significados de la comunicación y afectividad en el funcionamiento familiar y la información presentada en la base de datos sólo incluye una pequeña parte de lo recabado de las 300 personas. Hipótesis: Ho. Los hombres y las mujeres le otorgan la misma importancia a la comunicación y afectividad en el funcionamiento familiar. H1. Los hombres y las mujeres difieren en cuanto a la importancia que tienen la comunicación y la afectividad en el funcionamiento familiar.
Pruebas de la estadística no paramétrica 131
Paso 1. Se coloca el cursor en Analyze, se da clic en el botón izquierdo del mouse.6
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Descriptive Statistics, se da clic y aparece otro menú, se coloca el cursor en Crosstabs y se da clic.
6
En lo subsiguiente, al indicar que se da clic, se asumirá que se presiona el botón izquierdo del
mouse y que el cursor está colocado en la operación a realizar.
Sofía Rivera Aragón
13 2 Mirna García Méndez
Paso 3. Al hacer clic en Crosstabs, se abre un menú que contiene las variables de la investigación.
Paso 4. Las variables comunica y afectiva se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y Row(s) lo que resulta en que comunica y afectiva aparecerán en el cuadro de Row(s). Se sigue el mismo procedimiento para la variable sexo, sólo que se da clic en el icono que está entre las variables de estudio y Column(s) mostrándose la variable sexo en el cuadro de Column(s). Enseguida se pone el cursor en el icono de Statistics y se da clic con el botón izquierdo del mouse.
Pruebas de la estadística no paramétrica
133
Paso 5. Al hacer clic en Statistics, aparece un menú, se da clic en Chi-square (X2).
Una vez seleccionada la prueba estadística, se da clic en continue y reaparece el menú del paso cuatro, se da clic en OK y se muestra el resultado de la prueba chi cuadrada en tablas. La primera incluye la distribución de los sujetos por sexo y el número de frecuencias obtenida en la variable comunicación.7
CROSSTAB
Count comunicación
Sexo Ausente
Presente Total
Total
masculino
femenino
34
34
68
110 144
122 156
232 300
La segunda tabla muestra los resultados de la chi cuadrada, los que indican el valor de la prueba y su nivel de significancia. Estos datos deberán ser interpretados por el investigador con base en las hipótesis planteadas. 7Con fines didácticos se muestran los resultados de la prueba chi cuadrada, tal como los reporta el SPSS; sin embargo, nunca se presentan así en un reporte de investigación.
Sofía Rivera Aragón 134 Mirna García Méndez
CHI-SQUARE TESTS
Pearson Chi-Square Continuity Correction Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases 300
0
Value
df
Asymp. Sig. Exact sig. (2-sided) (2-sided)
.141b
1
.707
.056 .141
1 1
.812 .707 .783
.140
1
Exact sig. (1sided)
406
.708
Computed only for a 2x2 table
a
0 cells (.0%) have expected count less than 5. The minimum expected count is 32.64.
b
Las siguientes dos tablas presentan lo concerniente a las variables de afectividad y sexo. CROSSTAB Count Afectividad
Sexo Masculino
Ausente Presente Total
Total Femenino
94
76
170
50 144
80 156
130 300
CHI-SQUARE TESTS
Pearson Chi-Square Countinity Correction0 Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases
Value
df
Asymp.Sig. (2-sided)
8.362b 7.702 8.415
1 1 1
.004 .006 .004
8.334 300
1
Exact Sig. (2-sided)
Exasig. (1sided)
.005
.003
.004
Computed only for a 2x2 table. 0 cells (0% have expected count less than 5. The minimum expected count is 62.40. d 6
a b
Pruebas de la estadística no paramétrica
135
Una de las formas de presentar la información obtenida en el
SPSS,
se
muestra en la tabla 25.
TABLA 25 DIFERENCIAS EN LOS SIGNIFICADOS DEL FUNCIONAMIENTO FAMILIAR POR SEXO
Sexo Significados Comunicación Afectiva
Masculino 76.4% 34.7%
Femenino 78.2% 51.3%
X2
P
.141
NS
8.362
.004
Interpretación de los resultados
Los resultados indican que hombres y mujeres le otorgan el mismo valor a la comunicación en el funcionamiento familiar. En cuanto a la afectividad, se encontraron diferencias significativas en ambos sexos, X2 = 8.362, p = .004, lo que sugiere que para las mujeres tiene mayor importancia que para los hombres el aspecto afectivo en el funcionamiento familiar.
Estadística paramétrica
Características
Las
primeras técnicas inferenciales fueron las paramétricas que hacen
suposiciones a los parámetros de la población que se obtuvieron, es decir, dan suposiciones acerca de la población de donde se extrajo la muestra. Obtienen diferencias entre medias. La estadística paramétrica, hace un buen número de suposiciones acerca de la naturaleza de la población de la que se obtuvieron los puntajes. Se llama Paramétrica puesto que los valores de la población son “parámetros”. Los supuestos son: a) Distribución normal. b) Homocedasticidad de varianza. c) Nivel de medición intervalar. d) Selección y asignación aleatoria. Las pruebas paramétricas fijan su atención en la diferencia entre las medias de dos o más conjuntos de puntajes. Esta se interesa en dos cosas: a) Estimación de parámetros. b) Pruebas de hipótesis.
139
Pruebas paramétricas. Prueba de coeficiente de correlación de producto-momento de Pearson Introducción
En la vida diaria hemos escuchado muchas cosas, que aunque no han sido comprobadas científicamente, suceden en forma imprevista, por ejemplo, se dice "que a mayor velocidad de un carro, menor consumo de gasolina"; o que si "un adolescente tiene los pies grandes es porque va a ser muy alto", también hemos visto que las personas satisfechas en su relación de pareja son más comunicativas. Al hacer esta serie de afirmaciones sin un fundamento se expresa la suposición de que existe alguna correlación entre las variables. La correlación indica o representa la relación entre dos variables. De entre los ejemplos planteados aquí, el último plantea como variables, a la satisfacción con la relación y la comunicación. Si quisiéramos comprobar la relación existente entre estas dos variables tomaríamos en forma aleatoria a una muestra de personas que actualmente tuvieran una relación de pareja. Posteriormente les preguntaríamos ¿qué tan satisfechos se encuentran con su relación? (en una escala del 1 al 10) y ¿qué tanto se comunican con su pareja? (en una escala del 1 al 10). Si encontramos que puntajes altos en satisfacción se relacionan con puntajes altos en comunicación, podemos decir que la observación fue acertada. Si nosotros podemos hablar de que existe una relación entre estas variables, por ende podemos predecir una a partir de otra. Esto es, se puede decir que las personas con un valor de 10 en satisfacción es más probable que tengan un valor de 10 en comunicación. Definición
Este coeficiente como su nombre lo indica nos da un índice (valor) que habla del nivel de relación que tienen dos variables.
140
Sofía Rivera Aragón Mirna García Méndez
Para representar este coeficiente se usa la letra "r". El coeficiente de correlación producto-momento de Peargon tiene varios usos: Conocer el grado de relación que existe entre dos variables o atributos. Por ejemplo cuando hablamos de la relación entre el grado de violencia y el grado de satisfacción marital. Indica la dirección de la asociación. Es decir, a través del signo que obtiene el valor de la correlación se puede decir si a mayor violencia, menor satisfacción marital o viceversa a mayor violencia mayor satisfacción marital. Obtener la significancia de la asociación. En este caso nos menciona además si lo que obtuvimos cae en la zona de aceptación o en la zona de rechazo. Es decir si nuestra hipótesis se comprueba o no. Requisitos
Como se sabe, este coeficiente al pertenecer a la estadística inferencial paramétrica presenta varios requisitos los cuales ya fueron descritos anteriormente, entre ellos: a) Que los puntajes sean lineales (es decir se agrupen en una recta). Ya sea en forma directamente proporcional o inversamente proporcional.
b) Que haya homocedasticidad de varianza (se agrupan en una elipse). Es decir que los datos se distribuyan alrededor de esa línea recta.
Estadística paramétrica
141
c) Que las variables tengan un nivel de medición intervalar. Por ejemplo: edad, escolaridad en años, temperatura. d) Que haya una selección y asignación aleatoria de los participantes.
Interpretación
El coeficiente de correlación producto-momento de Pearson se interpreta de acuerdo a tres puntos: 1. Fuerza. 2. Dirección. 3. Significancia. i. Fuerza: Esta indica el grado de relación que hay entre dos variables. De acuerdo con el valor obtenido, que sólo puede ir de 0 a 1 pasando por valores positivos y negativos (-1 a +1). La fuerza la da el valor de la correlación y este puede ser interpretado de la siguiente forma:
Valor 0 a .30 .31 a .79 .90 a 1
Interpretación de la correlación Baja Media Alta
Siempre el cero indica ausencia de relación y el 1 una correlación perfecta.
Sofía Rivera Aragón 142 Mirna García Méndez
2. Dirección: Indica hacia qué lado de la curva se encuentra nuestra correlación. La dirección la da el signo. Los signos se interpretan de la siguiente forma:
Signo
Interpretación
+ (positivo)
Directamente Proporcional
- (negativo)
Inversamente Proporcional
3. Significancia: Finalmente este rubro indica cuál es la probabilidad de aceptar o rechazar una hipótesis alterna. De acuerdo a ello se debe plantear una regla de decisión: Si rc ≥ r0 entonces la correlación es significativa. Donde rc es el valor obtenido en la fórmula y r0 es el valor obtenido en una tabla de significancia de los valores de r. Antes de conocer el grado o fuerza de la relación debemos saber cómo se comportan las puntuaciones. Para ver ese tipo de distribución se usa un dispersigrama. Un dispersigrama es una representación gráfica de la forma en que se distribuyen los datos. Siempre una de las variables se grafica en el eje de las "y" (ordenadas) y otra en el eje de las "x" (abcisas). Siempre se coloca la variable predictora en el eje de las "x" y la predicha en el eje de las "y". O en su defecto la variable dependiente en el eje de las "x" y la variable independiente en el eje de las “y” (véase gráfica 18). Ejemplo de dispersigrama: Variables (ambas escalas fueron evaluadas con puntuaciones del 1 al 10): Satisfacción con la relación Comunicación marital
Estadística paramétrica
143
Los puntajes obtenidos son:
Puntaje de satisfacción
Puntaje de comunicación
10 8 8 7 10 9 6 5 4 8
9 10 9 6 9 8 7 4 4 7
El dispersigrama quedaría como lo muestra la gráfica 18, recordando que no importa cuál de las variables queda en el eje de las "y" y cuál en el de las "x", ya que la correlación no implica causalidad.
GRÁFICA 18 DISPERSIGRAMA DE COMUNICACIÓN Y SATISFACCIÓN
Fórmula
La fórmula que se aplica para obtener este coeficiente es:
144
Sofía Rivera Aragón Mirna García Méndez
donde: r = Coeficiente de Pearson. N = Número total de pares en x y y. x = Puntaje crudo de la variable x. y = Puntaje crudo de la variable y. XY = Multiplicar el puntaje de x por el de y. Elevar al cuadrado los puntajes. = Sumar el producto de x y y. = Sumar las puntuaciones y elevar la suma al cuadrado.
Regla de decisión para obtener la significancia
Para obtener la significancia, se calculan en primer lugar los grados de libertad. a)
gl = N - 2 N
= Número de pares en x y y. Se busca en la tabla de valores críticos de r, los grados de libertad y la probabilidad (α ).
En la tabla E del apéndice se encuentra la r0 (valor de la correlación observada) que permite rechazar y aceptar las hipótesis estadísticas. b) Posteriormente se aplica la regla de decisión que es:
Es decir que como la r de la fórmula es más grande que la de las tablas entonces se acepta la hipótesis alterna.
Estadística paramétrica
145
Ejercicio
Un investigador desea conocer si existe relación entre la puntuación que se obtuvo en una escala de agresión y la puntuación que se obtuvo en una escala de frustración en estudiantes universitarios. El investigador plantea que a mayor agresión, mayor frustración. Los datos obtenidos se presentan a continuación siguiendo el procedimiento del coeficiente de correlación producto-momento de Pearson. Procedimiento: a) Se establece el nivel de confianza al cual se desea trabajar, por ejemplo en este estudio se desea obtener un nivel de confianza del 95 por ciento. Por lo tanto se trabajará con un error del .05. b) Se plantean las hipótesis derivadas de la investigación, por ejemplo, las hipótesis con las que se trabajará son de dos colas (sin dirección). Ho. No existe relación entre la agresión y la frustración en estudiantes universitarios. H1. Sí existe relación entre la agresión y la frustración en estudiantes universitarios. c) Se obtienen los cuadrados de cada puntuación y se suman (∑ X2 y ∑ y2) y la suma del producto de las puntuaciones de "x" y "y" (∑ XY)
TABLA DE DATOS OBTENIDOS PARA LA CORRELACIÓN
Agresión
Y Frustración
X2
Y2
xy
12
12
144
144
144
10 6
8 6
16
11
8
10 8 11
100 36 256 64 81 144
64 36 121 100 64 121
80 36 176 80 72 132
∑y =66
∑X s =825
∑y* = 650
∑XY =720
X
9
12
∑x =73
Sofía Rivera Aragón 146 Mirna García Méndez
d) Una vez calculadas las diferentes columnas se sustituye en la fórmula de Pearson:
Por último, se compara con la tabla (valores críticos de r) para ver si la correlación es significativa, aplicando la regla de decisión. El proceso a seguir, incluye los pasos que a continuación se detallan. 1. Se calculan los grados de libertad: gl = 7-2 = 5
Estadística paramétrica
147
En el apéndice, se busca en la tabla E de valores críticos de r, los grados de libertad y la N. N = Número de pares en x y y.
2. Se sustituye en la regla de decisión: rc ≥ ro H1 se acepta. .754 ≥ .754 H1 se acepta. En este caso el valor calculado es igual al de la tabla E del apéndice por lo tanto se acepta la hipótesis alterna. H1. Sí existe relación entre la agresión y la frustración en estudiantes universitarios. 3. Finalmente se interpreta el valor obtenido. r = .754 es una correlación media, directamente proporcional y significativa. Es decir a mayor agresión mayor frustración en estudiantes universitarios. Ejercicio
SPSS
Con la finalidad de conocer cómo los factores de la escala de estilos de negociación y los factores de satisfacción marital se relacionan (Rivera y DíazLoving, 2002) se aplicó el coeficiente de correlación producto-momento de Pearson. Se plantearon las siguientes hipótesis: H0. No existe relación entre la satisfacción marital y los estilos de negociación ante el conflicto en parejas. H1. Sí existe relación entre la satisfacción marital y los estilos de negociación ante el conflicto en parejas.
Sofía Rivera Aragón 148 Mirna García Méndez
Posteriormente, una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.8
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Correlate, se da clic y aparece otro menú, se coloca el cursor en Bivariate y se da clic.
8
En lo subsiguiente, al indicar que se da clic, se asumirá que es con el botón izquierdo del mouse y
que el cursor está colocado en la operación a realizar.
Estadístico paramétrica
149
Paso 3. Al hacer clic en Bivariate, se abre un menú que contiene las variables de la investigación.
Paso 4. Las variables de estilos de negociación y satisfacción se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía para ser analizadas.
Sofía Rivera Aragón 150 Mirna García Méndez
Una vez seleccionada la prueba estadística, se da clic en OK y se muestra el resultado de la correlación de Pearson.9 La tabla 26 muestra los resultados de la correlación de Pearson que son los que indican el valor de la prueba, el nivel de significancia y el número de participantes considerados para el análisis. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación. TABLA 26 RESULTADOS DE SPSS DE LA CORRELACIÓN DE PEARSON
Correlations Acuerdo Satasf
Satrel
Insrel
Incapr
Insfam
Satcat
Sinapre
Inscre
Inaf
Sorfun
Sfisex
Acomoda
Conten
Evitaci
Pearson Correlation
,628**
,452**
-,245**
,235**
Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N
,000 291 ,618** ,000 304 -,513** ,000 300 -,493** ,000 306 -,258** ,000 302 ,620** ,000 291 ,582** ,000 304 -,082 ,175 275 -,425** ,000 296 ,625** ,000 296 ,582** ,000 300
,000 298 ,333** ,000 310 -,178* ,002 308 -,209** ,000 314 -.088 ,121 311 ,444** ,000 295 ,322** ,000 312 ,075 ,208 280 -, 1 23* ,032 304 ,377** ,000 303 ,331** ,000 306
,000 291 -, 184** ,001 301 ,250** ,000 298 ,302** ,000 304 ,281** ,000 300 -,208** ,000 289 -,201** ,000 302 ,187** ,002 273 ,257** ,000 295 -, 145* ,013 294 -, 166* ,004 297
,000 291 ,122* ,033 302 -,044 ,449 301 -,104 ,070 305 -, 120* ,037 302 , 194** ,001 289 ,179** ,002 303 -,006 ,925 271 -,141* ,016 294 ,150* ,010 295 ,138* ,017 299
* Correlation is significant at the 0.05 level (2-tailed). ** Correlation is significant at the 0.01 level (2-tailed). 9 Con fines didácticos se muestran los resultados de la correlación de Pearson, tal como los reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.
Estadística paramétrica 151
Reporte de Investigación de la correlación producto-momento de Pearson
Una de las formas de presentar la información obtenida en el
SPSS,
en un
reporte de investigación basado en el estudio sobre estilos o formas de negociar un conflicto en la pareja y la satisfacción que perciben en su relación (Rivera, Díaz-Loving, Cruz y Vidal, 2004) es presentada a continuación: En la tabla 27 se observa en general para los hombres que estilos positivos de negociar el conflicto incrementan la satisfacción y que estilos negativos la decrementan. Así se encuentra que el estilo de acuerdo-colaboración es el que presenta las correlaciones más altas, seguido del de Acomodación. En ambos casos se encuentra mayor satisfacción en la relación, en las áreas afectiva, de comunicación, familia, atracción física, sexual, intimidad, trato hacia los hijos, organización y funcionamiento, y participación y distribución de las tareas en el hogar. Al igual que los dos anteriores, la evitación presenta correlaciones positivas con varios factores de satisfacción, como son: afecto, comunicaciónapoyo, atracción física, intimidad, organización y funcionamiento, y satisfacción sexual. Finalmente en cuanto al estilo competitivo, se observa que entre más alto es el puntaje en éste más insatisfacción percibe el hombre en todas las áreas (véase tabla 27).
t de student Introducción
Comúnmente hacemos generalizaciones con respecto a diferentes grupos de la población. Por ejemplo, se dice que las mujeres son más emocionales que los hombres, o que los hombres son más fuertes físicamente que las mujeres. También se habla de que el idioma español es más difícil que otros idiomas. Los carros rojos sufren más accidentes que los carros blancos. Los hombres tienen un pensamiento más abstracto que las mujeres. Como se ve podemos hacer un sinfín de comparaciones y de conjeturas. Así estamos
Sofía Rivera Aragón 152 Mirna García Méndez
afirmando que la media de una muestra es más grande, más fuerte y/o más difícil que la otra. No obstante debemos comprobar si realmente se dan estas diferencias. Este apartado se dedicará a conocer una de las pruebas que puede examinar si las diferencias propuestas son significativas. La distribución t es también llamada la teoría estadística de la muestra pequeña (Young y Veldman, 1983). En la distribución t se estima la media verdadera Ẍ a través de la media de la muestra (μ ). Definición
La t de student es una prueba de hipótesis que observa las diferencias entre dos grupos. Esta prueba tiene varios usos: • Encontrar diferencias entre las medias de dos grupos. • Obtener la discriminación de reactivos por grupos extremos. En este apartado sólo hablaremos del primer uso. Requisitos
La prueba t tiene varios requisitos o supuestos, entre ellos: a) Que los puntajes se distribuyan normalmente.
b) Que haya homocedasticidad de varianza. Es decir que la distancia entre la media y un puntaje crudo sea muy similar de una muestra a otra.
Sofía Rivera Aragón 154 Mirna García Méndez
c) Que las variables tengan un nivel de medición intervalar. Por ejemplo: puntaje de inteligencia, calificación obtenida en la escala de satisfacción laboral. d) Que haya una selección y asignación aleatoria de los participantes.
Clasificación de la prueba t
a) Muestras independientes, se refiere a la comparación entre dos muestras tomadas de la misma población o de poblaciones diferentes. Por ejemplo: 1. Muestras independientes de la misma población: hombres y mujeres de una universidad pública. 2. Muestras independientes de poblaciones diferentes: hombres y mujeres de una universidad pública y una universidad privada. b) Muestras correlacionadas, se refiere a la comparación de una misma muestra durante dos mediciones, dos aplicaciones, etcétera.
Estadística paramétrica
155
Por ejemplo: Medir a una muestra antes y después de un curso sobre matemáticas para ver si se incrementa o decrementa el rendimiento escolar obtenido en la materia. Cálculo de t para muestras independientes con N Iguales
Esta prueba t se aplica cuando se tienen dos muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero en ambas muestras el tamaño es igual. Por ejemplo: Variable dependiente: Locus de Control. Variable de clasificación: Sexo. En este caso, cada una de las categorías de sexo debe tener el mismo número de participantes; por ejemplo: 100 hombres y 100 mujeres. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.
c) Calcular las medias para cada grupo La fórmula para calcular la media para cada grupo es:
donde: ∑X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo. N = Número de participantes por grupo.
156
Sofía Rivera Aragón Mirna García Méndez
d) Calcular la desviación estándar de cada muestra (σ 1 y σ 2) La fórmula para calcular la desviación estándar para cada grupo es:
donde: Sumar los cuadrados de las puntuaciones de cada una de las Elevar la media de cada grupo al cuadrado. N = Número de participantes por grupo. e)Encontrar el error estándar de cada media La fórmula para el cálculo del error estándar para cada grupo es:
donde: σ = Desviación estándar para cada grupo, N y 1= Constantes. f) Encontrar el error estándar de la diferencia (σdiff ).
donde: σx 1 = Error estándar de la media para cada grupo,
g) Sustituir en la fórmula de t.
Estadística paramétrica
157
h) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 4.
gl = NI + N2 - 2
donde NI = Número de participantes en el grupo 1. N2 = Número de participantes en el grupo 2. 1
= Constante.
5. Se busca en la tabla de valores críticos de t los grados de libertad y la probabilidad (α ).
En la tabla F del apéndice, se encuentra la tQ (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ t0 H1 se acepta. Es decir que como la t de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna. Ejercicio
Un investigador desea conocer si el grado de autoritarismo difiere entre maestros de escuelas particulares incorporadas y escuelas públicas. Para ello aplica la escala de Vigano (1986) y encuentra los siguientes datos:
158
Sofía Rivera Aragón Mirna García Méndez
Maestros de escuela particular
Maestros de escuela pública
X1
X1 2
X2
X22
140
19,600
90
8,100
110
12,100
95
9,025
128
16,384
65
4,225
110
12,100
70
4,900
100
10,000
45
2,025
95
9,025
35
1,225
44
1,936
22
484
36
1,296
60
360
21
441
18
324
∑x2 = 500
∑x22= 30668
∑X1 = 784
∑X12 =102482
Para calcular los datos del estudio con la t de student se siguen estos pasos: a) Se plantean las hipótesis estadísticas: Ho. No existen diferencias estadísticamente significativas en el grado de autoritarismo entre maestros de escuelas particulares y maestros de escuelas públicas. H1. Sí existen diferencias estadísticamente significativas en el grado de autoritarismo entre maestros de escuelas particulares y maestros de escuelas públicas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis: α = .05.
Calcular las medias para cada grupo
c) Calcular la desviación estándar de cada muestra (σ1 y σ2):
Estadística paramétrica 159
d) Encontrar el error estándar de cada media (σx 1 y σx 2):
e) Encontrar el error estándar de la diferencia (σdiff):
f) Sustituir en la fórmula de t:
g) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.
gl = 9 + 9 - 2 = 16
2. Se busca en la tabla F de valores críticos de t los grados de libertad y la probabilidad (a).
En la tabla F del apéndice, se encuentra la t0 (valor de la t de student observada) que permite rechazar o aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ ta H1 se acepta. 1.17 ≥ 2.12 H1 se rechaza.
Sofía Rivera Aragón 160 Mirna García Méndez
Es decir que como la t de la fórmula es más pequeña que la de la tabla F entonces se acepta la hipótesis nula. Es decir, no existen diferencias estadísticamente significativas en el grado de autoritarismo entre maestros de escuelas particulares incorporadas y escuelas públicas. Cálculo de t para muestras independientes con N desiguales
Esta prueba t se aplica cuando se tienen dos muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero cada muestra tiene un tamaño diferente. Es decir el número de participantes del grupo 1 difiere del número de participantes del grupo 2 (N1 ≠ N2 ). Por ejemplo: • Variable dependiente: Satisfacción con la vivienda • Variable de clasificación: Tipo de vivienda. Personas que viven en departamento y personas que viven en casa. En este caso cada una de las categorías del tipo de vivienda debe tener un número diferente de participantes. Por ejemplo, 50 personas que viven en departamento y 60 personas que viven en casa. Para calcular esta prueba se aplica un procedimiento similar al de la prueba t de student para muestras iguales, lo que difiere aquí es que ya no se calcula el error estándar de la media y cambia la fórmula del error estándar de la diferencia. El proceso a seguir es: A)
Plantear las hipótesis estadísticas.
b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. c) Calcular las medias para cada grupo La fórmula para calcular la media para cada grupo es:
Estadística paramétrica 161
donde: ∑ X= Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo. N = Número de participantes por grupo. d) Calcular la desviación estándar de cada muestra (σ 1 y σ 2). La fórmula para calcular la desviación estándar para cada grupo es:
donde: ∑ X2 = Sumar los cuadrados de las puntuaciones de cada una de las
calificaciones para cada grupo. (X)2 = Elevar la media de cada grupo al cuadrado. N = Número de participantes por grupo. e)Encontrar el error estándar de la diferencia (σdiff).
donde: σ 12 = Desviación estándar del grupo 1. σ 21 = Desviación estándar del grupo 2. NI = Número de participantes en el grupo 1. N2 = Número de participantes en el grupo 2. f) Sustituir en la fórmula de t.
162
Sofía Rivera Aragón Mirna García Méndez
g) Para obtener la significancia, se calculan en primer lugar los grados de libertad.
1.
gl = N1 + N2 - 2
donde: NI = Número de participantes en el grupo 1, N2 = Número de participantes en el grupo 2, 2 = Constante. 2. En el apéndice, se busca en la tabla F de valores críticos de la prueba t de student los grados de libertad y la probabilidad (α ).
En la tabla F se encuentra la t0 (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ tQ H1 se acepta. Es decir que como la t de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna.
Ejercicio
Un investigador desea saber si existen diferencias entre un grupo experimental y un grupo control, los cuales fueron sometidos a una investigación sobre el grado de altruismo en presencia de una persona con poder. Los datos obtenidos en la investigación son los siguientes:
Estadística paramétrica
163
Grupo Experimental
Grupo Control
X1
X11
X2
X22
115
13,225
95
9,025
120 180 100 110 140 155 167 191 ∑X1 =1,278
14,400 32,400 10,000 12,100 19,600 24,025 27,889 36,481 ∑X12 =190,120
65 45 75 85 37 46
4,225 2,025 5,625 7,225 1,369 2,116
∑X2 = 448
∑X22 =
31,610
Para calcular los datos del estudio con la t de student para muestras diferentes se siguen estos pasos: a) Se plantean las hipótesis estadísticas. Ho. No existen diferencias estadísticamente significativas en el grado de altruismo por la presencia o ausencia de una persona con poder. H1. Sí existen diferencias estadísticamente significativas en el grado de altruismo por la presencia o ausencia de una persona con poder. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. α =. 05 c) Calcular las medias para cada grupo
d) Calcular la desviación estándar de cada muestra (σ1 y σ2).
Sofía Rivera Aragón 164 Mirna García Méndez
e) Encontrar el error estándar de la diferencia (σdiff ).
f) Sustituir en la fórmula de t.
g) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.
gl = 9 + 7- 2 = 14
4. Se busca en la tabla F de valores críticos de t, del apéndice, los grados de libertad y la probabilidad (α ).
En la tabla F del apéndice, se encuentra la t0 (valor de la t de student observada) que permite rechazar o aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ to H1 se acepta. 5.43 ≥ 2.14 H1 se acepta.
Es decir que como la t de la fórmula es más grande que la de la tabla F del apéndice, entonces se acepta la hipótesis alterna. Es decir, existen diferencias estadísticamente significativas en el nivel de altruismo entre el grupo control y el grupo experimental. Esto quiere decir que en
Estadística paramétrica
165
presencia de personas con poder, los integrantes del grupo experimental fueron más altruistas.
Ejercicio SPSS Con la finalidad de conocer si existen diferencias entre hombres y mujeres en las historias de amor (Romero, 2003) se aplicó la prueba
t
para muestras
independientes. Se plantearon las siguientes hipótesis: Ho. No existen diferencias estadísticamente significativas en las historias de amor entre hombres y mujeres. H1. Sí existen diferencias estadísticamente significativas en las historias de amor entre hombres y mujeres. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Compare Means, se da clic y aparece otro menú, se coloca el cursor en IndependentSamples T-Test y se da clic. Sofía Rivera Aragón 166 Mirna García Méndez
Paso 3. Al hacer clic en Independent-Sarriples T-Test, se abre un menú que contiene las variables de la investigación.
Paso 4. Las variables de historias de amor se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía donde se colocan las variables dependientes, y la variable de clasificación que en este caso es el sexo se le coloca donde están los grupos.
Estadística paramétrica 167
Una vez definidas las variables, se da clic en OK y se muestra el resultado de la prueba t de student.10 Las tablas 28 y 29 muestran los resultados de la prueba t de student que son los que indican el valor de la prueba, el nivel de significancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varian- zas. Estos datos deberán ser interpretados por el investigador y, de esta forma, responder a las preguntas e hipótesis de investigación.
Reporte de investigación de la prueba t para muestras independientes Una de las formas de presentar la información obtenida en el SPSS, en un reporte de investigación basado en el estudio sobre la diferencia entre historias de amor por sexo (Romero, 2003) es presentada a continuación: A partir de los resultados obtenidos (véase tabla 30) mediante la prueba t de student (Romero, 2003) se encuentra que en general los hombres presentan puntajes significativamente mayores que las mujeres en las historias de romance, sexual, atracción bizarra y sacrificio-dependencia,
10Con fines didácticos se muestran los resultados de la prueba t para muestras relacionadas, tal como los reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.
168
Sofía Rivera Aragón Mirna García Méndez
TABLA 28
ESTADÍSTICAS DESCRIPTIVAS DE SPSS DE LA PRUEBA T DE STUDENT
Group statistic Sexo Factor 1: Romance Factor 2: Organización Factor 3: Sexual Factor 4: Atracción-misterio Factor 5: Humor Factor 6: Maestro-estudiante Factor 7: Guerra Factor 8: Policía-prófugo Factor 9: Atracción bizarra Facto 10: Control-variedad factor 11: Sacrificio-dependencia Factor 12: Desconfianza mutua Factor 13: Jardinería
N
Mean
Std. Deviation
Std. Error Mean
Masculino
160
20.26
5,136
.406
Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino masculino Femenino Masculino Femenino
171 160 171 160 171 160 171 160 171 160 171 160 171 158 171 160 171 160 171 160 171 160 169 159 169
19.15 19.97 20.99 12.26 11.11 9.39 9.48 9.68 9.39 18.08 18.04 11.49 11.19 10.06 10.25 8.06 7.39 12.09 11.60 9.99 9.25 6.59 6.87 14.59 14.29
4,854 4,440 3,287 3,501 3,551 2,189 2,377 2,954 3,076 3,699 3.305 4,011 3,763 3,514 4,282 3,133 2,633 3,310 3,365 2,687 2,268 2,167 2,159 3,701 3.217
.371 .351 .251 .277 .272 .173 .182 .234 .235 .292 .253 .317 .288 .280 .327 .248 .201 .262 .257 .212 .173 .171 .166 .294 .247
mientras que las mujeres obtienen puntajes significativamente mayores que los hombres en la historia de organización. En las historias restantes no se encontraron diferencias significativas. Lo anterior indica que los hombres en sus relaciones en general se enfocan más en aspectos tales como el cariño, la conquista, la sexualidad, la práctica variada del erotismo, el misterio y las características fuera de lo común, así como la dependencia y la necesidad de la pareja, mientras que las mujeres se centran más en aspectos tales como la organización, las reglas y las estructuras determinadas para el buen funcionamiento de la relación.
Estadística paramétrica
169
TABLA 30
DIFERENCIAS POR SEXO EN LAS HISTORIAS DE AMOR
Media por sexo Historias de amor
Hombres
Mujeres
t
P
Romance
20.26
19.15
2.011
.045*
Organización Sexual Atracción Humor Maestro-estudiante Guerra Policía-prófugo Atracción bizarra Control-variedad Sacrificio-dependencia Desconfianza Jardinería
19.97 12.26 9.39 9.68 18.08 11.49 10.06 8.06 12.09 9.99 6.59 14.59
20.99 11.11 9.48 9.39 18.04 11.19 10.25 7.39 1 1.60 9.25 6.87 14.29
-2.398 2.967 -.366 .853 .105 .704 -.435 2.094 1.354 2.699 -1.157 .788
.017* .003** .715 .394 .917 .482 .664 .037* .177 .007** .248 .431
*p ≤ 0.05. **p ≤ 0.01. Cálculo de t para muestras relacionadas
Esta prueba se aplica cuando la misma muestra es medida en dos ocasiones o bajo dos situaciones. Por ejemplo: Variable dependiente: Actitud hacia el consumo de alcohol Variable independiente: Curso sobre los daños que el alcohol causa al organismo. En este caso se aplica una escala de actitudes ante el consumo de alcohol antes y después del curso a la misma muestra. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. c) Calcular las medias para cada grupo Estadística paramétrica 171
La fórmula para calcular la media para cada grupo es:
donde: ∑X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo, N = Número de participantes por grupo. d) Calcular la desviación estándar de la muestra (σ1). La fórmula para calcular la desviación estándar para cada grupo es:
donde: ∑ D2 = Sumar los cuadrados de las diferencias de cada una de las
calificaciones de la muestra. (X) 2 = Elevar la media de cada grupo al cuadrado. N = Número de participantes por grupo. d) Encontrar el error estándar de la diferencia (σ diff).
donde: σ = Desviación estándar del grupo.
f) Sustituir en la fórmula de t.
172
Sofía Rivera Aragón Mirna García Méndez
g) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.
gl = N - 1
donde: N= Número de participantes de la muestra. 1 = Constante. 2. Se busca en la tabla de valores críticos de t los grados de libertad y la probabilidad (α ).
En la tabla F del apéndice se encuentra la t0 (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 1. Posteriormente se aplica la regla de decisión que es: tc ≥ t0 H1 se acepta. Es decir que como la f de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna.
Ejercicio
Un investigador quiere observar si existen diferencias en las actitudes que asumen los adultos de diferentes clases sociales ante la contaminación ambiental antes y después de pasar una película sobre los efectos de ésta sobre el ambiente. Los datos obtenidos fueron los siguientes:
Estadística paramétrica
173
Antes
Después
D
D2
100
90
10
100
200 180 90 49 110 185 170 165 160 ∑ = 1,409
60 75 85 40 65 75 95 85 70 ∑ =740
140 105 5 9 45 110 75 80 90
19,600 11,025 25 81 2,025 12,100 5,625 6,400 8,100 ∑ D2= 65,081
Para obtener el resultado a través de la prueba t para muestras relacionadas de los datos anteriores se siguen los pasos que a continuación se detallan: a) Se plantean las hipótesis estadísticas: Ho. No existen diferencias estadísticamente significativas en la actitud hacia la contaminación ambiental antes y después de ver la película. H1. Sí existen diferencias estadísticamente significativas en la actitud hacia la contaminación ambiental antes y después de ver la película. b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. α =.05
c) Calcular las medias para cada grupo
d) Calcular la desviación estándar de la muestra (σ 1 ). La fórmula para calcular la desviación estándar para cada grupo es:
Sofía Rivera Aragón 174 Mirna García Méndez
e) Encontrar el error estándar de la diferencia (σ diff).
f) Sustituir en la fórmula de t.
g)Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.
gl= 1 0 - 1 = 9
2. Se busca en el apéndice en la tabla F de valores críticos de t los grados de libertad y la probabilidad (α ).
En la tabla F del apéndice se encuentra la t0 (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: 4.45 ≥ 2.26 Hi se acepta. Es decir que como la t de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna. Aquí podríamos decir que sí hubo un cambio en la actitud hacia la contaminación ambiental, ya que después de la película, la actitud fue más desfavorable (puntajes más bajos).
Estadística paramétrica
175
Ejercicio
SPSS
Con la finalidad de conocer si existen diferencias en la actitud hacia el sida antes y después de una plática sobre el tema en adolescentes (Pavaan, 2004) se aplicó la prueba t para muestras relacionadas. Se plantearon las siguientes hipótesis: Ho. No existen diferencias estadísticamente significativas en los conocimientos y actitudes hacia el sida en adolescentes, antes y después de recibir una plática sobre el tema. H1. Sí existen diferencias estadísticamente significativas en los conocimientos y actitudes hacia el sida en adolescentes, antes y después de recibir una plática sobre el tema. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Compare Means, se da clic y aparece otro menú, se coloca el cursor en PairedSamples T-Test y se da clic.
Sofía Rivera Aragón 176 Mirna García Méndez
Paso 3. Al hacer clic en Paired-Samples T-Test, se abre un menú que contiene las variables de la investigación.
Paso 4. Las variables de las calificaciones antes y después de la plática se marcan con el cursor, se da clic sobre las variables de estudio y se pasan las variables seleccionadas a la ventana de current selection.
Estadística paramétrica 177
Paso 5. Las variables que se encuentran en la ventana de current selection al dar clic al icono entre las ventanas éstas son pasadas de esta ventana por pares a la ventana vacía (paired variables).
Una vez definidas las variables, se da clic en OK y se muestra el resultado de la prueba t de student.11 La s tablas 31 y 32 muestran los 11Idem.
Sofía Rivera Aragón 178 Mirna García Méndez
resultados de la prueba t de student que son los que indican las estadísticas descriptivas, el valor de la prueba t. el nivel de significancia, el número de participantes considerados para el análisis, así como grados de libertad y el valor de la correlación. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación.
TABLA 31 ESTADÍSTICAS DESCRIPTIVAS DE SPSS DE LA PRUEBA T DE STUDENT: Paired Samples Statistics
Mean
Pair 1
Antes
9.2027
Después
20.0135
Paired Samples Correlations Pair 1
Antes y Después
N
Std. Deviation
Std. Error Mean
74 74
11.81592 10.84952
1.37357 1.26123
N
Correlation
74
.068
Sig. .566
TABLA 32 VALORES DE LA PRUEBA T DE STUDENT PARA MUESTRAS RELACIONADAS DE SPSS: Paired Samples Test
Paired Differences Mean
Pair 1
Antes Después
-10.8108
Std
Std. Error
Deviation
Mean
15.48988 1.80066
95% Confidence Interval of the Difference Lower
Upper
t
-14.3995 -7.2221 -6.004
Sig. (2tailed) df 73 .000
Estadística paramétrica
179
Reporte de investigación de la prueba t para muestras relacionadas
Una de las formas de presentar la información obtenida en el
SPSS,
en un
reporte de investigación basado en el estudio sobre la diferencia en las actitudes y conocimientos hacia el
SIDA
en adolescentes antes y después de
una plática (Pavaan, 2004) es presentada a continuación: A partir de los resultados obtenidos (véase tabla 31) mediante la prueba t de student para muestras relacionadas se encuentra que con respecto al área de conocimientos existen diferencias significativas antes y después de la plática, ya que al recibir información, aumentaron los conocimientos sobre epidemiología, desarrollo de la enfermedad, prevención y mecanismos de transmisión de la misma. Por otro lado, no se encontraron diferencias significativas en lo que se refiere a los conocimientos sobre síntomas del
SIDA
antes y después de la
plática. En cuanto a las actitudes, se encontró que después de dar la plática aumenta el apoyo a los enfermos con
SIDA,
también la disposición a la uti-
lización de métodos de sexo seguro y disminuye el miedo a tener el mal. Finalmente no se encontraron diferencias significativas en lo que se refiere al temor a contagiarse con el VIH y al cambio en la conducta sexual para prevenir la enfermedad. Análisis de varianza (Anova) Introducción
Como se vio en la prueba anterior, se plantea que en general divulgamos información
sobre
varios
grupos
de
la
población,
comparándolos.
Sin embargo, en el apartado de la prueba t de student vimos cómo comúnmente comparábamos dos grupos afirmando que uno era más grande que el otro o más difícil, etcétera. No obstante cuando hablamos de más de dos grupos, como por ejemplo, que hay más satisfacción laboral en los niveles medios que en el mando ejecutivo y operativo de una em-
180
Sofía Rivera Aragón Mirna García Méndez
TABLA 33 DIFERENCIAS ANTES Y DESPUÉS EN ACTITUDES Y CONOCIMIENTOS HACIA EL SIDA EN ADOLESCENTES
Áreas
Media antes después
t
P
Epidemiología
1.50
1.66
-7.81
.000**
Desarrollo de la enfermedad Prevención Síntomas Mecanismos de transmisión Apoyo a los enfermos de sida Temor al contagio del VIH Miedo a tener sida Cambio de la conducta sexual Sexo seguro
1.36 1.61 1.31 1.64 3.45 3.56 3.03 3.42 3.22
1.58 1.71 1.40 1.85 3.84 3.66 2.88 3.39 3.44
-5.83 -3.67 -0.83 -6.33 -3.18 -0.65 1.81 0.40 2.52
.000** .001** .410 .000** .002** .517 .05* .692 .01**
*P ≤ 0.05. **p ≤ 0.01.
presa, o que decimos que los solteros están más satisfechos con su relación que los casados y los divorciados, o que los hombres jóvenes están más satisfechos sexualmente que los hombres maduros y las mujeres jóvenes, estamos haciendo comparaciones con tres o más grupos y además estamos combinando las características de estos grupos para poder ver en qué medida difieren. De la misma forma que en el apartado anterior, estamos afirmando que la media de una muestra es más grande, más fuerte y/o más difícil que la otra. Empero, también debemos comprobar si nuestras afirmaciones son ciertas en términos de probabilidad. Esta parte del libro se abocará a explorar una de las pruebas que puede examinar si las diferencias propuestas son significativas en tres o más grupos. El análisis de varianza, Anova (del inglés, analysis of variance), es uno de los métodos estadísticos más utilizados en la investigación moderna. Para iniciar el análisis de varianza debemos hablar de la varianza total, la varianza entre grupos y la varianza intragrupos. Estos conceptos son básicos en el Anova ya que describen la lógica del mismo (Levin y
Estadística paramétrica
181
Levin, 2002). La varianza entre los grupos plantea la comparación entre las medias de los grupos. La varianza dentro de los grupos hace referencia a la distancia entre los puntajes crudos y su media de grupo. Definición
El Anova es una prueba de hipótesis que observa si tres o más grupos presentan una diferencia significativa con respecto a una variable dependiente. Esta prueba tiene varios usos: • Encontrar diferencias entre las medias de tres o más grupos. • Conocer la interacción entre variables: este es un nuevo concepto que implica un efecto combinado de las variables independientes o de clasificación. Requisitos
El Anova tiene varios requisitos o supuestos, entre ellos: a) Que los puntajes se distribuyan normalmente.
b) Que haya homocedasticidad de varianza. Es decir que la distancia entre la media y un puntaje crudo sea muy similar de una muestra a otra.
182
Sofía Rivera Aragón Mirna García Méndez
c) Que las variables tengan un nivel de medición intervalar. Por ejemplo: calificación de motivación al logro o promedio escolar. d) Que haya una selección y asignación aleatoria de los participantes. CLASIFICACIÓN DEL ANOVA
I. Anova simple: Se refiere a la comparación entre tres o más muestras tomadas de la misma población o de poblaciones diferentes, con respecto a una variable dependiente. Por ejemplo: a) Anova simple para muestras iguales: comparar si existen diferencias en el grado de dolor por celos que sienten 100 solteros, 100 casados y 100 reconstituidos. b) Anova simple para muestras diferentes: comparar la conducta sexual entre 50 parejas con hijos, 60 parejas sin hijos y 55 parejas donde la mujer esta en proceso de gestación.
Estadística paramétrica 183
2. Anova de doble clasificación o de doble entrada Este se refiere a la interacción de dos variables de clasificación o independientes con dos categorías o grupos, cada una con respecto a una variable dependiente. Por ejemplo: Medir una muestra de adultos y jóvenes, hombres y mujeres con respecto a la identidad nacional, para ver si ésta varía con respecto al sexo y a la edad por un lado y a la interacción de ambos por otro. El diseño de 2 X 2 que se plantea en este ejemplo quedaría esquematizado como sigue:
Edad Jóvenes Sexo
Adultos
Hombres Mujeres
3. Análisis factorial de varianza: Este análisis se refiere a la comparación de dos variables independientes o más, de tres o más categorías o grupos con una variable dependiente. Por ejemplo: Medir una muestra de diferentes niveles escolares de hombres y mujeres con respecto a la actitud hacia la infidelidad, para ver si ésta varía con respecto al sexo y a la escolaridad por un lado y a la interacción de ambos por el otro. El diseño de 2 x 4 que se plantea en este ejemplo quedaría esquematizado como sigue: Escolaridad Primaria Sexo
Secundaria
Preparatoria
Licenciatura
Hombres Mujeres
Análisis de varianza simple cuando el tamaño (N) de los grupos es igual
Esta prueba se aplica cuando se tienen tres o más muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero en los tres grupos o más el tamaño es igual. Por ejemplo: 184
Sofía Rivera Aragón Mirna García Méndez
Variable dependiente: Orientación al logro. Variable de clasificación: Estudiantes de 1o., 2º. y 3o. grados de secundaria. En este caso cada uno de los grados escolares debe tener el mismo número de participantes: por ejemplo 60 de lo., 60 de 2o. y 60 de 3o. de secundaria. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo (∑X i ). d) Obtener el cuadrado de la sumatoria (∑X) i 2 e) Elevar al cuadrado cada puntaje crudo y sumarlo (∑X) i 2 f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:
donde: Sumar todos los puntajes crudos de todos los grupos y elevarlos al cuadrado. K= Número de grupos a comparar. N = Número de participantes por grupo, g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:
donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas, para cada grupo. FC= Factor de corrección.
Estadística paramétrica 185
h) Obtener la suma de cuadrados entre los grupos (SCE). La fórmula para calcular la SCE es:
donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos. FC = Factor de corrección. N = Número de participantes por grupo. Obtener la suma de cuadrados intragrupos {SCI). La fórmula para calcular la SCI es: SCI = SCT - SCE
Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N – 1 glentre = k - 1 glintra = N - k donde: N = Número total de participantes en todos los grupos. K = Número de grupos que se están comparando. 1 = Constante. k) Obtener la media de cuadrados entre grupos (MCE). La fórmula para calcular la MCE es:
186
Sofía Rivera Aragón Mirna García Méndez
l) Obtener la media de cuadrados intragrupos (MCI). La fórmula para calcular la MCI es:
m) Sustituir en la fórmula de F (prueba de significancia del Anova):
n) Construir la tabla de procedencia:
Tabla de procedencia SC
gl
MC
F
Entre Intra Total
o) Para obtener la significancia, se busca en el apéndice en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.
En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas.
Estadística paramétrica
187
Posteriormente se aplica la regla de decisión, que es:
Fc ≥ F0 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G del apéndice, entonces se acepta la hipótesis alterna. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo (X1, X2 y X3 ) e interpretar la magnitud de las diferencias. La fórmula para calcular la media para cada grupo es:
donde: ∑X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo. N — Número de participantes por grupo.
Ejercicio
Un investigador desea conocer si existen diferencias entre la media de los grupos (niños de 4 a 5 años, de 6 a 7 y de 8 a 9) en su calificación de autoestima. Los datos obtenidos se presentan a continuación:
Niños por grupo de edad 4 a 5 años X1
X
10
8 a 9 años
X2
22
X
X3
X32
100
14
196
11
121
15
225
10
100
10
100
18
324
9
81
9
81
20
400
7
49
6
36
25
625
8 48
64
7
49
∑X22= 490
∑X3 = 43
∑X32= 387
∑X1 = 88
188
ó a 7 años 12
∑X12 = 1674 ∑X2 =
Sofía Rivera Aragón Mirna García Méndez
Para obtener el resultado a través del Anova simple para muestras iguales de los datos anteriores se siguen los pasos que a continuación se detallan: a) Se plantean las hipótesis estadísticas Ho. No existen diferencias estadísticamente significativas en la autoestima en niños de diferentes edades. H1. Sí existen diferencias estadísticamente significativas en la autoestima en niños de diferentes edades. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. α = .05
c) Obtener la sumatoria de los puntajes para cada grupo.
d) Obtener el cuadrado de la sumatoria para cada grupo.
e) Elevar al cuadrado cada puntaje crudo y sumarlo para cada grupo.
f) Calcular el factor de corrección (FC).
g) Obtener la varianza total (SCT).
Estadística paramétrica 189
h) Obtener la suma de cuadrados entre los grupos (SCE).
i) Obtener la suma de cuadrados intragrupos (SCI). SCI = 414.94-243.34 = 1 7 1 . 6 j ) Calcular los grados de libertad (gl). gltotal = 15 – 1 = 14 glentre = 3 – 1 = 2 glintra = 15 – 3 = 12 k) Obtener la media de cuadrados entre grupos (MCE).
l) Obtener la media de cuadrados intragrupos (MCI).
m) Sustituir en la fórmula de F (prueba de significancia del Anova):
n) Construir la tabla de procedencia:
Tabla de procedencia
190
SC
gl
Entre
243.34
2
121.67
Intra Total
171.6 414.94
12 15
14.3
Sofía Rivera Aragón Mirna García Méndez
MC
F 8.50
o) Para obtener la significancia, se busca en el apéndice en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical.
En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: 8.50 ≥ 3.89 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. En este caso decimos que existen diferencias significativas en la autoestima de niños de diferentes edades. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo (X1, X2 y X3) e interpretar la magnitud de las diferencias.
Con respecto a estos valores se puede observar que los niños de 5 a 6 años presentan una media más alta en autoestima que los niños de mayor edad. Cabe aclarar hasta aquí que el Anova indica diferencias entre grupos, pero no nos dice entre cuáles. Para ello habría que aplicar una prueba post-hoc (Scheffe, Duncan o Tukey). Análisis de varianza simple para N desiguales
Esta clasificación se aplica cuando se tienen tres o más muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero en los tres grupos las muestras son diferentes. Por ejemplo:
Estadística paramétrica
191
Variable dependiente: Estilo de comunicación positivo. Variable de clasificación: estado civil = solteros, casados, unión libre, reconstituidos
En este caso cada una de las categorías del estado civil debe tener un número diferente de participantes: por ejemplo 115 solteros, 100 casados, 99 unión libre y 102 personas en relaciones reconstituidas. Para calcular esta prueba se aplica el procedimiento que a continuación se detalla. Algo importante de mencionar es que los pasos son similares al Anova para muestras iguales solamente cambian las fórmulas de la SCE y el PC. a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo (∑ X) d) Obtener el cuadrado de la sumatoria (∑ X)2 e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X12 f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:
donde: Sumar todos los puntajes crudos de todos los grupos y elevarlos al cuadrado. N = Número de participantes para cada grupo. g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:
192
Sofía Rivera Aragón Mirna García Méndez
donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas. FC= Factor de corrección. h) Obtener la suma de cuadrados entre los grupos {SCE). La fórmula para calcular la SCE es:
donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos, FC = Factor de corrección. N= Número de participantes en cada grupo. Obtener la suma de cuadrados intragrupos (SCI). La fórmula para calcular la SCI es: SCI = SCT-SCE Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N – 1 glentre = k - 1 glintra = N - k donde: N = Número total de participantes en todos los grupos. k = Número de grupos que se están comparando. 1 = Constante.
Estadística paramétrica
193
k) Obtener la media de cuadrados entre grupos (MCE). La fórmula para calcular la MCE es:
l) Obtener la media de cuadrados intra grupos (MCI). La fórmula para calcular la MCI es:
m) Sustituir en la fórmula de F (prueba de significancia del Anova):
n) Construir la tabla de procedencia:
Tabla de procedencia SC
gl
MC
F
Entre Intra Total
o) Para obtener la significancia, se busca en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente. En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas.
194 Sofía Rivera Aragón Mirna García Méndez
Posteriormente se aplica la regla de decisión que es:
Fc ≥ F0 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G del apéndice, entonces se acepta la hipótesis alterna. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo
e interpretar la magnitud
de las diferencias. La fórmula para calcular la media para cada grupo es:
donde: ∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo. N = Número de participantes por grupo.
Ejercicio
Un psicólogo desea saber si existen diferencias estadísticamente significativas en el tiempo que tardan para resolver un rompecabezas niños con diferentes sistemas escolares: Montesori, Dalton, Piaget. Para obtener el resultado a través del Anova simple para muestras diferentes de este ejemplo se siguen los pasos que a continuación se detallan: a) Se plantean las hipótesis estadísticas: Ho. No existen diferencias estadísticamente significativas en el tiempo que tardan los niños para resolver un rompecabezas dependiendo del sistema educativo (Montesori, Dalton, Piaget).
Estadística paramétrica
195
Tiempo de resolución de un rompecabezas Piaget
Montesori
Dalton
5
25
3
9
7
49
4 5 5 4 5 4 5 5 4
16 25 25 16 25 16 25 25 16 3
4 3 4 5 3 2 4 3 4 9 4 ∑X2 = 42
16 9 16 25 9 4 16 9 16 4 16 ∑X22 = 154
8 10 12 10 9 9 7 5 3 16
64 100 144 100 81 81 49 25 9
∑X1 = 46
∑ X1 2 =
214
∑X2 = 84
∑X32
718
H1. Sí existen diferencias estadísticamente significativas en el tiempo que tardan los niños para resolver un rompecabezas dependiendo del sistema educativo (Montesori, Dalton, Piaget). b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. α = .05
c) Obtener la sumatoria de los puntajes para cada grupo.
d) Obtener el cuadrado de la sumatoria para cada grupo.
e) Elevar al cuadrado cada puntaje crudo y sumarlo para cada grupo.
196
Sofía Rivera Aragón Mirna García Méndez
f) Calcular el factor de corrección (FC).
g) Obtener la varianza total (SCT). SCT = 2 1 4 + 1 5 4 + 7 1 8 - 8 9 6 . 4 8 = 1 8 9 . 5 2
h) Obtener la suma de cuadrados entre los grupos {SCE).
Obtener la suma de cuadrados intragrupos (SCI). SCI = 1 8 9 . 5 2 - 1 0 3 . 1 3 = 8 6 . 3 9
Calcular los grados de libertad (gl). gltotal = 33 – 1 = 32 glentre = 3 – 1 = 2 glintra = 33 – 3 = 30 k) Obtener la media de cuadrados entre grupos (MCE).
l) Obtener la media de cuadrados intragrupos (MCI).
Estadística paramétrica
197
m) Sustituir en la fórmula de F (prueba de significancia del Anova):
n) Construir la tabla de procedencia: Tabla de procedencia gl MC
SC Entre
103.13
2
51.56
Intra Total
86.39 189.52
30 32
2.87
F 17.96
o) Para obtener la significancia, se busca en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical.
En la tabla G se encuentra la Fa (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: 17.96 ≥ 3.32 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G del apéndice, entonces se acepta la hipótesis alterna. En este caso decimos que existen diferencias significativas en el tiempo que tardan los niños que están bajo diferentes sistemas educativos. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupc de las diferencias.
198
Sofía Rivera Aragón Mirna García Méndez
e interpretar la magnitud
Con respecto a estos valores se puede observar que los niños de cinco a seis años presentan una media más alta en el tiempo que tardan en resolver un rompecabezas con un sistema Dalton. Cabe aclarar hasta aquí que el Anova indica diferencias entre grupos, pero no nos dice entre cuáles. Para ello habría que aplicar una prueba post-hoc (Scheffe, Duncan o Tukey).
Ejercicio SPSS Con la finalidad de conocer si existen diferencias a través del ciclo vital en la relación de pareja en las historias de amor (Romero, 2003) se aplicó el Anova simple. Se plantearon las siguientes hipótesis: Ho No existen diferencias estadísticamente significativas en las historias de amor de acuerdo con cada una de las etapas del ciclo vital. H1 Sí existen diferencias estadísticamente significativas en las historias de amor de acuerdo con cada una de las etapas del ciclo vital. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.
Estadística paramétrica
199
Paso 2. Al hacer clic en Analyze aparece un menú en el que se coloca el cursor en Compare Means, se da clic y aparece otro menú, se coloca el cursor en One-WayAnova y se da clic.
Paso 3. Al hacer clic en One-Way-Anova, se abre un menú que contiene las variables de la investigación.
Sofía Rivera Aragón 200 Mirna García Méndez
Paso 4. Las variables de historias de amor se marcan con el cursor. Se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía donde se colocan las variables dependientes, la variable de clasificación, que en este caso es la etapa del ciclo vital de la relación, se le coloca donde están los grupos.
Una vez definidas las variables, se da clic en OK y se muestra el resultado del Anova simple.12 La tabla 34 muestra los resultados del Anova que son los que indican el valor de la prueba, el nivel de significancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varianzas. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación.
12 Con fines didácticos se muestran los resultados del Anova factorial, tal como los reporta el SPSS; sin embargo, nunca se presentan así en un reporte de investigación.
Estadística paramétrica 201
TABLA 34
ANOVA SIMPLE Anova Sum of Squares Factor 1: Romance
Between Groups
Within Groups Total Factor 2: Organización Between Groups Within Groups Total Factor 3: Sexual Between Groups Within Groups Total Between Groups Factof 4: Atracción- misterio Within Groups Total Factor 5: Humor Between Groups Within Groups Total Between Groups Factor ó: Maestro- estudiante Within Groups Total Factor 7: Guerra Between Groups Within Groups Total Factor 8: Policía prófugo Between Groups Within Groups Total Factor 9: Atracción bizarra Between Groups Within Groups Total Factor 10: Control-variedad Between Groups Within Groups Total Between Groups Factor 11: SacrificioWithin Groups dependencia Total Factor 12: Desconfianza mutua Between Groups Within Groups Total
202
Sofía Rivera Aragón Mirna García Méndez
539.102 7,762.221 8,301.323 460.866 4,597.883 5,058.749 205.048 3,997.054 4,202.103 209.848 1,513.505 1,723.353 81.644 2,920.833 3,002.477 260.314 3,772.477 4,032.792 488.694 4,483.409 4,972.103 298.978 4,760.116 5,059.094 312.706 2,463.028 2,775.734 238.263 3,448.927 3,687.190 154.639 1,912.304 2,066.943 63.394 1,472.600 1,535.994
df
5 325 330 5 325 330 5 325 330 5 325 330 5 325 330 5 325 330 5 325 330 5 323 328 5 325 330 5 325 330 5 325 330 5 323 328
Mean Square
F
Sig.
107.820
4.514
.001
92.173 14.147
6.515
.000
41.010 12.299
3.334
.006
41.970 4.657
9.012
.000
16.329 8.987
1.817
.109
52.063 11.608
4.485
.001
97.739 13.795
7.085
.000
59.796 14.737
4.057
.001
62.541 7.579
8.252
.000
47.653 10.612
4.490
.001
30.928 5.884
5.256
.000
12.679 4.559
2.781
.018
23.884
Reporte de investigación del
análisis de varianza simple
Para probar la hipótesis del investigador se aplicó un análisis de varianza simple (Romero, 2003) el cual mostró diferencias significativas en todas las historias de amor a lo largo del ciclo vital de la pareja, excepto en la historia de humor. Para la historia de romance se detectó que el apego y el cariño son menores durante el noviazgo, incrementan significativamente al inicio del matrimonio y decrementan con la llegada de los hijos. De los siete a los catorce años de matrimonio repuntan nuevamente, decrementan después de los 14 años de matrimonio. Para la historia de organización, se encuentra que los esquemas, las reglas y las estructuras son más importantes en la última etapa de noviazgo y la primera del matrimonio. Al igual que en la historia de romance, la organización decrementa con la llegada de los hijos, de los siete a los catorce años de matrimonio tiene un repunte importante para obtener su mínimo puntaje en la última etapa del ciclo vital de la pareja. La historia sexual se mantiene más o menos estable a lo largo de las primeras etapas hasta los tres años de matrimonio, entre los tres y siete años de matrimonio el erotismo y la exploración sexual aumentan, para posteriormente decrementar y alcanzar su mínimo puntaje en la última etapa del ciclo vital de la pareja. En cuanto a la historia de atracción-misterio se observa que los puntajes más altos se localizan en las etapas del noviazgo, donde el hecho de no conocer totalmente a la pareja le confiere mayor atracción a la relación. Por último para la etapa de maestroestudiante se señalan decrementos importantes en la última etapa del matrimonio probablemente debido al amplio conocimiento que los miembros de la pareja han obtenido el uno del otro con el paso de los años. Lo anterior demuestra que el matrimonio no es una etapa estática en la vida de los seres humanos (véase tabla 35), sino que constantemente tiene cambios en todos los aspectos relaciónales de la pareja.
Estadística paramétrica
203
TABLA 35 DIFERENCIAS POR ETAPA DE CICLO VITAL EN LAS HISTORIAS DE AMOR Etapa Factor
0a6 meses noviazgo
Más de 6 D e 0 a meses de 3 años de noviazgo mat.
De 3 a 7 De 7 a 14 Más de 14 años de años de años de mat mat. mat.
F
P
Romance
18.75
19.49
22.21
18.35
20.39
18.95
4.51
.001**
Organización
19.73
21.82
21.30
19.67
21.61
18.67
6.51
.000**
Sexual
11.58
11.59
11.00
13.19
11.93
10.69
3.33
.006**
Atracciónmisterio
10.79
10.26
8.98
9.02
8.61
8.93
9.01
.000**
Humor
9.54
10.23
9.94
9.28
9.43
8.69
1.81
.109
MaestroEstudiante
18.88
18.59
18.34
18.43
18.86
16.69
4.48
.001 **
*p< 0.05. **p< 0.01. Análisis de varianza de doble clasificación
Este análisis introduce el concepto de interacción, el cual, como ya se había mencionado, aduce a la combinación de las categorías de dos variables independientes o de clasificación con respecto a una variable dependiente. El procedimiento al cálculo es similar al análisis de varianza simple, sólo que éste además calcula los componentes de la varianza entre grupos de los efectos principales de cada una de las variables independientes por separado, además de la interacción entre las mismas. Por ejemplo: Variable dependiente: Creatividad Variables de clasificación: Sexo: Hombres y mujeres Escolaridad: Media superior y superior El diseño quedaría como sigue: Escolaridad/Sexo Hombres Media superior Superior
204
Sofía Rivera Aragón Mirna García Méndez
Mujeres
En este caso, cada una de las variables por separado implica el efecto principal, y la combinación la interacción de las mismas, para predecir la creatividad. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo (∑ x). d) Obtener el cuadrado de la sumatoria (∑ x)2. e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X1. f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:
donde: Sumar todos los puntajes crudos de todos los grupos y elevarlos al cuadrado, K= Número de grupos a comparar. N = Número de participantes por grupo, g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:
donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas. FC— Factor de corrección.
Estadística paramétrica
205
h) Obtener la suma de cuadrados entre los grupos (SCE). La fórmula para calcular la SCE es:
donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos, FC= Factor de corrección, N= Número de participantes por grupo. Obtener la suma de cuadrados intragrupos (SCI). La fórmula para calcular la SCI es:
SCI = SCT -SCE Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N - 1 glentre = k - 1 glintra N — k
donde: N — Número total de participantes en todos los grupos, K = Número de grupos que se están comparando, 1 = Constante.
206
Sofía Rivera Aragón Mirna García Méndez
k) Obtener la media de cuadrados entre grupos (MCE). La fórmula para calcular la MCE es:
l) Obtener la media de cuadrados intra grupos (MCI). La fórmula para calcular la MCI es:
m) Sustituir en la fórmula de F (prueba de significancia del Anova):
n) Construir la tabla de procedencia:
Tabla de procedencia SC
gl
MC
F
Entre Intra Total
o) Para obtener la significancia, se busca en el apéndice la tabla G de valores críticos de F, los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.
En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas.
Estadística paramétrica
207
Posteriormente se aplica la regla de decisión que es: Fc ≥ F0 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G entonces se acepta la hipótesis alterna. p) Si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo
e interpretar la magnitud de
las diferencias. La fórmula para calcular la media para cada grupo es:
donde: ∑ X= Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo, N = Número de participantes por grupo. q) Una vez que se calculó el análisis de varianza simple se acomodan los
valores de las variables en una tabla de 2 x 2. Tomando el ejemplo anterior quedaría como sigue: Variable dependiente: Creatividad Variables de clasificación: Sexo: Hombres y mujeres Escolaridad: Media superior y superior El diseño quedaría como sigue:
Escolaridad/Sexo Media superior Superior
208
Sofía Rivera Aragón Mirna García Méndez
Hombres
Mujeres
r) Una vez acomodados se obtiene la suma de cuadrados de los efectos principales de las variables en estudio. 1. Obtener la suma de cuadrados de la variable que se encuentra en las filas de la tabla (SCV1). En este ejemplo sería la escolaridad. La fórmula para obtenerla es:
donde: ∑ (f1)2 = Sumar los valores de la fila 1 y elevarlos al cuadrado. ∑ (f2)2 = Sumar los valores de la fila 2 y elevarlos al cuadrado.
K = Número de categorías o grupos de las variables. N = Número de participantes por grupo. FC = Factor de corrección. 2. Obtener la suma de cuadrados de la variable que se encuentra er las columnas de la tabla (SCVc). En este ejemplo sería el sexo. La fórmula para obtenerla es:
donde: ∑ (c1)2= Sumar los valores de la columna 1 y elevarlos al cuadrado. ∑ (c2 )2= Sumar los valores de la columna 2 y elevarlos al cuadrado.
K= Número de categorías o grupos de las variables. N = Número de participantes por grupo. FC = Factor de corrección. s) Calcular la interacción de las variables (SCINT). La fórmula para calcular la interacción es: SCINT = SCE – SCVf - SCVc
Estadística paramétrica
209
donde: SCVf = Suma de cuadrados de la variable que se encuentra en las filas. SCVc = Suma de cuadrados de la variable que se encuentra en las columnas. SCE = Suma de cuadrados entre grupos. t) Calcular los grados de libertad de los efectos principales y de la interacción.
glvf = K - 1 (grados de libertad de la variable de las filas), glrc = K - 1 (grados de libertad de la variable de las columnas), gfint = (Kf- 1) (Kc - l)(grados de libertad de la interacción). donde: k = Número de categorías o grupos de la variable en estudio. 1 = Constante. u) Calcular la media de cuadrados de los efectos principales y de la interacción.
media de cuadrados de la variable de las filas) media de cuadrados de la variable de las columnas) (media de cuadrados de la interacción) v) Sustituir en la fórmula de F (prueba de significancia del Anova) tanto para efectos principales como de la interacción: (prueba f para la variable de las filas) (prueba f para la variable de las columnas) (prueba f para la variable de la interacción)
210
Sofía Rivera Aragón Mirna García Méndez
w) Construir la tabla de procedencia: Tabla de procedencia SC
gl
MC
F
Entre Filas Columnas Interacción Intra Total
x) Para obtener la significancia, se buscan en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (a) hay una tabla independiente y deben buscarse todos los valores de la prueba F tanto para efectos principales como para la interacción.
En la tabla G del apéndice se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas planteadas por cada variable y la interacción. Posteriormente se aplica la regla de decisión que es: Fc ≥ F0 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. Esto se aplica en todas las F (pruebas de significancia del Anova) que aparecen en la tabla (efectos principales e interacción).
Estadística paramétrica
211
y) Finalmente si se encuentran diferencias significativas ya sea por los efectos principales o por la interacción, hay que calcular las medias para cada grupo (X1, X2 y X3 ) e interpretar la magnitud de las diferencias. La fórmula para calcular la media para cada grupo es:
donde: ∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo. N = Número de participantes por grupo. Ejercicio
Un investigador desea saber si hay diferencias en el grado de altruismo, dependiendo del sexo y la edad de los participantes. Los datos se presentan a continuación: Jóvenes
Adultos
Hombre
Mujer
X
2
X
X
4
16
1
9 9 10
81 81 100 ∑ X2 = 32 ∑ X12 = 278
4 5 6 ∑ X2 =16
Hombre X
X
2
1 16 25 36 ∑X22=78
3 7 7 7 ∑X3=74
Mujer 2
X
X
X2
9
4
16
49 49 49 ∑X32=156
4 4 8 ∑X4=20
16 16 64 ∑X42= 112
Para calcular el resultado de esta investigación se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo. 212
Sofía Rivera Aragón Mirna García Méndez
d) Obtener el cuadrado de la sumatoria:
e) Elevar al cuadrado cada puntaje crudo y sumarlo:
f) Calcular el factor de corrección (FC):
g) Obtener la varianza total (SCT): SCT = 2 7 8 + 7 8 + 1 5 6 + 1 1 2 - 5 2 9 = 9 5
h) Obtener la suma de cuadrados entre los grupos (SCI):
i) Obtener la suma de cuadrados intragrupos (SCI): SCI = 9 5 - 3 5 = 6 0
;) Calcular los grados de libertad (gl) Las fórmulas para calcular los grados de libertad son: gltotal = 1 6 - 1 = 1 5 glentre 4 - 1 = 3 glintra = 1 6 - 4 = 1 2
Estadística paramétrica
213
k) Obtener la media de cuadrados entre grupos (MCE):
l) Obtener la media de cuadrados intra grupos (MCI):
m) Sustituir en la fórmula de F (prueba de significancia del Anova):
n) Construir la tabla de procedencia: Tabla de procedencia
Entre Intra Total
SC
91
MC
F
35 60 95
3 12 15
11.67 5
2.33
o) Para obtener la significancia, se busca en el apéndice la tabla G de valores críticos de F, los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.
En la tabla G se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: 2.33 ≥ 3.49 H1 se rechaza.
214
Sofía Rivera Aragón Mirna García Méndez
Es decir que como la F de la fórmula es más pequeña que la de la tabla G entonces se rechaza la hipótesis alterna. Es decir, no hay diferencias entre los cuatro grupos en el nivel de altruismo. p) En este caso no se encontraron diferencias entre todos los grupos por ende no se calcularon las medias generales. q) Una vez que se calculó el análisis de varianza simple se acomodan los valores de las variables en una tabla de 2 x 2.
Sexo Edad Jóvenes
Adultos
Hombres
Mujeres
4
1
9 9 10
4 5 6
∑X1 =32
∑X2=l6
3 7 7 7
4 4 4 8
∑X3=24 ∑(C I )=56
∑X4=20 ∑(C2)=36
∑(f1)=48
∑(f2)=44
r) Una vez acomodados se obtiene la suma de cuadrados de los efectos principales de las variables en estudio. 1. Obtener la suma de cuadrados de la variable que se encuentra en las filas de la tabla (SCVf). En este ejemplo sería la edad:
2. Obtener la suma de cuadrados de la variable que se encuentra en las columnas de la tabla (SCV0). En este ejemplo sería el sexo:
Estadística paramétrica
215
s) Calcular la interacción de las variables (SCINT). La fórmula para calcular la interacción es: SC INT = 35 -25 -1 = 9 t) Calcular los grados de libertad de los efectos principales y de la interacción. glvf =2-1 = 1 (grados de libertad de la variable de las filas) glvc =2-1 = 1 (grados de libertad de la variable de las columnas) glint = (2f — 1) (2C — 1) (grados de libertad de la interacción) u) Calcular la media de cuadrados de los efectos principales y de la interacción.
v) Sustituir en la fórmula de F (prueba de significancia del Anova) tanto para efectos principales como de la interacción:
216
Sofía Rivera Aragón Mirna García Méndez
w) Construir la tabla de procedencia:
Tabla de procedencia SC
gl
MC
F
S Entre
35.0
3
11.67
2.33
Sexo Edad Sexo x Edad Dentro Total
25.0 1.0 9.0 60.0 95
1 1 1 12 15
25.0 1.0 9.0 5.0
5.0 0.20 1.80
x) Para obtener la significancia, se busca en al apéndice en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente y deben buscarse todos los valores de la prueba F tanto para efectos principales como para la interacción. Prueba F para el efecto principal de edad:
Prueba F para el efecto principal de sexo:
Prueba F para la interacción:
Estadística paramétrica
217
En la tabla G se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas planteadas por cada variable y la interacción. Posteriormente se aplica la regla de decisión. Efecto principal de edad: 0.20 ≤ 4.75 H1 se rechaza. Efecto principal de sexo: 5 ≥ 4.75 H1 se acepta. Efecto de la interacción: 1.80 4.75 H1 se rechaza. Es decir que como la F de la fórmula es más grande que la de la tabla G solo para el efecto principal de sexo, entonces se acepta la hipótesis alterna. y) Finalmente si se encuentran diferencias significativas ya sea por los efectos principales o por la interacción, hay que calcular las medias para cada grupo (X1 y X2) e interpretar la magnitud de las diferencias. En este caso sólo se calcula para hombres y mujeres ya que ahí es donde encontramos diferencias significativas.
Sí hay diferencias en las medias del puntaje de altruismo entre hombres y mujeres. Siendo éste más alto en los hombres. Ejercicio SPSS
Con la finalidad de conocer si existen diferencias por sexo (hombres y mujeres) y trabajo (quiénes trabajan fuera del hogar y quiénes no trabajan) en los estilos de amor (Rivera y Díaz-Loving, 2002) se aplicó un análisis de varianza de doble clasificación.
Sofía Rivera Aragón 218 Mirna García Méndez
Se plantearon las siguientes hipótesis: Efecto principal de sexo: H0 No existen diferencias estadísticamente significativas en los estilos de amor entre hombres y mujeres. H1. Sí existen diferencias estadísticamente significativas en los estilos de amor entre hombres y mujeres. Efecto principal de sexo: 1. H0 No existen diferencias estadísticamente significativas en los estilos de amor entre personas que trabajan y las que no trabajan. 2. H1. Sí existen diferencias estadísticamente significativas en los estilos de amor entre personas que trabajan y las que no trabajan. Interacción: H0 No habrá interacción entre sexo y trabajo. H1 Sí habrá interacción entre sexo y trabajo. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.
Estadística paramétrica
219
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en General Lineal Model, se da clic y aparece otro menú, se coloca el cursor en Univariate y se da clic.
Paso 3. Al hacer clic en Univariate, se abre un menú que contiene las variables de la investigación.
Paso 4. Las variables de estilos de amor se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía (dependent
220
Sofía Rivera Aragón Mirna García Méndez
variables) donde se colocan las variables dependientes y las variables de clasificación que en este caso son el sexo y el trabajo, se les coloca donde están los factores (fixed factors).
Una vez definidas las variables, se da clic en OK y se muestra el resultado del Anova de doble clasificación.13 Las tablas 36 y 37 muestran los resultados del Anova que son los que indican el valor de la prueba el nivel de significancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varianzas. Estos datos deberán ser interpretados por el investigador, de esta forma, responder a las preguntas e hipótesis de investigación.
TABLA 36 ANOVA DE DOBLE CLASIFICACIÓN Case Processing Summary Cases Included N 515
Percent 76.6
Excluded N 157
Total Percent 23.4
N
Percent
672
100.0
13 Con fines didácticos se muestran los resultados del Anova de doble clasificación, tal como los reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.
Estadística paramétrica
221
Cell Means Amistoso
Trabajo fuera de Sexo Casa Mean
Eros
Agape
Mania
N
Mean
N
Mean
N
Mean
N
Masculino Sí
3,9194
248
3,9556
248
3,5948
248
2,9004
248
No
3,9462
15
3,8923
15
3,6867
15
2,8615
15
Total
3,9209
263
3,9520
263
3,6000
263
2,8982
263
Femenino Sí
3,9084
130
3,9183
130
3,0354
130
2,9154
130
No
3,8797
122
3,8260
122
3,2484
122
2,9224
122
Total
3,8945
252
3,8736
252
3,1385
252
2,9188
252
Total Sí
3,9156
378
3,9428
378
3,4024
378
2,9056
378
No
3,8870
137
3,8332
137
3,2964
137
2,9158
137
Total
3,9080
515
3,9137
515
3,3742
515
2,9083
515
aGrand Mean. bAmistoso, Eros,
Agape, Mania by Sexo, Trabajo fuera de casa.
Análisis factorial de varianza
Este análisis es muy similar al análisis de varianza de doble clasificación, la diferencia estriba en que aquí se puede introducir una variable dependiente o una variable de clasificación más o en su defecto cada una de las variables independientes puede tener tres o más categorías. Por ejemplo: Variable dependiente: Coeficiente intelectual Variables de clasificación: Sexo: Hombres y mujeres Clase social: Alta, media y baja El diseño sería de 2 x 3 y quedaría como sigue:
Clase social/Sexo Alta Media Baja
222
Sofía Rivera Aragón Mirna García Méndez
Hombres
Mujeres
TABLA 37 VALORES DEL ANOVA DE DOBLE CLASIFICACIÓN.
Anova Experimental Method
Mean Square
F
Slg.
Sum of Squares df Amistoso Main Effects
2-Way Interactions
Model Residual Total Main Effects
Eros
2-Way Interactions
Agape
Model Residual Total Main Effects
2-Way Interactions
Manía
Model Residual Total Main Effects
2-Way Interactions Model Residual Total aAmistoso,
(Combined)
.116
2
.058
.131
.878
Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa
.034
1
.034
.076
.783
.026
1
.026
.060
.807
.036 .152 226.996 227.148 1.375 .168
1 3 511 514 2 1
.036 .051 .444 .442 .688 .168
.080 .114
.777 .952
1.158 .282
.315 .595
.584
1
.584
.983
.322
.010 1.385 303.463 304.848 30.215 29.084
1 3 511 514 2 1
.010 .462 .594 .593 15.107 29.084
.016 .777
.898 .507
23.335 44.925
.000 .000
2.805
1
2.805
4.333
.038
.169 30.384 330.822 361.207 .055 .044
1 3 511 514 2 1
.169 10.128 .647 .703 .027 .044
.261 15.644
.609 .000
.102 .165
.903 .685
.000
1
.000
.001
.981
.024 .079 136.737 136.816
1 3 511 514
.024 .026 .268 .266
.091 .099
.763 .961
(Combined) Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa
(Combined) Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa
(Combined) Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa
Eros, Agape, Mania by Sexo, Trabajo fuera de Casa.
Estadística paramétrica
223
En este caso, cada una de las variables por separado implica el efecto principal, y la combinación, la interacción de las mismas para predecir el coeficiente intelectual. Para calcular esta prueba se aplica el siguiente procedimiento, el cual es similar al Anova de doble clasificación: a) b) c) d)
Plantear las hipótesis estadísticas. Plantear la probabilidad en la cual se comprobarán dichas hipótesis. Obtener la sumatoria de los puntajes para cada grupo (∑X ). Obtener el cuadrado de la sumatoria (∑X )2
e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X2 f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:
donde: Sumar todos los puntajes crudos de todos los. grupos y elevarlos al cuadrado. K= Número de grupos a comparar. N = Número de participantes por grupo. g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:
donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas,
224
FC = Factor de corrección.
Sofía Rivera Aragón Mirna García Méndez
g)
Obtener la suma de cuadrados entre los grupos (SCE).
La fórmula para calcular la SCE es;
donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos, FC = Factor de corrección, N = número de participantes por grupo. i) Obtener la suma de cuadrados intragrupos (SCI). La fórmula para calcular la SCI es: SCI = SCT - SCE j) Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N - l glentre = k - l glintra = N — k
donde: N — Número total de participantes en todos los grupos, K = Número de grupos que se están comparando. l= Constante. j)
Obtener la media de cuadrados entre grupos (MCE).
La fórmula para calcular la MCE es:
k) Obtener la media de cuadrados intra grupos (MCI). La fórmula para calcular la MCI es:
Estadística paramétrica 225
m) Sustituir en la fórmula de F (prueba de significancia del Anova):
n) Construir la tabla de procedencia: Tabla de procedencia gl
SC
MC
F
Entre Intra Total
o) Para obtener la significancia, se busca en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.
En la tabla G del apéndice, se encuentra la Fa (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: Fc ≥ F0 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. p) Si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo las diferencias.
226
Sofía Rivera Aragón Mirna García Méndez
e interpretar la magnitud de
La fórmula para calcular la media para cada grupo es:
donde: ∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por separado en cada grupo. N = Número de participantes por grupo.
q) Una vez que se calculó el análisis de varianza simple se acomodan los valores de las variables en una tabla de 2 x 3. Tomando el ejemplo anterior quedaría como sigue: Variable dependiente: Coeficiente intelectual Variables de clasificación: Sexo: Hombres y mujeres Clase Social: Alta, media y baja.
Clase Social/Sexo
Hombres
Mujeres
Alta Media Baja
r) Una vez acomodados se obtiene la suma de cuadrados de los efectos principales de las variables en estudio. 1. Obtener la suma de cuadrados de la variable que se encuentra en las filas de la tabla (SCVf). En este ejemplo sería la escolaridad. La fórmula para obtenerla es:
donde: ∑ ( f 1 ) 2 = Sumar de los valores de la fila 1 y elevarlos al cuadrado. ∑ ( f 2 ) 2 = Sumar de los valores de la fila 2 y elevarlos al cuadrado. K = Número de categorías o grupos de las variables. N = Número de participantes por grupo.
FC = Factor de corrección. Estadística paramétrica
227
2. Obtener la suma de cuadrados de la variable que se encuentra en las columnas de la tabla (SCVc). En este ejemplo sería el sexo. La fórmula para obtenerla es:
donde: ∑ (c1)2= Suma de los valores de la columna 1 y elevarlos al cuadrado. ∑ (c2)2= Suma de los valores de la columna 2 y elevarlos al cuadrado.
K= Número de categorías o grupos de las variables. N= Número de participantes por grupo. FC = Factor de corrección. s) Calcular la interacción de las variables (SCINT). La fórmula para calcular la interacción es: SCINT = SCE - SCVf - SCVc donde: SCVf = Suma de cuadrados de la variable que se encuentra en las filas. SCVc = Suma de cuadrados de la variable que se encuentra en las columnas. SCE = Suma de cuadrados entre grupos. t) Calcular los grados de libertad de los efectos principales y de la interacción. glVf = K - l (grados de libertad de la variable de las filas) glvc = K - l (grados de libertad de la variable de las columnas) glint = (Kc- l) (Kc - l) (grados de libertad de la interacción)
donde: k = Número de categorías o grupos de la variable en estudio. l= constante.
228
Sofía Rivera Aragón Mirna García Méndez
u) Calcular la media de cuadrados de los efectos principales y de la interacción. (media de cuadrados de la variable de las filas) (media de cuadrados de la variable de las columnas) (media de cuadrados de la interacción)
v) Sustituir en la fórmula de F (prueba de significancia del Anova) tanto para efectos principales como de la interacción: (prueba f para la variable de las filas) (prueba f para la variable de las columnas) (prueba f para la variable de la interacción) w) Construir la tabla de procedencia:
Tabla de procedencia SC
gl
MC
F
Entre Filas Columnas Interacción Intra Total
x) Para obtener la significancia, se busca en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (a) hay una tabla independiente y deben buscarse todos los valores de la prueba F, tanto para efectos principales como para la interacción.
Estadística paramétrica
229
En la tabla G del apéndice se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas planteadas por cada variable y la interacción. Posteriormente se aplica la regla de decisión que es: Fc ≥ F0 H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. Esto se aplica en todas la "F' (pruebas de significancia del Anova) que aparecen en la tabla (efectos principales e interacción). y) Finalmente, si se encuentran diferencias significativas, ya sea por los efectos principales o por la interacción, hay que calcular las medias para cada grupo
e interpretar la magnitud de las diferencias.
La fórmula para calcular la media para cada grupo es:
donde: ∑ X = Suma las puntuaciones obtenidas de la variable dependiente por
separado en cada grupo N = Número de participantes por grupo. Ejercicio
Un fabricante de medicinas ha producido una medicina para el pie de atleta que puede tomarse en forma de píldoras. Cuando la compañía somete los resultados de sus investigaciones referentes a la medicina, a la asociación de comida y medicamentos, la solicitud es
230
Sofía Rivera Aragón Mirna García Méndez
objetada. Un químico del gobierno nota que la fórmula para la nueva medicina y la de las tabletas de sal son muy similares. Sospechándose la posibilidad de efectos secundarios tales como sed exagerada, hace que se mantenga en espera la solicitud hasta una nueva investigación experimental. El problema que deben resolver los químicos de la compañía, en este momento, no es que las pastillas curen o no el pie de atleta, sino el ver si estas pastillas causan mucha sed a las personas. Se realizó un nuevo experimento para poner a prueba la hipótesis de que el gobierno está equivocado en su apreciación. Tres condiciones (niveles) son usadas para representar cada una de las magnitudes del problema. Una de las dimensiones es la cantidad de la nueva droga que toma el paciente, y los tres niveles son designados: 0 unidades 1 unidades 4 unidades Debido a que antes se había observado que la eficiencia del medicamento varía con la edad del consumidor, una segunda dimensión, la edad, fue usada en el diseño y sus niveles fijados a los: 20 años 40 años 60 años La variable dependiente, medida de la respuesta de la sed, es el número de vasos de agua que el sujeto dice haber bebido en el día del experimento. Se usan dos personas en cada una de las nueve celdillas del diseño. Los participantes con 0 medicamentos tomaron un placebo (píldora de azúcar). No se les dijo a los participantes el propósito del experimento hasta que terminó el día. Los datos de los 18 participantes en los nueve grupos, pueden verse en la siguiente tabla:
Estadística paramétrica 231
CALIFICACIONES DEL EXPERIMENTO CON MEDICAMENTOS
Dosis 4 unidades
2 unidades
0 unidades
Edad 20
Edad 40
Edad 60
6
4
2
4 ∑X1=10 2 4 ∑X4 =6 1 0 ∑X7 =1 ∑C1 =17
3 ∑X2=7 2 3 ∑X5=5 2 1 ∑X8 =3 ∑C2 =15
1 ∑X3=3 2 2 ∑X6 =4 5 4 ∑X9=9 £ c3= 16
∑f1=20
∑f2=15
∑f4=13 £ total 48
Hay N = 2 participantes por celdilla, cada celdilla representa una combinación particular de dos dimensiones del diseño. El procedimiento a seguir es el mismo, lo único que cambia es el número de categorías en las variables. TABLA DE PROCEDENCIA FINAL EN EL EXPERIMENTO DEL ANÁLISIS DE MEDICAMENTO Fuente de Variación
se
gi
MC
F
Intergrupos Medicamento (M) Edad (E) MxE Intragrupos (error) Total
35.00 4.33 .33 30.33 7.00 42.00
8 2 2 4 9 17
4.37 2.17 0.17 7.58 0.78
5.60 2.78 0.22 9.72*
* P ≤ .05.
En este caso no hubo diferencias por efectos principales, solo en la interacción ya que de acuerdo a la regla de decisión la razón, F de tablas es: 4.26 para llegar al nivel de significancia de 0.05 con 2 y 9 gl. De acuerdo con la regla de decisión 9.72 > 4.26
H1 se acepta, es decir hay una interacción entre el
medicamento y la edad para predecir el consumo de vasos de agua.
232
Sofía Rivera Aragón Mirna García Méndez
Ejercicio SPSS
Con la finalidad de conocer si existen diferencias entre hombres y mujeres y por ocupación en el estilo autoritario y el estilo laissez faire, así como si estas dos variables interactúan para predecir estos estilos (Cruz, 2002) se aplicó el Anova factorial. Se plantearon las siguientes hipótesis: Efecto principal sexo: Ho No existen diferencias estadísticamente significativas en los estilos de poder entre hombres y mujeres. H1. Sí existen diferencias estadísticamente significativas en los estilos de poder entre hombres y mujeres. Efecto principal ocupación: Ho No existen diferencias estadísticamente significativas en los estilos de poder de acuerdo con la ocupación del participante. H1. Sí existen diferencias estadísticamente significativas en los estilos de poder de acuerdo con la ocupación del participante. Interacción: Ho. No habrá interacción entre sexo y ocupación. H1. Habrá interacción entre sexo y ocupación. Posteriormente una vez capturados los datos, se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.
Estadística paramétrica
233
Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en General Lineal Model se da clic y aparece otro menú, se coloca el cursor en Univariate y se da clic.
Sofía Rivera Aragón
234 Mirna García Méndez
Paso 3. Al hacer clic en Univariate, se abre un menú que contiene las variables de la investigación.
Paso 4. Las variables de estilos de poder se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía (dependent variables) donde se colocan las variables dependientes y la variable de clasificación que en este caso son el sexo y la ocupación, se les coloca donde están los factores (fixed factores).
Estadística paramétrica
235
Una vez definidas las variables, se da clic en OK y se muestra resultado del Anova
factorial.14
el
La tabla 38 muestra los resultados
del Anova que son los que indican el valor de la prueba, el nivel de signiTABLA 38 ANOVA FACTORIAL
Case Processing Summary Cases Included N Percent
N
269
28
90.6
Excluded Percent 9.4
N 297
Total Percent 100.0
Cell Means Sexo
Ocupación
Stiauto
N
Mean Masculino
Femenino
Total
a
1
3.5235
17
2 3 4 5 Total 1 2 3 4 5 Total 1 2 3 4 5 Total
3.8440 3.7089 3.5907 3.7708 3.6972 3.8222 3.8385 4.0524 3.8395 3.8848 3.8822 3.7068 3.8409 3.9326 3.7480 3.8368 3.8093
25 15 25 24 106 27 32 28 43 33 163 44 57 43 68 57 269
Grand Mean Stiauto by Sexo, Ocupación.
b
14
Con fines didácticos se muestran los resultados del Anova simple, tal como los
reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación. Sofía Rivera Aragón 236 Mirna García Méndez
Anova Experimental Method Sum of Squares df
Stiauto Main Effects
(Combined)
2-Way Interactions Model Residual Total a
Mean Square
F
Sig.
3,690
5
,738
1,438
,211
Sexo 2,220 Ocupación 1,491 Sexo * Ocupación 1,024 4,714 132,928 137,642
1 4 4 9 259 268
2,220 ,373 ,256 ,524 ,513 ,514
4,325
,039 ,575 ,737 ,424
726
,499 1,021
Stiauto by Sexo, Ocupación
ficancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varianzas. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación. Reporte de investigación del análisis factorial de varianza
Para poder comprobar las hipótesis que se plantearon de si existen diferencias por sexo y ocupación (variables de clasificación), así como en la interacción de las mismas (sexo por ocupación), con respecto a los factores de la escala estilos de poder (variables dependientes) se aplicó un análisis factorial de varianza (Cruz, 2002). A continuación se mostrarán dos ejemplos referentes al análisis realizado: en el primer ejemplo (factor autoritario) se muestran una interacción significativa entre las variables de sexo por ocupación. En el segundo ejemplo (factor laissez faire) se muestra un efecto principal por ocupación y una interacción significativa. De acuerdo con la tabla 39, podemos observar que para el factor autoritario se encuentra una interacción significativa, en la que los hombres que se perciben como más ásperos, violentos y bruscos son los
empleados
con
profesión,
observando que la media más baja
Estadística paramétrica
237
la reportan los estudiantes. Sin embargo, todas las medias se observan por debajo de la media teórica. Mientras que las mujeres que se perciben como más ásperas y violentas son las empleadas con carrera técnica, la media más baja se observa en las empleadas con profesión. Cabe resaltar que todas las medias se encuentran por debajo de la media teórica. Con respecto a los efectos principales por sexo y ocupación no se presentaron diferencias significativas (véase tabla 39).
TABLA 39 ANÁLISIS DE VARIANZA PARA EL FACTOR AUTORITARIO
Media Media Autoritario
Teórica
Hombres 2.81 Ocupación
Mujeres 2.94
Empl. Prof. 2.88 interacción
Empl. Carr.Téc 3.06
Empleado c/ Profesión Empleado c/ Carrera Técnica Empleado c/ Oficio Estudiantes Hogar *p
F
P
Sexo
Empl. Oficio 3.26
Estud. Hogar 2.83 2.69
Hombres
Mujeres
3.00
2.71
2.96 2.83 2.42 -
3.11 2.87 3.04
4
.986
.322
4
.691
.599
4
3.263
.022*
≤ 0.05.
Con respecto al factor laissez faire, los resultados mostraron un efecto principal por ocupación y en la interacción. Los estudiantes se perciben como más permisivos y abiertos. La media más baja en este factor se encuentra en los empleados con carrera técnica, no obstante esta diferencia, todos los grupos se encuentran por arriba de la media teórica.
238
Sofía Rivera Aragón Mirna García Méndez
Con respecto a la interacción en este mismo factor, se observa que los hombres que se perciben como más liberales, permisivos y comprometidos, son los empleados con oficio. La media más baja para el grupo de los hombres, fue reportada por los empleados con profesión, sin embargo, pese a esta diferencia, todas las medias están por debajo de la media teórica. Las mujeres que se perciben como más abiertas, liberales y comprometidas son las estudiantes. La media más baja se encuentra en el grupo de las empleadas con oficio, no obstante esta diferencia, todas las medias se encuentran por arriba de la media teórica. Finalmente en los efectos principales por sexo no existieron diferencias significativas (véase tabla 40).
TABLA 40 ANÁLISIS DE VARIANZA PARA EL FACTOR LAISSES FAIRE
Media Laisses
Sexo
Faire
Hombres
Mujeres
5.37 Ocupación
5.25
Empl. Prof. 5.24 Interacción
Empl. Carr.Téc. 4.92
Media teórica
F
P
4
1.067
.303
Hogar 5.00 4
3.92
.004**
4
3.80
.011*
Empl. Oficio 5.10 Hombres
Estud. 5.53 Mujeres
Empleado c/
*p ≤
Profesión Empleado c/
5.22
5.26
Carrera Técnica Empleado c/ Oficio
5.51 5.75
4.59 4.66
Estudiantes Hogar
5.45
5.57 -
0.05, **p
-
≤ 0.01.
Estadística paramétrica 239
Apéndice
Tabla A VALORES CRÍTICOS DE CHI CUADRADA
gl
Probabilidad conforme a H0 de que X2 ≥ chi cuadrada .99 .98
.95
.90
.80 .70
.50
.30
.20
.10
.05
.02
.01
.001
1
.00016. .00003 .0039
.016
.064
.15
.46
1.07
1.64
2.71
3.84
5.41
6.64
10.83
2
.02
.04
.10
.21
.45
.71
1.39
2.41
3.22
4.60
5.99
7.82
9.21
13.82
3
.12
.18
.35
.58
1.00
1.42
2.37
3.66
4.64
6.25
7.82
9.84
11.34
16.27
4
.30
.43
.71
1.06
1.65
2.20
3.36
4.88
5.99
7,78
4.49
11.67
13.28
18.46
5
.55
.75
1.14
1.61
2.34
3.00
4.35
6.06
7.29
9.24
11.07
13.39
15.09
20.52
10.64
12.59
15.03
16.81
22.46
14.07
16.62
18.48
24.32
15.51
18.17
20.09
26.12
6 7
.87
1.13
1.64
2.20
3.07
3.83
5.35
7.23
8.56
1.24
1.56
2.17
2.83
3.82
4.67
6.35
8.38
9.80
8
1.65
2.03
2.73
3.49
4.59
5.53
7.34
9.52
11.03
12..02 13.36
9
2.09
2.53
3.32
4.17
5.38
6.39
8.34
10.66
12.24
14.68
16.92
19.68
21.67
27.88
10
2.56
3.06
3.94
4.86
6.18
7.27
9.34
11.78
13.44
15.99
18.31
21.16
23.21
29.59
11
3.05
3.61
4.58
5.58
6.99
8.15
10.34
12.90
14.63
17.28
19.68
22.62
24.72
31.26
12
3.57
4.18
5.23
6.30
7.81
9.03
11.34
14.01
15.81
18.55
21.03
24.05
26.22
32.91
13
4,11
4.76
5.89
7.04
8.63
9.93
12.34
15.12
16.98
19.81
22.36
25.47
27.69
34.53
14
4.66
5.37
6.57
7.79
9.47
10.82
13.34
16.22
18.15
21.06
23.68
26.87
29.14
36.12
15
5.23
5.98
7.26
8.55
10.31
11.72
14.34
17.32
19.31
22.31
25.00
28.26
30.58
37.70
16
5.81
6.61
7.96
9.31
11.15
12.62
15.34
18.42
20.46
23.54
26.30
29.63
32.00
39.29
17
6,41
7.26
8.67
10.08
12.00
13.53
16.34
19.51
21.62
24.77
27.59
31.00
33.41
40.75
18
7.02
7.91
9.39
10.86
12.86
14.44
17.34
20.60
22.76
25.99
28.87
32.35
34.80
42.31
19
7.63
8.57
10.12
11.65
13.72
15.35
18.34
21.69
23.90
27.20
30.14
33.69
36.19
43.82
20
8.26
9.24
10.85
12.44
14.58
16.27
19.34
22.78
25.04
28.41
31.41
35.02
37.57
45.32
21
8.90
9.92
11.59
13.24
15.44
17.18
20.34
23.86
26.17
29.62
32.67
36.34
38.93
46.80
22
9.54
10.60
12.34
14.04
16.31
18.10
21.24
24.94
27.30
30.81
33.92
37.66
40.29
48.27
23
10.20
11.29
13.09
14.85
17.19
19.02
22.34
26.02
28.43
32.01
35.17
38.97
41.64
49.73
24
10.86
11.99
13.85
15.66
18.06
19.94
23.34
27.10
29.55
33.20
36.42
40.27
42.98
51.18
25
11.52
12.70
14.61
16.47
18.94
20.87
24.34
28.17
30.68
34.38
37.65
41.57
44.31
52.62
26
12,20
13.41
15.38
17.29
19.82
21.79
25.34
29.25
31.80
35.56
38.88
42.86
45.64
54.05
27
12.88
14.12
16.15
18.11
20.70
22.72
26.34
30.32
32.91
36.74
40.11
44.14
46.96
55.48
28
13.56
14.85
16.93
18.94
21,59
23.65
27.34
31.39
34.03
37,92
41.34
45.42
48.28
56.89
29
14.26
15.57
17.71
19.77
22.48
24.58
28.34
32.46
35.14
39.09
42.56
46.69
49.59
58.80
30
14.95
16.31
18.49
20.60
23.36
25.51
29.34
33.53
36.25
40.26
43.77
47.96
50.89
59.70
Fuente: S. Siegal y N.J. Castelan (2003), Estadística no paramétrica. Aplicada a las ciencias de la conducta, 3a. reimp., México, Trillas.
T ABLA B TABLA DE VALORES CRÍTICOS DE T EN LA PRUEBA DE LOS RANGOS SEÑALADOS DE PARES IGUALADOS DE WILCOXON
Nivel de significación para prueba de una cola .025 .01 Nivel de significación para prueba N
.05
6
0
7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
2 4 6 8 11 14 17 21 25 30 35 40 46 52 59 66 73 81 89
.005 de dos colas
.02
.01
~
_
0 2 3 5 7 10 13 16 20 24 28 33 38 43 49 56 62 69 77
-
0 2 3 5 7 10 13 16 20 23 28 32 38 43 49 55 61 68
Fuente: N.M. Downie y R.W Heat (1973), Métodos estadísticos aplicados, México, Harla.
244
Sofía Rivera Aragón Mirna García Méndez
T ABLA C VALORES CRÍTICOS DE U DE MANN WHITNEY. Valores críticos de U en un contraste unilateral al .005 y en un contraste bilateral al .002 n1
1 2 3 4 5 6 7 3 9 10 11 12 13 14 15 16 17 18 19 20
n2 9
1 2 3 5 7 7 10 12 14 15 17 19 21 23 25 26
10
11
0 1 3 5 5 8 10 12 14 17 19 21 23 25 27 29 32
0 2 4 6 8 10 12 15 17 20 22 24 27 29 32 34 37
12
13
14
15
16
17
18
19
20
0 2 4 7 9 12 14 17 20 23 25 28 31 34 37 40 42
1 3 5 8 11 14 17 20 23 26 29 32 35 38 42 45 48
1 3 6 9 12 15 19 22 25 29 32 36 39 43 46 50 54
1 4 7 10 14 17 21 24 28 32 36 40 43 47 51 55 59
2 5 8 11 15 19 23 27 31 35 39 43 48 52 56 60 65
0 2 5 9 13 17 21 25 29 34 38 43 47 52 57 61 66 70
0 3 6 10 14 18 23 27 32 37 42 46 51 56 61 66 71 76
0 3 7 11 15 20 25 29 34 40 45 50 55 60 66 71 77 82
0 3 7 12 16 21 26 32 37 42 48 54 59 65 70 76 82 88
Valores críticos de U en un contraste unilateral al .01 y en un contraste bilateral al .02 n1
1 2 3 4 5 6 7 3 9
n2 9
10
11
1 3 5 7 9 11 14
1 3 6 8 11 13 16
1 4 7 9 12 15 18
12
2 5 8 11 14 17 21
13
14
15
16
17
18
19
20
0 2 5 9 12 16 20 23
0 2 6 10 13 17 22 26
0 3 7 11 15 19 24 28
0 3 7 12 16 21 26 31
0 4 8 13 18 23 28 33
0 4 9 14 19 24 30 36
1 4 9 15 20 26 32 38
1 5 10 16 22 28 34 40
Apéndice
245
TABLA C (Continuación) n2 n1
9
10
11
12
13
14
15
16
17
18
19
20
10
16
19
22
24
11
30
33
36
38
41
44
47
11 12 13 14 15 16 17 18 19 20
18 21 23 26 28 31 33 36 38 40
22 24 27 30 33 36 38 41 44 47
25 28 31 34 37 41 44 47 50 53
28 31 35 38 42 46 49 53 56 60
31 35 39 43 47 51 55 59 63 67
34 38 43 47 51 56 60 65 69 73
37 42 47 51 56 61 66 70 75 80
41 46 51 56 61 66 71 76 82 87
44 49 55 60 66 71 77 82 88 93
47 53 59 65 70 76 82 88 94 100
50 56 63 69 75 82 88 94 101 107
53 60 67 73 80 87 93 100 107 114
Fuente: N.M. Downie y R.W. Heat (1973), Métodos estadísticos aplicados. México, Harla.
Valores críticos de U en un contraste unilateral al .025 y en un contraste bilateral al .05 n2 n1
9
10
11
12
13
14
0
0
0
1
1
1
2 4 7 10 12 15 17 20 23 26 28 31 34 37 39 42 45 48
3 5 8 11 14 17 20 23 26 29 33 36 39 42 45 48 52 55
3 6 9 13 16 19 23 26 30 33 37 40 44 47 51 55 58 62
4 7 11 14 18 22 26 29 33 37 41 45 49 53 57 61 65 69
4 8 12 16 20 24 28 33 37 41 45 50 54 59 63 67 72 76
5 9 13 17 22 26 31 36 40 45 50 55 59 64 67 74 78 83
15
16
1
1
17
18
19
20
2
2
2
7 12 18 24 30 36 42 48 55 61 67 74 80 86 93 99 106 112
7 13 19 25 32 38 45 52 58 65 72 78 85 92 99 106 113 119
8 13 20 27 34 41 48 55 62 69 76 83 90 98 105 112 119 127
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
246
Sofía Rivera Aragón Mirna García Méndez
5 10 14 19 24 29 34 39 44 49 54 59 64 70 75 80 85 90
6 11 15 21 26 31 37 42 47 53 59 64 70 75 81 86 92 98
2 6 11 17 22 28 34 39 45 51 57 63 67 75 81 87 93 99 105
Valores críticos de U en un contraste unilateral al .05
y en un contraste bilateral al. 10 ni
n2
10
11
12
13
14
15
16
1 4 7 11 14 17 20 24 27 31 34 37 41 44 48 51 55 58 62
1 5 8 12 16 19 23 27 31 34 38 42 46 50 54 57 61 65 69
2
2 6 10 15 19 24 28 33 37 42 47 51 56 61 65 70 75 80 84
2 7 11 16 21 26 31 36 41 46 51 56 61 66 71 77 82 87 92
3 7 12 18 23 28 33 39 44 50 55 61 66 72 77 83 88 94 100
17
18
3 9 15 20 26 33 39 45 51 57 64 70 77 83 89 96 102 109 115
4 9 16 22 28 35 41 48 55 61 68 75 82 88 95 102 109 116 123
19
20
0
0
4 10 17 23 30 37 44 51 58 65 72 80 87 94 101 109 116 123 130
4 11 18 25 32 39 47 54 62 69 77 84 92 100 107 115 123 130 138
9 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
1 3 6 9 12 15 18 21 24 27 30 33 36 39 42 45 48 51 54
5 9 13 17 21 26 30 34 38 42 47 51 55 60 64 68 72 77
3 8 14 19 25 30 36 42 48 54 60 65 71 77 83 89 95 101 107
Tabla D TABLA DE PROBABILIDADES ASOCIADAS CON VALORES TAN GRANDES COMO VALORES OBSERVADOS DE H EN EL ANÁLISIS DE VARIANZA DE UNA CLASIFICACIÓN POR RANGOS DE KRUSKAL WALLIS
Tamaño de muestras
H
n3
Tamaño de muestras
n1
n2
p
2
1
1
2.7000
.500
2 2
2 2
1 2
3 3
1 2
1 1
3
2
2
3.6000 4.5714 3.7143 3.2000 4.2857 3.8571 5.3572
.200 .067 .200 .300 .100 .133 .029
n1 4
4
n2
n3
3
2
3
3
H
P
6.4444
.008
6.3000 5.4444 5.4000 4.5111 4.4444 6.7455 6.7091
.011 .046 .051 .098 .102 .010 .013
Apéndice
247
TABLA D (Continuación)
Tamaño de muestras n1
3
3
3
n2
3
3
3
H
P
n3
1
2
3
Tamaño de muestras n1
n2
H
P
5.7909
.046
n3
4.7143
.048
4.5000
.067
5.7273
.050
4.4643
.105
4. 7091
.092
5.1429
.043
4.7000
.101
4.5714
.100
6.6667
.010
4.0000
.129
6. 1667
.022
6.2500
.011
4.9667
.048
5.3611
.032
4.8667
.054
5.1389
.061
4.1667
.082
4.5556
.100
4.0667
.102
4.2500
.121
7.0364
.006
7.2000
.004
6.8727
.011
6.4889
.011
5.4545
.046
5.6889
.029
5.2364
.052
5.6000
.050
4.5545
.098
5.0667
.086
4.4455
.103
4.6222
.100
7.1439
.010
4
4
4
4
4
4
1
2
3
4
1
1
3.5714
.200
7.1364
.011
4
2
1
4.8214
.057
5.5985
.049
4.5000
.076
5.5758
.051
4.0179
.114
4.5455
.099
6.0000
.014
4.4773
.102
5.3333
.033
7.6538
.008
5.1250
.052
7.5385
.011
4.4583
.100
5.6923
.049
4.1667
.105
5.6538
.054
5.8333
.021
4.6539
.097
5.2083
.050
4.5001
.104
5.0000
.057
5
1
1
3.8571
.143
4.0556
.093
5
2
1
5.2500
.036
3.8889
.129
5.0000
.048
4.4500
.071
4.2000
.095
4.0500
.119
7.7604 7.7440
.009 .011
4
4
5
2
3
2
2
1
2
Sofía Rivera Aragón 248 Mirna García Méndez
4
5
4
4
4
6.5333 6.1333
.008 .013
4
5.1600
.034
5.6571
.049
5.0400
.056
5.6176
.050
4.3733
.090
4.6187
.100
Tamaño de muestras n1
n2
n3
5
3
1
5
3
2
5
5
5
5
3
4
4
4
3
1
2
3
H
P
4.2933
.122
6.4000 4.9600 4.8711 4.0178 3.8400 6.9091 6.8218 5. 2509 5.1055 4.6509 4.4945 7.0788 6.9818 5.6485 5.5152 4.5333 4.4121 6.9545 6.8400 4.9855 4.8600 3.9873 3.9600 7.2045 7.1182 5.2727 5.2682 4.5409 4.5182 7.4449 7.3949 5.6564 5.6308 4,5487 4.5231
.012 .048 .052 .095 .123 .009 .010 ,049 .052 .091 .101 .009 .011 .049 .051 .097 .109 .008 .011 .044 .056 .098 .102 .009 .010 .049 .050 .098 .101 .010 .011 .049 .050 .099 .103
Tamaño de muestras n1
n2
n3
5
5
1
5
5
2
5
5
3
5
5
4
5
5
5
H
P
4,5527
.102
7.3091 6.8364 5.1273 4.9091 4.1091 4.0364 7.3385 7.2692 5.3385 5.2462 4.6231 4.5077 7.5780 7.5429 5.7055 5.6264 4.5451 4.5363 7.8229 7.7914 5.6657 5.6429 4.5229 4.5200 8.0000 7.9800 5.7800 5.6600 4.5600 4.5000
.009 .011 .046 .053 .086 .105 .010 .010 .047 .051 .097 .100 .010 .010 .046 .051 .100 .102 .010 .010 .049 .050 .099 .101 .009 .010 .049 .051 .100 .102
Fuente: S. Siegal y N.J Castelan (2003), Estadística no paramétrica. Aplicada a las ciencias de la conducta, 2a. ed., 3a. reimp., México, Trillas.
Apéndice 249
T ABLA E VALORES CRÍTICOS DE R Valores de r al nivel de confianza de 0.05 y 0.01
gl
.05
.01
1
.99692
.999877
2 3 4 5 ó 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 40 45 50 60 70 80 90
.95000 .8783 .8114 .7545 .7067 .6664 .6319 .6021 .5760 .5529 .5324 .5139 .4973 .4821 .4683 .4555 .4438 .4329 .4227 .3809 .3494 .3246 .3044 .2875 .2732 .2500 .2319 .2172 .2050
.990000 .95873 .91720 .8745 .8343 .7977 .7646 .7348 .7079 .6835 .6614 .6411 .6226 .6055 .5897 .5751 .5614 .5487 .5368 .4869 .4487 .4182 .3932 .3721 .3541 .3248 .301 7 .2830 .2673
Fuente: I. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a. ed., México, Oxford.
250
Sofía Rivera Aragón Mirna García Méndez
T ABLA F VALORES CRÍTICOS DE T Valores de t al nivel de confianza de 0.05 y 0.01
gi
.05
.01
i
12.706
63.657
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120
4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.021 2.000 1.980 1.960
9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.704 2.660 2.617 2.576
OO
Fuente: J. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social. 2a. ed., México, Oxford.
Apéndice
251
T ABLA G VALORES CRÍTICOS DE E Valores de F al nivel de confianza de .05 y .01
gl
1
2
3
4
5
6
8
12
(gl para el numerador) P = .05 (gl para el 1 denominador) 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 OO
161.4 199.5 18.51 19.00 10.13 9.55 7.71 6.94 6.61 5.79 5.99 5.14 5.59 4.74 5.32 4.46 5.12 4.26 4.96 4.10 4.84 3,98 4.75 3.88 4.67 3.80 4.60 3.74 4.54 3.68 4.49 3.63 4.45 3.59 4.41 3.55 4.38 3.52 4.35 3.49 4.32 3.47 4.30 3.44 4.28 3.42 4.26 3.40 4.24 3.38 4.22 3.37 4.21 3.35 4.20 3.34 4.18 3.33 4.17 3.32 4.08 3.23 4.00 3.15 3.92 3.07 3.84 2.99
215.7 19.16 9.28 6.59 5.41 4.76 4.35 4.07 3.86 3.71 3.59 3.49 3.41 3.34 3.29 3.24 3.20 3.16 3.13 3.10 3.07 3.05 3.03 3.01 2.99 2.98 2.96 2.95 2.93 2.92 2.84 2.76 2.68 2.60
224.6 19.25 9.12 6.39 5.19 4.53 4.12 3.84 3.63 3.48 3.36 3.26 3.18 3.11 3.06 3.01 2.96 2.93 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.73 2.71 2.70 2.69 2.61 2.52 2.45 2.37
230.2 19.30 9.01 6.26 5.05 4.39 3.97 3.69 3.48 3.33 3.20 3.11 3.02 2.96 2.90 2,85 2.81 2.77 2.74 2.71 2.68 2.66 2.64 2.62 2.60 2.59 2.57 2.56 2.54 2.53 2.45 2.37 2,29 2.21
234. 19.3 8,94 6.16 4.95 4.28 3,87 3.58 3.37 3.22 3.09 3.00 2.92 2.85 2.79 2.74 2.70 2.66 2.63 2.60 2.57 2.55 2.53 2.51 2.49 2.47 2.46 2.44 2.43 2.42 2.34 2.25 2.17 2.09
238.9 19.37 8.84 6.04 4.82 4.15 3.73 3.44 3.23 3.07 2.95 2,85 2,77 2.70 2.64 2.59 2.55 2.51 2.48 2.45 2.42 2.40 2,38 2.36 2.34 2.32 2.30 2.29 2.28 2.27 2.18 2.10 2.02 1.94
243.9 19.41 8.74 5.91 4.68 4.00 3.57 3,28 3.07 2.91 2.79 2.69 2.60 2.53 2.48 2.42 2.38 2.34 2,31 2,28 2.25 2.23 2.20 2.18 2.16 2.15 2.13 2.12 2,10 2.09 2.00 1.92 1.83 1.75
Fuente: J. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a. ed., México, Oxford.
252
Sofía Rivera Aragón Mirna García Méndez
gl
1
2
3
4
5
6
8
12
(gl para el numerador) P = .01 (gl para el 1 denominador) 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 OO
4052 98.49 34.12 21.20 16.26 13.74 12.25 11.26 10.56 10.04 9.65 9.33 9.07 8.86 8.68 8.53 8.40 8.28 8.18 8.10 8.02 7.94 7.88 7.82 7.77 7.72 7.68 7.64 7.60 7.56 7.31 7.08 6.85 6.64
4999 5403 99.01 99.17 30.81 29.46 18.00 16.69 13.27 12.06 10.92 9.78 9.55 8.45 8.65 7.59 8.02 6.99 7.56 6.55 7.20 6.22 6.93 5.95 6.70 5.74 6.51 5.56 6.36 5.42 6.23 5.29 6.11 5.18 6.01 5.09 5.93 5.01 5.85 4.94 5.78 4.87 5.72 4.82 5.66 4.76 5.61 4.72 5.57 4.68 5.53 4.64 5.49 4.60 5.45 4.57 5.42 4.54 5.39 4.51 5.18 4.31 4.98 4.13 4.79 3.95 4.60 3.78
5625 5764 99.25 99.30 28.71 28.24 15.98 15.52 11.39 10.97 9.15 8.75 7.85 7.46 7.01 6.63 6.42 6.06 5.99 5.64 5.67 5.32 5.41 5.06 5.20 4.86 5.03 4.69 4.89 4.56 4.77 4.44 4.67 4.34 4.58 4.25 4.50 4.17 4.43 4.10 4.37 4.04 4.31 3.99 4.26 3.94 4.22 3.90 4.18 3.86 4.14 3.82 4.11 3.78 4.07 3.75 4.04 3.73 4.02 3.70 3.83 3.51 3.65 3.34 3.48 3.17 3.32 3.02
5859 5981 6106 99.33 99.36 99.42 27.91 27.49 27.05 15.21 14.80 14.37 10.67 10.27 9.89 8.47 8.10 7.72 7.19 6.84 6.47 6.37 6.03 5.67 5.80 5.47 5.11 5.39 5.06 4.71 5.07 4.74 4.40 4.82 4.50 4.16 4.62 4.30 3.96 4.46 4.14 3.80 4.32 4.00 3.67 4.20 3.89 3.55 4.10 3.79 3.45 4.01 3.71 3.37 3.94 3.63 3.30 3.87 3.56 3.23 3.81 3.51 3.17 3.76 3.45 3.12 3.71 3.41 3.07 3.67 3.36 3.03 3.63 3.32 2.99 3.59 3.29 2.96 3.56 3.26 2.93 3.53 3.23 2.90 3.50 3.20 2.87 3.47 3.17 2.84 3.29 2.99 2.66 3.12 2.82 2.50 2.96 2.66 2.34 2.80 2.51 2.18
Apéndice
253
Bibliografía
ÁLVAREZ CÁCERES, R. (1995), Estadística multivariante y no paramétrica con SPSS. Aplicación
a las ciencias de la salud, España, Ediciones Díaz de Santos. BARRAGÁN, L., J. Benavides, A.M. Brugman y E. Lucio (1988), "El uso del wais y
wisc en psicología clínica", en Programa de Publicaciones de Material Didáctico. Evaluación de la Personalidad, unidad n. Universidad Nacional Autónoma de México, Facultad de Psicología. CAÑETAS, S. Rivera y R. Díaz-Loving (2000), "Desarrollo de un instrumento
multidimensional de satisfacción marital", La Psicología Social en México, viii, pp. 266-274. CLARK-CARTER, D. (2002), Investigación cuantitativa en psicología, México, Oxford. CONOVER, W.J. (1980), Practical Nomparametric Statistics, 2a. ed., Nueva York, John
Wiley & Sons. CORTÉS, S., D. Reyes, R. Díaz-Loving, S. Rivera y J. Monjaraz (1994), "Elaboración
y análisis psicométrico del inventario multifacético de satisfacción marital (IMSM)". La Psicología Social en México,
v, pp. 123-130.
CRUZ del C., C. (2002), Autoconcepto y estilos de poder en la pareja, tesis de licenciatura,
Facultad de Psicología, UNAM. DÍAZ-LOVING, R. (1999), "Una teoría bio-psico-socio-cultural de la relación de
pareja", en R. Díaz-Loving (comp.), Antología psicosocial de la pareja, México, Asociación Mexicana de Psicología Social, Miguel Ángel Porrúa. DOLLAR, J., L. Doob, N.E. Miller, O.H. Mowrer y R.R. Sears (1939), Frustratation and
Agression, Newhaven, Yale University Press. DOWNIE, N.M, y R.W Heath (1973), Métodos estadísticos aplicados, México, Haría. KERLINGER, EN. y H.B. Lee (2001), Investigación del comportamiento. Métodos de
investigación en ciencias sociales, 4a. ed., México, McGraw-Hill.
257
NUNNALLY, J.C. e I.J. Bernestein (1995), Teoría psicométríca, 3a. ed., México,
McGraw-Hill. LEVIN, J. y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a.
ed., México, Oxford. Pavaan, C.G. (2004), Actitud hacia el sida de adolescentes mexicanos, tesis de
licenciatura, Facultad de Psicología, UNAM. RIVERA, S. y R. Díaz-Loving (2000), La cultura del poder en la pareja, México, Miguel
Ángel Porrúa. RIVERA, S., R. Díaz-Loving, C. Cruz del Castillo y F Vidal (2004), "Negociación
del conflicto y satisfacción en la pareja", La Psicología Social en México, AMEPSO, X, pp.
135-140.
ROMERO, A. y S. Rivera (2004), "¿Qué motiva a un hombre y a una mujer a ser
infiel?", La Psicología Social en México, AMEPSO, X, pp. 141-146. ROMERO, PA. (2003), Historias de amor y la satisfacción en la relación de pareja, tesis de
licenciatura no publicada, México, Facultad de Psicología, Universidad Nacional Autónoma de México. ROSA, Jorge la (1986), Escalas de locus de control y autoconcepto, tesis de doctorado en
psicología social no publicada, México, Facultad de Psicología, UNAM. RUNYON, R. y A. Haber (1987), Estadística para las ciencias sociales, Wilmington,
Delawere, Addison-Wesley Iberoamercana y México, Sistemas Técnicos de Edición. SIEGEL, S. y N.J. Castellan (2003), Estadística no paramétrica aplicada a las ciencias de la
conducta, 3a. reimp., México, Trillas. VARGAS, I. M. García-Méndez, R. Díaz-Loving y S. Rivera (2004), ponencia en el
X Congreso Mexicano de Psicología Social, México, AMEPSO. VIGANO, D. (1986), Autoritarismo y rendimiento escolar en adolescentes, "tesis
de maestría no publicada, México, Facultad de Psicología,. Universidad Nacional Autónoma de México. YOUNG R. y D. Veldman (1983), Introducción a la estadística aplicada a las ciencias de la
conducta, México, Trillas. ZUNG, W., C. Richards y M. Short (1965), "Self-Rating Depression Scale in an
Outpatient Clinic", Arch Gen Psychiat, 13, pp. 508-515.
268
Sofía Rivera Aragón Mirna García Méndez
Índice PRÓLOGO Rolando Díaz Loving ......................................................................................
7
INTRODUCCIÓN ......................................................................................................
11
Capítulo 1 MEDICIÓN ...................................................... ........................................................
17
Escalas de medición .............................................................................................
19
Nominal ............................................................................................................
19
Ordinal ..............................................................................................................
20
Intervalar .................................................................................... .....................
21
De razón ............................................................................................................
22
Capítulo 2 ESTADÍSTICA DESCRIPTIVA....................................................................................
25
Conocer el tipo de distribución .........................................................................
27
Ejercicio SPSS ...................................................................................................
32
Representación gráfica ............................................. . ........................................
37
Gráfica de barra ...............................................................................................
38
Gráfica de pastel o de sectores .................... ................................................
40
Gráfica de histograma ............................................................................. . .
40
Gráfica de ojiva o de polígono de frecuencia acumulada ……………
42
Gráfica de polígonos de frecuencia ...................................................... .. .
43
Obtener medidas de tendencia central ……………………………………..
44
Media .................................................................................................................
45
Mediana.............................................................................................................
49
Moda .............................................................................................................. ..
50
Ejercicio SPSS ...................................................................................................
51
Calcular medidas de dispersión (variabilidad) .............................................
53
Rango (R) ..........................................................................................................
53
Desviación estándar ......................................................................................
54
Varianza
(s2
o σ ) ............................................................................................
57
Sesgo ..................................................................................................................
58
Curtosis (K) .......................................................................................................
59
Error estándar (σ o e) .....................................................................................
61
Ejercicio SPSS ................................................................................................
62
2
Capítulo 3 ESTADÍSTICA INFERENCIAL ....................................................................................... 67 Aplicaciones de la estadística inferencial .......................................................
69
Clasificación de la estadística inferencial .....................................................
73
No paramétrica ...............................................................................................
73
Ventajas ............................................................................................................
74
Desventajas ....................................................................................................
74
Paramétrica ......................................................................................................
76
Capítulo 4 PRUEBAS DE LA ESTADÍSTICA NO PARAMÉTRICA .................................................... 81 Pruebas para una muestra simple ........................................................................ 83 Chi cuadrada (x2) ................................................................................................. 83 Ejercicio SPSS ....................................................................................................... 88 Pruebas para muestras relacionadas .................................................................... 91 McNemar .............................................................................................................. 92 Ejercicio SPSS ....................................................................................................... 96 t de Wilcoxon (tw) ............................................................................................ 100 Ejercicio SPSS ....................................................................................................... 103 Pruebas para muestras independientes ............................................................. 106 U de Mann Whitney (U) .................................................................................. 107 Ejercicio SPSS ....................................................................................................... 111 Análisis de varianza en una dirección por rangos de KrusKal-Wallis (H) ........................................................................................... 117
Ejercicio SPSS ...................................................................................................120 Chi cuadrada para muestras independientes x 2 .......................................126 Ejercicio x 2 por homogeneidad ...................................................................126 Ejercicio SPSS ...................................................................................................131 Capítulo 5 ESTADÍSTICA PARAMÉTRICA..................................................................................... 137
Características .................................................................................................... 139 Pruebas paramétricas. Prueba de coeficiente de correlación de producto-momento de Pearson .........................................140 Introducción .............................................................................. . ..................140 Definición .......................................................................................................140 Requisitos ............................................................................................ .. 141 Interpretación .................................................................................................142 Fórmula .................................................................................. ......................144 Regla de decisión para obtener la significancia ......................................145 Ejercicio SPSS ...................................................................................................148 Reporte de investigación de la correlación producto-momento de Pearson ...............................................................152 t de student .............................................................................................. ......... 152 Introducción ...................................................................................................152 Definición .......................................................................................................154 Requisitos .......................................................................................................154 Clasificación de la prueba t ........................................................................155 Cálculo de t para muestras independientes con N iguales ................................................................156 Cálculo de t para muestras independientes con N desiguales ...........................................................161 Ejercicio SPSS .. ...............................................................................................166 Reporte de investigación de la prueba t para muestras independientes ....................................................................168 Cálculo de t para muestras relacionadas ...................................................171 Ejercicio SPSS ...................................................................................................176
Reporte de investigación de la prueba t para muestras relacionadas ......................................................................... 180 Análisis de varianza (Anova) ..........................................................................180 Introducción……………………………………………………………………...180 Definición………………………………………………………………………...182 Requisitos………………………………………………………………………...182 Análisis de varianza simple cuando el tamaño (N) de los grupos es igual .................................................... 184 Análisis de varianza simple para N desiguales ...................................... 191 Ejercicio SPSS .................................................................................................. 199 Reporte de investigación del análisis de varianza simple…………… 203 Análisis de varianza de doble clasificación ............................................ 204 Ejercicio SPSS .................................................................................................. 218 Análisis factorial de varianza ..........................................................................222 Ejercicio SPSS .................................................................................................. 233 Reporte de investigación del análisis factorial de varianza . . . 237 APÉNDICE ................................................................................................................... 241 BIBLIOGRAFÍA ............................................................................................................ 255
ISBN 970-701 -587-X
View more...
Comments