Aplicacion de La Estadistica a La Psicologia

April 14, 2017 | Author: angulilla | Category: N/A
Share Embed Donate


Short Description

Download Aplicacion de La Estadistica a La Psicologia...

Description

Esta investigación, arbitrada por pares académicos, se privilegia con el aval de la institución propietaria de los derechos correspondientes.

Ia edición, julio del año 2005 Ia reimpresión, junio del año 2012 ©2005-2012 UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE ESTUDIOS SUPERIORES ZARAGOZA ©2005-2012 Por características tipográficas y de diseño editorial MIGUEL ÁNGEL PORRÚA, librero-editor

Derechos reservados conforme a la ley ISBN 970-701-587-X Queda prohibida la reproducción parcial o total, directa o indirecta del contenido de la presente obra, sin contar previamente con la autorización por escrito de los editores, en términos de la Ley Federal del Derecho de Autor y, en su caso, de los tratados internacionales aplicables.

A Osiris, Alan y Astrid, por lo que representan para mí. A Javier y Monse, por ser lo más importante en mi vida.

En la realización de este libro participó un grupo de personas con aportaciones que fueron valiosas para el buen término de este proyecto: Cinthia Cruz del Castillo, Angélica Romero Palencia, Gerardo Benjamín, Tonatiuh Villanueva Orozco, Blanca Inés Vargas Núñez y Claudia López Becerra. También queremos agradecer a Argentina López Becerra por ayudar a transcribir estos apuntes MIRNA Y SOFÍA

Prólogo

La

investigación en psicología es fundamental para el entendimiento del

comportamiento humano y para el desarrollo de programas e intervenciones efectivas. Adicionalmente, la investigación representa un proceso complejo en el que

los

fenómenos

o

constructos

a

investigar

son

multidimensionales,

multicausales y multideterminados. Hacer justicia a los eventos y problemáticas estudiadas y asegurar la validez y confiabilidad de los hallazgos requiere de una sofisticación conceptual y técnica profunda y sistemática. De hecho, es necesario que diferentes investigadores indaguen distintos aspectos de un mismo problema, obteniéndose así resultados que contribuyen a explicar el fenómeno de manera integral. La

obtención

de

hallazgos

contundentes

y

replicables

implica

una

conceptualización teórica sólidamente fundamentada y la realización de una serie de pasos metodológicos y estadísticos sistematizados -protocolo científico- que permitan sopesar la congruencia de los resultados con la realidad y su grado de generalización. Como uno de estos pasos, el análisis estadístico de los datos, implica la selección de pruebas estadísticas contingentes con el nivel de medición, consistentes con el método planteado y aplicados e interpretados por el investigador de manera apropiada. Para los psicólogos que consumen investigación para sus intervenciones, realizan investigaciones o están en formación, la tarea de elegir la prueba estadística adecuada, requiere de apoyo didáctico. En este sentido, el que ese sea el objetivo principal de este libro es un evento afortunado, lo cual sólo es superado por el hecho de que su utilidad se multiplique al ser un texto planteado en términos didácticos, sencillos y precisos, que les permita discernir la lógica inherente a la estadística en general y a cada prueba en particular.

Con el propósito de arribar a un utensilio concreto, aplicable, práctico, claro y útil, las autoras del texto desarrollan paso a paso las diferentes pruebas estadísticas necesarias a la investigación psicológica, acompañadas de su manejo minucioso a través del paquete estadístico para las ciencias sociales (SPSS), acompañados de la forma correcta de interpretación de los resultados. Los elementos de la obra hacen de ella una consulta indispensable, a partir de un material básico y comprensible. Colateralmente, el libro ofrece la aplicación de la estadística a partir de ejemplos relacionados a los problemas sociales del país. Como punto final, además de recomendar ampliamente el uso de la obra, felicito a las autoras y al programa PAPIME de la UNAM que a través del financiamiento del proyecto EN314903 hizo este trabajo posible. ROLANDO DÍAZ LOVING

Introducción

La

curiosidad del ser humano por saber ¿por qué? y ¿para qué? de las

relaciones interpersonales, y cómo ocurren éstas en diferentes contextos -pareja, familia, amigos, trabajo, escuela, etcétera- ha generado infinidad de explicaciones y descripciones en tomo al tema. Algunas de estas explicaciones surgen de la vida cotidiana y se asumen como hechos verdaderos, sin ser cuestionados; por ejemplo, la aseveración de que las mujeres son emocionalmente débiles. Esta es una afirmación compartida por muchos, sin embargo, carece de evidencia empírica y sustento teórico que la respalde, elementos que marcan la diferencia entre las aseveraciones populares y aquellas que están sustentadas teóricamente y que son medidas rigurosamente. En el ejemplo anterior surgen preguntas como, ¿todas las mujeres?, ¿las que caen dentro de un rango de edad determinado?, ¿las solteras, casadas, viudas, divorciadas o que viven en unión libre?, ¿las que tienen determinado nivel de escolaridad?, ¿las que trabajan o las que son amas de casa?... De una afirmación aparentemente simple emanan una serie de interrogantes, lo que conduce a uno de los puntos centrales de la investigación: el objetivo que se quiere alcanzar, esto es, para delimitar lo que se va a investigar es necesario tener claridad en el propósito de la investigación. En este escenario, la estadística es una herramienta que emplea el investigador para describir sus datos y para tomar decisiones. El tipo de prueba estadística a usar dependerá del objetivo de la investigación, de su diseño, del tamaño de la muestra y de sus hipótesis. De esta forma, la estadística es una colección de hechos numéricos que permiten hacer inferencias de una muestra a una población. Se clasifica en

descriptiva e inferential. La estadística inferencial a su vez se clasifica en no paramétrica y paramétrica. 13

Así, la estadística es una herramienta imprescindible del psicólogo, sobre todo cuando realiza investigación. Su aplicación en el campo de la psicología no es nueva, tal como lo señala Downie y Heat (1973) quienes refieren que en la década de 1880 Cattell se relacionó con estadísticos europeos, evento que influyó en la aplicación de los métodos estadísticos en el ámbito de la psicología. De igual forma, tampoco es de sorprender la complejidad que representa comprender y aplicar las pruebas estadísticas a situaciones específicas de investigación. Es el caso que al incursionar en el área de la investigación surja una serie de interrogantes con relación a, ¿qué prueba es la más adecuada para lo que se está investigando?, ¿el tipo de medición elegido será el apropiado para la prueba elegida?, ¿el modelo estadístico seleccionado: paramétrico o no paramétrico es congruente con el tamaño de la muestra y con el tipo de medición empleado? En fin, pueden ser muchas las dudas, y cuando se toman decisiones inapropiadas los resultados y conclusiones derivados de esa investigación pueden ser falsos, además de que se tiene el riesgo de cometer el error estadístico tipo 1 (Alfa) o el error estadístico tipo 2 (Beta) los cuales se describirán en este texto. Precisamente este manuscrito tiene la intención de proporcionar a los estudiantes y profesionales de la psicología un texto que incluya los elementos básicos de la estadística, descritos de una manera sencilla y apoyados con ejercicios, algunos de ellos, derivados de la investigación de la psicología en México, tratando de evitar explicaciones complicadas, por lo que las fórmulas que se presentan, así como el desarrollo de las mismas, tienen como propósito que el lector conozca las operaciones que subyacen a cada una de éstas con la intención de que comprenda la lógica mediante la cual se obtienen. Al presente, por cuestiones prácticas es poco probable que el tratamiento de los datos, derivados de una investigación, se realice en forma manual -sobre todo cuando las muestras son grandes- lo que conduce a utilizar el paquete estadístico SPSS que permite en poco tiempo obtener

Sofía Rivera Aragón 14 Mirna García Méndez

resultados precisos. Sin embargo, si las instrucciones dadas al SPSS fueron erróneas, los resultados se verán alterados lo que conlleva a interpretaciones equivocadas. Con la intención de disminuir estos errores, después del desarrollo de las fórmulas inherentes a los estadísticos incluidos en el libro, se exponen ejercicios paso a paso de las pruebas estadísticas, a través del Statistical Package for the Social Science (SPSS: paquete estadístico aplicado a las ciencias sociales). En ambos casos -fórmulas desarrolladas y SPSS- cada ejercicio concluye con la interpretación de los resultados.1 Con base en lo aquí expuesto, el libro inicia con la exposición de los niveles de medición por considerarse fundamentales en la toma de decisiones referentes a los pasos que proceden en la investigación. Posteriormente se aborda lo relacionado con la estadística descriptiva en el capítulo 2, estadística que nos permite hacer una descripción de los hallazgos empíricos. En este capítulo se hace énfasis en el tipo de distribución, medidas de tendencia central y de variabilidad, a través de una serie de ejemplos que tienen como objetivo facilitar la comprensión de los elementos expuestos. En el capítulo 3 se expone lo que compete a la estadística inferencial, la cual nos permite además de describir los datos encontrados, realizar generalizaciones a partir de los hallazgos reportados en una muestra a una población en términos de probabilidad. En esta parte del texto se presentan los principios que sustentan a los dos grandes modelos estadísticos derivados de la estadística inferencial: la estadística no para- métrica y la estadística paramétrica. Los capítulos 4 y 5 abordan de manera específica algunas de las pruebas no paramétricas y paramétricas más empleadas por el investigador social. En estos dos capítulos, la explicación de las pruebas es acompañada por ejemplos que permitan una mejor comprensión de las mismas.

1Debido

al uso de este sofware (SPSS), varias de las tablas reportadas en los diferentes

capítulos de este libro aparecerán en inglés.

Introducción 15

Como parte final pero no por ello menos importante, cabe destacar que el contenido de este libro se basa en los apuntes de la cátedra sobre estadística, dictada por la doctora Sofía Rivera Aragón, en el doctorado de psicología de la Facultad de Psicología de la Universidad Nacional Autónoma de México. Es conveniente denotar que para su publicación se contó con la autorización y coautoría de la doctora Rivera Aragón.

Medición

Del o los objetivos de investigación derivan las fases subsiguientes del proceso de investigación. Una de estas fases se refiere al tipo de medición empleada para evaluar una o más variables de estudio, componente que tiene una relación directa con la estadística empleada en el tratamiento de los datos. De esta manera la medición consiste en reglas que asignan símbolos a objetos, de tal forma que a) representan numéricamente cantidades o atributos, o b) definen si los objetos caen en las mismas o en diferentes categorías con respecto a un atributo de medición. En esta definición, las reglas se refieren a que la asignación de números sea explícita; y los atributos denotan que la medición implica características particulares del objeto, esto es, los objetos per se no pueden medirse, se miden sus atributos (Nunnally y Bernestein, 1995). Nunnally y Bernestein, indican que los números representan cantidades en escalas de medición, lo que significa que la cuantificación implica qué tanto de un atributo está presente en un objeto. En la literatura se mencionan cuatro niveles de medición, aunque en psicología generalmente se emplean tres: nominal, ordinal e intervalar, los que se describen a continuación.

Escalas de medición Nominal

Es el nivel más bajo de medición de una variable en el que se le asignan números a los objetos, personas o características que se deseen evaluar, las cuales no pueden ordenarse o sumarse. Precisamente a todos los miem-

bros de un conjunto se les asigna el mismo valor numérico, e.g. al preguntarles a 100 ciudadanos del Distrito Federal, ¿para usted la infidelidad es positiva o negativa? Se está empleando una medida nominal al registrar la frecuencia de las respuestas, dándole el valor de 1 a la infidelidad positiva y el valor de 2 a la infidelidad negativa, lo que se muestra en la tabla 1.

TABLA 1 OPINIÓN DE LOS CIUDADANOS DEL DISTRITO FEDERAL SOBRE LA INFIDELIDAD

Infidelidad Frecuencia 1 2

40 60

Esta medición coloca los casos dentro de categorías o conjuntos, y se cuenta la frecuencia de ocurrencia, sin asignar el mismo valor a dos categorías, e.g. sexo, no se puede clasificar a la misma persona como hombre y mujer. Ordinal

Requiere que los objetos de un conjunto de variables puedan ser ordenados por rangos respecto a una característica o propiedad. Los valores numéricos asignados a los objetos ordenados se llaman valores de rango. En esta medición los números no indican cantidades absolutas ni tampoco que los intervalos entre los números sean iguales, por lo que marca la organización de los rangos pero no señala la magnitud de las diferencias entre éstos, e.g. las etapas del desarrollo humano: Niñez Adolescencia Adultez Vejez

Sofía Rivera Aragón 20 Mirna García Méndez

Otro ejemplo es el ciclo de vida de la pareja de acercamiento-alejamiento (Díaz-Loving, 1999): 1. Extraño/desconocido 2. Conocido 3. Amistad 4. Atracción 5. Pasión 6. Romance 7. Compromiso 8. Mantenimiento 9. Conflicto 10. Alejamiento 11. Desamor 12. Separación 13. Olvido Como se puede observar en ambos ejemplos, no existe una distancia exacta entre cada una de las etapas y tampoco se sabe con exactitud cuándo termina una e inicia la siguiente. Intercalar

Esta medición posee las características de las escalas nominales y ordinales, de manera particular las de rango. Las distancias numéricamente iguales de los intervalos representan distancias iguales en la propiedad de la variable que se mide. En este nivel de medición se incluyen las escalas tipo Likert, e.g. la clasificación de la inteligencia a través de la escala WAIS (Barragán, Benavides, Brugman y Lucio, 1988) presentada en la tabla 2. Tal como se observa en la tabla 2, existe la misma distancia entre los diferentes niveles de medición de la inteligencia, lo que indica una distribución igual de los intervalos de medición.

Medlción 21

TABLA 2

CLASIFICACIÓN DE LA INTELIGENCIA EN ADULTOS

Coeficiente intelectual 130 o más 120-129 110-119 90-109 80-89 70-79 50-69 30-49 29 o menos

Clasificación Muy superior Superior Normal brillante Normal Subnormal Limítrofe Deficiente mental superficial Deficiente mental medio Deficiente mental profundo

De razón

Es el nivel más alto de medición de una variable. Es una medida poco empleada en la psicología, por ende, no se hablará más de él. Con base en lo expuesto, a continuación se presenta un ejemplo que involucra tres de los cuatro niveles de medición: nomina], de rangos e intervalar.

Ejemplo En una investigación que tiene por objetivo conocer la relación entre la satisfacción marital, la escolaridad y el sexo. El sexo (hombres y mujeres) es una variable nominal en la que a los hombres (H) se les asigna el valor numérico de 1 y a las mujeres (M) se les asigna el valor numérico 2. El nivel de escolaridad (primaria, secundaria, preparatoria, licenciatura y posgrado) es una variable ordinal que va de menor a mayor escolaridad, ordenada de la siguiente manera: Primaria

1

Secundaria

2

Preparatoria

3

Licenciatura

4

Posgrado

5

Sofía Rivera Aragón García Méndez

22  Mirna

TABLA 3

REPRESENTACIÓN DE LOS DIFERENTES NIVELES DE MEDICIÓN Clasificación

Definición

Función

Propiedad

Estadística empleada

Nominal

Categoriza una variable.

Nombra

Igualdad

No

Ordinal

Ordena una variable.

Jerarquiza las categorías

Intervalo

Conoce la distancia entre intervalos.

Cuantifica una Cero Relativo. variable.

Paramétrica.

Conoce la Cuantifica una Cero absoluto. proporción variable. entre las variables.

Paramétrica.

Razón

categorías.

paramétrica.

>o< (mayor menor)

La satisfacción marital se medirá con el

IMSM

No o paramétrica

Ejemplo Estado civil: solteros, casados, unión libre, viudos, divorciados: sexo: hombres y mujeres.

Escolaridad: primarla, secundarla, preparatoria. Inteligencia: limítrofe, normal, nomal brillante, superior. Las medidas de distancia: metro, decámetro, hectómetro y kilómetro.

integrado por 47 enunciados

positivos, con intervalos de respuesta del 1 al 5 (Cortés, Reyes, Díaz-Loving, Rivera y Monjaraz, 1994). Me gusta mucho = 5 Me gusta = 4 Ni me gusta, ni me disgusta = 3 Me disgusta = 2 Me disgusta mucho = 1

Medición

23

Por sus características, este inventario evaluará la satisfacción marital de manera intervalar, debido a que medirá las distancias o intervalos del constructo de interés. Las variables nominal (sexo) y ordinal (escolaridad) son generalmente denominadas variables sociodemográficas o de clasificación por el investigador. Ahora bien, si la satisfacción marital se mide preguntándoles a las personas si están o no satisfechas con su relación de pareja, la respuesta será dicotómica Sí o No, convirtiéndose la medición en nominal. Los resultados que se obtendrán serán frecuencias en relación con el número de hombres y mujeres que están satisfechos o insatisfechos maritalmente. Este ejemplo denota que el tipo de medición utilizada, estará en función de los objetivos que pretenda alcanzar el investigador. De esta manera, se observa que cada una de las escalas de medición tiene características y funciones específicas, las que se presentan en la tabla 3.

Estadística descriptiva

La estadística descriptiva permite conocer la distribución de los datos a partir de la cuantificación de los atributos de una categoría o variable. De acuerdo con Nunnally (1995) no necesariamente incluye la generalización. Sus funciones son: a) Conocer el tipo de distribución. b) Representación gráfica. c) Obtener medidas de tendencia central (toma de decisiones). d) Calcular medidas de variabilidad.

Conocer el tipo de distribución 1. Frecuencia absoluta (f) 2. Frecuencia relativa (fr %) 3. Frecuencia ajustada (fa %) 4. Frecuencia acumulada (fa) La frecuencia absoluta describe objetos, la relativa los ordena en porcentajes, la ajustada recalcula las frecuencias absolutas y relativas, eliminando datos con base en valores perdidos o missing, y la acumulada los ordena de mayor a menor o viceversa. Estas frecuencias se obtienen en el programa estadístico SPSS en cualquiera de sus versiones. Después de haber elaborado una base de datos e insertado los datos en bruto, se le pide al SPSS las frecuencias de la variable de estudio y despliega los cuatro tipos de frecuencia en una tabla.

27

Para comprender la lógica de las operaciones involucradas en la distribución de frecuencias, se expondrá un ejemplo a partir del cual se explicará la forma en la cual se obtiene cada una de las frecuencias.

Ejemplo Se encuesto con un cuestionario abierto a una muestra de 300 personas, hombres y mujeres, sobre el significado del funcionamiento familiar. Una vez que se obtuvieron los datos se procedió a su organización, lo que se hizo mediante una distribución de frecuencias, tal como se observa en la tabla 4.

TABLA 4

TOTAL DE HOMBRES Y MUJERES QUE OPINARON SOBRE EL SIGNIFICADO DEL FUNCIONAMIENTO FAMILIAR

Sexo

f

Hombres

144

Mujeres

156

Total

300

Esta tabla muestra el total de hombres y mujeres que participaron en la investigación, sin embargo, para identificar la preferencia de hombres y mujeres por uno u otro de los significados del funcionamiento familiar, se obtuvieron las frecuencias absolutas de ocurrencia de respuesta por sexo. Estos resultados se presentan en la tabla 5. En la tabla 5 se enuncian las frecuencias absolutas (f) de ocurrencia de respuesta de la categoría de análisis sexo: hombres (H) y mujeres (M), en cada uno de los significados generales de funcionamiento familiar. En este ejemplo la muestra no tiene una distribución igual en cuanto al número de H y M incluidos, por lo que para comparar a los dos grupos aun

28

Sofía Rivera Aragón Mirna García Méndez

TABLA 5

FRECUENCIAS DEL SIGNIFICADO DE FUNCIONAMIENTO FAMILIAR EN HOMBRES Y MUJERES

Significados generales Organización y estructura Emocional-valorativa Afectivo-funcional Funcional Afectiva total

Hombres

Mujeres

f

f

25 44 53 16 6 144

20 66 54 13 3 156

cuando existen diferencias en su tamaño se emplea la frecuencia relativa (fr %). La frecuencia relativa (fr %) se refiere a la ocurrencia de los niveles de una categoría -en este ejemplo (H y M)- por cada 100 casos. Su cálculo se obtiene al multiplicar cualquier proporción dada por 100 (Levin y Levin, 2002).

Siguiendo con el ejemplo de los significados generales del funcionamiento familiar, para obtener la frecuencia relativa de los H que respondieron el cuestionario, se multiplica 100 por 144 y el resultado se divide entre 300 que es el total de personas que participaron en la investigación, y se extrae la fr que es de 48 por ciento.

La tabla 6 presenta que del total de la muestra, el 48 por ciento son hombres y el 52 por ciento son mujeres.

Estadística descriptiva 29

TABLA 6 FRECUENCIAS ABSOLUTA Y RELATIVA DE LA CATEGORÍA SEXO

Sexo

f

fr (%)

Hombres

144

48.0

Mujeres Total

156

52.0

300

100

Con respecto a las respuestas de la muestra en relación con los significados del funcionamiento familiar, éstas varían tal como se observa en la tabla 5 por lo que también se aplica la frecuencia relativa al igual que en la categoría de sexo. Los datos se presentan en la tabla 7.

TABLA 7

FRECUENCIAS ABSOLUTA Y RELATIVA DEL SIGNIFICADO DE FUNCIONAMIENTO FAMILIAR EN HOMBRES Y MUJERES

Hombres f fr(%)

Mujeres f r(%)

Organización y estructura

25

17.4

20

12.8

Emocional-valorativa Afectivo-funcional Funcional Afectiva Total

44 53 16

30.6 36.8

66

42.3 34.6 8.3

11.1

54 13

6

4.2

3

1.9

144

100

156

100

La frecuencia ajustada recalcula la frecuencia absoluta quitando datos o con base en elementos perdidos que generalmente se computan con cero (en el SPSS aparecen como missing). Estos elementos perdidos se refieren a los enunciados o preguntas que la muestra no respondió. Con base en el ejemplo del significado del funcionamiento familiar en H y M, la tabla 8 presenta las frecuencias absolutas, las relativas y las ajustadas.

Sofía Rivera Aragón García Méndez

30       Mirna

TABLA 8 FRECUENCIAS ABSOLUTA, RELATIVA Y AJUSTADA DEL SIGNIFICADO DE FUNCIONAMIENTO FAMILIAR EN HOMBRES Y MUJERES

Significados generales

Organización y estructura Emocional-valorativa Afectivo-funcional

Funcional Afectiva Total

Hombres

Mujeres

f

fr (%)

25

17.4

17.4

20

12.8

20

44 53 16 6 144

30.6 36.8 11.1 4.2 100

30.6 36.8 11.1 4.2 100

66 54 13 3 156

42.3 34.6 8.3 1.9 100

86 140 153 156

fa (%)

f

fr (%)

fa (%)

En esta tabla la fr y fa (%) son iguales debido a que no hubo valores perdidos. Con fines de ejemplificar la fa (%) la tabla 9 muestra las frecuencias del estado civil de la muestra.

Tabla 9 FRECUENCIAS DEL ESTADO CIVIL DE HOMBRES Y MUJERES

Estado civil

f

fr(%)

Casado

120

40.0

40.3

Soltero Unión libre Divorciado Separado Viudo Total

151 13 8 3 3 298 2

50.3 4.3 2.7 1.0 1.0 99.3 .7

50.7 4.4 2.7 1.0 1.0 100.0

300

100.0

Valores perdidos (missing) 0 Total

fa (%)

Estadística descriptiva 31

La frecuencia acumulada (la) ordena los puntajes del total de casos de una categoría. Se obtiene al sumar la frecuencia de un puntaje dado a la frecuencia de la categoría debajo de ella. Al resultado de esta operación, se suma en forma acumulativa el puntaje de la categoría debajo de ella, y así sucesivamente hasta tener incluidos el total de los casos. Siguiendo el ejercicio de los significados de funcionamiento familiar, la tabla 10 presenta las frecuencias absolutas, relativas, ajustadas y acumuladas por hombres y mujeres.

TABLA 10 FRECUENCIAS ABSOLUTAS, RELATIVAS, AJUSTADAS Y ACUMULADAS DE HOMBRES Y MUJERES CON RELACIÓN AL SIGNIFICADO DEL FUNCIONAMIENTO FAMILIAR

Significados generales

Hombres f

fr (%) fa (%)

Mujeres fa

f

fr(%)

fa (%)

fa

20 66 54 13 3

12.8 42.3 34.6 8.3 1.9 100

12.8 12.8 42.3 55.1 34.6 89.7 8.3 98.1 1.9 100.0 100

Organización y estructura Emocional-valorativa Afectivo-funcional Funcional Afectiva total

25 44 53 16 6 144

17.4 17.4 17.4 30.6 30.6 47.9 36.8 36.8 84.7 11.1 11.1 95.8 4.2 4.2 100.0 100 100 156

Ejercicio SPSS

Para obtener los cuatro tipos de frecuencia en SPSS de las 300 personas, se realizan los siguientes pasos:

Paso 1. En la base de datos se coloca el cursor en Analyze, se presiona el botón izquierdo del mouse.

Paso 2. Al presionar Analyze, aparece un menú en el que se coloca el cursor en Descriptive Statistics, se presiona con el botón izquierdo del mouse y aparece otro menú, se coloca el cursor en Frequencies y una vez más se presiona con el botón izquierdo del mouse.

32

Sofía Rivera Aragón Mirna García Méndez

Paso 3. Al presionar Frequencies, se abre un menú que contiene las variables de la investigación, se marca con el botón izquierdo del mouse la variable siggene (significados generales del funcionamiento familiar).

Estadística descriptiva 33

Paso 4. Una vez señalada la variable siggene, se coloca el cursor en el icono que está entre las variables de estudio y variable(s), se presiona el botón izquierdo del mouse, de esta operación siggene aparece en el cuadro de variable(s).

Paso 5. Se coloca el cursor en el icono de OK, se presiona el botón izquierdo del mouse obteniéndose los cuatro tipos de frecuencias, en donde: frequency es frecuencia absoluta, percent es frecuencia relativa, valid percent es frecuencia ajustada y cumulative percent es frecuencia acumulada. Sofía Rivera Aragón 34 Mima García Méndez

SIGNIFICADOS GENERALES

Frequency Percent

Valia Percent

Cumulative Percent

15.0 36.7 35.7 9.7 3.0 100.0

15.0 51.7 87.3 97.0 100.0

Valid organización y estructura emocional-valorativa afectivo-funcional funcional afectiva Total

45 110 107 29 9 300

15.0 36.7 35.7 9.7 3.0 100.0

Estos resultados indican que los significados de funcionamiento familiar con mayor ocurrencia de respuesta fueron el emocional-valorativo y el afectivofuncional.2 Una vez descritos los cuatro tipos de frecuencias, se proseguirá con la distribución de frecuencias agrupadas, las que se emplean para incluir las frecuencias absolutas en intervalos de clase (Levin y Levin, 2002; Downie y Heat, 1973). Estos intervalos de clase son comúnmente empleados cuando la distribución de frecuencia es tan amplia que resulta poco práctica. Es el caso del ejemplo de la tabla 11 que presenta una distribución de frecuencias por edad en una muestra de 351 personas, que varía de 21 a 60 años. La tabla 11 indica que se tiene una persona de 21 años, dos personas de 22 años, 13 personas de 23 años y así sucesivamente. Con el propósito de que los datos tengan una presentación sencilla y clara, se obtienen los intervalos de clase que para este caso es de cinco, tal como se observa en la tabla 12. La decisión del tamaño del intervalo es responsabilidad del investigador, quien generalmente parte de su base de datos y de los objetivos de su investigación.

2Con fines didácticos se presentarán las tablas del SPSS, aunque éstas no se reportan en una investigación, se abstraen los datos que el investigador desea resaltar y se muestran en otro formato.

Estadística descriptiva 35

TABLA 11 DISTRIBUCIÓN DE EDAD POR FRECUENCIAS EN HOMBRES Y MUJERES.

Edad

f

Edad

21

1

31

22

2

32

23

13

24

f

Edad

f

Edad

f

15

41

8

51

2

18

42

52

5

33

16

43

1 1 7

53

6

13

34

13

44

7

54

1

25

11

35

16

45

4

55

2

26

17

36

9

46

7

56

0

27

11

37

18

47

4

57

2

28

13

38

14

48

3

58

0

29

19

39

15

49

8

59

0

30

15

40

13

50

8

60 Total

4 351

TABLA 12 DISTRIBUCIÓN DE EDAD POR INTERVALOS EN HOMBRES Y MUJERES

Intervalo de clase

f

56-60

6

51-55 46-50 41-45

16 30 37

36-40 31-35 26-30 21-25

69 78 75 40 Total 351

A su vez los intervalos de clase tienen un límite inferior y un límite superior (véase tabla 13). Como se observa en la tabla 13, el límite inferior del intervalo de edad 21-25 es 20.5 y su límite superior es 25.5, que también es el límite inferior del intervalo 2650, esto es, el límite superior de cada uno de los intervalos se convierte en el límite inferior del intervalo subsiguiente.

36

Sofía Rivera Aragón Mirna García Méndez

TABLA 13

LÍMITES SUPERIOR E INFERIOR DE LOS INTERVALOS DE EDAD EN UNA MUESTRA DE 351 SUJETOS

Limits inferior

Intervalo de clase

Límite superior

55.5 50.5 45.5

56-60 51-55 46-50

60.5 55.5 50.5

40.5 35.5 30.5 25.5

41-45 36-40 31-35 26-30

45.5 40.5 35.5 30.5

20.5

21-25

25.5

Representación gráfica Los resultados que se obtienen de la investigación se pueden representar en tablas o gráficas, pero nunca se deberán emplear ambas alternativas para presentar los mismos datos; por ejemplo, si la escolaridad de la muestra se presenta en tablas, ya no se utilizará la figura, porque ello implica repetir la información. Hay investigadores que se inclinan por el uso de figuras debido a que atraen la atención visual del observador. Una de las características de las gráficas consiste en que se basan en una recta numérica (véase gráfica 1).

GRÁFICA 1

REPRESENTACIÓN DE LA RECTA NUMÉRICA

Estadístico descriptiva 37

Las gráficas que se utilizan con mayor regularidad son:

1. Barras 2. Pastel 3. Histograma 4. Ojivas 5. Polígonos de frecuencia Las gráficas de barras y pastel se aplican únicamente a variables nominales y ordinales; mientras que los histogramas, ojivas y polígonos de frecuencia se emplean en variables ordinales, intervalares y de razón.

Gráfica de barra

En esta figura no hay continuidad en las barras cuando se emplea en datos nominales, razón por la que están separadas. La gráfica 2 muestra el grado de escolaridad de los 300 sujetos a los que se les aplicó el cuestionario abierto del significado de funcionamiento familiar. Los números que aparecen al interior de cada una de las barras son opcionales, se incluyen si el investigador quiere indicar el número de sujetos que corresponde a cada nivel educativo. Así el número 22 que aparece en la barra de primaria, indica que de la muestra total de 300 personas, 22 de ellas tienen educación primaria. La gráfica 3 presenta las cinco categorías que resultaron de la aplicación del cuestionario abierto del significado de funcionamiento familiar (organización y estructura, emocional-valorativa, afectivo-funcional, funcional y afectiva) así como la distribución de la muestra en cada categoría. La diferencia entre las gráficas 2 y 3, es que en la gráfica 2 cada barra muestra el número exacto de sujetos ubicados en cada grado escolar, mientras que en la gráfica 3 se observa de manera general la distribución de la muestra en las cinco categorías de funcionamiento familiar. La elección de una u otra figura está en función de lo que el investigador quiera resaltar de sus resultados.

38 

Sofía Rivera Aragón Mirna García Méndez

GRÁFICA 2 NIVEL DE ESCOLARIDAD 

GRÁFICA 3

DISTRIBUCIÓN DE LA MUESTRA EN LAS CATEGORÍAS DE FUNCIONAMIENTO FAMILIAR

Estadística descriptiva 39

Gráfica de pastel o de sectores Se utiliza con frecuencias absolutas y relativas, es útil para mostrar diferencias de frecuencias en categorías de nivel nominal. La gráfica 4 presenta la variable ocupación de una muestra de 352 personas, hombres y mujeres del Distrito Federal. Gráfica 4

OCUPACIÓN DE HOMBRES Y MUJERES

Cada sección de la gráfica tiene el número de individuos agrupados por cada uno de los cinco tipos de ocupación. También con la figura de pastel se puede presentar la distribución de la muestra con porcentajes, como se aprecia en la gráfica 5. Del total de las 352 personas que integran la muestra, su escolaridad se distribuye de la siguiente manera: 18 por ciento tiene primaria, 36 por ciento secundaria, 31 por ciento preparatoria y 25 por ciento licenciatura.

Gráfica de histograma Se emplean en variables continuas3 y se elaboran con base en el límite inferior del intervalo. La gráfica 6 muestra los intervalos de edad de la

3

Una variable continua es aquella que asume un conjunto ordenado de valores dentro de un

rango (Kerlinger y Lee, 2001).

Sofía Rivera Aragón 40 Mirna García Méndez

GRÁFICA 5 NIVELES DE ESCOLARIDAD EN HOMBRES Y MUJERES 

muestra de 351 sujetos de las tablas 12 y 13. Las barras están unidas porque denotan continuidad del intervalo de menor edad (21-25) al de mayor edad (56-60).

GRÁFICA 6

INTERVALOS DE EDAD EN UNA MUESTRA DE 351 HOMBRES Y MUJERES

Estadística descriptiva 41

Otro ejemplo relacionado con los histogramas es el caso del constructed esperanza, medida por una escala cuyos intervalos de respuesta van del 1 al 5. Esta escala se constituye por dos dimensiones: importancia y probabilidad, cada una con 10 factores (Vargas, García-Méndez, DíazLoving y Rivera, 2004). El histograma de la figura 7 muestra el comportamiento de uno de los factores de probabilidad -ayuda paterna- en una muestra de 300 personas del D.E GRÁFICA 7

NÚMERO DE PERSONAS POR INTERVALO DE RESPUESTA EN EL FACTOR DE AYUDA PATERNA EN LA ESCALA DE ESPERANZA

Gráfica de ojiva o de polígono de frecuencia acumulada Se basa en la frecuencia absoluta y se grafica con el límite superior. En esta figura, la línea que conecta los puntos es ascendente, razón por la que no toca la línea base horizontal (Downie y Heath, 1973). La gráfica 8 presenta los rangos de edad de una muestra de 351 personas, rangos distribuidos con base en el límite superior presentado en la tabla 13 de este capítulo.

42

Sofía Rivera Aragón Mirna García Méndez

G RÁFICA 8 RANGOS DE EDAD

Gráfica de polígonos de frecuencia Se conoce también como curva. Es más fácil de graficar después de hacer un histograma. Un ejemplo de polígonos de frecuencia se expone en la gráfica 9, en una muestra de 168 parejas heterosexuales, cuyos años de unión se distribuyeron por rangos. Gráfica 9

RANGOS AÑOS DE UNIÓN

Estadística descriptiva 43

Obtener medidas de tendencia central Es común en el ámbito de la investigación, querer saber lo típico o el promedio en el que se encuentra la muestra de estudio, con la finalidad de describirla en forma global. Este promedio o valor se conoce como medida de tendencia central debido a que se encuentra en el centro de una distribución en la que se localizan la mayoría de los puntajes de la muestra (Levin y Levin, 2002). La forma de obtener este promedio es a través de las medidas de tendencia central: media, mediana y moda expuestas en la tabla 14. 1. 2. 3.

Media → es un promedio. Mediana → divide en dos a la muestra. Moda → es el valor que se repite con mayor frecuencia.

Tabla 14 MEDIDAS DE TENDENCIA CENTRAL

Representación Paramétrica No paramétrica

X μ (media) Md (mediana) Mo (moda)

Nivel de medición Intervalar Ordinal Nominal

Exactitud Exacta Variable Inestable

Como se observa en la tabla 14 es usual emplear letras latinas para representar las características de una muestra y las letras griegas para los parámetros de una población (Downie y Heath, 1973). En el caso de la tabla 14, la X(media) es un estimador debido a que es un valor que representa una característica de la muestra, y la μ (media) es un parámetro, porque es un valor que representa las características de una población. Estas medidas de tendencia central son empleadas en la toma de decisiones e indican el punto medio de una distribución, tal como se observa en la gráfica 10.

44

Sofía Rivera Aragón Mirna García Méndez

GRÁFICA 10

DISTRIBUCIÓN NORMAL

Media La media aritmética X es la medida de tendencia central más utilizada en la investigación, se obtiene al sumar el total de puntajes obtenido por la muestra, dividido entre el número total de la muestra (Clark-Carter, 1997; Levin y Levin, 2002; Downie y Heath, 1973). Su fórmula es:

Donde:

La media. La suma expresada por la letra griega sigma Datos crudos Número de casos Esta fórmula se emplea en datos no agrupados (datos crudos) en muestras pequeñas.

Estadística descriptiva

45

Ejemplo 1 Conocer la media de edad de una muestra de diez sujetos

Cuando se trabaja con datos agrupados por frecuencias o por intervalos y con muestras grandes, la media se obtiene con la siguiente fórmula:

donde: La media. La suma expresada por la letra griega sigma Los puntajes en crudo de la muestra Un puntaje multiplicado por su frecuencia de ocurrencia La suma de los fx Número de casos

46

Sofía Rivera Aragón Mirna García Méndez

Ejemplo 2 Se aplicó a una muestra de 330 hombres y mujeres la escala de depresión de Zung (1965) (SDS).4 La presencia o ausencia de depresión se evaluó con base en cuatro niveles: 1 = < 50% sin depresión 2 = > 50% depresión leve 3 = > 60% depresión moderada 4 = > 70% depresión grave Primero se obtienen las frecuencias de ocurrencia en cada uno de los niveles de depresión.

Niveles de depresión 1 2 3 4

f 264 45 14 7

Después se obtiene la fx, al multiplicar cada una de las frecuencias por el nivel de depresión correspondiente.

4 SDS

son las siglas del nombre de la escala en inglés: Self-Rating Depression Scale.

Estadística descriptiva 47

Esta media de 1.3 indica que la mayoría de los 330 sujetos se ubican en el nivel 1, lo que significa que en promedio la muestra no tiene depresión. Ejemplo 3

Para obtener la media de años de unión de una muestra de 352 sujetos que vivían con una pareja al momento de la investigación, los datos se agruparon en intervalos. Una vez derivados los intervalos, se obtiene la marca de clase (Mx) o punto medio de cada intervalo donde 33 es el, punto medio del intervalo 31-35 porque 33 + 2 = 35 y 33- 2 = 31.

Intervalo

Mx

31-35

33

26-30 21-25 16-20 11-15 6-10 1-5

28 23 18 13 8 3

Enseguida se obtiene la frecuencia de ocurrencia (f) de cada intervalo, así en el intervalo de 26-30 años de unión, se encuentran 24 personas.

48

Intervalo

Mx

31-35

33

8

26-30 21-25 16-20 11-15 6-10 1-5

28 23 18 13 8 3

24 34 49 84 110 43

Sofía Rivera Aragón Mirna García Méndez

f

Posteriormente se multiplica cada frecuencia por su respectiva Mx y se consiguen de esta manera las fx.

De esta manera se concluye que la media de años de unión de esta muestra es de 13.3. Mediana

La mediana (Md) es el valor medio de la distribución, divide el total de los casos en dos, razón por la que se dice que divide en dos a la muestra, dejando el mismo número de casos a cada lado de ella (Downie y Heath, 1973). Cuando se tiene un número impar de casos, la Md se ubica exactamente a la mitad de la distribución. En los datos que a continuación se presentan, la Md de edad de los 145 sujetos es de 21 años y le quedan tres rangos de edad hacia arriba y tres rangos de edad hacia abajo.

Edad

f

18

21

19 20 21 22 23 24

22 32 26 14 18 12 n = 145

Estadística descriptiva 49

De acuerdo con Levin y Levin (2002) la posición del valor de la Md también se puede obtener con la fórmula:

Posición de la Md Siguiendo con el ejemplo de la edad: Posición de la Md Para localizar el número 73 se saca la frecuencia acumulada (fa) la cual se revisó al inicio de este capítulo. Edad

f

fa

18

21

145

19 20 21 22 23 24

22 32 26 14 18 12 n= 145

124 102 70 44 30 12

Una vez obtenida la fa se localiza la posición de la Md 73 en la columna de la fa. El número más cercano al 73 es el 70 por lo que la Md de edad es 21. Si el número de casos es par, entonces se procede de acuerdo con el siguiente ejemplo. En una muestra de 90 sujetos, la posición de la Md 45.5 se ubica entre las fa 35-50 por lo que la Md es de 10.5 años de escolaridad, situada a la mitad de la distribución. Moda

La moda (Mo) es una medida de tendencia central para datos no agrupados, cuyo valor se presenta más veces. En el ejemplo anterior la Mo es

50

Sofía Rivera Aragón Mirna García Méndez

10 años de escolaridad, debido a que su frecuencia es la más alta en la distribución: son 15 los sujetos que tienen estos años de escolaridad.

Ejercicio

SPSS

Para obtener las medidas de tendencia central en

SPSS ,

se retomará el ejercicio de

los significados generales del funcionamiento familiar desarrollado para extraer los cuatro tipos de frecuencias. Recuerde que después de realizar los pasos 1, 2, 3 y 4 en el SPSS se obtuvo un menú. En este menú, ahora se coloca el cursor en el icono de statistics y se presiona el botón izquierdo del mouse:

Estadística descriptiva 51

Al presionar statistics aparece un menú en el que se coloca el cursor en cada uno de los cuadros de las tres medidas de tendencia central de nuestro interés media, mediana y moda— se presiona en estos cuadros con el botón izquierdo del mouse, enseguida se coloca el cursor en el ícono de continue que se presiona con el botón izquierdo del mouse.

Al presionar el icono de continue reaparece el menú del paso 4 y se presiona el icono OK.

Sofía Rivera Aragón 52 Mirna García Méndez

Después de presionado el icono de OK aparecen en una tabla las medidas de tendencia central con sus respectivos valores. STATISTICS

Significados generales N

Valid Missing

Mean Median Mode

300 0 2.4900 2.0000 2.00

El valor de la media, mediana y moda es de 2, lo que indica una distribución normal de las respuestas de la muestra. Calcular medidas de dispersión (variabilidad)

Las medidas de dispersión son importantes en la descripción de la distribución, debido a que indican el grado en que varían los datos con relación a la parte central de la curva normal, lo que las convierte en un elemento inseparable de las medidas de tendencia central; además estas medidas de dispersión sólo pueden aplicarse a medidas de rango e intervalares. Las más empleadas son: 1. Rango 2. Desviación estándar 3. Varianza 4. Sesgo 5. Curtosis 6. Error estándar Rango (R)

El rango también conocido como recorrido (Mendenhall, 1982; Downie y Heath, 1973) es la distancia entre el valor mínimo y el valor máximo de

Estadística descriptiva

53

una distribución. Su cálculo es fácil y rápido, no requiere de fórmula y se puede utilizar en medidas ordinales e intervalares. Su desventaja radica en su inestabilidad, esto es, de una muestra a otra, presenta grandes variaciones, por lo que se recomienda emplearse como una medida preliminar. Un ejemplo de esta medida de variabilidad es conocer el rango de rendimiento escolar de 42 alumnos, cuya calificación más alta fue de 9 y la más baja de 2. El R se obtiene de la resta 9-2 esto es el R = 7.

Desviación estándar (o = parámetro de la población) (s = estimador de la muestra) La desviación estándar únicamente se puede emplear en medidas intervalares. Es una puntuación que indica la distancia con relación a la media, razón por la que la media no tiene significado sin la desviación. De esta forma, como se observa en la gráfica 11, la desviación representa la variabilidad promedio de una distribución.

G RÁFICA 11 REPRESENTACIÓN DE LA DESVIACIÓN ESTÁNDAR EN UNA DISTRIBUCIÓN NORMAL

54

Sofía Rivera Aragón Mirna García Méndez

Su fórmula es:

donde: s = Desviación estándar Suma de frecuencias de puntajes crudos elevados al cuadrado n = Número total de casos (X)2 = Media elevada al cuadrado Para entender la desviación estándar de la cual depende la significancia, es necesaria la curva (véase gráfica 12) que representa el 100 por ciento de la probabilidad. De esta manera, 100 por ciento es el área bajo la curva.

GRÁFICA 12 REPRESENTACIÓN DE LA SIGNIFICANCIA A PARTIR DE LA DESVIACIÓN ESTÁNDAR EN UNA DISTRIBUCIÓN NORMAL

Estadística descriptiva

54

Ejemplo

Para calcular la desviación estándar del número de hijos en una muestra de 176 parejas, se realiza lo siguiente: 1. Se obtiene la distribución de frecuencia (/)

Núm. de hijos (x)

f

1

49

2 3 4 5

74 34 15 4 n = 176

2. Se multiplica cada frecuencia por el número de hijos, esto es, 49 parejas tienen un hijo, se multiplica 49 X 1; 74 parejas tienen dos hijos, se multiplica 74 X 2, y así sucesivamente. Núm. de hijos (x)

f

fx

1

49

49

2 3 4 5

74 34 15 4 n = 176

148 102 60 20 S/x = 379

3. Se multiplica cada fx por el número de hijos y así se obtienen las fx2.

Núm. de hijos (x)

56

fx

fx2

1

49

49

2 3 4 5

148 102 60 20

296 306 240 100 2/x2 = 991

Sofía Rivera Aragón Mirna García Méndez

De acuerdo con la fórmula de la desviación estándar falta obtener la media

por lo que

se toma del punto dos.

4. Una vez que se tiene la X = 2.15 hijos, ésta se eleva al cuadrado (X)2 — 4.62 y entonces:

Varianza (s2 o σ2)

La varianza es la desviación estándar al cuadrado, indica una distancia con respecto a la X, su aplicación es el análisis de varianza (Anova)5 e indica cuánto de la variabilidad de la variable dependiente es explicada por la variable independiente. De esta forma muestra qué tanto de la variabilidad de la variable dependiente es explicada por las diferencias de los individuos, proceso al que se le conoce como varianza de error.

5

Siglas en inglés del análisis de varianza.

Estadística descriptiva

57

Sesgo El sesgo se refiere a la variación de una distribución, es el grado de asimetría de la distribución observada por el número de casos agrupados en una sola dirección. Su interpretación está asociada con el valor y el signo, esto es: Valor - 4 a + 4 Signo + El signo implica el nivel de asimetría de la curva, cuando más cercana está al cero, la curva es normal, cuando más cercana está al cuatro, la curva es asimétrica o sesgada. Ejemplos Una muestra de 60 mujeres se clasificó por la actividad que realizaban de la siguiente manera: 1. estudiantes, 2. empleadas, y 3. sin actividad. En la gráfica 13 se puede ver que la mayoría de la muestra era estudiante, lo que se refleja en el sesgo positivo de la gráfica 13.

GRÁFICA 13 ACTIVIDADES REALIZADAS POR MUJERES

Sofía Rivera Aragón 58 Mirna García Méndez

Al indagar en torno a los elementos que intervienen en el funcionamiento familiar en una muestra de 300 sujetos, se encontró que 232 reportaron que la comunicación es un indicador que interviene en el funcionamiento familiar. Estos hallazgos se observan en la gráfica 14 que muestra un sesgo negativo debido a que la curva está cargada a la derecha.

GRÁFICA 14 LA COMUNICACIÓN COMO ELEMENTO DEL FUNCIONAMIENTO FAMILIAR

Curtosis (K) Es el nivel de picudez de una curva, esto es, su grado de elevación o aplanamiento. A diferencia del sesgo, la curtosis es una z4 sobre el número de sujetos.

La curtosis al igual que el sesgo depende del valor y del signo: a) Valor. Si el cero va de + 4 a - 4 la curva es mesocúrtica. b) Signo. Si es positivo se habla de una curva leptocúrtica.

Estadística descriptiva

59

Ejemplos El número de hijos en una muestra de 176 parejas fluctuó entre uno y cinco, predominando las parejas con dos hijos, tal como se observa en la gráfica 15, lo que hace que la curva sea alta o picuda (leptocúrtica).

GRÁFICA 15 NÚMERO DE HIJOS

La gráfica 16, representa una curva mesocúrtica, esto es, una distribución normal en una muestra de 60 mujeres, 30 con diagnóstico que indica problemas de alimentación y 30 sin problemas alimenticios. La gráfica 17, muestra una curva platocúrtica hipotética, que se caracteriza por su distribución relativamente plana. De esta manera se observa que el sesgo y la curtosis indican la asimetría, el sesgo hacia uno u otro lado de la curva y la curtosis a través de la elevación de la misma.

60

Sofía Rivera Aragón Mirna García Méndez

GRÁFICA 16 DIAGNÓSTICO DE PROBLEMAS EN LA ALIMENTACIÓN

G RÁFICA 17 CURVA PLATOCÚRTICA

Error estándar (σ o e) El error estándar es la diferencia entre la media muestral y la media poblacional, está vinculado al error de muestreo.

Estadística descriptiva

61

Ejercicio SPSS

Para obtener las medidas de dispersión en

SPSS

de una muestra de 300 personas a

las que se les aplicó la escala de depresión de Zung (1965) se llevan a cabo los siguientes pasos: Paso 1. En la base de datos se coloca el cursor en analyze, se presiona el botón izquierdo del mouse, aparece un menú en el que se coloca el cursor en descriptive statistics y se presiona el botón izquierdo del mouse, nuevamente se muestra un menú en el que se presiona con el botón izquierdo del mouse, frequencies.

Paso 2. Al presionar frequencies, se abre un menú que contiene las variables de la investigación, se marca con el botón izquierdo del mouse la variable rangos (niveles de depresión). Paso 3. Una vez señalada la variable rangos, se coloca el cursor en el icono que está entre las variables de estudio y variable(s), se presiona el botón izquierdo del mouse, lo que resulta en que rangos aparece en el cuadro de variable(s). Posteriormente se coloca el cursor en el icono de statistics y se presiona el botón izquierdo del mouse.

Sofía Rivera Aragón 62 Mirna García Méndez

Paso 3

Paso 4. Al presionar el icono de statistics aparece un menú en el que se colocará el cursor en cada uno de los cuadros de las tres medidas de dispersión -desviación estándar, varianza y rango- para después presionar en cada cuadro con el botón izquierdo del mouse. De igual forma se Estadística descriptiva

63

coloca el cursor en el cuadro de kurtosis y se presiona el botón izquierdo del mouse.

Paso 5. Después de presionar las medidas de dispersión y la curtosis, se coloca el cursor en el icono de continue y se presiona con el botón izquierdo del mouse, de lo que resulta el menú del paso tres. En el menú del paso tres, se coloca el cursor en el icono de OK, se presiona el botón izquierdo del mouse y aparecen las medidas de dispersión y la curtosis con sus respectivos valores.

STATISTICS

Rangos N

Valid Missing

Std. Deviation Variance Kurtosis Std Error of Kurtosis Range

64

Sofía Rivera Aragón Mirna García Méndez

330 22 .6458 .4171 6.138 .268 3.00

Los valores de la tabla del SPSS indican que de los 330 casos analizados, 22 quedaron fuera debido a que dejaron sin contestar varios de los reactivos que incluye la escala. Los valores de la desviación estándar y la varianza indican una distribución normal, la curtosis muestra que la mayoría de las personas se ubica en uno de los cuatro rangos de depresión, y el rango señala que de los cuatro intervalos de respuesta de la escala, el 3 fue el que obtuvo mayor frecuencia. Como parte final de este capítulo, la tabla 15 presenta las pruebas de la estadística descriptiva y los tipos de gráficas asociadas con el nivel de medición revisados en el capítulo uno.

TABLA 15 ESTADÍSTICA DESCRIPTIVA

Nominal

Gráficas Barras

Medidas de tendencia central

Medidas dispersión

de

Correlación

Moda

No hay

Coeficiente Phl C de contingencia V de Cramer

Pastel Ordinal

Barras Pastel

Moda Mediana

No hay

Tau b de Kendall Tau c de Kendall Gamma de KrusKal y Godman Spearman Incertldumbre

Intervalar

Ojiva Polígonos de frecuencia Histograma

Moda Mediana Media

1. Rango 2. Error 3. Desviación 4. Varianza 5. Sesgo 6. Curtosis

Eta Pearson

Estadística descriptiva

65

Estadística inferencial

La estadística inferencial se basa en la prueba de hipótesis, se define como un conjunto de técnicas que permiten al investigador obtener conclusiones a partir de una muestra para después ser generalizadas a una población. De este modo, su principal función es la generalización en una población (parámetros) habitualmente en términos de probabilidad (Nunnally y Bernstein, 1995) a partir de las conclusiones obtenidas, resultado de la manipulación de variables en muestras observadas.

Aplicaciones de la estadística inferencial

a) Comparar parámetros. Un parámetro es cualquier característica de una población. b) Aplicar pruebas de hipótesis. Hipótesis conceptual Deriva del marco teórico, parte de una teoría, un modelo teórico o un metanálisis. Son hipótesis que ya fueron planteadas por otro investigador. Ejemplo

A mayor frustración mayor agresión (Dollar, Doob, Miller, Mowrer y Sears, 1939). Hipótesis de trabajo Estas hipótesis se refieren a lo que espera encontrar el investigador a partir de un marco teórico.

69

Ejemplo

Existe relación entre el aprovechamiento escolar y la autoestima. Hipótesis estadísticas Se clasifican en nulas y alternas, presentan las siguientes características: 1. implican la relación entre variables, y 2. se plantean sólo cuando se aplica estadística en la investigación (véase tabla 16). Un punto importante de señalar es que en los estudios exploratorios no se deberán proponer ninguna de estas hipótesis (nulas y alternas).

TABLA 16 HIPÓTESIS ESTADÍSTICAS

Tipo

Notación

Nula

Ho

Definición Niega la relación o diferencia entre variables

Formas a) b)

Función

Comparación Diferencias entre grupos Relación Asociación entre variables

Alterna H1

70

Presencia de la relación o la diferencia

Sofía Rivera Aragón Mirna García Méndez

a) Comparación I. Con dirección. Indica que b) Relación uno de los parámetros es más bajo o más alto que otro. II. Sin dirección. Sólo compara grupos. II. Con dirección. Indica que las variables aumentan o disminuyen. II. Sin dirección. Sólo establece relaciones.

Ejemplos

Ho de comparación Se identifica la variable dependiente (VD) y la independiente (VI) o de clasificación (VE). VD =

Asertividad

vc = Sexo: hombres y mujeres Ho = No existen diferencias estadísticamente significativas en la asertividad entre hombres y mujeres. Con notación estadística

Ho de relación V1 = Agresión (X) v2 = Niveles de testosterona (Y) Ho = No existe relación entre agresión y el nivel de testosterona en hombres. Con notación estadística Ho: rxy = 0

H1 de comparación sin dirección. Utiliza los dos lados de la curva.

Estadística inferencial 71

VD =

Calidad de vida vc = Estado civil: casados y solteros H1 = Sí hay diferencias estadísticamente significativas en la calidad de vida entre solteros y casados. Con notación estadística

H1 de comparación con dirección. Se ocupa de un solo lado de la curva

Los solteros tienen mayor calidad de vida que los casados. Con notación estadística

H1 de relación sin dirección V1 = identidad nacional (X) V2 - Edad (Y)

72

Sofía Rivera Aragón Mirna García Méndez

H1 = Existe relación entre la identidad nacional y la edad en los universitarios. Con notación estadística H1 = rxy ≠ 0 H1 de relación con dirección H1 = a mayor identidad nacional mayor edad en los universitarios

Con notación estadística H1 = rxy > + 0 H1 = a mayor identidad nacional menor edad en los universitarios

Con notación estadística H1 = rxy > - 0

Clasificación de la estadística inferencial

No paramétrico

Es una estadística de distribución libre, se basa en frecuencias, porcentajes y rangos, estos últimos basados en rangos de ordenación los cuales son buenas medidas de variabilidad para muestras pequeñas, no así para muestras grandes. Las pruebas de la estadística no para- métrica se enfocan en las diferencias entre las medianas y parten de un modelo que especifica únicamente condiciones muy generales en torno a la distribución de la cual fue obtenida la muestra (Siegel y Castellan, 2003).

Estadística inferencial

73

Ventajas

a) Se puede aplicar a muestras pequeñas en las que la n > 4. b) Sus niveles de medición son nominal y ordinal. En el nivel nominal se pueden tratar datos que impliquen clasificación (sexo: hombre o mujer). En el nivel de medición ordinal, el investigador concluye que algunos sujetos de investigación tienen más o menos del atributo medido, sin determinar qué tanto más o qué tanto menos. c) Si se aplica a variables intervalares, éstas deberán ser convertidas en categorías. Por ejemplo:

d) Está libre de parámetros. Se refiere a que su distribución es libre.

Desventajas

Cuando se aplica a variables intervalares sin ser convertidas en categorías, se infla el valor de la prueba y se comete el error estadístico conocido como error tipo 1 o alfa que consiste en rechazar la Ho cuando es verdadera, situación que conduce a conclusiones falsas. Dadas las características de la estadística no paramétrica, existe una diversidad de pruebas que pueden ser empleadas con base en los requisitos citados. En la tabla 17 se presentan las pruebas no paramétricas más utilizadas, así como una serie de elementos que facilitan la toma de decisiones con relación a las condiciones que se deben cubrir para emplear una u otra prueba.

74

Sofía Rivera Aragón Mirna García Méndez

TABLA 17

PRUEBAS DE LA ESTADÍSTICA NO PARAMÉTRICA

Prueba

Objetivo

Nivel de medición

X2

Conocer la distribución de la muestra

Nominal y ordinal

Bondad de ajuste

Por homogeneidad

Conocer si existen diferencias entre dos o más grupos IndepenConocer si dencia existe relación entre dos o más variables Corrección de Conocer difeYates rencias o asociación entre variables en muestras pequeñas McNemar Comparar si existen diferencias antes y después de un evento T de Comparar si Wilcoxon existen diferencias antes y después de un evento U de Mann Comparar si Whitney existen diferencias entre dos grupos

Nominal y ordinal

Análisis de varlanza de KrusKall Wallis

Comparar si existen diferencias entre tres o más grupos

Diseño De una muestra

Muestreo

Instrumentos

No probabilísticos

Cuestionarios: abiertos cerrados Jerarquización observaciones

De dos o más muestras independientes

Nominal y ordinal

De una muestra

Nominal y ordinal

De una muestra o de dos muestras independientes

Nominal y ordinal

Pretest-postest No probaAntes-después bilístico Una sola muestra medida dos veces

Cuestionarios: abiertos cerrados jerarquización observaciones

Ordinal

No probaPretest-postest bilístico Antes-después Una sola muestra medida dos veces

Los mismos que en X2 y McNemar

Ordinal

Dos muestras independ ¡entes

No probabilístico

Los mismos que en las pruebas anteriores, además de escalas

Ordinal

Más de dos muestras independientes

Probabilístico

Escalas

Estadística Inferencial

75

TABLA 17 (Continuación)

Prueba

Nivel de medición

Diseño

Muestreo

Instrumentos

Comparar tres o más mediciones en un grupo

Ordinal

De medidas repetidas Tres o más muestras relacionadas

No probabilístico Probabilístico

Escalas

Spearman rho Conocer re(rs) coeficiente laciones entre de asociación dos variables

Ordinal

De una sola muestra

Escalas

Phi Coeficiente Conocer re-

Nominal. De una sola Se aplica a muestra tablas de contingencia de 2x2 (tablas pequeñas)

No probabilístico Probabllístico No probabilístico en muestras grandes

Análisis de varianza de Friedman

Objetivo

Pruebas* comparadas que se aplican en

de asociación

laciones entre dos variables

C de contingencia

Conocer relaciones entre dos variables

Nominal. De una sola Se aplica a muestra tablas de contingencia mayores de 2x2 (tablas medianas)

No probabilístico

Pruebas comparadas que se aplican en X2

V de Cramer

Conocer relaciones entre dos variables

Nominal. De una sola Corrección a la muestra C de contingencia

No probabilístico

Cuestionarios: abiertos cerrados jerarquización observaciones

*La prueba Phi y la C de contingencia dependen de la X2. Paramétrica

La estadística inferencial paramétrica se sustenta en supuestos o parámetros y para poder emplearla es necesario cubrir los siguientes principios: 1. Distribución normal. Indica que los grupos tienen una curva normal o mesocúrtica (esta curva se describe en el capítulo 2, figura 8). Con esta afirmación se asume que las muestras (n) con las que se está trabajando se han extraído de 76

Sofía Rivera Aragón Mirna O a roía Méndez

poblaciones normalmente distribuidas, si no es éste el caso, se dice que las pruebas estadísticas que dependen del principio do normalidad están viciadas, razón por la que las conclusiones obtenidas a partir de las observaciones de estas muestras estarán en tela de juicio. 2. Homecedasticidad de varianza u homogeneidad de varianza. La distancia entre la calificación de un grupo y los de otro grupo deben ser iguales, esto es, la distancia de las X a todas las puntuaciones individuales. Este principio supone que las varianzas dentro de los grupos son estadísticamente las mismas, o sea, que las varianzas son homogéneas de un grupo a otro (Kerlinger y Lee, 2001). Esta situación puede provocar el error estadístico tipo 2 o beta, que consiste en aceptar la Ho cuando es falsa. 3. Selección y asignación aleatoria. Sólo se aplican muestreos probabilísticos entendidos como la técnica en la cual todos los sujetos tienen la misma probabilidad de ser elegidos. También en la estadística paramétrica se utiliza el muestreo no probabilístico, definido como aquel en el que las personas no tienen la misma probabilidad de ser elegidos. Sin embargo, al emplear alguna de las técnicas de muestreo no probabilístico es conveniente replicar los estudios. De acuerdo con Kerlinger y Lee (2001) el muestreo probabilístico no es necesariamente superior al no probabilístico en todas las situaciones. Refieren que en el primero el énfasis está en el método y la teoría que lo sustenta, mientras que en el segundo, el énfasis se encuentra en la persona que hace el muestreo. Puesto que no es el propósito de este apartado profundizar en las técnicas de muestreo, en la tabla 18 se mencionan algunas de ellas. 4. La variable dependiente debe ser medida a nivel intervalar. Esto significa que las medidas deberán ser continuas con intervalos iguales, ejemplo, las escalas tipo Likert de estilos y estrategias de poder (Rivera y Díaz-Loving, 2001) y el inventario multifacético de satisfacción marital (Cañetas, 2000). Ambas son pruebas con cinco intervalos de respuesta.

Estadística inferencial

77

TABLA 18 TÉCNICAS DE MUESTREO

Técnicas de muestreo probabilístico

Técnicas de muestreo no probabilístico

Aleatorio simple

Accidental

Aleatorio con reemplazo Estratificado Por conglomerado Estratificado

Intencional Por cuota

La tabla 19 muestra las pruebas paramétricas más empleadas por el investigador social, además de los criterios que se deben tomar en cuanta para emplear una u otra prueba. La revisión en detalle de algunas de estas pruebas se expondrá en el capítulo 5 de este texto. TABLA 19 PRUEBAS DE LA ESTADÍSTICA PARAMÉTRICA*

Prueba

Objetivo

Nivel de medición

Diseño

Muestreo

Coeficiente Relacionar dos Productovariables m o m e n t o de Pearson

Intervalar

De una sola muestra Correlacional bivariado

Proba bilistico: Muestra grande

Prueba t de student

VD a nivel De dos muestras Probabilístico: I n t e r v a l a independientes Muestra r pequeña n relacionadas 30 pretest-pos- test Antes-después

Discriminación de reactivos

Comparar dos grupos Comparar dos condiciones o mediciones Prueba post hoc del Anova

78

Sofía Rivera Aragón Mirna García Méndez

Instrumentos Escalas

Escalas

Prueba

Objetivo

Nivel de medición

Anova (análisis de varianza)

Compara tres o La VD debe ser más grupos in-ervalar

Diseño

Muestreo

Tres o más muestras independientes

Probabilistico: Muestra grande

Factoriales

Muestra grande 15 sujetos mínimo por celdilla

Instrumentos Escalas

a) simple de una vía b) factorial de Comparar dos o dos vías más variables Independientes con tres o más categorías

vi {Nominal vc {y ve {Ordinal

*VC se refiere a las variables de clasificación y VE a las variables de estímulo.

Pruebas de la estadística no paramétrica

Cuando

existe

duda

respecto a la normalidad de la población o

cuando la población no es normal es conveniente emplear una prueba no paramétrica, que como ya se mencionó en el capítulo 3 no parten del principio de normalidad. Asimismo, las pruebas no paramétricas se clasifican en tres grupos: para una muestra simple, para muestras relacionadas y para muestras independientes. Debido a la amplia variedad de pruebas en cada uno de estos grupos, en este capítulo sólo se describirán las de mayor uso en la investigación en psicología.

Pruebas para una muestra simple

Generalmente las pruebas para una muestra simple son pruebas de bondad de ajuste que tienen como objetivo conocer la distribución de la muestra. Chi cuadrada (X2)

La chi cuadrada es la prueba más empleada en la investigación en psicología. Esta prueba se aplica para comparar las frecuencias esperadas (poblacionales) y las frecuencias obtenidas (muestra) y a partir de esta comparación decidir si existen diferencias significativas. Las frecuencias esperadas se refieren a la hipótesis nula (Ho) y las frecuencias obtenidas son los resultados alcanzados por el investigador. De este modo, mientras mayor sea el valor de X2 menor es la probabilidad de que las frecuencias obtenidas se deban a la población, esto

83

significa que el valor de chi cuadrada es significativo si la diferencia entre las frecuencias esperadas y las frecuencias obtenidas es lo suficientemente grande (Siegel y Castellan, 2003; Levin y Levin, 2002). Su fórmula es:

donde: suma de todas las casillas, de la primera a la última. frecuencia obtenida, frecuencia esperada. La fórmula para obtener las fe es fe= N /k donde: N = número de personas. k = número de categorías o columnas. De esta manera, el procedimiento para obtener la X2 consiste en restar cada frecuencia esperada de su correspondiente frecuencia obtenida, la diferencia de esta resta, se eleva al cuadrado y se divide entre la frecuencia esperada, estos resultados parciales se suman y se obtiene el valor de la chi cuadrada. Una vez que se obtiene el valor de la chi cuadrada, se requiere conocer los grados de libertad (gl) que se definen como la amplitud de variación contenida en una condición de investigación, lo que significa la posibilidad de variación (Kerlinger y Lee, 2001; Downie y Heath, 1973). Asimismo, junto con los grados de libertad, se requiere de una tabla de valores de X2 para conocer de acuerdo con los gl y al valor de la X2, si ésta es o no significativa.

84

Sofía Rivera Aragón Mirna García Méndez

La fórmula para obtener los grados de libertad es: gl = k - 1

donde: k = número de columnas de la tabla de contingencia También la X2 se utiliza en muestras independientes, en este caso se le conoce como prueba de homogeneidad y su objetivo es conocer si existen diferencias entre dos o más grupos. Un tercer uso de esta prueba, es como prueba de independencia, aquí su objetivo es conocer si existen relaciones entre dos o más variables en una muestra. Un cuarto uso es como prueba de corrección por continuidad de Yates, la cual le da mayor precisión a la X2 cuando tiene fe pequeñas. En los tres primeros casos -bondad de ajuste, homogeneidad, independencia- la chi cuadrada se obtiene con la misma fórmula. Reglas para su empleo

1. Las observaciones deben ser independientes, no se puede observar o medir a la misma persona más de una vez. 2. El nivel de medición utilizado será nominal u ordinal. 3. Se aplicará en muestreos no probabilísticos. 4. La muestra deberá ser mayor a 20 {N > 20). 5. Si la muestra N < 20 entonces se utiliza la prueba de probabilidad exacta de Fisher. 6. Las frecuencias esperadas deben ser mayores a 5. 7. Si la frecuencia esperada es > 5 y < 10, entonces se aplica la corrección por continuidad de Yates. 8. Si la N > 20 y < 40, se aplica la prueba de corrección por continuidad de Yates. 9. Si la tabla de contingencias es de 1 X i columnas, se aplica la X2 de bondad de ajuste.

Pruebas de la estadística no paramétrica

85

10. Si la tabla de contingencia ese de 2 x 2 y cumple los requisitos 7 y 8, se aplica la prueba de corrección por continuidad de Yates. Procedimiento

1. Plantear las hipótesis estadísticas. 2. Determinar la probabilidad con la que se trabajará: p = .05, p = .01. 3. Distribuir los puntajes en la tabla de contingencia. 4. Calcular las frecuencias esperadas: 5. Aplicar la fórmula. 6. Obtener los gl. 7. Plantear regla de decisión. Este estudio tiene como propósito identificar el consumo de productos chatarra, en una muestra de 60 niños preescolares de la ciudad de México, así como la preferencia por alguno de estos productos. Entendiéndose por productos chatarra: pastelitos, frituras, refrescos y dulces. Paso 1. Hipótesis. Ho: no existen diferencias significativas en el consumo de productos chatarra en niños preescolares. H1: existen diferencias significativas en cuanto al consumo de productos chatarra por parte de los niños preescolares. Paso 2. Nivel de significancia p = .05. Paso 3. Distribución de los datos. Pastelitos

Frituras

fo 15

fo 28

fe 15

Paso 4. Cálculo de fe.

86

Sofía Rivera Aragón Mirna García Méndez

fe 15

Refrescos fo 0

fe 15

Dulces

N

fo 7

60

fe 15

Paso 5. Desarrollo de la fórmula.

Paso 6. Obtener los grados de libertad. gl = k - 1 gl = 4 - 1 gl = 3 Paso 7. Regla de decisión. X2 ≥ X2t

 H1 se acepta y Ho se rechaza.

X2t = chi cuadrada en tablas. En la tabla A del apéndice, se busca en la parte horizontal, el nivel de significancia previamente establecido .05, y en la parte vertical los gl, que en este ejemplo fue de 1. Esto resulta en lo siguiente: 17.18 ≥ 7.82. Se acepta la H1

Pruebas de la estadística no paramétrica

87

Interpretación de resultados

Se encontraron diferencias significativas X2 = 1 7 . 1 8 , p = .05 en el consumo de alimentos chatarra en los niños preescolares, lo que significa que difieren en el consumo de estos productos.

Ejercicio SPSS Se empleará el mismo ejercicio desarrollado por la fórmula de preferencias de productos chatarra por niños preescolares. Paso 1. Se crea una variable que se denominará preferencias e incluirá 5 niveles de respuesta: 1 = pastelitos; 2 = frituras; 3 = refrescos; y 4 = dulces. Debido a que incluir las respuestas de los 60 niños en la base de datos implica mucho espacio, únicamente se presentarán los datos de 10 niños, pero el análisis y los resultados se llevarán a cabo con el total de las respuestas de los participantes. De esta manera la base de datos queda así:

88

Sofía Rivera Aragón Mirna García Méndez

Paso 2. Se coloca el cursor en Analyze, se presiona el botón izquierdo del mouse y se muestra un menú en el que se coloca el cursor en Non-parametric test, aparece un menú en el que se coloca el cursor en Chi- Square y se da clic.

Paso 3. Al hacer clic en Chi-Square se abre un menú.

Pruebas de la estadística no paramétrica

89

Paso 4. En el menú del paso 3, se marca con el cursor la variable preferencias, se da clic en el icono ubicado entre la variable preferencia y Test Variable List, inmediatamente la variable preferencias aparece en Test Variable List.

Paso 5. Se da clic en OK y se muestran los resultados en tablas. PREFERENCIAS Observed N

Expected N

Pastelillos

15

15.0

.0

Frituras Refrescos Dulces Total

28 10 7 60

15.0 15.0 15.0

13.0 -5.0 -8.0

90

Sofía Rivera Aragón Mirna García Méndez

Residual

TEST STATISTICS Preferencias Chi-Squarea df Asymp. Sig.

17.200 3 .001

a.0 cells (.0%) have expected frequencies less than 5. The minimum expected cell frequency is 15.0.

Estas tablas no se presentan en el reporte de investigación, los datos contenidos en ellas se pueden presentar en tablas en otro formato. TABLA 20

DIFERENCIAS EN EL CONSUMO DE PRODUCTOS CHATARRA Pastelitos 15

Frituras

Refrescos

Dulces

X2

28

10

7

17.20

gl 3

p .00 1

N = 60.

Como se puede observar en la tabla 20, la X2 y la p difieren un poco de los resultados con la fórmula desarrollada, esto se debe a que en el

SPSS

las

operaciones se realizan en forma precisa.

Interpretación de resultados

Se encontraron diferencias significativas X2 = 17.20, p = .001 en el consumo de alimentos chatarra en los niños preescolares, lo que significa que difieren en el consumo de estos productos.

Pruebas para muestras relacionadas

Estas pruebas implican dos medidas de una sola muestra. Se emplean cuando el investigador desea conocer si un tratamiento es mejor que otro o si dos tratamientos son diferentes. En este tipo de estudios se pueden em-

Pruebas de la estadística no paramétrica

91

plear dos grupos, sin embargo, los resultados que se obtengan pueden estar relacionados con un conjunto de eventos ajenos al tratamiento. Estos eventos se conocen como variables extrañas. Con la finalidad de controlar el efecto de estas variables extrañas, la persona puede fungir como su propio control, esto es, se le expone a ambas condiciones en diferentes ocasiones. Otra alternativa es el método de apareamiento, en el que se seleccionan pares de personas lo más semejantes posible en torno de las variables extrañas que puedan influir en los resultados del tratamiento. El inconveniente de este método es que depende de la capacidad del investigador para establecer que tan iguales son los pares (Siegel y Castellan, 2003). McNemar

Es una prueba útil en los diseños antes-después (Álvarez, 1995) en los que cada sujeto se utiliza como su propio control. En la prueba de McNemar el objetivo es probar la significación de los cambios observados a partir de una tabla de contingencia 2x2 (Siegel y Castellan, 2003; Conover, 1980).

Para probar la significancia de los cambios observados, los datos en la tabla expresan lo siguiente:

92

Sofía Rivera Aragón Mirna García Méndez

Los signos positivo y negativo sólo se emplean para indicar que hubo un cambio sin connotación de bueno o malo. Como se observa en la tabla, A + D son las personas cuyas respuestas cambiaron. De esta manera, la Ho plantea que el número de cambios en cada dirección es el mismo. Sustituyendo la fórmula:

donde: suma frecuencia obtenida frecuencia esperada se obtiene lo siguiente:

Los grados de libertad empleados en McNemar es 1. gl = 1. Para obtener resultados más precisos, se emplea la corrección por continuidad que permite eliminar la fuente de imprecisión que resulta de emplear una distribución continua para aproximarse a una distribución discreta (Siegel y Castellan, 2003). Con esta corrección, la fórmula se expresa de la siguiente manera:

El signo | indica que al resultado de la resta de A - D, sin importar el signo + o - se le resta el 1. Por ejemplo, 6-15 = - 9, entonces se resta 9 - 1 = 8

Pruebas de la estadística no paramétrica

93

Reglas para su empleo

• En mediciones nominales y ordinales. • Que el número total de cambios sea mayor a 10. • Cuando la frecuencia esperada es menor a 5, se debe usar otra prueba. Procedimiento

1. Plantear las hipótesis estadísticas. 2. Determinar la probabilidad con la que se trabajará p=05, p = . 0 1 . 3. Distribuir los puntajes en la tabla de contingencia. 4. Aplicar la fórmula. 5. Plantear regla de decisión. Ejercicio

Para evaluar la efectividad de un programa de intervención con 50 padres de familia de ciudad Nezahualcóyotl, se les preguntó si estaban de acuerdo o en desacuerdo con que sus hijos recibieran educación sexual en la escuela, tema a tratar como parte del programa a través de un taller. Antes del taller se les preguntó si estaban de acuerdo o en desacuerdo y al término del taller se les volvió a hacer la misma pregunta. Paso 1. Hipótesis Ho. La probabilidad de las madres que cambiaron de acuerdo a desacuerdo es igual a la probabilidad de las madres que cambiaron de desacuerdo a acuerdo en lo concerniente a que sus hijos reciban educación sexual en la escuela. H1. Después de haber asistido a un taller, las madres aceptan que sus hijos reciban educación sexual en la escuela. Paso 2. Nivel de significancia a emplear p = .05.

94

Sofía Rivera Aragón Mirna García Méndez

Paso 3. Distribución de las respuestas de los padres antes y después del taller.

Despues Desacuerdos

Acuerdos

Acuerdos

9

6

Desacuerdos

5

30

Antes

Paso 4. Desarrollo de la fórmula.

Paso 5. Regla de decisión. X2 ≥ X2t  H1 se acepta e Ho se rechaza. X2t = chi cuadrada tablas. En la tabla A del apéndice, se busca en la parte horizontal, el nivel de significancia previamente establecido .05, y en la parte vertical los gl, que en este ejemplo fue de 1. Esto resulta en que se acepta la H1. 10.25 ≥ 3.84. Se acepta la H1.

Interpretación de resultados

Estos resultados indican que el taller influyó en la opinión, ya que las madres que estaban en desacuerdo con que sus hijos reciban educación sexual en la escuela, ahora en su mayoría están de acuerdo (X2 =10.25, p=.05)

Pruebas de la estadística no paramétrica

95

Ejercicio SPSS

La base de datos contiene las respuestas de los 50 padres de familia; sin embargo, con fines prácticos en esta tabla únicamente se incluye la información de 20 padres. La base de datos del paso 2, sólo incluye 10 de los 20 casos, no obstante los análisis que se presentan son a partir de todos los casos Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Descriptive statistics, se da clic y aparece otro menú, se coloca el cursor en Crosstabs, se da clic.

96

Sofía Rivera Aragón Mima García Méndez

Paso 3. Al hacer clic en Crosstabs, se abre un menú en el que aparecen las dos condiciones de investigación (antes/después), se da clic en el cuadro de Statistics.

Pruebas de la estadística no paramétrica

97

Paso 4. Al hacer clic en Statistics se coloca el cursor en Chi-square y en McNemar, se da clic en el cuadro de cada una de éstas pruebas,- se coloca el cursor en Continue y se da clic.

Paso 5. Al hacer clic en Continue reaparece el menú del paso 3 de la investigación. Se coloca el cursor en antes y se da clic en el icono que está entre antes-después y Row(s), entonces antes se muestra en Row(s).

Sofía Rivera Aragón 98 Mirna García Méndez

Se coloca el cursor en después y se da clic en el icono que está entre antesdespués y Column(s), entonces después aparece en Column(s). Se hace clic en OK y se muestran los resultados en tablas. ANTES-DESPUÉS CROSSTABULATION

Count

Después Acuerdo Desacuerdo

ANTES

Acuerdo

6

Desacuerdo

30 36

Total

Total

9

15

5 14

35 50

CHI-SQUARE TESTS

Pearson Chi-Square Countinity Correctiona Likelihood Ratio

Value

df

Asymp.Sig. Exact sig. Exact sig. (1 (2-sided) (2-sided) sided)

10.884b

1

.001

8.735

1

.003

10.397

1

.001

Fisher's Exact Test Linear-by-Linear

.002 10.667

1

.002

.001

Association McNemar Test N of Valid Cases

.00lc 50

Computed only for a 2x2 table. l cells (25.0%) have expected count less than 5. The minimum expected count is 4.20. cBinomial distribution used. a

b

Una forma de presentar estos resultados es la siguiente: La distribución de las respuestas de los padres de familia antes y después de haber tomado el taller se presenta en la tabla 21. Pruebas de la estadística no paramétrica

99

TABLA 21

DISTRIBUCIÓN DE RESPUESTAS DE LOS PADRES DE FAMILIA.

Después

Antes

Desacuerdos

Acuerdos

Acuerdos

9

6

Desacuerdos

5

30

Con base en esta distribución de respuestas, se obtuvo una X2 — 10.88, p = .001 lo que indica diferencias significativas en los acuerdos/desacuerdos por parte de los padres, antes y después de asistir al taller, modificándose la respuesta de desacuerdo por acuerdo en lo concerniente a que sus hijos reciban educación sexual en la escuela. t de Wilcoxon (t w)

La prueba t de Wilcoxon considera la magnitud relativa y la dirección de las diferencias, lo que la convierte en una prueba poderosa. Esta prueba otorga mayor peso a los pares que tienen mayores diferencias entre el antes y después que a los pares cuya diferencia es pequeña. De esta manera el investigador puede determinar qué miembro del par es más grande que, por lo que puede hacer juicios de mayor que entre los valores de cualquier par (Siegel y Castellan, 2003). Procedimiento

1. Plantear hipótesis. 2. Determinar probabilidad alfa (α ). 3. Obtener las calificaciones de la muestra antes y después. 4. Obtener las diferencias de la primera y segunda aplicación. 5. Ordenar de mayor a menor las diferencias (R) (se toma en cuenta el signo). Cuando la diferencia es cero, no se ordena. 6. Sumar por separado los rangos de los valores positivos (∑ R+) Y los rangos de los valores negativos (∑ R-).

100

Sofía Rivera Aragón Mirna García Méndez

7. Elegir el valor más pequeño de la ∑R + o ∑R - el cual constituye la t de Wilcoxon. 8. Plantear la regla de decisión: t we ≤ t wr entonces ( ) la hipótesis alterna se acepta y la hipótesis nula se rechaza. Ejercicio

El Instituto Nacional Indigenista plantea que en México existe discriminación, si no al color de la piel, sí a los rasgos indígenas. De hecho se usa la expresión "eres un indio" como sinónimo de tonto, no hablas bien, etcétera. Para probar esta aseveración, se llevó a cabo un estudio con una muestra de nueve estudiantes que se distribuyeron en comunidades del sureste, con el propósito de que convivieran en estas comunidades. Antes de irse, se les aplicó una escala de actitudes hacia la discriminación indígena, misma que se les aplicó cuando regresaron. Paso 1. Hipótesis. Ho. No existen diferencias significativas en las actitudes hacia la discriminación de los indígenas, antes y después de convivir en comunidades indígenas. H1. Si existen diferencias en las actitudes hacia la discriminación de los indígenas, antes y después de convivir en comunidades indígenas. Paso 2. Nivel de significancia utilizado p = .05. Paso 3. Obtención de las calificaciones.

Antes

Después

118 100 120 141 51 170 179 47 161 N=9

100 90 38 60 171 64 89 52 101

N=9

Pruebas de la estadística no paramétrica

101

Pasos 4 y 5. Se obtienen las diferencias de las calificaciones antes-después, por ejemplo, 118 - 100 = 18. Se ordenan los rangos de menor a mayor, el rango 1 es para la diferencia más pequeña, que en este caso es -5. Como la diferencia es negativa, el rango también será negativo.

Antes

Después

118 100 120 141 51 170 179

100 90 38 60 171 64 89 52 101

47

161

d

Rd

18 10 82 81 -120 106 90 -5 60

3 2 6 5 -9 8 7 -1 4

Paso 6. Se obtiene la suma de rangos positivos y negativos. ∑R + = 3 + 2 + 6 + 5 + 8 + 7 + 4 ∑ R+ = 35 ∑R - = -9 - 1 ∑ R- = -10

Paso 7. Se elige el valor más pequeño resultado de la suma de rangos positivos y negativos. En este ejercicio el valor menor lo tiene la suma de rangos negativos, convirtiéndose en el valor tw. tw = -10 Paso 8. Regla de decisión. t we ≤ t wt  se acepta la Ho.

102

Sofía Rivera Aragón Mirna García Méndez

donde: t we = El valor obtenido con el desarrollo de la fórmula (-10).

t wt = Es el valor en tablas, que en este caso se busca en la tabla B del apéndice, siguiendo el procedimiento descrito en chi cuadrada y McNemar. El resultado es 6.

10 > 6 se rechaza la H1.

Interpretación de resultados

Estos resultados indican que no existen diferencias respecto a las actitudes hacia la discriminación de los indígenas antes y después de haber convivido con ellos.

Ejercicio SPSS Para este ejercicio se retomarán los datos del Instituto Nacional Indigenista. Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.

Pruebas de la estadística no paramétrica

103

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Nonparametric tests, se da clic y aparece otro menú, se coloca el cursor en 2 Related Samples y se da clic.

Paso 3. Al hacer clic en 2 Related Samples, se abre un menú que contiene las variables de estudio. En este menú se da clic en el cuadro de Wilcoxon.

104

Sofía Rivera Aragón Mirna García Méndez

Paso 4. Se coloca el cursor en la variable antes y se da clic en el icono que está entre las variables de estudio y Test Pair(s) List, antes aparece en variable 1, se sigue el mismo procedimiento con la variable después e igual aparece en variable 2.

Paso 5. Se da clic en el icono que está entre las variables de estudio y Test Pair(s) List, las variables antes después aparecen en Test Pair(s) List y se eliminan de variable 1 y variable 2.

Pruebas de la estadística no paramétrica

105

Se da clic en el icono de OK y se muestran los valores de la prueba t de Wilcoxon en tablas. RANKS

N Despues-Antes Negative Ranks Positive Ranks Ties Total

Mean-Rank

Sum of Ranks

7a

5.00

35.00

2 0C 9

5.00

10.00

b

Después < antes. Después > antes. c Antes = despues. a

b

TEST STATISTICSb

Después-Antes Z Asymp. Sig.(2-tailed)

-1.481a .139

Based on positive ranks. Wilcoxon Signed Ranks Test.

a

b

Interpretación de resultados

De acuerdo con los resultados, no se encontraron diferencias significativas en la actitud hacia la discriminación de los indígenas antes y después de haber convivido con ellos en sus comunidades. Pruebas para muestras independientes

Los métodos no paramétricos de análisis de varianza dependen del ordenamiento de rangos. Las pruebas empleadas en este rubro son: U de Mann Whitney y análisis de varianza en una dirección por rangos de Krus-Kal-Wallis (Kerlinger y Lee, 2001).

Sofía Rivera Aragón 106 Mirna García Méndez

U de Mann Whitney (U)

La prueba U de Mann Whitney se aplica en muestras aleatorias extraídas independientemente (N I y N 2 ) cuyos tamaños pueden ser diferentes. En esta prueba las puntuaciones de la distribución de ambas muestras se ordenan por rangos de acuerdo con valores crecientes en magnitud. De esta manera, a la puntuación de ambas distribuciones con menor puntaje se le asigna el rango 1, la subsiguiente, el rango 2, y así sucesivamente. Cuando una puntuación aparece en ambas distribuciones, se promedian y el resultado se asigna en los dos casos (Downie y Heath, 1973). Su fórmula es:

donde: N1 = muestra 1. N2 = muestra 2. ∑ R1 = suma de rangos muestra 1. ∑ R2= suma de rangos muestra 2. Reglas para su empleo

• En mediciones ordinales. • En muestras independientes cuyos tamaños sean iguales o diferentes. • En datos expresados por rangos. • La fórmula aplica para N2 > 9 personas. Procedimiento

1. Plantear las hipótesis. 2. Determinar la probabilidad.

Pruebas de la estadística no paramétrica

107

3. Ordenar las respuestas de las muestras N1 y N2 de menor a mayor. 4. Obtener los rangos de cada respuesta, dándole el rango menor 1 a la respuesta más pequeña, el 2 a la siguiente y así sucesivamente. Cuando se repiten dos respuestas en ambas muestras, éstas se suman y se dividen entre dos, el resultado de esta operación es el rango para ambas respuestas. Por ejemplo, el número 11 se repite en ambos grupos en el desarrollo de la fórmula (paso 2), les corresponde los rangos 7 y 8, entonces, se suman 7 + 8 = 1 5 , este resultado se divide entre dos, que se refiere a los dos rangos, el resultado 7.5 es para los dos valores de 11. 5. Desarrollar la fórmula. 6. Plantear la regla de decisión. Ejercicio

Se realizó un estudio con la finalidad de identificar los efectos de reforzamiento positivo como parte de una terapia de aprendizaje para problemas de dislexia en niños de cuatro a seis años de edad. Se tuvieron dos muestras, una con ocho niños (con reforzamiento) y la otra con 10 niños (sin reforzamiento) se registró la frecuencia de respuestas correctas de un total de 20 palabras presentadas en ambos grupos. Paso 1. Hipótesis. Ho. El aprendizaje de los niños con problemas de dislexia, es el mismo con o sin reforzamiento positivo. H1. El reforzamiento positivo favorece el aprendizaje de los niños con problemas de dislexia. Paso 2. Nivel de significancia a emplear p = .05. Pasos 3 y 4. se ordenan las respuestas de menor a mayor y se obtienen los rangos en cada N.

108

Sofía Rivera Aragón Mirna García Méndez

Respuestas correctas N1

15 18 19 16 14 17 11 10 N1 = 8

R1 13.5 17 18 15 11.5 16 7.5 6

∑R 1 =104.5

Respuestas correctas N2

8 6 13 9 7 15 12 11 5 14 N 2 = 10

R2

4 2 10 5 3 13.5 9 7.5 1 11.5 ∑R 2 = 66.5

Paso 5. Desarrollo de la fórmula.

Pruebas de la estadística no paramétrlca

109

Prueba de comprobación: N I N 2 = (8)(10) = 80 U1 U2 = (11.5)(68.5) = 80 Paso 6. Regla de decisión: U ≤ Ut  se acepta H1 11.5 ≤ 13  se acepta H1

Para encontrar el valor en tablas, de acuerdo con Runyon y Haber (1987) se busca en la parte vertical de tablas N1 (el total de personas en la muestra 1) y en la parte horizontal N2 (el total de personas en la muestra 2). A manera de ejemplo, se presenta un fragmento de la tabla de valores críticos de U de Mann-Whitney (véase tabla C del apéndice) retomados de Downie y Heath (1970) al nivel de significancia .01.

n1

n2

10

11

12

13

14

15

16

17

18

19

20

0

0

0

0

0

0

1

1

2 5 9 12 16 20 23

2 6 10 13 17 22 26

3 7 11 15 19 24 28

3 7 12 16 21 26 31

4 8 13 18 23 28 33

4 9 14 19 24 30 36

4 9 15 20 26 32 38

5 10 16 22 28 34 40

9 1 2 3 4 5 6 7

8

1 3 5 7 9 11

1 3 ó 8 77

13

1 4 7 9 12 15

2 5 8 11 14 17

Interpretación de resultados

Se observaron diferencias significativas U = 11.5, p = .01 entre los niños que tuvieron reforzamiento positivo durante la terapia de aprendizaje y los niños que no lo tuvieron, lo que sugiere un mejor aprendizaje en los niños con reforzamiento positivo.

110

Sofía Rivera Aragón Mirna García Méndez

Ejercicio

SPSS

El paso 1 contiene la base de datos con las variables a manipular. La variable grupo con/sin, se refiere a los dos grupos de estudio (1 = con reforzamiento, 2 = sin reforzamiento), reí a re20, son las respuestas a cada una de las 20 palabras (1 = respuesta correcta y 2 = respuesta incorrecta).

Paso 2. Para obtener la frecuencia de respuestas correctas es necesario crear una nueva variable, para ello se da clic en transform y aparece un menú en el que se da clic en count y aparece un menú. Paso 3. En el menú de count, en Target Variable, se escribe el nombre de la nueva variable, en este caso será rescorre. En Target Label se escribe el

nombre

completo

de

la

variable:

respuesta

correcta.

Ensegui-

Pruebas de la estadística no paramétrica

111

Paso 2

da se marcan con el cursor las 20 respuestas ( r e í . . ,re20) que están debajo del cuadro de Target Label, se da clic en el icono que se encuentra entre r e 1 . . , re20 y Variables, entonces las 20 respuestas aparecen en el cuadro de Variables que ahora se denomina Numeric Variables. Paso 3

Sofía Rivera Aragón 112 Mirna García Méndez

Paso 4. Una vez que se tienen las Numeric Variables, se presiona el icono Define Values y se muestra el siguiente menú, en el que se escribe en Values, el número 1, se da clic en Add y el número 1 se pasa a Values to Count, posteriormente se presiona el icono de Continue y se muestra el menú del paso 3 en el que se presiona OK.

Paso 5. Al presionar if se muestra un menú que tiene marcado include cases, se da clic en Continue.

Pruebas de la estadística no paramétrica

113

Paso 6. Cuando se da clic en Continue se muestra nuevamente el menú del paso 3 en el que se da clic en OK y aparece la base de datos con la nueva variable rescorre que contiene las frecuencias de respuestas correctas por niño. Para fines prácticos, sólo se incluirá parte de la información de la base de datos.

Paso 7. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Nonparametric tests, se da clic y aparece otro menú, se coloca el cursor en 2 independent sample y se da clic.

Sofía Rivera Aragón 114 Mirna García Méndez

Paso 8. Al hacer clic en 2 Independent Samples, se abre un menú que contiene las variables de estudio y se marca Mann-Whitney.

Paso 9. La variable rescorre se marca con el cursor, se da clic en el icono que está entre las variables de estudio y Test Variable List, lo que resulta en que rescorre aparecerá en el cuadro de Test Variable List. La variable grupo con/sin sigue el mismo procedimiento, sólo que se da clic en el icono que está entre las variables de estudio y Grouping Variable mostrándose Grupo ?? en el cuadro de Grouping Variable. Se da clic en Define groups.

Pruebas de la estadística no para métrica 115

Paso 10. Después de dar clic en Define groups aparece una ventana en la que se pone el número 1 en group 1, y el número 2 en group 2. Esto se hace así porque la variable grupo con/sin que se muestra en los pasos 1, 2 y 3 tiene dos niveles: 1 (con reforzamiento) y 2 (sin reforzamiento).

Posteriormente se da clic en continue y reaparece el cuadro del paso 4, sustituidas las interrogaciones de Grouping Variable por los números 1 y 2, se da clic en el icono de OK y se muestran los resultados de la prueba U de Mann Whitney.

RANKS CORRECTA

Grupo con/sin

N

Mean-Rank

Sum of Ranks

correcta

8

13.06

1 04.50

control Total

10 18

6.65

66.50

Respuesta correcta

116

Sofía Rivera Aragón Mirna García Méndez

TEST STATISTICSb

Respuesta correcta Mann-Whitney U Wilcoxon W Z Asymp.Sig (2-tailed) Exact Sig (2*(1 -tailed Sig.))

11.5000 66.500 -2.536 .011 .009a

Not corrected for ties. Grouping variable: grupo control/experimental.

a

b

Estos resultados indican diferencias significativas entre el grupo con reforzamiento ∑ R1 = 104.5, X = 13.06 y el grupo sin reforzamiento ∑ R2 = 66.50, X = 6.65, lo que sugiere que el reforzamiento positivo favorece el aprendizaje en los niños con problemas de dislexia p = .009. Análisis de varianza en una dirección por rangos de KrusKal-Wallis (H)

El análisis de varianza en una dirección de KrusKal-Wallis es una alternativa no paramétrica al análisis de varianza (razón F) utilizada para comparar varias muestras independientes (Levin y Levin, 2002). Cuando la única forma factible de medición es la ordinal o el rango, la opción es emplear la prueba de KrusKal-Wallis (Kerlinger y Lee, 2001). Su fórmula es:

donde:

N = el número total de casos.

Pruebas de la estadística no paramétrica

117

n = el número de casos en una muestra dada. ∑ R1 = la suma de los rangos para una muestra dada.

12, 1 y 3 son constantes. Reglas para su empleo

• En mediciones ordinales. • En comparaciones de tres o más muestras independientes. Procedimiento

1. Plantear las hipótesis estadísticas: Ho: Ml = M2 = M3 HI: M1 ≠ M2 = M3 2. Definir el nivel de probabilidad alfa (α )( α = 95 o 99%). 3. Ordenar las calificaciones de menor a mayor y obtener los rangos de la misma manera que para la prueba U de Mann Whitney. 4. Sumar los rangos. 5. Aplicar la fórmula. 6. Plantear la regla de decisión. Ejemplo

La literatura plantea que el locus de control interno mejora el aprendizaje. Para confirmar este planteamiento se aplicó la escala de locus de control De la Rosa (1986) a 14 personas distribuidas en tres grupos: niños, adolescentes y adultos. El investigador plantea que a mayor edad, las personas tienen un locus de control preferentemente externo debido a los efectos de la socialización. Así, a mayor calificación, mayor locus de control externo, y a menor calificación, mayor locus de control interno.

118

Sofía Rivera Aragón Mirna García Méndez

Paso 1. Hipótesis. Ho. No existen diferencias en el locus de control a partir de la edad de las personas. H1. Existen diferencias en el locus de control a partir de la edad de las personas. Paso 2. Nivel de significancia p =.05. Pasos 3 y 4. Calificaciones niños

R

Calificaciones adolescentes

R

Calificaciones adultos

R

100

10

90

9

70

6

150

13

85

8

60

4

160

14

75

7

50

3

120

11

65

5

40

2

130

12

N1= 5

∑ R1 =60

N2= 4

∑ R2=29

25

1

N3= 5

∑ R3 =16

Paso 5. Aplicación de la fórmula.

Pruebas de la estadística no paramétrica

119

Paso 6. Regla de decisión.

H ≥ Ht 11.08 ≥ 7.82 Para que los resultados sean significativos, la H tiene que ser igual o mayor que el valor de Ht en tablas. En la tabla D del apéndice, se busca en los renglones, los tamaños de las tres muestras, en este caso son N1 — 5, N2= 4 y N3 = 5. Junto a estos valores se encuentra el valor de H y su nivel de significancia que es de .01. Interpretación de resultados

Existen diferencias en el locus de control a partir de la edad de las personas H = 11.08 p = .01, lo que significa que hay mayor locus de control externo en los niños y mayor locus de control interno en los adultos. Ejercido SPSS

Paso 1. Una vez capturada la información en la base de datos, es necesario obtener los rangos de calificaciones. Para obtener estos rangos, se coloca el cursor en Transform, se da clic y aparece un menú en el que se da clic en Rank Cases. Es importante aclarar que la variable edad fue creada para incluir la información concerniente a las tres muestras. Sus valores son: niños = 1, adolescentes = 2 y adultos = 3. Paso 2. Al hacer clic en Rank Cases se muestra el menú en el que se encuentran las variables.

120

Sofía Rivera Aragón Mirna García Méndez

Paso 1

Paso 2

Pruebas de la estadística no paramétrica 121

Paso 3. Se coloca el cursor en califica, se da clic en el icono ubicado entre los cuadros de las variables y Variable(s), entonces califica aparece en Variable(s). El círculo de Smallest value debe estar marcado al igual que el cuadro de Display summary tables, de no ser así se marcan con el cursor, posteriormente se da clic en Rank Types.

Paso 4. Al hacer clic en Rank Types, surge un menú en el que se da clic en el cuadro de Rank y en Continue.

Sofía Rivera Aragón 122 Mirna García Méndez

Paso 5. Después de marcar Rank, en el menú del paso 4 se da clic en Ties y se muestra un menú en el que se da clic en Mean y en Continue.

Paso 6. Al hacer clic en Continue, reaparece el menú del paso 4 en el que se da clic en OK. El resultado de esta operación aparece en la base de datos con la nueva variable rcalific (son los rangos de las calificaciones). En la base de datos se da clic en Analyze, aparece un menú, se da clic en Non-parametric tests, aparece un menú, se da clic en K independent samples.

Pruebas de la estadística no paramétrica 12 3

Paso 7. Al hacer clic en K independent samples, aparece el siguiente menú.

Recuerde que el propósito de esta investigación es saber si el locus de control se modifica con la edad y con ello el aprendizaje. Paso 8. Se coloca el cursor en la variable RANK of CALIFICA (rcalific) que se refiere a los rangos de calificación, se da clic en el icono ubicado entre las variables y Test Variable List, entonces (rcalific), aparece en Test Variable List. Enseguida se repite el mismo procedimiento con la variable edad (edad), sólo que ahora se da clic en el icono que está entre las variables y Grouping variable, aparece en este cuadro edad {??). Se da clic en Define range.

Sofía Rivera Aragón 124 Mirna García Méndez

Paso 9. Al dar clic en Define range, aparece el siguiente menú. En el cuadro de Minimum se escribe el número 1, que corresponde a la muestra 1 integrada por niños. En el cuadro de Maximum se escribe el número 3, que corresponde a la muestra de adultos. Enseguida se da clic en Continue.

Paso 10. Al hacer clic en Continue reaparece el menú del paso 8 en el que se da clic en OK mostrándose los resultados en tablas.

RANKS

Rank of califica

Edad

N

Mean-Rank

niños

5

12.00

adolecentes adultos Total

4 5 14

7.25 3.20

TEST STATISTICSab

Rank of califica Chi-Square df Asymp. Sig. aKruskal

11.083 2 .004

Wallis Test. Variable: edad.

bGrouping

Pruebas de la estadística no para métrica 125

La interpretación de estos resultados es igual a la presentada en el ejercicio de la fórmula desarrollada, sólo que aquí, la p = .004 lo que se relaciona con la exactitud de las operaciones realizadas por el

SPSS.

Es conveniente destacar que

el valor de la-Chi es el mismo reportado en ambos ejercicios. Chi cuadrada para muestras independientes X2

La chi cuadrada también se emplea en muestras independientes, una de las diferencias con las pruebas U de Mann Whitney y análisis de varianza en una dirección por rangos de KrusKal-Wallis, es que no emplea rangos. En este rubro, la chi cuadrada se emplea para determinar diferencias significativas entre dos grupos, es el caso de la X2 por homgeneidad. Ejercicio. X2 por homogeneidad

Este ejemplo se sustenta en una investigación de Romero y Rivera (2004) que indagaron sobre los elementos que motivan a hombres y mujeres a ser infieles, contenidos en cinco categorías: motivos emocionales, motivos circunstanciales, motivos instrumentales, motivos de personalidad y motivos sexuales. La muestra estuvo constituida por 454 personas, 181 hombres y 273 mujeres, sus respuestas observadas se presentan en la tabla 22. Paso 1 Ho. Los hombres y las mujeres consideran que los motivos emocionales, circunstanciales, instrumentales, de personalidad y sexuales son elementos que favorecen de igual forma la infidelidad. H1. Existen diferencias entre hombres y mujeres con relación a los motivos emocionales, circunstanciales, instrumentales, de personalidad y sexuales que favorecen la infidelidad.

126

Sofía Rivera Aragón Mirna García Méndez

Paso 2. La probabilidad que se empleará es p = .05. Paso 3. Distribución de los puntajes. TABLA 22 FRECUENCIAS OBSERVADAS POR CATEGORÍA EN HOMBRES Y MUJERES

Categorías

f0

fo

Hombres

mujeres

Motivos emocionales

53

87

Motivos circunstanciales Motivos instrumentales Motivos de personalidad Motivos sexuales Total

31 64 23 10 181

19 125 22 20 273

Paso 4. Obtención de las frecuencias esperadas (fe) de cada una de las categorías enunciadas en la tabla 23 sustituyendo la fórmula en motivos emocionales: fe = N/k donde: W = 140. Total de hombres y mujeres que respondieron en motivos emocionales (fe) k = 2 (número de categorías o columnas-, hombres y mujeres)

Motivos circunstanciales

Motivos instrumentales

Pruebas de la estadística no paramétrlca 127

Motivos de personalidad

Motivos sexuales

Los resultados se presentan en la tabla 23.

TABLA 23 FRECUENCIAS OBSERVADAS Y ESPERADAS POR CATEGORÍA EN HOMBRES Y MUJERES

Categorías

fo hombres

fo mujeres

fo

Motivos emocionales

53

87

Motivos circunstanciales

31

19

Motivos instrumentales

64

125

94.5

Motivos de personalidad

23

22

22.5

Motivos sexuales

10

20

15

Paso 5. Aplicación de la fórmula para cada una de las categorías

Motivos emocionales

Sofía Rivera Aragón 128 Mirna García Méndez

70 25

Motivos circunstanciales

Motivos instrumentales

Motivos de personalidad

Pruebas de la estadística no paramétrica

129

Motivos sexuales

Paso 6. Una vez que se obtuvieron las .X2 de cada categoría, se obtienen los gl: gl = k - 1 gl = 2-1 El número 2 se refiere a las dos columnas de la tabla 23 (hombres y mujeres): gl= 1 Con el valor de la X2 y los grados de libertad, se busca en tablas su nivel de significancia. Los resultados se muestran en la tabla 24.

130

Sofía Rivera Aragón Mirna García Méndez

TABLA 24

ELEMENTOS QUE MOTIVAN LA INFIDELIDAD Categorías

fo

fo

fo

hombres

mujeres

Motivos emocionales

53

87

70

Motivos circunstanciales Motivos instrumentales Motivos de personalidad Motivos sexuales

31 64 23 10

19 125 22 20

25 94.5 22.5 15

X2

P

8.25

.01

2.88 19.68 0.02 3.32

.001

Interpretación de resultados

Estos resultados indican que existen diferencias significativas entre hombres y mujeres, en dos de los elementos que ellos consideran favorecen la infidelidad. Estas diferencias se encuentran en las categorías de motivos emocionales X2 = 8.25, p = .01 y motivos instrumentales X2 = 19.68, p = .001, que de acuerdo con las frecuencias observadas, para las mujeres tienen mayor importancia que para los hombres. Se rechaza la Ho. Ejercicio SPSS

Con el propósito de conocer el significado del funcionamiento familiar, se aplicó un cuestionario abierto a 300 hombres y mujeres de la ciudad de México. Para este ejercicio únicamente se empleará lo concerniente a los significados de la comunicación y afectividad en el funcionamiento familiar y la información presentada en la base de datos sólo incluye una pequeña parte de lo recabado de las 300 personas. Hipótesis: Ho. Los hombres y las mujeres le otorgan la misma importancia a la comunicación y afectividad en el funcionamiento familiar. H1. Los hombres y las mujeres difieren en cuanto a la importancia que tienen la comunicación y la afectividad en el funcionamiento familiar.

Pruebas de la estadística no paramétrica 131

Paso 1. Se coloca el cursor en Analyze, se da clic en el botón izquierdo del mouse.6

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Descriptive Statistics, se da clic y aparece otro menú, se coloca el cursor en Crosstabs y se da clic.

6

En lo subsiguiente, al indicar que se da clic, se asumirá que se presiona el botón izquierdo del

mouse y que el cursor está colocado en la operación a realizar.

Sofía Rivera Aragón

13 2 Mirna García Méndez

Paso 3. Al hacer clic en Crosstabs, se abre un menú que contiene las variables de la investigación.

Paso 4. Las variables comunica y afectiva se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y Row(s) lo que resulta en que comunica y afectiva aparecerán en el cuadro de Row(s). Se sigue el mismo procedimiento para la variable sexo, sólo que se da clic en el icono que está entre las variables de estudio y Column(s) mostrándose la variable sexo en el cuadro de Column(s). Enseguida se pone el cursor en el icono de Statistics y se da clic con el botón izquierdo del mouse.

Pruebas de la estadística no paramétrica

133

Paso 5. Al hacer clic en Statistics, aparece un menú, se da clic en Chi-square (X2).

Una vez seleccionada la prueba estadística, se da clic en continue y reaparece el menú del paso cuatro, se da clic en OK y se muestra el resultado de la prueba chi cuadrada en tablas. La primera incluye la distribución de los sujetos por sexo y el número de frecuencias obtenida en la variable comunicación.7

CROSSTAB

Count comunicación

Sexo Ausente

Presente Total

Total

masculino

femenino

34

34

68

110 144

122 156

232 300

La segunda tabla muestra los resultados de la chi cuadrada, los que indican el valor de la prueba y su nivel de significancia. Estos datos deberán ser interpretados por el investigador con base en las hipótesis planteadas. 7Con fines didácticos se muestran los resultados de la prueba chi cuadrada, tal como los reporta el SPSS; sin embargo, nunca se presentan así en un reporte de investigación.

Sofía Rivera Aragón 134 Mirna García Méndez

CHI-SQUARE TESTS

Pearson Chi-Square Continuity Correction Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases 300

0

Value

df

Asymp. Sig. Exact sig. (2-sided) (2-sided)

.141b

1

.707

.056 .141

1 1

.812 .707 .783

.140

1

Exact sig. (1sided)

406

.708

Computed only for a 2x2 table

a

0 cells (.0%) have expected count less than 5. The minimum expected count is 32.64.

b

Las siguientes dos tablas presentan lo concerniente a las variables de afectividad y sexo. CROSSTAB Count Afectividad

Sexo Masculino

Ausente Presente Total

Total Femenino

94

76

170

50 144

80 156

130 300

CHI-SQUARE TESTS

Pearson Chi-Square Countinity Correction0 Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases

Value

df

Asymp.Sig. (2-sided)

8.362b 7.702 8.415

1 1 1

.004 .006 .004

8.334 300

1

Exact Sig. (2-sided)

Exasig. (1sided)

.005

.003

.004

Computed only for a 2x2 table. 0 cells (0% have expected count less than 5. The minimum expected count is 62.40. d 6

a b

Pruebas de la estadística no paramétrica

135

Una de las formas de presentar la información obtenida en el

SPSS,

se

muestra en la tabla 25.

TABLA 25 DIFERENCIAS EN LOS SIGNIFICADOS DEL FUNCIONAMIENTO FAMILIAR POR SEXO

Sexo Significados Comunicación Afectiva

Masculino 76.4% 34.7%

Femenino 78.2% 51.3%

X2

P

.141

NS

8.362

.004

Interpretación de los resultados

Los resultados indican que hombres y mujeres le otorgan el mismo valor a la comunicación en el funcionamiento familiar. En cuanto a la afectividad, se encontraron diferencias significativas en ambos sexos, X2 = 8.362, p = .004, lo que sugiere que para las mujeres tiene mayor importancia que para los hombres el aspecto afectivo en el funcionamiento familiar.

Estadística paramétrica

Características

 

Las

primeras técnicas inferenciales fueron las paramétricas que hacen

suposiciones a los parámetros de la población que se obtuvieron, es decir, dan suposiciones acerca de la población de donde se extrajo la muestra. Obtienen diferencias entre medias. La estadística paramétrica, hace un buen número de suposiciones acerca de la naturaleza de la población de la que se obtuvieron los puntajes. Se llama Paramétrica puesto que los valores de la población son “parámetros”. Los supuestos son: a) Distribución normal. b) Homocedasticidad de varianza. c) Nivel de medición intervalar. d) Selección y asignación aleatoria. Las pruebas paramétricas fijan su atención en la diferencia entre las medias de dos o más conjuntos de puntajes. Esta se interesa en dos cosas: a) Estimación de parámetros. b) Pruebas de hipótesis.

139

Pruebas paramétricas. Prueba de coeficiente de correlación de producto-momento de Pearson Introducción

En la vida diaria hemos escuchado muchas cosas, que aunque no han sido comprobadas científicamente, suceden en forma imprevista, por ejemplo, se dice "que a mayor velocidad de un carro, menor consumo de gasolina"; o que si "un adolescente tiene los pies grandes es porque va a ser muy alto", también hemos visto que las personas satisfechas en su relación de pareja son más comunicativas. Al hacer esta serie de afirmaciones sin un fundamento se expresa la suposición de que existe alguna correlación entre las variables. La correlación indica o representa la relación entre dos variables. De entre los ejemplos planteados aquí, el último plantea como variables, a la satisfacción con la relación y la comunicación. Si quisiéramos comprobar la relación existente entre estas dos variables tomaríamos en forma aleatoria a una muestra de personas que actualmente tuvieran una relación de pareja. Posteriormente les preguntaríamos ¿qué tan satisfechos se encuentran con su relación? (en una escala del 1 al 10) y ¿qué tanto se comunican con su pareja? (en una escala del 1 al 10). Si encontramos que puntajes altos en satisfacción se relacionan con puntajes altos en comunicación, podemos decir que la observación fue acertada. Si nosotros podemos hablar de que existe una relación entre estas variables, por ende podemos predecir una a partir de otra. Esto es, se puede decir que las personas con un valor de 10 en satisfacción es más probable que tengan un valor de 10 en comunicación. Definición

Este coeficiente como su nombre lo indica nos da un índice (valor) que habla del nivel de relación que tienen dos variables.

140

Sofía Rivera Aragón Mirna García Méndez

Para representar este coeficiente se usa la letra "r". El coeficiente de correlación producto-momento de Peargon tiene varios usos: Conocer el grado de relación que existe entre dos variables o atributos. Por ejemplo cuando hablamos de la relación entre el grado de violencia y el grado de satisfacción marital. Indica la dirección de la asociación. Es decir, a través del signo que obtiene el valor de la correlación se puede decir si a mayor violencia, menor satisfacción marital o viceversa a mayor violencia mayor satisfacción marital. Obtener la significancia de la asociación. En este caso nos menciona además si lo que obtuvimos cae en la zona de aceptación o en la zona de rechazo. Es decir si nuestra hipótesis se comprueba o no. Requisitos

Como se sabe, este coeficiente al pertenecer a la estadística inferencial paramétrica presenta varios requisitos los cuales ya fueron descritos anteriormente, entre ellos: a) Que los puntajes sean lineales (es decir se agrupen en una recta). Ya sea en forma directamente proporcional o inversamente proporcional.

b) Que haya homocedasticidad de varianza (se agrupan en una elipse). Es decir que los datos se distribuyan alrededor de esa línea recta.

Estadística paramétrica

141

c) Que las variables tengan un nivel de medición intervalar. Por ejemplo: edad, escolaridad en años, temperatura. d) Que haya una selección y asignación aleatoria de los participantes.

Interpretación

El coeficiente de correlación producto-momento de Pearson se interpreta de acuerdo a tres puntos: 1. Fuerza. 2. Dirección. 3. Significancia. i. Fuerza: Esta indica el grado de relación que hay entre dos variables. De acuerdo con el valor obtenido, que sólo puede ir de 0 a 1 pasando por valores positivos y negativos (-1 a +1). La fuerza la da el valor de la correlación y este puede ser interpretado de la siguiente forma:

Valor 0 a .30 .31 a .79 .90 a 1

Interpretación de la correlación Baja Media Alta

Siempre el cero indica ausencia de relación y el 1 una correlación perfecta.

Sofía Rivera Aragón 142 Mirna García Méndez

2. Dirección: Indica hacia qué lado de la curva se encuentra nuestra correlación. La dirección la da el signo. Los signos se interpretan de la siguiente forma:

Signo

Interpretación

+ (positivo)

Directamente Proporcional

- (negativo)

Inversamente Proporcional

3. Significancia: Finalmente este rubro indica cuál es la probabilidad de aceptar o rechazar una hipótesis alterna. De acuerdo a ello se debe plantear una regla de decisión: Si rc ≥ r0 entonces la correlación es significativa. Donde rc es el valor obtenido en la fórmula y r0 es el valor obtenido en una tabla de significancia de los valores de r. Antes de conocer el grado o fuerza de la relación debemos saber cómo se comportan las puntuaciones. Para ver ese tipo de distribución se usa un dispersigrama. Un dispersigrama es una representación gráfica de la forma en que se distribuyen los datos. Siempre una de las variables se grafica en el eje de las "y" (ordenadas) y otra en el eje de las "x" (abcisas). Siempre se coloca la variable predictora en el eje de las "x" y la predicha en el eje de las "y". O en su defecto la variable dependiente en el eje de las "x" y la variable independiente en el eje de las “y” (véase gráfica 18). Ejemplo de dispersigrama: Variables (ambas escalas fueron evaluadas con puntuaciones del 1 al 10): Satisfacción con la relación Comunicación marital

Estadística paramétrica

143

Los puntajes obtenidos son:

Puntaje de satisfacción

Puntaje de comunicación

10 8 8 7 10 9 6 5 4 8

9 10 9 6 9 8 7 4 4 7

El dispersigrama quedaría como lo muestra la gráfica 18, recordando que no importa cuál de las variables queda en el eje de las "y" y cuál en el de las "x", ya que la correlación no implica causalidad.

GRÁFICA 18 DISPERSIGRAMA DE COMUNICACIÓN Y SATISFACCIÓN

Fórmula

La fórmula que se aplica para obtener este coeficiente es:

144

Sofía Rivera Aragón Mirna García Méndez

donde: r = Coeficiente de Pearson. N = Número total de pares en x y y. x = Puntaje crudo de la variable x. y = Puntaje crudo de la variable y. XY = Multiplicar el puntaje de x por el de y. Elevar al cuadrado los puntajes. = Sumar el producto de x y y. = Sumar las puntuaciones y elevar la suma al cuadrado.

Regla de decisión para obtener la significancia

Para obtener la significancia, se calculan en primer lugar los grados de libertad. a)

gl = N - 2 N

= Número de pares en x y y. Se busca en la tabla de valores críticos de r, los grados de libertad y la probabilidad (α ).

En la tabla E del apéndice se encuentra la r0 (valor de la correlación observada) que permite rechazar y aceptar las hipótesis estadísticas. b) Posteriormente se aplica la regla de decisión que es:

Es decir que como la r de la fórmula es más grande que la de las tablas entonces se acepta la hipótesis alterna.

Estadística paramétrica

145

Ejercicio

Un investigador desea conocer si existe relación entre la puntuación que se obtuvo en una escala de agresión y la puntuación que se obtuvo en una escala de frustración en estudiantes universitarios. El investigador plantea que a mayor agresión, mayor frustración. Los datos obtenidos se presentan a continuación siguiendo el procedimiento del coeficiente de correlación producto-momento de Pearson. Procedimiento: a) Se establece el nivel de confianza al cual se desea trabajar, por ejemplo en este estudio se desea obtener un nivel de confianza del 95 por ciento. Por lo tanto se trabajará con un error del .05. b) Se plantean las hipótesis derivadas de la investigación, por ejemplo, las hipótesis con las que se trabajará son de dos colas (sin dirección). Ho. No existe relación entre la agresión y la frustración en estudiantes universitarios. H1. Sí existe relación entre la agresión y la frustración en estudiantes universitarios. c) Se obtienen los cuadrados de cada puntuación y se suman (∑ X2 y ∑ y2) y la suma del producto de las puntuaciones de "x" y "y" (∑ XY)

TABLA DE DATOS OBTENIDOS PARA LA CORRELACIÓN

Agresión

Y Frustración

X2

Y2

xy

12

12

144

144

144

10 6

8 6

16

11

8

10 8 11

100 36 256 64 81 144

64 36 121 100 64 121

80 36 176 80 72 132

∑y =66

∑X s =825

∑y* = 650

∑XY =720

X

9

12

∑x =73

Sofía Rivera Aragón 146 Mirna García Méndez

d) Una vez calculadas las diferentes columnas se sustituye en la fórmula de Pearson:

Por último, se compara con la tabla (valores críticos de r) para ver si la correlación es significativa, aplicando la regla de decisión. El proceso a seguir, incluye los pasos que a continuación se detallan. 1. Se calculan los grados de libertad: gl = 7-2 = 5

Estadística paramétrica

147

En el apéndice, se busca en la tabla E de valores críticos de r, los grados de libertad y la N. N = Número de pares en x y y.

2. Se sustituye en la regla de decisión: rc ≥ ro  H1 se acepta. .754 ≥ .754  H1 se acepta. En este caso el valor calculado es igual al de la tabla E del apéndice por lo tanto se acepta la hipótesis alterna. H1. Sí existe relación entre la agresión y la frustración en estudiantes universitarios. 3. Finalmente se interpreta el valor obtenido. r = .754 es una correlación media, directamente proporcional y significativa. Es decir a mayor agresión mayor frustración en estudiantes universitarios. Ejercicio

SPSS

Con la finalidad de conocer cómo los factores de la escala de estilos de negociación y los factores de satisfacción marital se relacionan (Rivera y DíazLoving, 2002) se aplicó el coeficiente de correlación producto-momento de Pearson. Se plantearon las siguientes hipótesis: H0. No existe relación entre la satisfacción marital y los estilos de negociación ante el conflicto en parejas. H1. Sí existe relación entre la satisfacción marital y los estilos de negociación ante el conflicto en parejas.

Sofía Rivera Aragón 148 Mirna García Méndez

Posteriormente, una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.8

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Correlate, se da clic y aparece otro menú, se coloca el cursor en Bivariate y se da clic.

8

En lo subsiguiente, al indicar que se da clic, se asumirá que es con el botón izquierdo del mouse y

que el cursor está colocado en la operación a realizar.

Estadístico paramétrica

149

Paso 3. Al hacer clic en Bivariate, se abre un menú que contiene las variables de la investigación.

Paso 4. Las variables de estilos de negociación y satisfacción se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía para ser analizadas.

Sofía Rivera Aragón 150 Mirna García Méndez

Una vez seleccionada la prueba estadística, se da clic en OK y se muestra el resultado de la correlación de Pearson.9 La tabla 26 muestra los resultados de la correlación de Pearson que son los que indican el valor de la prueba, el nivel de significancia y el número de participantes considerados para el análisis. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación. TABLA 26 RESULTADOS DE SPSS DE LA CORRELACIÓN DE PEARSON

Correlations Acuerdo Satasf

Satrel

Insrel

Incapr

Insfam

Satcat

Sinapre

Inscre

Inaf

Sorfun

Sfisex

Acomoda

Conten

Evitaci

Pearson Correlation

,628**

,452**

-,245**

,235**

Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N

,000 291 ,618** ,000 304 -,513** ,000 300 -,493** ,000 306 -,258** ,000 302 ,620** ,000 291 ,582** ,000 304 -,082 ,175 275 -,425** ,000 296 ,625** ,000 296 ,582** ,000 300

,000 298 ,333** ,000 310 -,178* ,002 308 -,209** ,000 314 -.088 ,121 311 ,444** ,000 295 ,322** ,000 312 ,075 ,208 280 -, 1 23* ,032 304 ,377** ,000 303 ,331** ,000 306

,000 291 -, 184** ,001 301 ,250** ,000 298 ,302** ,000 304 ,281** ,000 300 -,208** ,000 289 -,201** ,000 302 ,187** ,002 273 ,257** ,000 295 -, 145* ,013 294 -, 166* ,004 297

,000 291 ,122* ,033 302 -,044 ,449 301 -,104 ,070 305 -, 120* ,037 302 , 194** ,001 289 ,179** ,002 303 -,006 ,925 271 -,141* ,016 294 ,150* ,010 295 ,138* ,017 299

* Correlation is significant at the 0.05 level (2-tailed). ** Correlation is significant at the 0.01 level (2-tailed). 9 Con fines didácticos se muestran los resultados de la correlación de Pearson, tal como los reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.

Estadística paramétrica 151

Reporte de Investigación de la correlación producto-momento de Pearson

Una de las formas de presentar la información obtenida en el

SPSS,

en un

reporte de investigación basado en el estudio sobre estilos o formas de negociar un conflicto en la pareja y la satisfacción que perciben en su relación (Rivera, Díaz-Loving, Cruz y Vidal, 2004) es presentada a continuación: En la tabla 27 se observa en general para los hombres que estilos positivos de negociar el conflicto incrementan la satisfacción y que estilos negativos la decrementan. Así se encuentra que el estilo de acuerdo-colaboración es el que presenta las correlaciones más altas, seguido del de Acomodación. En ambos casos se encuentra mayor satisfacción en la relación, en las áreas afectiva, de comunicación, familia, atracción física, sexual, intimidad, trato hacia los hijos, organización y funcionamiento, y participación y distribución de las tareas en el hogar. Al igual que los dos anteriores, la evitación presenta correlaciones positivas con varios factores de satisfacción, como son: afecto, comunicaciónapoyo, atracción física, intimidad, organización y funcionamiento, y satisfacción sexual. Finalmente en cuanto al estilo competitivo, se observa que entre más alto es el puntaje en éste más insatisfacción percibe el hombre en todas las áreas (véase tabla 27).

t de student Introducción

Comúnmente hacemos generalizaciones con respecto a diferentes grupos de la población. Por ejemplo, se dice que las mujeres son más emocionales que los hombres, o que los hombres son más fuertes físicamente que las mujeres. También se habla de que el idioma español es más difícil que otros idiomas. Los carros rojos sufren más accidentes que los carros blancos. Los hombres tienen un pensamiento más abstracto que las mujeres. Como se ve podemos hacer un sinfín de comparaciones y de conjeturas. Así estamos

Sofía Rivera Aragón 152 Mirna García Méndez

afirmando que la media de una muestra es más grande, más fuerte y/o más difícil que la otra. No obstante debemos comprobar si realmente se dan estas diferencias. Este apartado se dedicará a conocer una de las pruebas que puede examinar si las diferencias propuestas son significativas. La distribución t es también llamada la teoría estadística de la muestra pequeña (Young y Veldman, 1983). En la distribución t se estima la media verdadera Ẍ a través de la media de la muestra (μ ). Definición

La t de student es una prueba de hipótesis que observa las diferencias entre dos grupos. Esta prueba tiene varios usos: • Encontrar diferencias entre las medias de dos grupos. • Obtener la discriminación de reactivos por grupos extremos. En este apartado sólo hablaremos del primer uso. Requisitos

La prueba t tiene varios requisitos o supuestos, entre ellos: a) Que los puntajes se distribuyan normalmente.

b) Que haya homocedasticidad de varianza. Es decir que la distancia entre la media y un puntaje crudo sea muy similar de una muestra a otra.

Sofía Rivera Aragón 154 Mirna García Méndez

c) Que las variables tengan un nivel de medición intervalar. Por ejemplo: puntaje de inteligencia, calificación obtenida en la escala de satisfacción laboral. d) Que haya una selección y asignación aleatoria de los participantes.

Clasificación de la prueba t

a) Muestras independientes, se refiere a la comparación entre dos muestras tomadas de la misma población o de poblaciones diferentes. Por ejemplo: 1. Muestras independientes de la misma población: hombres y mujeres de una universidad pública. 2. Muestras independientes de poblaciones diferentes: hombres y mujeres de una universidad pública y una universidad privada. b) Muestras correlacionadas, se refiere a la comparación de una misma muestra durante dos mediciones, dos aplicaciones, etcétera.

Estadística paramétrica

155

Por ejemplo: Medir a una muestra antes y después de un curso sobre matemáticas para ver si se incrementa o decrementa el rendimiento escolar obtenido en la materia. Cálculo de t para muestras independientes con N Iguales

Esta prueba t se aplica cuando se tienen dos muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero en ambas muestras el tamaño es igual. Por ejemplo: Variable dependiente: Locus de Control. Variable de clasificación: Sexo. En este caso, cada una de las categorías de sexo debe tener el mismo número de participantes; por ejemplo: 100 hombres y 100 mujeres. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis.

c) Calcular las medias para cada grupo La fórmula para calcular la media para cada grupo es:

donde: ∑X = Sumar las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo. N = Número de participantes por grupo.

156

Sofía Rivera Aragón Mirna García Méndez

d) Calcular la desviación estándar de cada muestra (σ 1 y σ 2) La fórmula para calcular la desviación estándar para cada grupo es:

donde: Sumar los cuadrados de las puntuaciones de cada una de las Elevar la media de cada grupo al cuadrado. N = Número de participantes por grupo. e)Encontrar el error estándar de cada media La fórmula para el cálculo del error estándar para cada grupo es:

donde: σ = Desviación estándar para cada grupo, N y 1= Constantes. f) Encontrar el error estándar de la diferencia (σdiff ).

donde: σx 1 = Error estándar de la media para cada grupo,

g) Sustituir en la fórmula de t.

Estadística paramétrica

157

h) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 4.

gl = NI + N2 - 2

donde NI = Número de participantes en el grupo 1. N2 = Número de participantes en el grupo 2. 1

= Constante.

5. Se busca en la tabla de valores críticos de t los grados de libertad y la probabilidad (α ).

En la tabla F del apéndice, se encuentra la tQ (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ t0  H1 se acepta. Es decir que como la t de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna. Ejercicio

Un investigador desea conocer si el grado de autoritarismo difiere entre maestros de escuelas particulares incorporadas y escuelas públicas. Para ello aplica la escala de Vigano (1986) y encuentra los siguientes datos:

158

Sofía Rivera Aragón Mirna García Méndez

Maestros de escuela particular

Maestros de escuela pública

X1

X1 2

X2

X22

140

19,600

90

8,100

110

12,100

95

9,025

128

16,384

65

4,225

110

12,100

70

4,900

100

10,000

45

2,025

95

9,025

35

1,225

44

1,936

22

484

36

1,296

60

360

21

441

18

324

∑x2 = 500

∑x22= 30668

∑X1 = 784

∑X12 =102482

Para calcular los datos del estudio con la t de student se siguen estos pasos: a) Se plantean las hipótesis estadísticas: Ho. No existen diferencias estadísticamente significativas en el grado de autoritarismo entre maestros de escuelas particulares y maestros de escuelas públicas. H1. Sí existen diferencias estadísticamente significativas en el grado de autoritarismo entre maestros de escuelas particulares y maestros de escuelas públicas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis: α = .05.

Calcular las medias para cada grupo

c) Calcular la desviación estándar de cada muestra (σ1 y σ2):

Estadística paramétrica 159

d) Encontrar el error estándar de cada media (σx 1 y σx 2):

e) Encontrar el error estándar de la diferencia (σdiff):

f) Sustituir en la fórmula de t:

g) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.

gl = 9 + 9 - 2 = 16

2. Se busca en la tabla F de valores críticos de t los grados de libertad y la probabilidad (a).

En la tabla F del apéndice, se encuentra la t0 (valor de la t de student observada) que permite rechazar o aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ ta H1 se acepta. 1.17 ≥ 2.12  H1 se rechaza.

Sofía Rivera Aragón 160 Mirna García Méndez

Es decir que como la t de la fórmula es más pequeña que la de la tabla F entonces se acepta la hipótesis nula. Es decir, no existen diferencias estadísticamente significativas en el grado de autoritarismo entre maestros de escuelas particulares incorporadas y escuelas públicas. Cálculo de t para muestras independientes con N desiguales

Esta prueba t se aplica cuando se tienen dos muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero cada muestra tiene un tamaño diferente. Es decir el número de participantes del grupo 1 difiere del número de participantes del grupo 2 (N1 ≠ N2 ). Por ejemplo: • Variable dependiente: Satisfacción con la vivienda • Variable de clasificación: Tipo de vivienda. Personas que viven en departamento y personas que viven en casa. En este caso cada una de las categorías del tipo de vivienda debe tener un número diferente de participantes. Por ejemplo, 50 personas que viven en departamento y 60 personas que viven en casa. Para calcular esta prueba se aplica un procedimiento similar al de la prueba t de student para muestras iguales, lo que difiere aquí es que ya no se calcula el error estándar de la media y cambia la fórmula del error estándar de la diferencia. El proceso a seguir es: A)

Plantear las hipótesis estadísticas.

b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. c) Calcular las medias para cada grupo La fórmula para calcular la media para cada grupo es:

Estadística paramétrica 161

donde: ∑ X= Sumar las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo. N = Número de participantes por grupo. d) Calcular la desviación estándar de cada muestra (σ 1 y σ 2). La fórmula para calcular la desviación estándar para cada grupo es:

donde: ∑ X2 = Sumar los cuadrados de las puntuaciones de cada una de las

calificaciones para cada grupo. (X)2 = Elevar la media de cada grupo al cuadrado. N = Número de participantes por grupo. e)Encontrar el error estándar de la diferencia (σdiff).

donde: σ 12 = Desviación estándar del grupo 1. σ 21 = Desviación estándar del grupo 2. NI = Número de participantes en el grupo 1. N2 = Número de participantes en el grupo 2. f) Sustituir en la fórmula de t.

162

Sofía Rivera Aragón Mirna García Méndez

g) Para obtener la significancia, se calculan en primer lugar los grados de libertad.

1.

gl = N1 + N2 - 2

donde: NI = Número de participantes en el grupo 1, N2 = Número de participantes en el grupo 2, 2 = Constante. 2. En el apéndice, se busca en la tabla F de valores críticos de la prueba t de student los grados de libertad y la probabilidad (α ).

En la tabla F se encuentra la t0 (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ tQ  H1 se acepta. Es decir que como la t de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna.

Ejercicio

Un investigador desea saber si existen diferencias entre un grupo experimental y un grupo control, los cuales fueron sometidos a una investigación sobre el grado de altruismo en presencia de una persona con poder. Los datos obtenidos en la investigación son los siguientes:

Estadística paramétrica

163

Grupo Experimental

Grupo Control

X1

X11

X2

X22

115

13,225

95

9,025

120 180 100 110 140 155 167 191 ∑X1 =1,278

14,400 32,400 10,000 12,100 19,600 24,025 27,889 36,481 ∑X12 =190,120

65 45 75 85 37 46

4,225 2,025 5,625 7,225 1,369 2,116

∑X2 = 448

∑X22 =

31,610

Para calcular los datos del estudio con la t de student para muestras diferentes se siguen estos pasos: a) Se plantean las hipótesis estadísticas. Ho. No existen diferencias estadísticamente significativas en el grado de altruismo por la presencia o ausencia de una persona con poder. H1. Sí existen diferencias estadísticamente significativas en el grado de altruismo por la presencia o ausencia de una persona con poder. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. α =. 05 c) Calcular las medias para cada grupo

d) Calcular la desviación estándar de cada muestra (σ1 y σ2).

Sofía Rivera Aragón 164 Mirna García Méndez

e) Encontrar el error estándar de la diferencia (σdiff ).

f) Sustituir en la fórmula de t.

g) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.

gl = 9 + 7- 2 = 14

4. Se busca en la tabla F de valores críticos de t, del apéndice, los grados de libertad y la probabilidad (α ).

En la tabla F del apéndice, se encuentra la t0 (valor de la t de student observada) que permite rechazar o aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: tc ≥ to  H1 se acepta. 5.43 ≥ 2.14  H1 se acepta.

Es decir que como la t de la fórmula es más grande que la de la tabla F del apéndice, entonces se acepta la hipótesis alterna. Es decir, existen diferencias estadísticamente significativas en el nivel de altruismo entre el grupo control y el grupo experimental. Esto quiere decir que en

Estadística paramétrica

165

presencia de personas con poder, los integrantes del grupo experimental fueron más altruistas.

Ejercicio SPSS Con la finalidad de conocer si existen diferencias entre hombres y mujeres en las historias de amor (Romero, 2003) se aplicó la prueba

t

para muestras

independientes. Se plantearon las siguientes hipótesis: Ho. No existen diferencias estadísticamente significativas en las historias de amor entre hombres y mujeres. H1. Sí existen diferencias estadísticamente significativas en las historias de amor entre hombres y mujeres. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Compare Means, se da clic y aparece otro menú, se coloca el cursor en IndependentSamples T-Test y se da clic. Sofía Rivera Aragón 166 Mirna García Méndez

Paso 3. Al hacer clic en Independent-Sarriples T-Test, se abre un menú que contiene las variables de la investigación.

Paso 4. Las variables de historias de amor se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía donde se colocan las variables dependientes, y la variable de clasificación que en este caso es el sexo se le coloca donde están los grupos.

Estadística paramétrica 167

Una vez definidas las variables, se da clic en OK y se muestra el resultado de la prueba t de student.10 Las tablas 28 y 29 muestran los resultados de la prueba t de student que son los que indican el valor de la prueba, el nivel de significancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varian- zas. Estos datos deberán ser interpretados por el investigador y, de esta forma, responder a las preguntas e hipótesis de investigación.

Reporte de investigación de la prueba t para muestras independientes Una de las formas de presentar la información obtenida en el SPSS, en un reporte de investigación basado en el estudio sobre la diferencia entre historias de amor por sexo (Romero, 2003) es presentada a continuación: A partir de los resultados obtenidos (véase tabla 30) mediante la prueba t de student (Romero, 2003) se encuentra que en general los hombres presentan puntajes significativamente mayores que las mujeres en las historias de romance, sexual, atracción bizarra y sacrificio-dependencia,

10Con fines didácticos se muestran los resultados de la prueba t para muestras relacionadas, tal como los reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.

168

Sofía Rivera Aragón Mirna García Méndez

TABLA 28

ESTADÍSTICAS DESCRIPTIVAS DE SPSS DE LA PRUEBA T DE STUDENT

Group statistic Sexo Factor 1: Romance Factor 2: Organización Factor 3: Sexual Factor 4: Atracción-misterio Factor 5: Humor Factor 6: Maestro-estudiante Factor 7: Guerra Factor 8: Policía-prófugo Factor 9: Atracción bizarra Facto 10: Control-variedad factor 11: Sacrificio-dependencia Factor 12: Desconfianza mutua Factor 13: Jardinería

N

Mean

Std. Deviation

Std. Error Mean

Masculino

160

20.26

5,136

.406

Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino Masculino Femenino masculino Femenino Masculino Femenino

171 160 171 160 171 160 171 160 171 160 171 160 171 158 171 160 171 160 171 160 171 160 169 159 169

19.15 19.97 20.99 12.26 11.11 9.39 9.48 9.68 9.39 18.08 18.04 11.49 11.19 10.06 10.25 8.06 7.39 12.09 11.60 9.99 9.25 6.59 6.87 14.59 14.29

4,854 4,440 3,287 3,501 3,551 2,189 2,377 2,954 3,076 3,699 3.305 4,011 3,763 3,514 4,282 3,133 2,633 3,310 3,365 2,687 2,268 2,167 2,159 3,701 3.217

.371 .351 .251 .277 .272 .173 .182 .234 .235 .292 .253 .317 .288 .280 .327 .248 .201 .262 .257 .212 .173 .171 .166 .294 .247

mientras que las mujeres obtienen puntajes significativamente mayores que los hombres en la historia de organización. En las historias restantes no se encontraron diferencias significativas. Lo anterior indica que los hombres en sus relaciones en general se enfocan más en aspectos tales como el cariño, la conquista, la sexualidad, la práctica variada del erotismo, el misterio y las características fuera de lo común, así como la dependencia y la necesidad de la pareja, mientras que las mujeres se centran más en aspectos tales como la organización, las reglas y las estructuras determinadas para el buen funcionamiento de la relación.

Estadística paramétrica

169

TABLA 30

DIFERENCIAS POR SEXO EN LAS HISTORIAS DE AMOR

Media por sexo Historias de amor

Hombres

Mujeres

t

P

Romance

20.26

19.15

2.011

.045*

Organización Sexual Atracción Humor Maestro-estudiante Guerra Policía-prófugo Atracción bizarra Control-variedad Sacrificio-dependencia Desconfianza Jardinería

19.97 12.26 9.39 9.68 18.08 11.49 10.06 8.06 12.09 9.99 6.59 14.59

20.99 11.11 9.48 9.39 18.04 11.19 10.25 7.39 1 1.60 9.25 6.87 14.29

-2.398 2.967 -.366 .853 .105 .704 -.435 2.094 1.354 2.699 -1.157 .788

.017* .003** .715 .394 .917 .482 .664 .037* .177 .007** .248 .431

*p ≤ 0.05. **p ≤ 0.01. Cálculo de t para muestras relacionadas

Esta prueba se aplica cuando la misma muestra es medida en dos ocasiones o bajo dos situaciones. Por ejemplo: Variable dependiente: Actitud hacia el consumo de alcohol Variable independiente: Curso sobre los daños que el alcohol causa al organismo. En este caso se aplica una escala de actitudes ante el consumo de alcohol antes y después del curso a la misma muestra. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. c) Calcular las medias para cada grupo Estadística paramétrica 171

La fórmula para calcular la media para cada grupo es:

donde: ∑X = Sumar las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo, N = Número de participantes por grupo. d) Calcular la desviación estándar de la muestra (σ1). La fórmula para calcular la desviación estándar para cada grupo es:

donde: ∑ D2 = Sumar los cuadrados de las diferencias de cada una de las

calificaciones de la muestra. (X) 2 = Elevar la media de cada grupo al cuadrado. N = Número de participantes por grupo. d) Encontrar el error estándar de la diferencia (σ diff).

donde: σ = Desviación estándar del grupo.

f) Sustituir en la fórmula de t.

172

Sofía Rivera Aragón Mirna García Méndez

g) Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.

gl = N - 1

donde: N= Número de participantes de la muestra. 1 = Constante. 2. Se busca en la tabla de valores críticos de t los grados de libertad y la probabilidad (α ).

En la tabla F del apéndice se encuentra la t0 (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 1. Posteriormente se aplica la regla de decisión que es: tc ≥ t0  H1 se acepta. Es decir que como la f de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna.

Ejercicio

Un investigador quiere observar si existen diferencias en las actitudes que asumen los adultos de diferentes clases sociales ante la contaminación ambiental antes y después de pasar una película sobre los efectos de ésta sobre el ambiente. Los datos obtenidos fueron los siguientes:

Estadística paramétrica

173

Antes

Después

D

D2

100

90

10

100

200 180 90 49 110 185 170 165 160 ∑ = 1,409

60 75 85 40 65 75 95 85 70 ∑ =740

140 105 5 9 45 110 75 80 90

19,600 11,025 25 81 2,025 12,100 5,625 6,400 8,100 ∑ D2= 65,081

Para obtener el resultado a través de la prueba t para muestras relacionadas de los datos anteriores se siguen los pasos que a continuación se detallan: a) Se plantean las hipótesis estadísticas: Ho. No existen diferencias estadísticamente significativas en la actitud hacia la contaminación ambiental antes y después de ver la película. H1. Sí existen diferencias estadísticamente significativas en la actitud hacia la contaminación ambiental antes y después de ver la película. b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. α =.05

c) Calcular las medias para cada grupo

d) Calcular la desviación estándar de la muestra (σ 1 ). La fórmula para calcular la desviación estándar para cada grupo es:

Sofía Rivera Aragón 174 Mirna García Méndez

e) Encontrar el error estándar de la diferencia (σ diff).

f) Sustituir en la fórmula de t.

g)Para obtener la significancia, se calculan en primer lugar los grados de libertad. 1.

gl= 1 0 - 1 = 9

2. Se busca en el apéndice en la tabla F de valores críticos de t los grados de libertad y la probabilidad (α ).

En la tabla F del apéndice se encuentra la t0 (valor de la t de student observada) que permite rechazar y aceptar las hipótesis estadísticas. 3. Posteriormente se aplica la regla de decisión que es: 4.45 ≥ 2.26  Hi se acepta. Es decir que como la t de la fórmula es más grande que la de la tabla F entonces se acepta la hipótesis alterna. Aquí podríamos decir que sí hubo un cambio en la actitud hacia la contaminación ambiental, ya que después de la película, la actitud fue más desfavorable (puntajes más bajos).

Estadística paramétrica

175

Ejercicio

SPSS

Con la finalidad de conocer si existen diferencias en la actitud hacia el sida antes y después de una plática sobre el tema en adolescentes (Pavaan, 2004) se aplicó la prueba t para muestras relacionadas. Se plantearon las siguientes hipótesis: Ho. No existen diferencias estadísticamente significativas en los conocimientos y actitudes hacia el sida en adolescentes, antes y después de recibir una plática sobre el tema. H1. Sí existen diferencias estadísticamente significativas en los conocimientos y actitudes hacia el sida en adolescentes, antes y después de recibir una plática sobre el tema. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en Compare Means, se da clic y aparece otro menú, se coloca el cursor en PairedSamples T-Test y se da clic.

Sofía Rivera Aragón 176 Mirna García Méndez

Paso 3. Al hacer clic en Paired-Samples T-Test, se abre un menú que contiene las variables de la investigación.

Paso 4. Las variables de las calificaciones antes y después de la plática se marcan con el cursor, se da clic sobre las variables de estudio y se pasan las variables seleccionadas a la ventana de current selection.

Estadística paramétrica 177

Paso 5. Las variables que se encuentran en la ventana de current selection al dar clic al icono entre las ventanas éstas son pasadas de esta ventana por pares a la ventana vacía (paired variables).

Una vez definidas las variables, se da clic en OK y se muestra el resultado de la prueba t de student.11 La s tablas 31 y 32 muestran los 11Idem.

Sofía Rivera Aragón 178 Mirna García Méndez

resultados de la prueba t de student que son los que indican las estadísticas descriptivas, el valor de la prueba t. el nivel de significancia, el número de participantes considerados para el análisis, así como grados de libertad y el valor de la correlación. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación.

TABLA 31 ESTADÍSTICAS DESCRIPTIVAS DE SPSS DE LA PRUEBA T DE STUDENT: Paired Samples Statistics

Mean

Pair 1

Antes

9.2027

Después

20.0135

Paired Samples Correlations Pair 1

Antes y Después

N

Std. Deviation

Std. Error Mean

74 74

11.81592 10.84952

1.37357 1.26123

N

Correlation

74

.068

Sig. .566

TABLA 32 VALORES DE LA PRUEBA T DE STUDENT PARA MUESTRAS RELACIONADAS DE SPSS: Paired Samples Test

Paired Differences Mean

Pair 1

Antes Después

-10.8108

Std

Std. Error

Deviation

Mean

15.48988 1.80066

95% Confidence Interval of the Difference Lower

Upper

t

-14.3995 -7.2221 -6.004

Sig. (2tailed) df 73 .000

Estadística paramétrica

179

Reporte de investigación de la prueba t para muestras relacionadas

Una de las formas de presentar la información obtenida en el

SPSS,

en un

reporte de investigación basado en el estudio sobre la diferencia en las actitudes y conocimientos hacia el

SIDA

en adolescentes antes y después de

una plática (Pavaan, 2004) es presentada a continuación: A partir de los resultados obtenidos (véase tabla 31) mediante la prueba t de student para muestras relacionadas se encuentra que con respecto al área de conocimientos existen diferencias significativas antes y después de la plática, ya que al recibir información, aumentaron los conocimientos sobre epidemiología, desarrollo de la enfermedad, prevención y mecanismos de transmisión de la misma. Por otro lado, no se encontraron diferencias significativas en lo que se refiere a los conocimientos sobre síntomas del

SIDA

antes y después de la

plática. En cuanto a las actitudes, se encontró que después de dar la plática aumenta el apoyo a los enfermos con

SIDA,

también la disposición a la uti-

lización de métodos de sexo seguro y disminuye el miedo a tener el mal. Finalmente no se encontraron diferencias significativas en lo que se refiere al temor a contagiarse con el VIH y al cambio en la conducta sexual para prevenir la enfermedad. Análisis de varianza (Anova) Introducción

Como se vio en la prueba anterior, se plantea que en general divulgamos información

sobre

varios

grupos

de

la

población,

comparándolos.

Sin embargo, en el apartado de la prueba t de student vimos cómo comúnmente comparábamos dos grupos afirmando que uno era más grande que el otro o más difícil, etcétera. No obstante cuando hablamos de más de dos grupos, como por ejemplo, que hay más satisfacción laboral en los niveles medios que en el mando ejecutivo y operativo de una em-

180

Sofía Rivera Aragón Mirna García Méndez

TABLA 33 DIFERENCIAS ANTES Y DESPUÉS EN ACTITUDES Y CONOCIMIENTOS HACIA EL SIDA EN ADOLESCENTES

Áreas

Media antes después

t

P

Epidemiología

1.50

1.66

-7.81

.000**

Desarrollo de la enfermedad Prevención Síntomas Mecanismos de transmisión Apoyo a los enfermos de sida Temor al contagio del VIH Miedo a tener sida Cambio de la conducta sexual Sexo seguro

1.36 1.61 1.31 1.64 3.45 3.56 3.03 3.42 3.22

1.58 1.71 1.40 1.85 3.84 3.66 2.88 3.39 3.44

-5.83 -3.67 -0.83 -6.33 -3.18 -0.65 1.81 0.40 2.52

.000** .001** .410 .000** .002** .517 .05* .692 .01**

*P ≤ 0.05. **p ≤ 0.01.

presa, o que decimos que los solteros están más satisfechos con su relación que los casados y los divorciados, o que los hombres jóvenes están más satisfechos sexualmente que los hombres maduros y las mujeres jóvenes, estamos haciendo comparaciones con tres o más grupos y además estamos combinando las características de estos grupos para poder ver en qué medida difieren. De la misma forma que en el apartado anterior, estamos afirmando que la media de una muestra es más grande, más fuerte y/o más difícil que la otra. Empero, también debemos comprobar si nuestras afirmaciones son ciertas en términos de probabilidad. Esta parte del libro se abocará a explorar una de las pruebas que puede examinar si las diferencias propuestas son significativas en tres o más grupos. El análisis de varianza, Anova (del inglés, analysis of variance), es uno de los métodos estadísticos más utilizados en la investigación moderna. Para iniciar el análisis de varianza debemos hablar de la varianza total, la varianza entre grupos y la varianza intragrupos. Estos conceptos son básicos en el Anova ya que describen la lógica del mismo (Levin y

Estadística paramétrica

181

Levin, 2002). La varianza entre los grupos plantea la comparación entre las medias de los grupos. La varianza dentro de los grupos hace referencia a la distancia entre los puntajes crudos y su media de grupo. Definición

El Anova es una prueba de hipótesis que observa si tres o más grupos presentan una diferencia significativa con respecto a una variable dependiente. Esta prueba tiene varios usos: • Encontrar diferencias entre las medias de tres o más grupos. • Conocer la interacción entre variables: este es un nuevo concepto que implica un efecto combinado de las variables independientes o de clasificación. Requisitos

El Anova tiene varios requisitos o supuestos, entre ellos: a) Que los puntajes se distribuyan normalmente.

b) Que haya homocedasticidad de varianza. Es decir que la distancia entre la media y un puntaje crudo sea muy similar de una muestra a otra.

182

Sofía Rivera Aragón Mirna García Méndez

c) Que las variables tengan un nivel de medición intervalar. Por ejemplo: calificación de motivación al logro o promedio escolar. d) Que haya una selección y asignación aleatoria de los participantes. CLASIFICACIÓN DEL ANOVA

I. Anova simple: Se refiere a la comparación entre tres o más muestras tomadas de la misma población o de poblaciones diferentes, con respecto a una variable dependiente. Por ejemplo: a) Anova simple para muestras iguales: comparar si existen diferencias en el grado de dolor por celos que sienten 100 solteros, 100 casados y 100 reconstituidos. b) Anova simple para muestras diferentes: comparar la conducta sexual entre 50 parejas con hijos, 60 parejas sin hijos y 55 parejas donde la mujer esta en proceso de gestación.

Estadística paramétrica 183

2. Anova de doble clasificación o de doble entrada Este se refiere a la interacción de dos variables de clasificación o independientes con dos categorías o grupos, cada una con respecto a una variable dependiente. Por ejemplo: Medir una muestra de adultos y jóvenes, hombres y mujeres con respecto a la identidad nacional, para ver si ésta varía con respecto al sexo y a la edad por un lado y a la interacción de ambos por otro. El diseño de 2 X 2 que se plantea en este ejemplo quedaría esquematizado como sigue:

Edad Jóvenes Sexo

Adultos

Hombres Mujeres

3. Análisis factorial de varianza: Este análisis se refiere a la comparación de dos variables independientes o más, de tres o más categorías o grupos con una variable dependiente. Por ejemplo: Medir una muestra de diferentes niveles escolares de hombres y mujeres con respecto a la actitud hacia la infidelidad, para ver si ésta varía con respecto al sexo y a la escolaridad por un lado y a la interacción de ambos por el otro. El diseño de 2 x 4 que se plantea en este ejemplo quedaría esquematizado como sigue: Escolaridad Primaria Sexo

Secundaria

Preparatoria

Licenciatura

Hombres Mujeres

Análisis de varianza simple cuando el tamaño (N) de los grupos es igual

Esta prueba se aplica cuando se tienen tres o más muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero en los tres grupos o más el tamaño es igual. Por ejemplo: 184

Sofía Rivera Aragón Mirna García Méndez

Variable dependiente: Orientación al logro. Variable de clasificación: Estudiantes de 1o., 2º. y 3o. grados de secundaria. En este caso cada uno de los grados escolares debe tener el mismo número de participantes: por ejemplo 60 de lo., 60 de 2o. y 60 de 3o. de secundaria. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo (∑X i ). d) Obtener el cuadrado de la sumatoria (∑X) i 2 e) Elevar al cuadrado cada puntaje crudo y sumarlo (∑X) i 2 f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:

donde: Sumar todos los puntajes crudos de todos los grupos y elevarlos al cuadrado. K= Número de grupos a comparar. N = Número de participantes por grupo, g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:

donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas, para cada grupo. FC= Factor de corrección.

Estadística paramétrica 185

h) Obtener la suma de cuadrados entre los grupos (SCE). La fórmula para calcular la SCE es:

donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos. FC = Factor de corrección. N = Número de participantes por grupo. Obtener la suma de cuadrados intragrupos {SCI). La fórmula para calcular la SCI es: SCI = SCT - SCE

Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N – 1 glentre = k - 1 glintra = N - k donde: N = Número total de participantes en todos los grupos. K = Número de grupos que se están comparando. 1 = Constante. k) Obtener la media de cuadrados entre grupos (MCE). La fórmula para calcular la MCE es:

186

Sofía Rivera Aragón Mirna García Méndez

l) Obtener la media de cuadrados intragrupos (MCI). La fórmula para calcular la MCI es:

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia SC

gl

MC

F

Entre Intra Total

o) Para obtener la significancia, se busca en el apéndice en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.

En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas.

Estadística paramétrica

187

Posteriormente se aplica la regla de decisión, que es:

Fc ≥ F0  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G del apéndice, entonces se acepta la hipótesis alterna. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo (X1, X2   y X3 ) e interpretar la magnitud de las diferencias. La fórmula para calcular la media para cada grupo es:

donde: ∑X = Sumar las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo. N — Número de participantes por grupo.

Ejercicio

Un investigador desea conocer si existen diferencias entre la media de los grupos (niños de 4 a 5 años, de 6 a 7 y de 8 a 9) en su calificación de autoestima. Los datos obtenidos se presentan a continuación:

Niños por grupo de edad 4 a 5 años X1

X

10

8 a 9 años

X2

22

X

X3

X32

100

14

196

11

121

15

225

10

100

10

100

18

324

9

81

9

81

20

400

7

49

6

36

25

625

8 48

64

7

49

∑X22= 490

∑X3 = 43

∑X32= 387

∑X1 = 88

188

ó a 7 años 12

∑X12 = 1674 ∑X2 =

Sofía Rivera Aragón Mirna García Méndez

Para obtener el resultado a través del Anova simple para muestras iguales de los datos anteriores se siguen los pasos que a continuación se detallan: a) Se plantean las hipótesis estadísticas Ho. No existen diferencias estadísticamente significativas en la autoestima en niños de diferentes edades. H1. Sí existen diferencias estadísticamente significativas en la autoestima en niños de diferentes edades. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. α = .05

c) Obtener la sumatoria de los puntajes para cada grupo.

d) Obtener el cuadrado de la sumatoria para cada grupo.

e) Elevar al cuadrado cada puntaje crudo y sumarlo para cada grupo.

f) Calcular el factor de corrección (FC).

g) Obtener la varianza total (SCT).

Estadística paramétrica 189

h) Obtener la suma de cuadrados entre los grupos (SCE).

i) Obtener la suma de cuadrados intragrupos (SCI). SCI = 414.94-243.34 = 1 7 1 . 6 j ) Calcular los grados de libertad (gl). gltotal = 15 – 1 = 14 glentre = 3 – 1 = 2 glintra = 15 – 3 = 12 k) Obtener la media de cuadrados entre grupos (MCE).

l) Obtener la media de cuadrados intragrupos (MCI).

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia

190

SC

gl

Entre

243.34

2

121.67

Intra Total

171.6 414.94

12 15

14.3

Sofía Rivera Aragón Mirna García Méndez

MC

F 8.50

o) Para obtener la significancia, se busca en el apéndice en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical.

En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: 8.50 ≥ 3.89  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. En este caso decimos que existen diferencias significativas en la autoestima de niños de diferentes edades. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo (X1, X2 y X3) e interpretar la magnitud de las diferencias.

Con respecto a estos valores se puede observar que los niños de 5 a 6 años presentan una media más alta en autoestima que los niños de mayor edad. Cabe aclarar hasta aquí que el Anova indica diferencias entre grupos, pero no nos dice entre cuáles. Para ello habría que aplicar una prueba post-hoc (Scheffe, Duncan o Tukey). Análisis de varianza simple para N desiguales

Esta clasificación se aplica cuando se tienen tres o más muestras diferentes tomadas de la misma población o de poblaciones diferentes, pero en los tres grupos las muestras son diferentes. Por ejemplo:

Estadística paramétrica

191

Variable dependiente: Estilo de comunicación positivo. Variable de clasificación: estado civil = solteros, casados, unión libre, reconstituidos

En este caso cada una de las categorías del estado civil debe tener un número diferente de participantes: por ejemplo 115 solteros, 100 casados, 99 unión libre y 102 personas en relaciones reconstituidas. Para calcular esta prueba se aplica el procedimiento que a continuación se detalla. Algo importante de mencionar es que los pasos son similares al Anova para muestras iguales solamente cambian las fórmulas de la SCE y el PC. a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo (∑ X) d) Obtener el cuadrado de la sumatoria (∑ X)2 e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X12 f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:

donde: Sumar todos los puntajes crudos de todos los grupos y elevarlos al cuadrado. N = Número de participantes para cada grupo. g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:

192

Sofía Rivera Aragón Mirna García Méndez

donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas. FC= Factor de corrección. h) Obtener la suma de cuadrados entre los grupos {SCE). La fórmula para calcular la SCE es:

donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos, FC = Factor de corrección. N= Número de participantes en cada grupo. Obtener la suma de cuadrados intragrupos (SCI). La fórmula para calcular la SCI es: SCI = SCT-SCE Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N – 1 glentre = k - 1 glintra = N - k donde: N = Número total de participantes en todos los grupos. k = Número de grupos que se están comparando. 1 = Constante.

Estadística paramétrica

193

k) Obtener la media de cuadrados entre grupos (MCE). La fórmula para calcular la MCE es:

l) Obtener la media de cuadrados intra grupos (MCI). La fórmula para calcular la MCI es:

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia SC

gl

MC

F

Entre Intra Total

o) Para obtener la significancia, se busca en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente. En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas.

194 Sofía Rivera Aragón Mirna García Méndez

Posteriormente se aplica la regla de decisión que es:

Fc ≥ F0  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G del apéndice, entonces se acepta la hipótesis alterna. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo

e interpretar la magnitud

de las diferencias. La fórmula para calcular la media para cada grupo es:

donde: ∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo. N = Número de participantes por grupo.

Ejercicio

Un psicólogo desea saber si existen diferencias estadísticamente significativas en el tiempo que tardan para resolver un rompecabezas niños con diferentes sistemas escolares: Montesori, Dalton, Piaget. Para obtener el resultado a través del Anova simple para muestras diferentes de este ejemplo se siguen los pasos que a continuación se detallan: a) Se plantean las hipótesis estadísticas: Ho. No existen diferencias estadísticamente significativas en el tiempo que tardan los niños para resolver un rompecabezas dependiendo del sistema educativo (Montesori, Dalton, Piaget).

Estadística paramétrica

195

Tiempo de resolución de un rompecabezas Piaget

Montesori

Dalton

5

25

3

9

7

49

4 5 5 4 5 4 5 5 4

16 25 25 16 25 16 25 25 16 3

4 3 4 5 3 2 4 3 4 9 4 ∑X2 = 42

16 9 16 25 9 4 16 9 16 4 16 ∑X22 = 154

8 10 12 10 9 9 7 5 3 16

64 100 144 100 81 81 49 25 9

∑X1 = 46

∑ X1 2 =

214

∑X2 = 84

∑X32

718

H1. Sí existen diferencias estadísticamente significativas en el tiempo que tardan los niños para resolver un rompecabezas dependiendo del sistema educativo (Montesori, Dalton, Piaget). b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. α = .05

c) Obtener la sumatoria de los puntajes para cada grupo.

d) Obtener el cuadrado de la sumatoria para cada grupo.

e) Elevar al cuadrado cada puntaje crudo y sumarlo para cada grupo.

196

Sofía Rivera Aragón Mirna García Méndez

f) Calcular el factor de corrección (FC).

g) Obtener la varianza total (SCT). SCT = 2 1 4 + 1 5 4 + 7 1 8 - 8 9 6 . 4 8 = 1 8 9 . 5 2

h) Obtener la suma de cuadrados entre los grupos {SCE).

Obtener la suma de cuadrados intragrupos (SCI). SCI = 1 8 9 . 5 2 - 1 0 3 . 1 3 = 8 6 . 3 9

Calcular los grados de libertad (gl). gltotal = 33 – 1 = 32 glentre = 3 – 1 = 2 glintra = 33 – 3 = 30 k) Obtener la media de cuadrados entre grupos (MCE).

l) Obtener la media de cuadrados intragrupos (MCI).

Estadística paramétrica

197

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia: Tabla de procedencia gl MC

SC Entre

103.13

2

51.56

Intra Total

86.39 189.52

30 32

2.87

F 17.96

o) Para obtener la significancia, se busca en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical.

En la tabla G se encuentra la Fa (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: 17.96 ≥ 3.32  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G del apéndice, entonces se acepta la hipótesis alterna. En este caso decimos que existen diferencias significativas en el tiempo que tardan los niños que están bajo diferentes sistemas educativos. p) Finalmente si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupc de las diferencias.

198

Sofía Rivera Aragón Mirna García Méndez

e interpretar la magnitud

Con respecto a estos valores se puede observar que los niños de cinco a seis años presentan una media más alta en el tiempo que tardan en resolver un rompecabezas con un sistema Dalton. Cabe aclarar hasta aquí que el Anova indica diferencias entre grupos, pero no nos dice entre cuáles. Para ello habría que aplicar una prueba post-hoc (Scheffe, Duncan o Tukey).

Ejercicio SPSS Con la finalidad de conocer si existen diferencias a través del ciclo vital en la relación de pareja en las historias de amor (Romero, 2003) se aplicó el Anova simple. Se plantearon las siguientes hipótesis: Ho No existen diferencias estadísticamente significativas en las historias de amor de acuerdo con cada una de las etapas del ciclo vital. H1 Sí existen diferencias estadísticamente significativas en las historias de amor de acuerdo con cada una de las etapas del ciclo vital. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.

Estadística paramétrica

199

Paso 2. Al hacer clic en Analyze aparece un menú en el que se coloca el cursor en Compare Means, se da clic y aparece otro menú, se coloca el cursor en One-WayAnova y se da clic.

Paso 3. Al hacer clic en One-Way-Anova, se abre un menú que contiene las variables de la investigación.

Sofía Rivera Aragón 200 Mirna García Méndez

Paso 4. Las variables de historias de amor se marcan con el cursor. Se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía donde se colocan las variables dependientes, la variable de clasificación, que en este caso es la etapa del ciclo vital de la relación, se le coloca donde están los grupos.

Una vez definidas las variables, se da clic en OK y se muestra el resultado del Anova simple.12 La tabla 34 muestra los resultados del Anova que son los que indican el valor de la prueba, el nivel de significancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varianzas. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación.

12 Con fines didácticos se muestran los resultados del Anova factorial, tal como los reporta el SPSS; sin embargo, nunca se presentan así en un reporte de investigación.

Estadística paramétrica 201

TABLA 34

ANOVA SIMPLE Anova Sum of Squares Factor 1: Romance

Between Groups

Within Groups Total Factor 2: Organización Between Groups Within Groups Total Factor 3: Sexual Between Groups Within Groups Total Between Groups Factof 4: Atracción- misterio Within Groups Total Factor 5: Humor Between Groups Within Groups Total Between Groups Factor ó: Maestro- estudiante Within Groups Total Factor 7: Guerra Between Groups Within Groups Total Factor 8: Policía prófugo Between Groups Within Groups Total Factor 9: Atracción bizarra Between Groups Within Groups Total Factor 10: Control-variedad Between Groups Within Groups Total Between Groups Factor 11: SacrificioWithin Groups dependencia Total Factor 12: Desconfianza mutua Between Groups Within Groups Total

202

Sofía Rivera Aragón Mirna García Méndez

539.102 7,762.221 8,301.323 460.866 4,597.883 5,058.749 205.048 3,997.054 4,202.103 209.848 1,513.505 1,723.353 81.644 2,920.833 3,002.477 260.314 3,772.477 4,032.792 488.694 4,483.409 4,972.103 298.978 4,760.116 5,059.094 312.706 2,463.028 2,775.734 238.263 3,448.927 3,687.190 154.639 1,912.304 2,066.943 63.394 1,472.600 1,535.994

df

5 325 330 5 325 330 5 325 330 5 325 330 5 325 330 5 325 330 5 325 330 5 323 328 5 325 330 5 325 330 5 325 330 5 323 328

Mean Square

F

Sig.

107.820

4.514

.001

92.173 14.147

6.515

.000

41.010 12.299

3.334

.006

41.970 4.657

9.012

.000

16.329 8.987

1.817

.109

52.063 11.608

4.485

.001

97.739 13.795

7.085

.000

59.796 14.737

4.057

.001

62.541 7.579

8.252

.000

47.653 10.612

4.490

.001

30.928 5.884

5.256

.000

12.679 4.559

2.781

.018

23.884

Reporte de investigación del

análisis de varianza simple

Para probar la hipótesis del investigador se aplicó un análisis de varianza simple (Romero, 2003) el cual mostró diferencias significativas en todas las historias de amor a lo largo del ciclo vital de la pareja, excepto en la historia de humor. Para la historia de romance se detectó que el apego y el cariño son menores durante el noviazgo, incrementan significativamente al inicio del matrimonio y decrementan con la llegada de los hijos. De los siete a los catorce años de matrimonio repuntan nuevamente, decrementan después de los 14 años de matrimonio. Para la historia de organización, se encuentra que los esquemas, las reglas y las estructuras son más importantes en la última etapa de noviazgo y la primera del matrimonio. Al igual que en la historia de romance, la organización decrementa con la llegada de los hijos, de los siete a los catorce años de matrimonio tiene un repunte importante para obtener su mínimo puntaje en la última etapa del ciclo vital de la pareja. La historia sexual se mantiene más o menos estable a lo largo de las primeras etapas hasta los tres años de matrimonio, entre los tres y siete años de matrimonio el erotismo y la exploración sexual aumentan, para posteriormente decrementar y alcanzar su mínimo puntaje en la última etapa del ciclo vital de la pareja. En cuanto a la historia de atracción-misterio se observa que los puntajes más altos se localizan en las etapas del noviazgo, donde el hecho de no conocer totalmente a la pareja le confiere mayor atracción a la relación. Por último para la etapa de maestroestudiante se señalan decrementos importantes en la última etapa del matrimonio probablemente debido al amplio conocimiento que los miembros de la pareja han obtenido el uno del otro con el paso de los años. Lo anterior demuestra que el matrimonio no es una etapa estática en la vida de los seres humanos (véase tabla 35), sino que constantemente tiene cambios en todos los aspectos relaciónales de la pareja.

Estadística paramétrica

203

TABLA 35 DIFERENCIAS POR ETAPA DE CICLO VITAL EN LAS HISTORIAS DE AMOR Etapa Factor

0a6 meses noviazgo

Más de 6 D e 0 a meses de 3 años de noviazgo mat.

De 3 a 7 De 7 a 14 Más de 14 años de años de años de mat mat. mat.

F

P

Romance

18.75

19.49

22.21

18.35

20.39

18.95

4.51

.001**

Organización

19.73

21.82

21.30

19.67

21.61

18.67

6.51

.000**

Sexual

11.58

11.59

11.00

13.19

11.93

10.69

3.33

.006**

Atracciónmisterio

10.79

10.26

8.98

9.02

8.61

8.93

9.01

.000**

Humor

9.54

10.23

9.94

9.28

9.43

8.69

1.81

.109

MaestroEstudiante

18.88

18.59

18.34

18.43

18.86

16.69

4.48

.001 **

*p< 0.05. **p< 0.01. Análisis de varianza de doble clasificación

Este análisis introduce el concepto de interacción, el cual, como ya se había mencionado, aduce a la combinación de las categorías de dos variables independientes o de clasificación con respecto a una variable dependiente. El procedimiento al cálculo es similar al análisis de varianza simple, sólo que éste además calcula los componentes de la varianza entre grupos de los efectos principales de cada una de las variables independientes por separado, además de la interacción entre las mismas. Por ejemplo: Variable dependiente: Creatividad Variables de clasificación: Sexo: Hombres y mujeres Escolaridad: Media superior y superior El diseño quedaría como sigue: Escolaridad/Sexo Hombres Media superior Superior

204

Sofía Rivera Aragón Mirna García Méndez

Mujeres

En este caso, cada una de las variables por separado implica el efecto principal, y la combinación la interacción de las mismas, para predecir la creatividad. Para calcular esta prueba se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad en la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo (∑ x). d) Obtener el cuadrado de la sumatoria (∑ x)2. e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X1. f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:

donde: Sumar todos los puntajes crudos de todos los grupos y elevarlos al cuadrado, K= Número de grupos a comparar. N = Número de participantes por grupo, g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:

donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas. FC— Factor de corrección.

Estadística paramétrica

205

h) Obtener la suma de cuadrados entre los grupos (SCE). La fórmula para calcular la SCE es:

donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos, FC= Factor de corrección, N= Número de participantes por grupo. Obtener la suma de cuadrados intragrupos (SCI). La fórmula para calcular la SCI es:

SCI = SCT -SCE Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N - 1 glentre = k - 1 glintra N — k

donde: N — Número total de participantes en todos los grupos, K = Número de grupos que se están comparando, 1 = Constante.

206

Sofía Rivera Aragón Mirna García Méndez

k) Obtener la media de cuadrados entre grupos (MCE). La fórmula para calcular la MCE es:

l) Obtener la media de cuadrados intra grupos (MCI). La fórmula para calcular la MCI es:

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia:

Tabla de procedencia SC

gl

MC

F

Entre Intra Total

o) Para obtener la significancia, se busca en el apéndice la tabla G de valores críticos de F, los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.

En la tabla G del apéndice, se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas.

Estadística paramétrica

207

Posteriormente se aplica la regla de decisión que es: Fc ≥ F0  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G entonces se acepta la hipótesis alterna. p) Si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo

e interpretar la magnitud de

las diferencias. La fórmula para calcular la media para cada grupo es:

donde: ∑ X= Sumar las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo, N = Número de participantes por grupo. q) Una vez que se calculó el análisis de varianza simple se acomodan los

valores de las variables en una tabla de 2 x 2. Tomando el ejemplo anterior quedaría como sigue: Variable dependiente: Creatividad Variables de clasificación: Sexo: Hombres y mujeres Escolaridad: Media superior y superior El diseño quedaría como sigue:

Escolaridad/Sexo Media superior Superior

208

Sofía Rivera Aragón Mirna García Méndez

Hombres

Mujeres

r) Una vez acomodados se obtiene la suma de cuadrados de los efectos principales de las variables en estudio. 1. Obtener la suma de cuadrados de la variable que se encuentra en las filas de la tabla (SCV1). En este ejemplo sería la escolaridad. La fórmula para obtenerla es:

donde: ∑ (f1)2 = Sumar los valores de la fila 1 y elevarlos al cuadrado. ∑ (f2)2 = Sumar los valores de la fila 2 y elevarlos al cuadrado.

K = Número de categorías o grupos de las variables. N = Número de participantes por grupo. FC = Factor de corrección. 2. Obtener la suma de cuadrados de la variable que se encuentra er las columnas de la tabla (SCVc). En este ejemplo sería el sexo. La fórmula para obtenerla es:

donde: ∑ (c1)2= Sumar los valores de la columna 1 y elevarlos al cuadrado. ∑ (c2 )2= Sumar los valores de la columna 2 y elevarlos al cuadrado.

K= Número de categorías o grupos de las variables. N = Número de participantes por grupo. FC = Factor de corrección. s) Calcular la interacción de las variables (SCINT). La fórmula para calcular la interacción es: SCINT = SCE – SCVf - SCVc

Estadística paramétrica

209

donde: SCVf = Suma de cuadrados de la variable que se encuentra en las filas. SCVc = Suma de cuadrados de la variable que se encuentra en las columnas. SCE = Suma de cuadrados entre grupos. t) Calcular los grados de libertad de los efectos principales y de la interacción.

glvf = K - 1 (grados de libertad de la variable de las filas), glrc = K - 1 (grados de libertad de la variable de las columnas), gfint = (Kf- 1) (Kc - l)(grados de libertad de la interacción). donde: k = Número de categorías o grupos de la variable en estudio. 1 = Constante. u) Calcular la media de cuadrados de los efectos principales y de la interacción.

media de cuadrados de la variable de las filas) media de cuadrados de la variable de las columnas) (media de cuadrados de la interacción) v) Sustituir en la fórmula de F (prueba de significancia del Anova) tanto para efectos principales como de la interacción: (prueba f para la variable de las filas) (prueba f para la variable de las columnas) (prueba f para la variable de la interacción)

210

Sofía Rivera Aragón Mirna García Méndez

w) Construir la tabla de procedencia: Tabla de procedencia SC

gl

MC

F

Entre Filas Columnas Interacción Intra Total

x) Para obtener la significancia, se buscan en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (a) hay una tabla independiente y deben buscarse todos los valores de la prueba F tanto para efectos principales como para la interacción.

En la tabla G del apéndice se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas planteadas por cada variable y la interacción. Posteriormente se aplica la regla de decisión que es: Fc ≥ F0  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. Esto se aplica en todas las F (pruebas de significancia del Anova) que aparecen en la tabla (efectos principales e interacción).

Estadística paramétrica

211

y) Finalmente si se encuentran diferencias significativas ya sea por los efectos principales o por la interacción, hay que calcular las medias para cada grupo (X1, X2 y X3 ) e interpretar la magnitud de las diferencias. La fórmula para calcular la media para cada grupo es:

donde: ∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo. N = Número de participantes por grupo. Ejercicio

Un investigador desea saber si hay diferencias en el grado de altruismo, dependiendo del sexo y la edad de los participantes. Los datos se presentan a continuación: Jóvenes

Adultos

Hombre

Mujer

X

2

X

X

4

16

1

9 9 10

81 81 100 ∑ X2 = 32 ∑ X12 = 278

4 5 6 ∑ X2 =16

Hombre X

X

2

1 16 25 36 ∑X22=78

3 7 7 7 ∑X3=74

Mujer 2

X

X

X2

9

4

16

49 49 49 ∑X32=156

4 4 8 ∑X4=20

16 16 64 ∑X42= 112

Para calcular el resultado de esta investigación se aplica el siguiente procedimiento: a) Plantear las hipótesis estadísticas. b) Plantear la probabilidad a la cual se comprobarán dichas hipótesis. c) Obtener la sumatoria de los puntajes para cada grupo. 212

Sofía Rivera Aragón Mirna García Méndez

d) Obtener el cuadrado de la sumatoria:

e) Elevar al cuadrado cada puntaje crudo y sumarlo:

f) Calcular el factor de corrección (FC):

g) Obtener la varianza total (SCT): SCT = 2 7 8 + 7 8 + 1 5 6 + 1 1 2 - 5 2 9 = 9 5

h) Obtener la suma de cuadrados entre los grupos (SCI):

i) Obtener la suma de cuadrados intragrupos (SCI): SCI = 9 5 - 3 5 = 6 0

;) Calcular los grados de libertad (gl) Las fórmulas para calcular los grados de libertad son: gltotal = 1 6 - 1 = 1 5 glentre 4 - 1 = 3 glintra = 1 6 - 4 = 1 2

Estadística paramétrica

213

k) Obtener la media de cuadrados entre grupos (MCE):

l) Obtener la media de cuadrados intra grupos (MCI):

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia: Tabla de procedencia

Entre Intra Total

SC

91

MC

F

35 60 95

3 12 15

11.67 5

2.33

o) Para obtener la significancia, se busca en el apéndice la tabla G de valores críticos de F, los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.

En la tabla G se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: 2.33 ≥ 3.49  H1 se rechaza.

214

Sofía Rivera Aragón Mirna García Méndez

Es decir que como la F de la fórmula es más pequeña que la de la tabla G entonces se rechaza la hipótesis alterna. Es decir, no hay diferencias entre los cuatro grupos en el nivel de altruismo. p) En este caso no se encontraron diferencias entre todos los grupos por ende no se calcularon las medias generales. q) Una vez que se calculó el análisis de varianza simple se acomodan los valores de las variables en una tabla de 2 x 2.

Sexo Edad Jóvenes

Adultos

Hombres

Mujeres

4

1

9 9 10

4 5 6

∑X1 =32

∑X2=l6

3 7 7 7

4 4 4 8

∑X3=24 ∑(C I )=56

∑X4=20 ∑(C2)=36

∑(f1)=48

∑(f2)=44

r) Una vez acomodados se obtiene la suma de cuadrados de los efectos principales de las variables en estudio. 1. Obtener la suma de cuadrados de la variable que se encuentra en las filas de la tabla (SCVf). En este ejemplo sería la edad:

2. Obtener la suma de cuadrados de la variable que se encuentra en las columnas de la tabla (SCV0). En este ejemplo sería el sexo:

Estadística paramétrica

215

s) Calcular la interacción de las variables (SCINT). La fórmula para calcular la interacción es: SC INT = 35 -25 -1 = 9 t) Calcular los grados de libertad de los efectos principales y de la interacción. glvf =2-1 = 1 (grados de libertad de la variable de las filas) glvc =2-1 = 1 (grados de libertad de la variable de las columnas) glint = (2f — 1) (2C — 1) (grados de libertad de la interacción) u) Calcular la media de cuadrados de los efectos principales y de la interacción.

v) Sustituir en la fórmula de F (prueba de significancia del Anova) tanto para efectos principales como de la interacción:

216

Sofía Rivera Aragón Mirna García Méndez

w) Construir la tabla de procedencia:

Tabla de procedencia SC

gl

MC

F

S Entre

35.0

3

11.67

2.33

Sexo Edad Sexo x Edad Dentro Total

25.0 1.0 9.0 60.0 95

1 1 1 12 15

25.0 1.0 9.0 5.0

5.0 0.20 1.80

x) Para obtener la significancia, se busca en al apéndice en la tabla G de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente y deben buscarse todos los valores de la prueba F tanto para efectos principales como para la interacción. Prueba F para el efecto principal de edad:

Prueba F para el efecto principal de sexo:

Prueba F para la interacción:

Estadística paramétrica

217

En la tabla G se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas planteadas por cada variable y la interacción. Posteriormente se aplica la regla de decisión. Efecto principal de edad: 0.20 ≤ 4.75  H1 se rechaza. Efecto principal de sexo: 5 ≥ 4.75  H1 se acepta. Efecto de la interacción: 1.80 4.75  H1 se rechaza. Es decir que como la F de la fórmula es más grande que la de la tabla G solo para el efecto principal de sexo, entonces se acepta la hipótesis alterna. y) Finalmente si se encuentran diferencias significativas ya sea por los efectos principales o por la interacción, hay que calcular las medias para cada grupo (X1 y X2) e interpretar la magnitud de las diferencias. En este caso sólo se calcula para hombres y mujeres ya que ahí es donde encontramos diferencias significativas.

Sí hay diferencias en las medias del puntaje de altruismo entre hombres y mujeres. Siendo éste más alto en los hombres. Ejercicio SPSS

Con la finalidad de conocer si existen diferencias por sexo (hombres y mujeres) y trabajo (quiénes trabajan fuera del hogar y quiénes no trabajan) en los estilos de amor (Rivera y Díaz-Loving, 2002) se aplicó un análisis de varianza de doble clasificación.

Sofía Rivera Aragón 218 Mirna García Méndez

Se plantearon las siguientes hipótesis: Efecto principal de sexo: H0 No existen diferencias estadísticamente significativas en los estilos de amor entre hombres y mujeres. H1. Sí existen diferencias estadísticamente significativas en los estilos de amor entre hombres y mujeres. Efecto principal de sexo: 1. H0 No existen diferencias estadísticamente significativas en los estilos de amor entre personas que trabajan y las que no trabajan. 2. H1. Sí existen diferencias estadísticamente significativas en los estilos de amor entre personas que trabajan y las que no trabajan. Interacción: H0 No habrá interacción entre sexo y trabajo. H1 Sí habrá interacción entre sexo y trabajo. Posteriormente una vez capturados los datos se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.

Estadística paramétrica

219

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en General Lineal Model, se da clic y aparece otro menú, se coloca el cursor en Univariate y se da clic.

Paso 3. Al hacer clic en Univariate, se abre un menú que contiene las variables de la investigación.

Paso 4. Las variables de estilos de amor se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía (dependent

220

Sofía Rivera Aragón Mirna García Méndez

variables) donde se colocan las variables dependientes y las variables de clasificación que en este caso son el sexo y el trabajo, se les coloca donde están los factores (fixed factors).

Una vez definidas las variables, se da clic en OK y se muestra el resultado del Anova de doble clasificación.13 Las tablas 36 y 37 muestran los resultados del Anova que son los que indican el valor de la prueba el nivel de significancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varianzas. Estos datos deberán ser interpretados por el investigador, de esta forma, responder a las preguntas e hipótesis de investigación.

TABLA 36 ANOVA DE DOBLE CLASIFICACIÓN Case Processing Summary Cases Included N 515

Percent 76.6

Excluded N 157

Total Percent 23.4

N

Percent

672

100.0

13 Con fines didácticos se muestran los resultados del Anova de doble clasificación, tal como los reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación.

Estadística paramétrica

221

Cell Means Amistoso

Trabajo fuera de Sexo Casa Mean

Eros

Agape

Mania

N

Mean

N

Mean

N

Mean

N

Masculino Sí

3,9194

248

3,9556

248

3,5948

248

2,9004

248

No

3,9462

15

3,8923

15

3,6867

15

2,8615

15

Total

3,9209

263

3,9520

263

3,6000

263

2,8982

263

Femenino Sí

3,9084

130

3,9183

130

3,0354

130

2,9154

130

No

3,8797

122

3,8260

122

3,2484

122

2,9224

122

Total

3,8945

252

3,8736

252

3,1385

252

2,9188

252

Total Sí

3,9156

378

3,9428

378

3,4024

378

2,9056

378

No

3,8870

137

3,8332

137

3,2964

137

2,9158

137

Total

3,9080

515

3,9137

515

3,3742

515

2,9083

515

aGrand Mean. bAmistoso, Eros,

Agape, Mania by Sexo, Trabajo fuera de casa.

Análisis factorial de varianza

Este análisis es muy similar al análisis de varianza de doble clasificación, la diferencia estriba en que aquí se puede introducir una variable dependiente o una variable de clasificación más o en su defecto cada una de las variables independientes puede tener tres o más categorías. Por ejemplo: Variable dependiente: Coeficiente intelectual Variables de clasificación: Sexo: Hombres y mujeres Clase social: Alta, media y baja El diseño sería de 2 x 3 y quedaría como sigue:

Clase social/Sexo Alta Media Baja

222

Sofía Rivera Aragón Mirna García Méndez

Hombres

Mujeres

TABLA 37 VALORES DEL ANOVA DE DOBLE CLASIFICACIÓN.

Anova Experimental Method

Mean Square

F

Slg.

Sum of Squares df Amistoso Main Effects

2-Way Interactions

Model Residual Total Main Effects

Eros

2-Way Interactions

Agape

Model Residual Total Main Effects

2-Way Interactions

Manía

Model Residual Total Main Effects

2-Way Interactions Model Residual Total aAmistoso,

(Combined)

.116

2

.058

.131

.878

Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa

.034

1

.034

.076

.783

.026

1

.026

.060

.807

.036 .152 226.996 227.148 1.375 .168

1 3 511 514 2 1

.036 .051 .444 .442 .688 .168

.080 .114

.777 .952

1.158 .282

.315 .595

.584

1

.584

.983

.322

.010 1.385 303.463 304.848 30.215 29.084

1 3 511 514 2 1

.010 .462 .594 .593 15.107 29.084

.016 .777

.898 .507

23.335 44.925

.000 .000

2.805

1

2.805

4.333

.038

.169 30.384 330.822 361.207 .055 .044

1 3 511 514 2 1

.169 10.128 .647 .703 .027 .044

.261 15.644

.609 .000

.102 .165

.903 .685

.000

1

.000

.001

.981

.024 .079 136.737 136.816

1 3 511 514

.024 .026 .268 .266

.091 .099

.763 .961

(Combined) Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa

(Combined) Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa

(Combined) Sexo Trabajo fuera de casa Sexo * Trabajo fuera de casa

Eros, Agape, Mania by Sexo, Trabajo fuera de Casa.

Estadística paramétrica

223

En este caso, cada una de las variables por separado implica el efecto principal, y la combinación, la interacción de las mismas para predecir el coeficiente intelectual. Para calcular esta prueba se aplica el siguiente procedimiento, el cual es similar al Anova de doble clasificación: a) b) c) d)

Plantear las hipótesis estadísticas. Plantear la probabilidad en la cual se comprobarán dichas hipótesis. Obtener la sumatoria de los puntajes para cada grupo (∑X ). Obtener el cuadrado de la sumatoria (∑X )2

e) Elevar al cuadrado cada puntaje crudo y sumarlo ∑ X2 f) Calcular el factor de corrección (FC). La fórmula para calcularlo es:

donde: Sumar todos los puntajes crudos de todos los. grupos y elevarlos al cuadrado. K= Número de grupos a comparar. N = Número de participantes por grupo. g) Obtener la varianza total (SCT). La fórmula para calcular la SCT es:

donde: Elevar al cuadrado cada una de las calificaciones obtenidas y sumarlas,

224

FC = Factor de corrección.

Sofía Rivera Aragón Mirna García Méndez

g)

Obtener la suma de cuadrados entre los grupos (SCE).

La fórmula para calcular la SCE es;

donde: Sumar los puntajes del primer grupo y elevarlos al cuadrado, haciendo lo mismo para todos los grupos, FC = Factor de corrección, N = número de participantes por grupo. i) Obtener la suma de cuadrados intragrupos (SCI). La fórmula para calcular la SCI es: SCI = SCT - SCE j) Calcular los grados de libertad (gl). Las fórmulas para calcular los grados de libertad son: gltotal = N - l glentre = k - l glintra = N — k

donde: N — Número total de participantes en todos los grupos, K = Número de grupos que se están comparando. l= Constante. j)

Obtener la media de cuadrados entre grupos (MCE).

La fórmula para calcular la MCE es:

k) Obtener la media de cuadrados intra grupos (MCI). La fórmula para calcular la MCI es:

Estadística paramétrica 225

m) Sustituir en la fórmula de F (prueba de significancia del Anova):

n) Construir la tabla de procedencia: Tabla de procedencia gl

SC

MC

F

Entre Intra Total

o) Para obtener la significancia, se busca en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (α ) hay una tabla independiente.

En la tabla G del apéndice, se encuentra la Fa (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas. Posteriormente se aplica la regla de decisión que es: Fc ≥ F0  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. p) Si se encuentran diferencias significativas entre los grupos hay que calcular las medias para cada grupo las diferencias.

226

Sofía Rivera Aragón Mirna García Méndez

e interpretar la magnitud de

La fórmula para calcular la media para cada grupo es:

donde: ∑ X = Sumar las puntuaciones obtenidas de la variable dependiente por separado en cada grupo. N = Número de participantes por grupo.

q) Una vez que se calculó el análisis de varianza simple se acomodan los valores de las variables en una tabla de 2 x 3. Tomando el ejemplo anterior quedaría como sigue: Variable dependiente: Coeficiente intelectual Variables de clasificación: Sexo: Hombres y mujeres Clase Social: Alta, media y baja.

Clase Social/Sexo

Hombres

Mujeres

Alta Media Baja

r) Una vez acomodados se obtiene la suma de cuadrados de los efectos principales de las variables en estudio. 1. Obtener la suma de cuadrados de la variable que se encuentra en las filas de la tabla (SCVf). En este ejemplo sería la escolaridad. La fórmula para obtenerla es:

donde: ∑ ( f 1 ) 2 = Sumar de los valores de la fila 1 y elevarlos al cuadrado. ∑ ( f 2 ) 2 = Sumar de los valores de la fila 2 y elevarlos al cuadrado. K = Número de categorías o grupos de las variables. N = Número de participantes por grupo.

FC = Factor de corrección. Estadística paramétrica

227

2. Obtener la suma de cuadrados de la variable que se encuentra en las columnas de la tabla (SCVc). En este ejemplo sería el sexo. La fórmula para obtenerla es:

donde: ∑ (c1)2= Suma de los valores de la columna 1 y elevarlos al cuadrado. ∑ (c2)2= Suma de los valores de la columna 2 y elevarlos al cuadrado.

K= Número de categorías o grupos de las variables. N= Número de participantes por grupo. FC = Factor de corrección. s) Calcular la interacción de las variables (SCINT). La fórmula para calcular la interacción es: SCINT = SCE - SCVf - SCVc donde: SCVf = Suma de cuadrados de la variable que se encuentra en las filas. SCVc = Suma de cuadrados de la variable que se encuentra en las columnas. SCE = Suma de cuadrados entre grupos. t) Calcular los grados de libertad de los efectos principales y de la interacción. glVf = K - l (grados de libertad de la variable de las filas) glvc = K - l (grados de libertad de la variable de las columnas) glint = (Kc- l) (Kc - l) (grados de libertad de la interacción)

donde: k = Número de categorías o grupos de la variable en estudio. l= constante.

228

Sofía Rivera Aragón Mirna García Méndez

u) Calcular la media de cuadrados de los efectos principales y de la interacción. (media de cuadrados de la variable de las filas) (media de cuadrados de la variable de las columnas) (media de cuadrados de la interacción)

v) Sustituir en la fórmula de F (prueba de significancia del Anova) tanto para efectos principales como de la interacción: (prueba f para la variable de las filas) (prueba f para la variable de las columnas) (prueba f para la variable de la interacción) w) Construir la tabla de procedencia:

Tabla de procedencia SC

gl

MC

F

Entre Filas Columnas Interacción Intra Total

x) Para obtener la significancia, se busca en la tabla de valores críticos de F los grados de libertad entre grupos en la parte horizontal de la tabla y los grados de libertad intragrupos en la parte vertical. Para cada probabilidad (a) hay una tabla independiente y deben buscarse todos los valores de la prueba F, tanto para efectos principales como para la interacción.

Estadística paramétrica

229

En la tabla G del apéndice se encuentra la F0 (valor de la F observada) que permite rechazar y aceptar las hipótesis estadísticas planteadas por cada variable y la interacción. Posteriormente se aplica la regla de decisión que es: Fc ≥ F0  H1 se acepta. Es decir que como la F de la fórmula es más grande que la de la tabla G, entonces se acepta la hipótesis alterna. Esto se aplica en todas la "F' (pruebas de significancia del Anova) que aparecen en la tabla (efectos principales e interacción). y) Finalmente, si se encuentran diferencias significativas, ya sea por los efectos principales o por la interacción, hay que calcular las medias para cada grupo

e interpretar la magnitud de las diferencias.

La fórmula para calcular la media para cada grupo es:

donde: ∑ X = Suma las puntuaciones obtenidas de la variable dependiente por

separado en cada grupo N = Número de participantes por grupo. Ejercicio

Un fabricante de medicinas ha producido una medicina para el pie de atleta que puede tomarse en forma de píldoras. Cuando la compañía somete los resultados de sus investigaciones referentes a la medicina, a la asociación de comida y medicamentos, la solicitud es

230

Sofía Rivera Aragón Mirna García Méndez

objetada. Un químico del gobierno nota que la fórmula para la nueva medicina y la de las tabletas de sal son muy similares. Sospechándose la posibilidad de efectos secundarios tales como sed exagerada, hace que se mantenga en espera la solicitud hasta una nueva investigación experimental. El problema que deben resolver los químicos de la compañía, en este momento, no es que las pastillas curen o no el pie de atleta, sino el ver si estas pastillas causan mucha sed a las personas. Se realizó un nuevo experimento para poner a prueba la hipótesis de que el gobierno está equivocado en su apreciación. Tres condiciones (niveles) son usadas para representar cada una de las magnitudes del problema. Una de las dimensiones es la cantidad de la nueva droga que toma el paciente, y los tres niveles son designados: 0 unidades 1 unidades 4 unidades Debido a que antes se había observado que la eficiencia del medicamento varía con la edad del consumidor, una segunda dimensión, la edad, fue usada en el diseño y sus niveles fijados a los: 20 años 40 años 60 años La variable dependiente, medida de la respuesta de la sed, es el número de vasos de agua que el sujeto dice haber bebido en el día del experimento. Se usan dos personas en cada una de las nueve celdillas del diseño. Los participantes con 0 medicamentos tomaron un placebo (píldora de azúcar). No se les dijo a los participantes el propósito del experimento hasta que terminó el día. Los datos de los 18 participantes en los nueve grupos, pueden verse en la siguiente tabla:

Estadística paramétrica 231

CALIFICACIONES DEL EXPERIMENTO CON MEDICAMENTOS

Dosis 4 unidades

2 unidades

0 unidades

Edad 20

Edad 40

Edad 60

6

4

2

4 ∑X1=10 2 4 ∑X4 =6 1 0 ∑X7 =1 ∑C1 =17

3 ∑X2=7 2 3 ∑X5=5 2 1 ∑X8 =3 ∑C2 =15

1 ∑X3=3 2 2 ∑X6 =4 5 4 ∑X9=9 £ c3= 16

∑f1=20

∑f2=15

∑f4=13 £ total 48

Hay N = 2 participantes por celdilla, cada celdilla representa una combinación particular de dos dimensiones del diseño. El procedimiento a seguir es el mismo, lo único que cambia es el número de categorías en las variables. TABLA DE PROCEDENCIA FINAL EN EL EXPERIMENTO DEL ANÁLISIS DE MEDICAMENTO Fuente de Variación

se

gi

MC

F

Intergrupos Medicamento (M) Edad (E) MxE Intragrupos (error) Total

35.00 4.33 .33 30.33 7.00 42.00

8 2 2 4 9 17

4.37 2.17 0.17 7.58 0.78

5.60 2.78 0.22 9.72*

* P ≤ .05.

En este caso no hubo diferencias por efectos principales, solo en la interacción ya que de acuerdo a la regla de decisión la razón, F de tablas es: 4.26 para llegar al nivel de significancia de 0.05 con 2 y 9 gl. De acuerdo con la regla de decisión 9.72 > 4.26

 H1 se acepta, es decir hay una interacción entre el

medicamento y la edad para predecir el consumo de vasos de agua.

232

Sofía Rivera Aragón Mirna García Méndez

Ejercicio SPSS

Con la finalidad de conocer si existen diferencias entre hombres y mujeres y por ocupación en el estilo autoritario y el estilo laissez faire, así como si estas dos variables interactúan para predecir estos estilos (Cruz, 2002) se aplicó el Anova factorial. Se plantearon las siguientes hipótesis: Efecto principal sexo: Ho No existen diferencias estadísticamente significativas en los estilos de poder entre hombres y mujeres. H1. Sí existen diferencias estadísticamente significativas en los estilos de poder entre hombres y mujeres. Efecto principal ocupación: Ho No existen diferencias estadísticamente significativas en los estilos de poder de acuerdo con la ocupación del participante. H1. Sí existen diferencias estadísticamente significativas en los estilos de poder de acuerdo con la ocupación del participante. Interacción: Ho. No habrá interacción entre sexo y ocupación. H1. Habrá interacción entre sexo y ocupación. Posteriormente una vez capturados los datos, se siguieron los pasos que a continuación se encuentran: Paso 1. Se coloca el cursor en Analyze y se da clic en el botón izquierdo del mouse.

Estadística paramétrica

233

Paso 2. Al hacer clic en Analyze, aparece un menú en el que se coloca el cursor en General Lineal Model se da clic y aparece otro menú, se coloca el cursor en Univariate y se da clic.

Sofía Rivera Aragón

234 Mirna García Méndez

Paso 3. Al hacer clic en Univariate, se abre un menú que contiene las variables de la investigación.

Paso 4. Las variables de estilos de poder se marcan con el cursor, se da clic en el icono que está entre las variables de estudio y la siguiente ventana. Se pasan las variables seleccionadas a la ventana vacía (dependent variables) donde se colocan las variables dependientes y la variable de clasificación que en este caso son el sexo y la ocupación, se les coloca donde están los factores (fixed factores).

Estadística paramétrica

235

Una vez definidas las variables, se da clic en OK y se muestra resultado del Anova

factorial.14

el

La tabla 38 muestra los resultados

del Anova que son los que indican el valor de la prueba, el nivel de signiTABLA 38 ANOVA FACTORIAL

Case Processing Summary Cases Included N Percent

N

269

28

90.6

Excluded Percent 9.4

N 297

Total Percent 100.0

Cell Means Sexo

Ocupación

Stiauto

N

Mean Masculino

Femenino

Total

a

1

3.5235

17

2 3 4 5 Total 1 2 3 4 5 Total 1 2 3 4 5 Total

3.8440 3.7089 3.5907 3.7708 3.6972 3.8222 3.8385 4.0524 3.8395 3.8848 3.8822 3.7068 3.8409 3.9326 3.7480 3.8368 3.8093

25 15 25 24 106 27 32 28 43 33 163 44 57 43 68 57 269

Grand Mean Stiauto by Sexo, Ocupación.

b

14

Con fines didácticos se muestran los resultados del Anova simple, tal como los

reporta el SPSS, sin embargo, nunca se presentan así en un reporte de investigación. Sofía Rivera Aragón 236 Mirna García Méndez

Anova Experimental Method Sum of Squares df

Stiauto Main Effects

(Combined)

2-Way Interactions Model Residual Total a

Mean Square

F

Sig.

3,690

5

,738

1,438

,211

Sexo 2,220 Ocupación 1,491 Sexo * Ocupación 1,024 4,714 132,928 137,642

1 4 4 9 259 268

2,220 ,373 ,256 ,524 ,513 ,514

4,325

,039 ,575 ,737 ,424

726

,499 1,021

Stiauto by Sexo, Ocupación

ficancia, el número de participantes considerados para el análisis, así como los grados de libertad y el valor de la diferencia entre varianzas. Estos datos deberán ser interpretados por el investigador, y de esta forma, responder a las preguntas e hipótesis de investigación. Reporte de investigación del análisis factorial de varianza

Para poder comprobar las hipótesis que se plantearon de si existen diferencias por sexo y ocupación (variables de clasificación), así como en la interacción de las mismas (sexo por ocupación), con respecto a los factores de la escala estilos de poder (variables dependientes) se aplicó un análisis factorial de varianza (Cruz, 2002). A continuación se mostrarán dos ejemplos referentes al análisis realizado: en el primer ejemplo (factor autoritario) se muestran una interacción significativa entre las variables de sexo por ocupación. En el segundo ejemplo (factor laissez faire) se muestra un efecto principal por ocupación y una interacción significativa. De acuerdo con la tabla 39, podemos observar que para el factor autoritario se encuentra una interacción significativa, en la que los hombres que se perciben como más ásperos, violentos y bruscos son los

empleados

con

profesión,

observando que la media más baja

Estadística paramétrica

237

la reportan los estudiantes. Sin embargo, todas las medias se observan por debajo de la media teórica. Mientras que las mujeres que se perciben como más ásperas y violentas son las empleadas con carrera técnica, la media más baja se observa en las empleadas con profesión. Cabe resaltar que todas las medias se encuentran por debajo de la media teórica. Con respecto a los efectos principales por sexo y ocupación no se presentaron diferencias significativas (véase tabla 39).

TABLA 39 ANÁLISIS DE VARIANZA PARA EL FACTOR AUTORITARIO

Media Media Autoritario

Teórica

Hombres 2.81 Ocupación

Mujeres 2.94

Empl. Prof. 2.88 interacción

Empl. Carr.Téc 3.06

Empleado c/ Profesión Empleado c/ Carrera Técnica Empleado c/ Oficio Estudiantes Hogar *p

F

P

Sexo

Empl. Oficio 3.26

Estud. Hogar 2.83 2.69

Hombres

Mujeres

3.00

2.71

2.96 2.83 2.42 -

3.11 2.87 3.04

4

.986

.322

4

.691

.599

4

3.263

.022*

≤ 0.05.

Con respecto al factor laissez faire, los resultados mostraron un efecto principal por ocupación y en la interacción. Los estudiantes se perciben como más permisivos y abiertos. La media más baja en este factor se encuentra en los empleados con carrera técnica, no obstante esta diferencia, todos los grupos se encuentran por arriba de la media teórica.

238

Sofía Rivera Aragón Mirna García Méndez

Con respecto a la interacción en este mismo factor, se observa que los hombres que se perciben como más liberales, permisivos y comprometidos, son los empleados con oficio. La media más baja para el grupo de los hombres, fue reportada por los empleados con profesión, sin embargo, pese a esta diferencia, todas las medias están por debajo de la media teórica. Las mujeres que se perciben como más abiertas, liberales y comprometidas son las estudiantes. La media más baja se encuentra en el grupo de las empleadas con oficio, no obstante esta diferencia, todas las medias se encuentran por arriba de la media teórica. Finalmente en los efectos principales por sexo no existieron diferencias significativas (véase tabla 40).

TABLA 40 ANÁLISIS DE VARIANZA PARA EL FACTOR LAISSES FAIRE

Media Laisses

Sexo

Faire

Hombres

Mujeres

5.37 Ocupación

5.25

Empl. Prof. 5.24 Interacción

Empl. Carr.Téc. 4.92

Media teórica

F

P

4

1.067

.303

Hogar 5.00 4

3.92

.004**

4

3.80

.011*

Empl. Oficio 5.10 Hombres

Estud. 5.53 Mujeres

Empleado c/

*p ≤

Profesión Empleado c/

5.22

5.26

Carrera Técnica Empleado c/ Oficio

5.51 5.75

4.59 4.66

Estudiantes Hogar

5.45

5.57 -

0.05, **p

-

≤ 0.01.

Estadística paramétrica 239

Apéndice

Tabla A VALORES CRÍTICOS DE CHI CUADRADA

gl

Probabilidad conforme a H0 de que X2 ≥ chi cuadrada .99 .98

.95

.90

.80 .70

.50

.30

.20

.10

.05

.02

.01

.001

1

.00016. .00003 .0039

.016

.064

.15

.46

1.07

1.64

2.71

3.84

5.41

6.64

10.83

2

.02

.04

.10

.21

.45

.71

1.39

2.41

3.22

4.60

5.99

7.82

9.21

13.82

3

.12

.18

.35

.58

1.00

1.42

2.37

3.66

4.64

6.25

7.82

9.84

11.34

16.27

4

.30

.43

.71

1.06

1.65

2.20

3.36

4.88

5.99

7,78

4.49

11.67

13.28

18.46

5

.55

.75

1.14

1.61

2.34

3.00

4.35

6.06

7.29

9.24

11.07

13.39

15.09

20.52

10.64

12.59

15.03

16.81

22.46

14.07

16.62

18.48

24.32

15.51

18.17

20.09

26.12

6 7

.87

1.13

1.64

2.20

3.07

3.83

5.35

7.23

8.56

1.24

1.56

2.17

2.83

3.82

4.67

6.35

8.38

9.80

8

1.65

2.03

2.73

3.49

4.59

5.53

7.34

9.52

11.03

12..02 13.36

9

2.09

2.53

3.32

4.17

5.38

6.39

8.34

10.66

12.24

14.68

16.92

19.68

21.67

27.88

10

2.56

3.06

3.94

4.86

6.18

7.27

9.34

11.78

13.44

15.99

18.31

21.16

23.21

29.59

11

3.05

3.61

4.58

5.58

6.99

8.15

10.34

12.90

14.63

17.28

19.68

22.62

24.72

31.26

12

3.57

4.18

5.23

6.30

7.81

9.03

11.34

14.01

15.81

18.55

21.03

24.05

26.22

32.91

13

4,11

4.76

5.89

7.04

8.63

9.93

12.34

15.12

16.98

19.81

22.36

25.47

27.69

34.53

14

4.66

5.37

6.57

7.79

9.47

10.82

13.34

16.22

18.15

21.06

23.68

26.87

29.14

36.12

15

5.23

5.98

7.26

8.55

10.31

11.72

14.34

17.32

19.31

22.31

25.00

28.26

30.58

37.70

16

5.81

6.61

7.96

9.31

11.15

12.62

15.34

18.42

20.46

23.54

26.30

29.63

32.00

39.29

17

6,41

7.26

8.67

10.08

12.00

13.53

16.34

19.51

21.62

24.77

27.59

31.00

33.41

40.75

18

7.02

7.91

9.39

10.86

12.86

14.44

17.34

20.60

22.76

25.99

28.87

32.35

34.80

42.31

19

7.63

8.57

10.12

11.65

13.72

15.35

18.34

21.69

23.90

27.20

30.14

33.69

36.19

43.82

20

8.26

9.24

10.85

12.44

14.58

16.27

19.34

22.78

25.04

28.41

31.41

35.02

37.57

45.32

21

8.90

9.92

11.59

13.24

15.44

17.18

20.34

23.86

26.17

29.62

32.67

36.34

38.93

46.80

22

9.54

10.60

12.34

14.04

16.31

18.10

21.24

24.94

27.30

30.81

33.92

37.66

40.29

48.27

23

10.20

11.29

13.09

14.85

17.19

19.02

22.34

26.02

28.43

32.01

35.17

38.97

41.64

49.73

24

10.86

11.99

13.85

15.66

18.06

19.94

23.34

27.10

29.55

33.20

36.42

40.27

42.98

51.18

25

11.52

12.70

14.61

16.47

18.94

20.87

24.34

28.17

30.68

34.38

37.65

41.57

44.31

52.62

26

12,20

13.41

15.38

17.29

19.82

21.79

25.34

29.25

31.80

35.56

38.88

42.86

45.64

54.05

27

12.88

14.12

16.15

18.11

20.70

22.72

26.34

30.32

32.91

36.74

40.11

44.14

46.96

55.48

28

13.56

14.85

16.93

18.94

21,59

23.65

27.34

31.39

34.03

37,92

41.34

45.42

48.28

56.89

29

14.26

15.57

17.71

19.77

22.48

24.58

28.34

32.46

35.14

39.09

42.56

46.69

49.59

58.80

30

14.95

16.31

18.49

20.60

23.36

25.51

29.34

33.53

36.25

40.26

43.77

47.96

50.89

59.70

Fuente: S. Siegal y N.J. Castelan (2003), Estadística no paramétrica. Aplicada a las ciencias de la conducta, 3a. reimp., México, Trillas.

T ABLA B TABLA DE VALORES CRÍTICOS DE T EN LA PRUEBA DE LOS RANGOS SEÑALADOS DE PARES IGUALADOS DE WILCOXON

Nivel de significación para prueba de una cola .025 .01 Nivel de significación para prueba N

.05

6

0

7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

2 4 6 8 11 14 17 21 25 30 35 40 46 52 59 66 73 81 89

.005 de dos colas

.02

.01

~

_

0 2 3 5 7 10 13 16 20 24 28 33 38 43 49 56 62 69 77

-

0 2 3 5 7 10 13 16 20 23 28 32 38 43 49 55 61 68

Fuente: N.M. Downie y R.W Heat (1973), Métodos estadísticos aplicados, México, Harla.

244

Sofía Rivera Aragón Mirna García Méndez

T ABLA C VALORES CRÍTICOS DE U DE MANN WHITNEY. Valores críticos de U en un contraste unilateral al .005 y en un contraste bilateral al .002 n1

1 2 3 4 5 6 7 3 9 10 11 12 13 14 15 16 17 18 19 20

n2 9

1 2 3 5 7 7 10 12 14 15 17 19 21 23 25 26

10

11

0 1 3 5 5 8 10 12 14 17 19 21 23 25 27 29 32

0 2 4 6 8 10 12 15 17 20 22 24 27 29 32 34 37

12

13

14

15

16

17

18

19

20

0 2 4 7 9 12 14 17 20 23 25 28 31 34 37 40 42

1 3 5 8 11 14 17 20 23 26 29 32 35 38 42 45 48

1 3 6 9 12 15 19 22 25 29 32 36 39 43 46 50 54

1 4 7 10 14 17 21 24 28 32 36 40 43 47 51 55 59

2 5 8 11 15 19 23 27 31 35 39 43 48 52 56 60 65

0 2 5 9 13 17 21 25 29 34 38 43 47 52 57 61 66 70

0 3 6 10 14 18 23 27 32 37 42 46 51 56 61 66 71 76

0 3 7 11 15 20 25 29 34 40 45 50 55 60 66 71 77 82

0 3 7 12 16 21 26 32 37 42 48 54 59 65 70 76 82 88

Valores críticos de U en un contraste unilateral al .01 y en un contraste bilateral al .02 n1

1 2 3 4 5 6 7 3 9

n2 9

10

11

1 3 5 7 9 11 14

1 3 6 8 11 13 16

1 4 7 9 12 15 18

12

2 5 8 11 14 17 21

13

14

15

16

17

18

19

20

0 2 5 9 12 16 20 23

0 2 6 10 13 17 22 26

0 3 7 11 15 19 24 28

0 3 7 12 16 21 26 31

0 4 8 13 18 23 28 33

0 4 9 14 19 24 30 36

1 4 9 15 20 26 32 38

1 5 10 16 22 28 34 40

Apéndice

245

TABLA C (Continuación) n2 n1

9

10

11

12

13

14

15

16

17

18

19

20

10

16

19

22

24

11

30

33

36

38

41

44

47

11 12 13 14 15 16 17 18 19 20

18 21 23 26 28 31 33 36 38 40

22 24 27 30 33 36 38 41 44 47

25 28 31 34 37 41 44 47 50 53

28 31 35 38 42 46 49 53 56 60

31 35 39 43 47 51 55 59 63 67

34 38 43 47 51 56 60 65 69 73

37 42 47 51 56 61 66 70 75 80

41 46 51 56 61 66 71 76 82 87

44 49 55 60 66 71 77 82 88 93

47 53 59 65 70 76 82 88 94 100

50 56 63 69 75 82 88 94 101 107

53 60 67 73 80 87 93 100 107 114

Fuente: N.M. Downie y R.W. Heat (1973), Métodos estadísticos aplicados. México, Harla.

Valores críticos de U en un contraste unilateral al .025 y en un contraste bilateral al .05 n2 n1

9

10

11

12

13

14

0

0

0

1

1

1

2 4 7 10 12 15 17 20 23 26 28 31 34 37 39 42 45 48

3 5 8 11 14 17 20 23 26 29 33 36 39 42 45 48 52 55

3 6 9 13 16 19 23 26 30 33 37 40 44 47 51 55 58 62

4 7 11 14 18 22 26 29 33 37 41 45 49 53 57 61 65 69

4 8 12 16 20 24 28 33 37 41 45 50 54 59 63 67 72 76

5 9 13 17 22 26 31 36 40 45 50 55 59 64 67 74 78 83

15

16

1

1

17

18

19

20

2

2

2

7 12 18 24 30 36 42 48 55 61 67 74 80 86 93 99 106 112

7 13 19 25 32 38 45 52 58 65 72 78 85 92 99 106 113 119

8 13 20 27 34 41 48 55 62 69 76 83 90 98 105 112 119 127

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

246

Sofía Rivera Aragón Mirna García Méndez

5 10 14 19 24 29 34 39 44 49 54 59 64 70 75 80 85 90

6 11 15 21 26 31 37 42 47 53 59 64 70 75 81 86 92 98

2 6 11 17 22 28 34 39 45 51 57 63 67 75 81 87 93 99 105

Valores críticos de U en un contraste unilateral al .05

y en un contraste bilateral al. 10 ni

n2

10

11

12

13

14

15

16

1 4 7 11 14 17 20 24 27 31 34 37 41 44 48 51 55 58 62

1 5 8 12 16 19 23 27 31 34 38 42 46 50 54 57 61 65 69

2

2 6 10 15 19 24 28 33 37 42 47 51 56 61 65 70 75 80 84

2 7 11 16 21 26 31 36 41 46 51 56 61 66 71 77 82 87 92

3 7 12 18 23 28 33 39 44 50 55 61 66 72 77 83 88 94 100

17

18

3 9 15 20 26 33 39 45 51 57 64 70 77 83 89 96 102 109 115

4 9 16 22 28 35 41 48 55 61 68 75 82 88 95 102 109 116 123

19

20

0

0

4 10 17 23 30 37 44 51 58 65 72 80 87 94 101 109 116 123 130

4 11 18 25 32 39 47 54 62 69 77 84 92 100 107 115 123 130 138

9 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 3 6 9 12 15 18 21 24 27 30 33 36 39 42 45 48 51 54

5 9 13 17 21 26 30 34 38 42 47 51 55 60 64 68 72 77

3 8 14 19 25 30 36 42 48 54 60 65 71 77 83 89 95 101 107

Tabla D TABLA DE PROBABILIDADES ASOCIADAS CON VALORES TAN GRANDES COMO VALORES OBSERVADOS DE H EN EL ANÁLISIS DE VARIANZA DE UNA CLASIFICACIÓN POR RANGOS DE KRUSKAL WALLIS

Tamaño de muestras

H

n3

Tamaño de muestras

n1

n2

p

2

1

1

2.7000

.500

2 2

2 2

1 2

3 3

1 2

1 1

3

2

2

3.6000 4.5714 3.7143 3.2000 4.2857 3.8571 5.3572

.200 .067 .200 .300 .100 .133 .029

n1 4

4

n2

n3

3

2

3

3

H

P

6.4444

.008

6.3000 5.4444 5.4000 4.5111 4.4444 6.7455 6.7091

.011 .046 .051 .098 .102 .010 .013

Apéndice

247

TABLA D (Continuación)

Tamaño de muestras n1

3

3

3

n2

3

3

3

H

P

n3

1

2

3

Tamaño de muestras n1

n2

H

P

5.7909

.046

n3

4.7143

.048

4.5000

.067

5.7273

.050

4.4643

.105

4. 7091

.092

5.1429

.043

4.7000

.101

4.5714

.100

6.6667

.010

4.0000

.129

6. 1667

.022

6.2500

.011

4.9667

.048

5.3611

.032

4.8667

.054

5.1389

.061

4.1667

.082

4.5556

.100

4.0667

.102

4.2500

.121

7.0364

.006

7.2000

.004

6.8727

.011

6.4889

.011

5.4545

.046

5.6889

.029

5.2364

.052

5.6000

.050

4.5545

.098

5.0667

.086

4.4455

.103

4.6222

.100

7.1439

.010

4

4

4

4

4

4

1

2

3

4

1

1

3.5714

.200

7.1364

.011

4

2

1

4.8214

.057

5.5985

.049

4.5000

.076

5.5758

.051

4.0179

.114

4.5455

.099

6.0000

.014

4.4773

.102

5.3333

.033

7.6538

.008

5.1250

.052

7.5385

.011

4.4583

.100

5.6923

.049

4.1667

.105

5.6538

.054

5.8333

.021

4.6539

.097

5.2083

.050

4.5001

.104

5.0000

.057

5

1

1

3.8571

.143

4.0556

.093

5

2

1

5.2500

.036

3.8889

.129

5.0000

.048

4.4500

.071

4.2000

.095

4.0500

.119

7.7604 7.7440

.009 .011

4

4

5

2

3

2

2

1

2

Sofía Rivera Aragón 248 Mirna García Méndez

4

5

4

4

4

6.5333 6.1333

.008 .013

4

5.1600

.034

5.6571

.049

5.0400

.056

5.6176

.050

4.3733

.090

4.6187

.100

Tamaño de muestras n1

n2

n3

5

3

1

5

3

2

5

5

5

5

3

4

4

4

3

1

2

3

H

P

4.2933

.122

6.4000 4.9600 4.8711 4.0178 3.8400 6.9091 6.8218 5. 2509 5.1055 4.6509 4.4945 7.0788 6.9818 5.6485 5.5152 4.5333 4.4121 6.9545 6.8400 4.9855 4.8600 3.9873 3.9600 7.2045 7.1182 5.2727 5.2682 4.5409 4.5182 7.4449 7.3949 5.6564 5.6308 4,5487 4.5231

.012 .048 .052 .095 .123 .009 .010 ,049 .052 .091 .101 .009 .011 .049 .051 .097 .109 .008 .011 .044 .056 .098 .102 .009 .010 .049 .050 .098 .101 .010 .011 .049 .050 .099 .103

Tamaño de muestras n1

n2

n3

5

5

1

5

5

2

5

5

3

5

5

4

5

5

5

H

P

4,5527

.102

7.3091 6.8364 5.1273 4.9091 4.1091 4.0364 7.3385 7.2692 5.3385 5.2462 4.6231 4.5077 7.5780 7.5429 5.7055 5.6264 4.5451 4.5363 7.8229 7.7914 5.6657 5.6429 4.5229 4.5200 8.0000 7.9800 5.7800 5.6600 4.5600 4.5000

.009 .011 .046 .053 .086 .105 .010 .010 .047 .051 .097 .100 .010 .010 .046 .051 .100 .102 .010 .010 .049 .050 .099 .101 .009 .010 .049 .051 .100 .102

Fuente: S. Siegal y N.J Castelan (2003), Estadística no paramétrica. Aplicada a las ciencias de la conducta, 2a. ed., 3a. reimp., México, Trillas.

Apéndice 249

T ABLA E VALORES CRÍTICOS DE R Valores de r al nivel de confianza de 0.05 y 0.01

gl

.05

.01

1

.99692

.999877

2 3 4 5 ó 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 40 45 50 60 70 80 90

.95000 .8783 .8114 .7545 .7067 .6664 .6319 .6021 .5760 .5529 .5324 .5139 .4973 .4821 .4683 .4555 .4438 .4329 .4227 .3809 .3494 .3246 .3044 .2875 .2732 .2500 .2319 .2172 .2050

.990000 .95873 .91720 .8745 .8343 .7977 .7646 .7348 .7079 .6835 .6614 .6411 .6226 .6055 .5897 .5751 .5614 .5487 .5368 .4869 .4487 .4182 .3932 .3721 .3541 .3248 .301 7 .2830 .2673

Fuente: I. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a. ed., México, Oxford.

250

Sofía Rivera Aragón Mirna García Méndez

T ABLA F VALORES CRÍTICOS DE T Valores de t al nivel de confianza de 0.05 y 0.01

gi

.05

.01

i

12.706

63.657

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120

4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.021 2.000 1.980 1.960

9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.704 2.660 2.617 2.576

OO

Fuente: J. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social. 2a. ed., México, Oxford.

Apéndice

251

T ABLA G VALORES CRÍTICOS DE E Valores de F al nivel de confianza de .05 y .01

gl

1

2

3

4

5

6

8

12

(gl para el numerador) P = .05 (gl para el 1 denominador) 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 OO

161.4 199.5 18.51 19.00 10.13 9.55 7.71 6.94 6.61 5.79 5.99 5.14 5.59 4.74 5.32 4.46 5.12 4.26 4.96 4.10 4.84 3,98 4.75 3.88 4.67 3.80 4.60 3.74 4.54 3.68 4.49 3.63 4.45 3.59 4.41 3.55 4.38 3.52 4.35 3.49 4.32 3.47 4.30 3.44 4.28 3.42 4.26 3.40 4.24 3.38 4.22 3.37 4.21 3.35 4.20 3.34 4.18 3.33 4.17 3.32 4.08 3.23 4.00 3.15 3.92 3.07 3.84 2.99

215.7 19.16 9.28 6.59 5.41 4.76 4.35 4.07 3.86 3.71 3.59 3.49 3.41 3.34 3.29 3.24 3.20 3.16 3.13 3.10 3.07 3.05 3.03 3.01 2.99 2.98 2.96 2.95 2.93 2.92 2.84 2.76 2.68 2.60

224.6 19.25 9.12 6.39 5.19 4.53 4.12 3.84 3.63 3.48 3.36 3.26 3.18 3.11 3.06 3.01 2.96 2.93 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.73 2.71 2.70 2.69 2.61 2.52 2.45 2.37

230.2 19.30 9.01 6.26 5.05 4.39 3.97 3.69 3.48 3.33 3.20 3.11 3.02 2.96 2.90 2,85 2.81 2.77 2.74 2.71 2.68 2.66 2.64 2.62 2.60 2.59 2.57 2.56 2.54 2.53 2.45 2.37 2,29 2.21

234. 19.3 8,94 6.16 4.95 4.28 3,87 3.58 3.37 3.22 3.09 3.00 2.92 2.85 2.79 2.74 2.70 2.66 2.63 2.60 2.57 2.55 2.53 2.51 2.49 2.47 2.46 2.44 2.43 2.42 2.34 2.25 2.17 2.09

238.9 19.37 8.84 6.04 4.82 4.15 3.73 3.44 3.23 3.07 2.95 2,85 2,77 2.70 2.64 2.59 2.55 2.51 2.48 2.45 2.42 2.40 2,38 2.36 2.34 2.32 2.30 2.29 2.28 2.27 2.18 2.10 2.02 1.94

243.9 19.41 8.74 5.91 4.68 4.00 3.57 3,28 3.07 2.91 2.79 2.69 2.60 2.53 2.48 2.42 2.38 2.34 2,31 2,28 2.25 2.23 2.20 2.18 2.16 2.15 2.13 2.12 2,10 2.09 2.00 1.92 1.83 1.75

Fuente: J. Levin y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a. ed., México, Oxford.

252

Sofía Rivera Aragón Mirna García Méndez

gl

1

2

3

4

5

6

8

12

(gl para el numerador) P = .01 (gl para el 1 denominador) 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 OO

4052 98.49 34.12 21.20 16.26 13.74 12.25 11.26 10.56 10.04 9.65 9.33 9.07 8.86 8.68 8.53 8.40 8.28 8.18 8.10 8.02 7.94 7.88 7.82 7.77 7.72 7.68 7.64 7.60 7.56 7.31 7.08 6.85 6.64

4999 5403 99.01 99.17 30.81 29.46 18.00 16.69 13.27 12.06 10.92 9.78 9.55 8.45 8.65 7.59 8.02 6.99 7.56 6.55 7.20 6.22 6.93 5.95 6.70 5.74 6.51 5.56 6.36 5.42 6.23 5.29 6.11 5.18 6.01 5.09 5.93 5.01 5.85 4.94 5.78 4.87 5.72 4.82 5.66 4.76 5.61 4.72 5.57 4.68 5.53 4.64 5.49 4.60 5.45 4.57 5.42 4.54 5.39 4.51 5.18 4.31 4.98 4.13 4.79 3.95 4.60 3.78

5625 5764 99.25 99.30 28.71 28.24 15.98 15.52 11.39 10.97 9.15 8.75 7.85 7.46 7.01 6.63 6.42 6.06 5.99 5.64 5.67 5.32 5.41 5.06 5.20 4.86 5.03 4.69 4.89 4.56 4.77 4.44 4.67 4.34 4.58 4.25 4.50 4.17 4.43 4.10 4.37 4.04 4.31 3.99 4.26 3.94 4.22 3.90 4.18 3.86 4.14 3.82 4.11 3.78 4.07 3.75 4.04 3.73 4.02 3.70 3.83 3.51 3.65 3.34 3.48 3.17 3.32 3.02

5859 5981 6106 99.33 99.36 99.42 27.91 27.49 27.05 15.21 14.80 14.37 10.67 10.27 9.89 8.47 8.10 7.72 7.19 6.84 6.47 6.37 6.03 5.67 5.80 5.47 5.11 5.39 5.06 4.71 5.07 4.74 4.40 4.82 4.50 4.16 4.62 4.30 3.96 4.46 4.14 3.80 4.32 4.00 3.67 4.20 3.89 3.55 4.10 3.79 3.45 4.01 3.71 3.37 3.94 3.63 3.30 3.87 3.56 3.23 3.81 3.51 3.17 3.76 3.45 3.12 3.71 3.41 3.07 3.67 3.36 3.03 3.63 3.32 2.99 3.59 3.29 2.96 3.56 3.26 2.93 3.53 3.23 2.90 3.50 3.20 2.87 3.47 3.17 2.84 3.29 2.99 2.66 3.12 2.82 2.50 2.96 2.66 2.34 2.80 2.51 2.18

Apéndice

253

Bibliografía

ÁLVAREZ CÁCERES, R. (1995), Estadística multivariante y no paramétrica con SPSS. Aplicación

a las ciencias de la salud, España, Ediciones Díaz de Santos. BARRAGÁN, L., J. Benavides, A.M. Brugman y E. Lucio (1988), "El uso del wais y

wisc en psicología clínica", en Programa de Publicaciones de Material Didáctico. Evaluación de la Personalidad, unidad n. Universidad Nacional Autónoma de México, Facultad de Psicología. CAÑETAS, S. Rivera y R. Díaz-Loving (2000), "Desarrollo de un instrumento

multidimensional de satisfacción marital", La Psicología Social en México, viii, pp. 266-274. CLARK-CARTER, D. (2002), Investigación cuantitativa en psicología, México, Oxford. CONOVER, W.J. (1980), Practical Nomparametric Statistics, 2a. ed., Nueva York, John

Wiley & Sons. CORTÉS, S., D. Reyes, R. Díaz-Loving, S. Rivera y J. Monjaraz (1994), "Elaboración

y análisis psicométrico del inventario multifacético de satisfacción marital (IMSM)". La Psicología Social en México,

v, pp. 123-130.

CRUZ del C., C. (2002), Autoconcepto y estilos de poder en la pareja, tesis de licenciatura,

Facultad de Psicología, UNAM. DÍAZ-LOVING, R. (1999), "Una teoría bio-psico-socio-cultural de la relación de

pareja", en R. Díaz-Loving (comp.), Antología psicosocial de la pareja, México, Asociación Mexicana de Psicología Social, Miguel Ángel Porrúa. DOLLAR, J., L. Doob, N.E. Miller, O.H. Mowrer y R.R. Sears (1939), Frustratation and

Agression, Newhaven, Yale University Press. DOWNIE, N.M, y R.W Heath (1973), Métodos estadísticos aplicados, México, Haría. KERLINGER, EN. y H.B. Lee (2001), Investigación del comportamiento. Métodos de

investigación en ciencias sociales, 4a. ed., México, McGraw-Hill.

257

NUNNALLY, J.C. e I.J. Bernestein (1995), Teoría psicométríca, 3a. ed., México,

McGraw-Hill. LEVIN, J. y W.C. Levin (2002), Fundamentos de estadística en la investigación social, 2a.

ed., México, Oxford. Pavaan, C.G. (2004), Actitud hacia el sida de adolescentes mexicanos, tesis de

licenciatura, Facultad de Psicología, UNAM. RIVERA, S. y R. Díaz-Loving (2000), La cultura del poder en la pareja, México, Miguel

Ángel Porrúa. RIVERA, S., R. Díaz-Loving, C. Cruz del Castillo y F Vidal (2004), "Negociación

del conflicto y satisfacción en la pareja", La Psicología Social en México, AMEPSO, X, pp.

135-140.

ROMERO, A. y S. Rivera (2004), "¿Qué motiva a un hombre y a una mujer a ser

infiel?", La Psicología Social en México, AMEPSO, X, pp. 141-146. ROMERO, PA. (2003), Historias de amor y la satisfacción en la relación de pareja, tesis de

licenciatura no publicada, México, Facultad de Psicología, Universidad Nacional Autónoma de México. ROSA, Jorge la (1986), Escalas de locus de control y autoconcepto, tesis de doctorado en

psicología social no publicada, México, Facultad de Psicología, UNAM. RUNYON, R. y A. Haber (1987), Estadística para las ciencias sociales, Wilmington,

Delawere, Addison-Wesley Iberoamercana y México, Sistemas Técnicos de Edición. SIEGEL, S. y N.J. Castellan (2003), Estadística no paramétrica aplicada a las ciencias de la

conducta, 3a. reimp., México, Trillas. VARGAS, I. M. García-Méndez, R. Díaz-Loving y S. Rivera (2004), ponencia en el

X Congreso Mexicano de Psicología Social, México, AMEPSO. VIGANO, D. (1986), Autoritarismo y rendimiento escolar en adolescentes, "tesis

de maestría no publicada, México, Facultad de Psicología,. Universidad Nacional Autónoma de México. YOUNG R. y D. Veldman (1983), Introducción a la estadística aplicada a las ciencias de la

conducta, México, Trillas. ZUNG, W., C. Richards y M. Short (1965), "Self-Rating Depression Scale in an

Outpatient Clinic", Arch Gen Psychiat, 13, pp. 508-515.

268

Sofía Rivera Aragón Mirna García Méndez

Índice PRÓLOGO Rolando Díaz Loving ......................................................................................

7

INTRODUCCIÓN ......................................................................................................

11

Capítulo 1 MEDICIÓN ...................................................... ........................................................

17

Escalas de medición .............................................................................................

19

Nominal ............................................................................................................

19

Ordinal ..............................................................................................................

20

Intervalar .................................................................................... .....................

21

De razón ............................................................................................................

22

Capítulo 2 ESTADÍSTICA DESCRIPTIVA....................................................................................

25

Conocer el tipo de distribución .........................................................................

27

Ejercicio SPSS ...................................................................................................

32

Representación gráfica ............................................. . ........................................

37

Gráfica de barra ...............................................................................................

38

Gráfica de pastel o de sectores .................... ................................................

40

Gráfica de histograma ............................................................................. . .

40

Gráfica de ojiva o de polígono de frecuencia acumulada ……………

42

Gráfica de polígonos de frecuencia ...................................................... .. .

43

Obtener medidas de tendencia central ……………………………………..

44

Media .................................................................................................................

45

Mediana.............................................................................................................

49

Moda .............................................................................................................. ..

50

Ejercicio SPSS ...................................................................................................

51

Calcular medidas de dispersión (variabilidad) .............................................

53

Rango (R) ..........................................................................................................

53

Desviación estándar ......................................................................................

54

Varianza

(s2

o σ ) ............................................................................................

57

Sesgo ..................................................................................................................

58

Curtosis (K) .......................................................................................................

59

Error estándar (σ o e) .....................................................................................

61

Ejercicio SPSS ................................................................................................

62

2

Capítulo 3 ESTADÍSTICA INFERENCIAL ....................................................................................... 67 Aplicaciones de la estadística inferencial .......................................................

69

Clasificación de la estadística inferencial .....................................................

73

No paramétrica ...............................................................................................

73

Ventajas ............................................................................................................

74

Desventajas ....................................................................................................

74

Paramétrica ......................................................................................................

76

Capítulo 4 PRUEBAS DE LA ESTADÍSTICA NO PARAMÉTRICA .................................................... 81 Pruebas para una muestra simple ........................................................................ 83 Chi cuadrada (x2) ................................................................................................. 83 Ejercicio SPSS ....................................................................................................... 88 Pruebas para muestras relacionadas .................................................................... 91 McNemar .............................................................................................................. 92 Ejercicio SPSS ....................................................................................................... 96 t de Wilcoxon (tw) ............................................................................................ 100 Ejercicio SPSS ....................................................................................................... 103 Pruebas para muestras independientes ............................................................. 106 U de Mann Whitney (U) .................................................................................. 107 Ejercicio SPSS ....................................................................................................... 111 Análisis de varianza en una dirección por rangos de KrusKal-Wallis (H) ........................................................................................... 117

Ejercicio SPSS ...................................................................................................120 Chi cuadrada para muestras independientes x 2 .......................................126 Ejercicio x 2 por homogeneidad ...................................................................126 Ejercicio SPSS ...................................................................................................131 Capítulo 5 ESTADÍSTICA PARAMÉTRICA..................................................................................... 137

Características .................................................................................................... 139 Pruebas paramétricas. Prueba de coeficiente de correlación de producto-momento de Pearson .........................................140 Introducción .............................................................................. . ..................140 Definición .......................................................................................................140 Requisitos ............................................................................................ .. 141 Interpretación .................................................................................................142 Fórmula .................................................................................. ......................144 Regla de decisión para obtener la significancia ......................................145 Ejercicio SPSS ...................................................................................................148 Reporte de investigación de la correlación producto-momento de Pearson ...............................................................152 t de student .............................................................................................. ......... 152 Introducción ...................................................................................................152 Definición .......................................................................................................154 Requisitos .......................................................................................................154 Clasificación de la prueba t ........................................................................155 Cálculo de t para muestras independientes con N iguales ................................................................156 Cálculo de t para muestras independientes con N desiguales ...........................................................161 Ejercicio SPSS .. ...............................................................................................166 Reporte de investigación de la prueba t para muestras independientes ....................................................................168 Cálculo de t para muestras relacionadas ...................................................171 Ejercicio SPSS ...................................................................................................176

Reporte de investigación de la prueba t para muestras relacionadas ......................................................................... 180 Análisis de varianza (Anova) ..........................................................................180 Introducción……………………………………………………………………...180 Definición………………………………………………………………………...182 Requisitos………………………………………………………………………...182 Análisis de varianza simple cuando el tamaño (N) de los grupos es igual .................................................... 184 Análisis de varianza simple para N desiguales ...................................... 191 Ejercicio SPSS .................................................................................................. 199 Reporte de investigación del análisis de varianza simple…………… 203 Análisis de varianza de doble clasificación ............................................ 204 Ejercicio SPSS .................................................................................................. 218 Análisis factorial de varianza ..........................................................................222 Ejercicio SPSS .................................................................................................. 233 Reporte de investigación del análisis factorial de varianza . . . 237 APÉNDICE ................................................................................................................... 241 BIBLIOGRAFÍA ............................................................................................................ 255

ISBN 970-701 -587-X

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF