Estadistica Aplicada a La Investigacion Educativa

February 23, 2018 | Author: Manuel Alejandro San Martin | Category: Intelligence Quotient, Celsius, Quantity, Likert Scale, Statistics
Share Embed Donate


Short Description

Download Estadistica Aplicada a La Investigacion Educativa...

Description

ESTADÍSTICA APLICADA A LA INVESTIGACIÓN EDUCATIVA

Curso 55

Autores Dr. C. Miguel Cruz Ramírez Profesor del Instituto Superior Pedagógico “José de la Luz y Caballero” Holguín Dr. C. Alipio Omar Pérez Jacinto Profesor del Instituto Superior Pedagógico “Rubén Martínez Villena” La Habana Dr. C. Miguel Escalona Reyes Asistente Profesor del Instituto Superior Pedagógico “José de la Luz y Caballero” Holguín Dr. C. Raúl Hernández Heredia Profesor del Instituto Superior Pedagógico “Raúl Gómez García” Guantánamo

Edición: Dr. C. María Julia Moreno Castañeda Corrección: Lic. José Luis Leyva Labrada. Diseño y composición: MSc. Nelson Piñero Alonso

© sobre la presente edición, sello editor Educación Cubana. Ministerio de Educación, 2009

ISBN 978-959-18-0463-1

Sello Editor EDUCACIÓN CUBANA Dirección de Ciencia y Técnica Avenida 3ra # 1408 esquina a 16. Miramar, Playa. Ciudad de La Habana. Cuba. Teléfono: (53-7) 202-2259

ÍNDICE Introducción / 1 Variables más comunes / 3 Escalas de medición / 10 Construcción de tablas y gráficos / 20 Técnicas sociométricas/ 48 Diagramas, flujogramas y organigramas / 57 Descripción numérica de los resultados / 68 Análisis de la relación entre dos variables cuantitativas / 93 Bibliografía /109

Introducción En la actualidad resulta significativa la aplicación de los recursos estadísticos y computacionales en las investigaciones avanzadas en Ciencias de la Educación. El saber científico crece a velocidades antes inimaginables, a la vez que las investigaciones educacionales exigen mayor concreción y combinación de los procedimientos cuantitativos y cualitativos. En este curso se exponen algunas de las potencialidades que brinda la Estadística Descriptiva para la interpretación de datos empíricos, resaltando el valor heurístico que le es concomitante. El uso descriptivo de datos aparece con frecuencia en el procesamiento de instrumentos, tales como entrevistas, encuestas y pruebas pedagógicas. La interpretación de los resultados favorece una correcta formulación de problemas e hipótesis; también sienta las bases para el análisis experimental, lo cual es contenido básico de la Estadística Inferencial. No obstante, los senderos trillados de los métodos cuantitativos enfrentan peligros de todo tipo, especialmente en el ámbito de las investigaciones educacionales. La Estadística Descriptiva está más alejada del positivismo, pues su valor heurístico le permite servir de fuente argumentativa e insertarse en el discurso de la investigación cualitativa. El curso ha sido pensado, especialmente, para los docentes que realizan investigaciones relacionadas con la Pedagogía, la Dirección Científica Educacional, la aplicación de las Tecnologías de la Informática y las Comunicaciones (TIC), entre otras ramas de las Ciencias de la Educación. Puede ser especialmente útil para estudiantes de maestría y doctorado de cualquier rama de las Ciencias Sociales. Los cursistas encontrarán una explicación pormenorizada sobre la aplicabilidad de todo el contenido; así como ejemplos bien diversos que fueron tomados de investigaciones reales, aunque matizados por ciertas adaptaciones y modificaciones con fines didácticos.

1

La primera versión de este curso se experimentó en la docencia de la Maestría en Ciencias de la Educación en la provincia oriental de Holguín. La idea original correspondió al Comité Académico, el cual diagnosticó la imperiosidad de acercar los contenidos relacionados con la estadística a las necesidades investigativas de los docentes. Como suele ocurrir, se partió de un manuscrito preliminar, el cual se había empleado en la docencia del Doctorado Curricular del Instituto Superior Pedagógico de Holguín. Aquel libro en ciernes tenía diversas carencias, incluso deficiencias de orden didáctico. Más adelante, tomando en consideración las recomendaciones y observaciones de muchos colegas, se conformó un libro titulado El procesamiento de la información en las investigaciones educacionales. De este texto han sido tomados los capítulos 2-5, con el fin de conformar el material del presente curso pre-evento.

2

VARIABLES MÁS COMUNES La información educacional emerge de fuentes disímiles; por ejemplo, de encuestas, de entrevistas, de dispositivos de evaluación como las pruebas pedagógicas, de la revisión de documentos, entre otras. Los datos regularmente son muchos y la información tiende a ser confusa. Por este motivo, es necesario organizar todos los datos, a fin de poder hacer un uso efectivo de ellos. Un aspecto esencial para el manejo de datos consiste en el establecimiento de variables, las cuales tienen su propia naturaleza, en dependencia de las características de la información que se recoge. Por ejemplo, el director de una escuela podría tener una lista con los subtotales de estudiantes con dificultades académicas, de cada grupo. Estas cantidades son números naturales, pero no es permisible la realización tácita de cualquier operación aritmética, tal y como se haría con dichos números ordinariamente. En efecto, tiene sentido sumar, pues la suma constituye el total de estudiantes con problemas académicos de toda la escuela. En cierta medida tiene sentido restarle a una cantidad mayor otra menor, lo cual permitiría comparar dos grupos en cuanto a resultados docentes. Sin embargo, esto no es tan simple, pues las diferencias absolutas en ocasiones no ofrecen una buena medida. Por este motivo, se trabaja con porcentajes, a partir de las matrículas de los grupos a comparar. En este mismo conjunto de datos, es común promediar todos los subtotales; sin embargo, es embarazoso interpretar un resultado con decimales, como podría ser el de 3,56 alumnos. De la misma manera, puede ocurrir que las calificaciones de tres estudiantes sean: 0,00; 40,00 y 80,00, respectivamente. No es posible deducir de aquí que el conocimiento del primero es nulo, ni que el tercero tiene el doble de la cantidad de conocimientos que el segundo. Evidentemente, la definición de las variables constituye un asunto de suma importancia en cualquier investigación. En general, una variable se refiere a cualquier fenómeno, considerado en función de una de sus características que al manifestarse puede tomar distintos valores. 3

Para hacer un uso efectivo de las variables es necesario organizarlas según criterios prefijados. Esto ha originado una amplia diversidad de clasificaciones y tipologías en la literatura. Por ejemplo, en los diseños experimentales es posible identificar variables independientes, dependientes, moderadoras, intervinientes y de control (extrañas). En la figura 1 se ilustra una clasificación, adecuada para las investigaciones educacionales.

VARIABLES

CUALITATIVAS

NOMINALES

ORDINALES

CUANTITATIVAS

DISCRETAS

CONTINUAS

Fig. 1 Clasificación de variables

La clasificación anterior toma como criterio la naturaleza de los datos, y tiene gran importancia para la selección de los métodos estadísticos a emplear, durante el procesamiento de la información. En general, las distintas clasificaciones entran en conexión; por ejemplo, una variable independiente puede ser también discreta. A continuación, esta clasificación se explica y ejemplifica con más detalles. Variables Nominales: Se trata de un tipo de variable, donde cada clase o categoría tiene el mismo nivel de jerarquía. El cambio de valor para este tipo de variable significa un cambio de cualidad; no es posible ordenar sus diferentes clases o categorías, ni siquiera considerar una superior o inferior a las demás. Otro rasgo distintivo consiste en la carencia de sentido para cualquier operación aritmética; o sea, para la suma, la resta, la multiplicación, la división y la potenciación.

4

Ejemplos: 1. El sexo de una persona, que tiene dos valores posibles: Femenino o Masculino (F o M). Este tipo de dato puede provenir de la revisión de expedientes acumulativos, que es un caso particular de revisión de documentos; de los datos solicitados en el encabezamiento de una encuesta; etcétera. Regularmente, al introducir este tipo de dato en un paquete computacional, se asignan 0 y 1 a los valores de la variable, según sean F o M, respectivamente. De cualquier manera, aquí tampoco tiene sentido comparar los valores 0 y 1, ni siquiera realizar operaciones aritméticas con ellos. En general se prefiere trabajar con números y no con palabras, para facilitar el procesamiento estadístico. La variable Sexo, al tomar dos únicos valores, es un tipo especial de variable dicotómica. 2. La variable nombre(s) de los estudiantes, que a pesar de poder ordenarse alfabéticamente según los apellidos, tal orden sólo tiene un valor de orientación en cualquier registro de asistencia y evaluación, pero nada tiene que ver con definir un orden comparativo en la variable misma. Para comprender esto mejor, nótese que tiene sentido observar un incremento en la promoción de cierta escuela desde 1997 hasta 2007, pero es absurdo considerar “un aumento del índice académico desde Cruz hasta Ramírez”. Los nombres, por su naturaleza, siempre tienen el mismo nivel de jerarquía. 3. La asignatura, que puede tomar diversos valores como Historia, Español, Química, Geografía y Biología. Es evidente que cada asignatura puede tener mayor o menor preferencia, o bien mayor o menor porcentaje de promoción, lo cual podría constituir un criterio para organizarlas. Sin embargo, esto no sería respecto a la naturaleza de la variable en sí, sino a la de otra variable apareada (preferencia y promoción). 4. El temperamento, que puede ser predominantemente Colérico, Flemático, Melancólico, o Sanguíneo. Naturalmente que en la personalidad es posible encontrar un temperamento predominante entre estos cuatro; pero no tiene sentido darle 5

preferencia a ninguno de ellos, en virtud de la diversidad humana. Variables Ordinales: A diferencia de las anteriores, existe un orden preestablecido para cada clase o categoría, donde el tránsito de un valor a otro significa un salto de calidad. Sus categorías pueden compararse como cualitativamente superiores o inferiores. En este tipo de variable no tiene sentido definir una distancia entre los diferentes valores; por ese motivo, nuevamente un rasgo esencial consiste en que no es posible realizar operaciones aritméticas. Ejemplos: 1. La evaluación del Componente educativo, en secundaria básica, se expresa de manera cualitativa en las categorías de Insuficiente (I), Regular (R), Bien (B), Muy Bien (MB) y Excelente (E). (Ministerio de Educación, Resolución 226/03, Resuelvo Octavo). 2. El rendimiento académico, que puede ser Bajo, Medio y Alto. 3. La evaluación de un software educativo, donde a menudo se utilizan las categorías de Innecesario, Opcional, Complementario, Necesario, e Imprescindible. 4. En el Reglamento para el trabajo docente y metodológico en la Educación Superior, las calificaciones se expresan mediante los símbolos 2, 3, 4 y 5 (Ministerio de Educación Superior, Resolución 210/07, Artículos 152-153, p. 225). A pesar de emplear números, cada uno de ellos expresa una cualidad: Mal, Regular, Bien y Excelente, respectivamente. Aunque 4 es el doble de 2, no puede decirse que una calificación es el doble de la otra; no obstante está claro que todas las calificaciones son comparables, o sea 2 < 3 < 4 < 5. También es evidente que en un examen de tres preguntas, cuyos resultados fueron 3, 5 y 5, la calificación no es la simple suma 3 + 5 + 5 = 13, ni siquiera el promedio de estos números. El profesor deberá emitir una calificación, tomando como base un juicio cualitativo. En dependencia de la importancia de la primera pregunta, así como de la gravedad de los errores cometidos, la calificación final será de 3 ó 4. Algunas veces los 6

profesores emplean categorías como 4+ ó 5–. Esto es una muestra de falta de criterios precisos para diferenciar el 4 del 5. Existe una discusión muy particular, sobre el asunto de promediar calificaciones como estas. Naturalmente que un resultado podría ser, por ejemplo, 4,25 en un índice general. Este número no pertenece al conjunto de valores de la variable. La explicación de esto se dará más adelante. Variables Discretas: Son aquellas que sólo pueden tomar un número finito o numerable de valores reales diferentes. Tiene sentido realizar operaciones aritméticas con ellas, siempre y cuando los resultados puedan ser interpretados adecuadamente. Al igual que las variables anteriores, no admiten valores intermedios entre dos valores cualesquiera. Ejemplos: 1. La evaluación del Componente instructivo en secundaria básica se expresa en una escala de 10 puntos, del 1 como categoría mínima al 10 como categoría máxima, para todas las asignaturas del currículo (Ministerio de Educación, Resolución 226/03, Resuelvo Séptimo). 2. La matrícula de una escuela, donde se utilizan los números naturales sin tener que precisar necesariamente un valor máximo. Son usuales para las aulas de las escuelas cubanas los valores 15, 30 y 45. Los números de la primera decena no son usuales, aunque aparecen en pequeñas escuelas rurales y en aulas multigrado. En esta variable tiene sentido la noción de proporción, pues una matrícula de 45 estudiantes es el triple de otra de 15. No es posible encontrar un puntaje entre cualquier pareja consecutiva. Así, entre un total de 18 estudiantes y otro de 19, no existe ningún total posible. La división con resto tiene sentido; por ejemplo, si se desean formar cinco equipos para organizar un seminario, la cantidad de miembros no será equitativa, a menos que la matrícula del grupo deje resto cero en la división por cinco. 3. El puntaje de una competencia de conocimientos. Por ejemplo, en las Olimpiadas Internacionales de Matemática se utilizan 7

ocho valores: 0, 1,… 6 y 7. De esta manera, si el puntaje en las seis preguntas fue de 2, 7, 7, 0, 5, y 1, tiene sentido decir que se han acumulado 2 + 7 + 7 + 0 + 5 + 1 = 22 puntos, lo cual significa que este puntaje es el doble de otro de 11 puntos. 4. La edad, para la cual se utilizan números naturales, donde 0 significa que aún no se ha cumplido el primer año de vida. Regularmente no tiene sentido hablar de una cantidad fraccionaria de años, a menos que el investigador desee precisarla con exactitud de meses y días. 5. La fuerza, como capacidad física condicional, siempre que esta sea medida por el número de repeticiones realizadas; por ejemplo, en los abdominales y en las planchas. Variables Continuas: Son aquellas que pueden tomar cualquier valor en un intervalo de números reales. A diferencia de las anteriores, estas variables tienen una naturaleza densa, o sea, entre dos valores cualesquiera siempre es posible hallar otro y, por ende, infinitos valores. Ejemplos: 1. La calificación de un examen parcial; con el empleo de las notas usuales de la escuela cubana. En la escala ordinaria de 0 a 100, constituye un convenio el redondeo a dos lugares decimales. De esta manera, entre 78,12 y 78,13 no es posible considerar una tercera calificación. De hecho, como la variable es continua, existen infinitas calificaciones intermedias, pero es el convenio asumido quien las reduce a uno de esos dos números, por exceso o por defecto. Algunos autores clasifican esta variable como discreta, alegando que en su dominio solo existen 1001 valores posibles (0,00; 0,01; 0,02; …; 99,99 y 100). Desde esta perspectiva no tendría caso establecer diferencias entre los índices generales de dos estudiantes que empatan por redondeo. Por ejemplo, a pesar de que 98,335 < 98,344, ambas calificaciones se reducen a 98,34. 2. El tiempo, medido en fracciones de segundos o minutos, para estudiar el desarrollo de determinadas destrezas en un 8

ambiente de aprendizaje; en fracciones de horas, para contabilizar el tiempo semanal dedicado al estudio independiente; etcétera. Naturalmente, si se decide tomar el número de horas completas, la variable sería discreta. En este caso se comprende que los valores han sido redondeados, eliminando las cifras decimales. 3. Variables antropométricas, como estatura y peso, medidas en cm. y Kg. respectivamente. 4. Capacidades físicas condicionales, como rapidez, y resistencia medidas en escalas de tiempo. Nuevamente la fuerza puede servir de ejemplo, pero especialmente en los casos de salto hacia arriba u horizontal, medidos en unidades de longitud. Todas estas variables son de uso muy común en la asignatura de Educación Física. Es necesario aclarar algunos aspectos relacionados con la terminología empleada. Las variables discretas y continuas son ordenables por su naturaleza cuantitativa. Sin embargo, como es frecuente en la literatura, se reserva el término “ordinal” para el tipo de variable cualitativa antes explicado. En lo adelante, cuando se exija que una variable sea al menos ordinal, se estará refiriendo a la existencia de un orden en sentido general, o sea, a las ordinales, las discretas y las continuas. Se podría pensar que en algunos casos existen pocas diferencias entre las variables discretas y continuas. Por ejemplo, cuando se mide la estatura con una cinta métrica ordinaria, la cantidad de valores (marcas) que esta posee es finita. Sin embargo, esto solo tiene que ver con el nivel de precisión del instrumento utilizado, y no con la naturaleza del dato que se maneja. No cabe dudas de que la estatura de una persona puede alcanzar cualquier valor, entre dos valores posibles, aunque sea imposible medirla con toda exactitud, debido a la insuficiente precisión del instrumento empleado. Las variables son el corazón de la metodología cuantitativa. En cambio, la investigación cualitativa utiliza el concepto de categorías analíticas, las cuales no necesariamente se definen

9

apriorísticamente. Según la investigadora mexicana Silvia Villaseñor (2002, p. 42): “Las categorías analíticas son ideas, conceptos, áreas de cambio que nos interesa investigar y que nos facilitarán realizar un análisis e interpretación de lo encontrado en el proceso de investigación. Son conceptos abarcadores, que a diferencia de las variables, no nos obligan a mirar únicamente los aspectos previstos de antemano”. Para cuantificar es necesario detener imaginariamente el campo de investigación, tal y como si se capturara su imagen. De esta manera es posible definir procedimientos de medición y, de ser posible, refinar las medidas. A modo de símil, esto es como si dicha imagen se pudiera ampliar para desentrañar sus detalles. Sin embargo, por el sendero cualitativo se opta por tomar dicha imagen en movimiento, lo cual facilita la interpretación de las relaciones más complejas. ESCALAS DE MEDICIÓN Como se ha podido observar, la escala es un asunto de suma importancia para la medición de las variables. Por ejemplo, atendiendo a la escala, las continuas se subdividen en variables de intervalo y de razón. La escala de intervalo se caracteriza por la invariabilidad de las longitudes de dos intervalos cualesquiera, bajo un cambio de escala del tipo y = ax + b. En el caso de las escalas de razón ocurre algo similar, pero respecto a la transformación y = ax. La diferencia más notable entre ambas escalas consiste en que en la primera el cero es relativo, mientras que en la segunda este es absoluto. El conocimiento de ambas escalas es esencial para determinar los métodos estadísticos a aplicar durante cualquier diseño experimental. Existe un ejemplo formidable en el mundo físico, relativo a la variable Temperatura. Las escalas Celsius y Fahrenheit son de intervalo, y sus ceros fueron concebidos de forma relativa, a partir del punto de congelación del agua y de una disolución saturada de sal común en agua, respectivamente. La transformación ºF = 9/5 ºC + 32 expresa una relación lineal entre ambas escalas. Por su parte, 10

la escala Kelvin es de razón pues considera la existencia de un cero absoluto (aproximadamente -273 °C), inalcanzable por la muerte térmica del universo. En la asignatura de Educación Física es frecuente trabajar con escalas de razón como estatura y rapidez, que no pueden ser negativas. Tradicionalmente, las mayores dificultades surgen a la hora de prefijar una escala para variables cualitativas multifactoriales. La categorización de estas variables es un proceso complejo, capaz de presentar no pocos obstáculos. Sin embargo, desde el punto de vista metodológico, con frecuencia no es posible trabajar con indefinidas formas de una variable, pues la práctica no lo permite. Por ejemplo, la inteligencia tiene un carácter altamente complejo y multifactorial; pero esto no impide el establecimiento de cortes que delimiten estratos distintivos. El problema reside, precisamente, en dónde hacer el corte. La respuesta más trivial: “donde resulte conveniente”, no soluciona el problema. Algunas convenciones sobre el lugar y la denominación de los estratos no se han realizado, o bien no son universales. En el caso particular de la inteligencia, algunos psicólogos neopositivistas occidentales la reducen a un solo indicador: el coeficiente de inteligencia (IQ, del alemán Intelligenz-Quotient). Se trata de la razón entre la edad mental y la edad cronológica, multiplicada por 100. Los test que se usan proponen tareas muy variadas, con diferentes niveles, y están dirigidos a evaluar todas las funciones intelectuales importantes. Por ejemplo, si alguien resolviera la cantidad de problemas que el promedio de niños de nueve años consigue resolver, tendrá la edad mental de un niño de nueve años, sin importar su edad cronológica. Si la persona fuese un niño de nueve años, su cociente IQ será normal (9/9 x 100 = 100). Ahora bien, si el niño tuviera seis años, significa que su cociente es alto (9/6 x 100 = 150), y que se encuentra muy adelantado para su edad cronológica. Por el contrario, si tuviera doce años, tendrá un cociente bajo (9/12 x 100 = 75). Cerca del 70% de las personas presentan cocientes intelectuales entre 85 y 115; y solamente una de cada doscientas personas tiene un número superior a 140 o menor que 60. 11

En la literatura, el IQ también ha sido dividido en estratos. En la figura 2 se muestra la politomía más difundida. Aún así, algunos autores dividen las escalas superior e inferior en nuevos estratos. Por ejemplo, la superdotación puede subdividirse en genialidad (145164), alta genialidad (165-179), mayor genialidad (180-200), e inmensa genialidad (+200).

70%

145

Superdotados (0,13%)

130

Inteligencia superior (2,1%)

115

Gran inteligencia (13,6%)

100

Media alta (34,1%)

85

Media baja (34,1%)

70

Inteligencia débil (13,6%)

55

Insuficiencia mental (2,3%)

+160

Fig. 2 Politomía más difundida

Se estima que Einstein, al igual que la mayoría de los premios Nóbel, debía sobrepasar los 160. El record de más de 200 solo se estima para unas dos docenas de personas en la historia de la humanidad. Tal es el caso de William James Sidis (1898-1944), quien asesoraba a profesores de Harvard en espacios de cuatro dimensiones, a la edad de 11 años, y fue profesor de matemáticas en la Universidad Rice a los 14 años. Dominaba fácilmente más idiomas que el record mundial de aquel entonces, alrededor de 40. Según el libro Guinness world records, el record mundial está en manos de Marilyn vos Savant (n. 1946), columnista, escritora, conferencista y dramaturga estadounidense, con IQ = 228. Es necesario señalar que el cálculo del IQ reduce la inteligencia a la habilidad mental, estableciendo una escala continua. Aunque este 12

procedimiento es bastante práctico, reduce drásticamente una variable cualitativa altamente compleja y multifactorial a un número real (siempre racional), lo cual tiende a ser poco confiable. Nótese, por ejemplo, que dos personas pueden tener igual IQ; sin embargo, es absurdo suponer que sus niveles de inteligencia sean exactamente iguales. Es oportuno señalar que la variable IQ posee una escala de razón. Algunos autores alegan que esto no es así pues, según ellos, un IQ de 150 no puede ser el doble de otro de 75, ya que la inteligencia expresada por el primero no es el doble de la del segundo. Este planteamiento no tiene fundamento, pues una cosa es la variable Inteligencia y otra la variable IQ. El hecho de que se trate de identificar el nivel de inteligencia con el valor de este coeficiente, lleva a algunos investigadores a tales razonamientos infundados. Un IQ de 150 es el doble de otro de 75, pero eso no quiere decir (y aquí está la falsa inferencia) que la inteligencia del primero duplique la del segundo. El establecimiento de categorías debe reunir tres condiciones básicas. En primer lugar, las categorías deben ser mutuamente excluyentes, de manera que la pertenencia a cualquiera de ellas sea exclusiva. Si se han determinado los indicadores de medida, el objeto que se mide debe pertenecer únicamente a una categoría de la escala. En segundo lugar, la división debe ser exhaustiva, o sea, tendrá en cuenta todos y cada uno de los casos que se puedan dar. Finalmente, las categorías deben precisarse lo suficiente, como para ser medidas. Esto significa que deben definirse operativamente, a través de indicadores de más fácil medición. Una investigación empírica será tanto más empírica cuando se definan, con más claridad, los términos del estudio y particularmente las variables. Llevar la concreción a un extremo restringe la validez externa, a pesar de que incrementa su validez interna. La mayoría de los investigadores se inclinan por buscar una mediación; un punto medio entre las demandas de la validez interna para más concreción, y las de la externa para más generalización. En el caso de la variable Inteligencia, la reducción al cálculo del IQ es un ejemplo de concreción extrema. 13

Además de las variables numéricas, en la práctica educativa son frecuentes otras escalas como las gráficas y las verbales. Tipos especiales de escalas gráficas se apoyan en el contraste de antónimos en los extremos, y se denominan escalas de diferencial semántico. Ellas fueron desarrolladas por Charles Egerton Osgood (1916-1991) y por eso también llevan su nombre. He aquí un ejemplo cuyo objetivo consiste en indagar sobre el estado de opinión de un colectivo de estudiantes, respecto a una actividad extraescolar. Evalúe la actividad marcando con una equis (X) de acuerdo a su opinión:

Breve

Extensa

Amena

Tediosa

Interesante

Banal

Entretenida

Aburrida

Creativa

Rutinaria

Efectiva

Inefectiva

Organizada

Desorganizada

Agradable

Desagradable

Las escalas verbales suelen ser más descriptivas, y se refieren a estadios, categorías, características esenciales, u otro aspecto que sirva para diferenciar escalas de actitud. Estas escalas suelen ser poco rigurosas en cuanto a exhaustividad, a partir de que su empleo presupone una idea poco precisa del fenómeno objeto de estudio. En ocasiones, la formulación de algunas categorías imbrica cierto solapamiento, fallando también el presupuesto de ser mutuamente excluyentes. En el siguiente ejemplo las categorías son excluyentes, pero no es razonable asegurar que sean exhaustivas.

14

Usted estudia… (Marque con una equis):

Siempre La mayoría de las veces Algunas veces Casi nunca Nunca Analizar la conducta de desatención de un niño es mucho más complejo todavía. Por este motivo, es necesario apoyarse en un conjunto de descripciones no del todo excluyentes, ni siquiera del todo exhaustivas, tal y como se ilustra a continuación. Marque con una equis (X) las características que observa en su niño(a): •

Tiene gran dificultad para concentrarse sobre detalles; comete errores de omisión en las tareas.



Tiene que hacer un gran esfuerzo para permanecer atento en forma prolongada en las tareas o juegos.



Con frecuencia parece no escuchar cuando otros le hablan.



Tiene dificultades para comprender las tareas que se le dan y no las concreta ni en la escuela ni en la casa.



Tiene dificultades en organizar las tareas o actividades debidas o pendientes.



Demora, evita o rechaza con frecuencia tareas en la escuela o en la casa, las cuales exigen un prolongado esfuerzo intelectual.



Pierde con frecuencia los objetos que serán necesarios para las tareas o actividades en la escuela o en la casa (por ejemplo: juguetes, lápices, libros, o indicaciones).



Atiende en forma superficial a estímulos exteriores.

15



Es en lo cotidiano extremadamente olvidadizo.

Con frecuencia estas formas de medición se combinan en los instrumentos, especialmente en las encuestas y en las guías de observación. Por ejemplo, tras la evaluación anterior podría aparecer: La conducta anteriormente reseñada: Es:

Habitual Periódica Esporádica

Se da en él: Con gran intensidad Normalmente Con poca fuerza

De esta manera, por ejemplo, si estos trastornos en la atención son persistentes y/o ligados a trastornos de impulsividad-hiperactividad, entonces puede estarse diagnosticando un niño con el síndrome Attention-Deficit-Hyperactivity Disorders (ADHD), según la clasificación DSM IV - 1994. En las investigaciones educacionales también es frecuente encontrar escalas tipo Likert, dirigidas a evaluar la actitud hacia cierto aspecto. Estas escalas deben su nombre al psicólogo y estadístico norteamericano Rensis Likert (1903-1981), el cual las fundamentó por primera vez en su tesis doctoral A Technique for the Measurement of Attitudes (1932). En ellas las respuestas se dan mediante una escala numérica, a la cual se le atribuyen propiedades de las escalas de intervalo, permitiendo la realización de análisis estadísticos más complejos. La escala tiene siempre dos polaridades, desde un extremo desfavorable hasta otro favorable, con una posición intermedia reservada para respuestas indecisas. Casi siempre estas escalas tienen de cinco a siete categorías de evaluación. He aquí un ejemplo, donde se persigue medir el índice de satisfacción del alumnado de una universidad. El investigador elabora un instrumento, donde considera cinco indicadores básicos:

16

ƒ ƒ ƒ ƒ ƒ

Organización de la enseñanza. Instalaciones e infraestructuras para el proceso formativo. Plan de estudios y su estructura. Acceso y atención al alumnado. Proceso de enseñanza-aprendizaje.

Para cada uno de ellos se presenta al encuestado una escala tipo Likert como la que aparece a continuación, que corresponde al quinto indicador y cuenta con seis descriptores para caracterizar el proceso de enseñanza-aprendizaje. La escala de actitud admite cinco categorías en orden creciente, donde la intermedia corresponde a respuestas mayormente indecisas. Las categorías son las siguientes: 1 2 3 4 5

= = = = =

Nada de acuerdo Poco de acuerdo Ni de acuerdo ni en desacuerdo Bastante de acuerdo Totalmente de acuerdo Tabla 1 Descriptores y escala de actitud

1

2

3

4

5

Los métodos de enseñanza favorecen una implicación activa del estudiante. Adecuados procedimientos y criterios de evaluación. La bibliografía básica es inaccesible. La atención a las diferencias individuales es inadecuada. Existen suficientes opciones para la realización de las prácticas profesionales. El cumplimiento de las tutorías por los docentes es incorrecto.

Como pudo observarse, en la tabla 1, tres indicadores han sido redactados en forma negativa, por el uso de los adjetivos “inaccesible”, “inadecuada” e “incorrecto”. El propio Likert ya había recomendado que aproximadamente la mitad se redactara así, para evitar efectos psicológicos indeseables como la pérdida de la 17

concentración. Para estos indicadores el valor de escala se toma simétricamente; o sea, si el encuestado marca el 5 se toma el 1, si marca el 4 se toma el 2, y así sucesivamente. Puede notarse que la escala de actitud es sustituida inmediatamente por la escala discreta, la cual es procesada ulteriormente, como si en realidad fuera una escala de intervalo. El tránsito de escala cualitativa ⇒ discreta ⇒ intervalo es más un problema filosófico que matemático. En la práctica, este procedimiento es bastante efectivo cuando la cantidad de instrumentos aplicados es suficientemente grande. En las calificaciones de la Educación Superior, tal y como se señaló anteriormente, ocurre algo similar. Inicialmente se califica siguiendo una escala cualitativa, pero se utilizan números naturales desde 2 hasta 5. Finalizada la carrera universitaria, cuando la cantidad de calificaciones es bastante grande, entonces se calcula el índice general (promedio), lo cual es posible en escalas continuas. Particularmente, la existencia de un “2” persiste en calidad de suspenso y el cálculo no puede ejecutarse. Se trata de un convenio establecido, donde la práctica ha hecho ver su inobjetable utilidad. Las escalas tipo Likert permiten identificar el ranking de los individuos, en términos generales de preferencia por cierto objeto. Esto sólo provee información limitada, por decidir si es más favorable para una persona u otra, de modo que no es posible comparar con efectividad. Por ejemplo, si dos individuos evalúan de forma idéntica la primera categoría (los métodos de enseñanza favorecen una implicación activa del estudiante), esto no da una idea muy precisa del “nivel de igualdad” en su actitud. Mucho más complicado es el caso en que marcan actitudes diferentes, pues no es posible precisar tampoco la magnitud de esta diferencia. Este problema ya había sido analizado antes del trabajo de Likert, cuando en 1928 el norteamericano Louis Leon Thurstone (1887-1955) desarrolló una escala que lleva su nombre, para medir actitudes hacia la religión. La complejidad y el costo elevado de la construcción de estas escalas hizo que fueran relegadas por las de Likert, cuya mayor sencillez para producir resultados similares que las de Thurstone, las colmaron de popularidad hasta el día de hoy. 18

Es oportuno retomar el asunto de la paridad del número de categorías, cuando estas son ordinales. Optar por posiciones intermedias puede ser el reflejo de una indiferencia hacia la encuesta, y no precisamente hacia el aspecto que se evalúa. Si el número de categorías es par, el encuestado se vería en la disyuntiva de seleccionar una categoría, de la primera o de la segunda mitad. Esto significa que no tiene una alternativa intermedia, sino dos polaridades: negativa y positiva. Tales situaciones dependen del contenido de lo que se pregunta; por ejemplo, cuando el investigador busca un criterio firme sobre determinado aspecto, evitando posiciones neutrales o indecisas. Algunos estudios han cuestionado el uso de categorías centrales, porque estas pueden atraer a las personas que las seleccionan por razones diferentes a su posición respecto a la actitud medida. Investigaciones recientes sobre este tema han revelado que, casi un 50% de los sujetos que responden mediante categorías centrales, lo hace por razones diferentes a la de estar en el punto medio de la variable medida. Otros estudios han mostrado que, incluso los sujetos con niveles medios en la variable, tienen una probabilidad muy pequeña de contestar utilizando la categoría central, y es más probable que respondan utilizando otras categorías adyacentes. Así pues, existen argumentos para plantear que la utilidad de la categoría de respuesta central está seriamente cuestionada. Por otra parte, en la medida que existan más categorías, mayor será el nivel de precisión que se alcance. Cuando un investigador decida evaluar determinado procedimiento, estrategia, modelo, etcétera, puede establecer una escala de orden cualitativo. A continuación, un estudio piloto revelará si es necesario o no refinar la escala; incluso si este refinamiento debe hacerse entre determinadas categorías específicas. Para establecer el tipo de variable, debe suponerse que los valores de la misma han sido fijados, una vez que sus puntajes se refinaron lo suficiente.

19

Retomando la escala Likert del ejemplo anterior, es posible refinarla utilizando otras categorías como: 1 = Completamente en desacuerdo. 2 = Bastante en desacuerdo. 3 = Algo en desacuerdo. 4 = Indeciso. 5 = Algo de acuerdo. 6 = Bastante de acuerdo. 7 = Completamente de acuerdo. CONSTRUCCIÓN DE TABLAS Y GRÁFICOS La tabulación de los datos es una etapa necesaria para sintetizar la información, principalmente cuando ésta es amplia y diversa. Regularmente, instrumentos como la entrevista o la encuesta facilitan la obtención de un conjunto numeroso de datos. La construcción de tablas y gráficos permite que el investigador compare, descubra regularidades, formule hipótesis, llegue a conclusiones, y sea capaz de trasmitir sus resultados a otros investigadores (socialización del conocimiento científico). Un ejemplo muy común en las investigaciones educacionales resulta de tabular fortalezas y debilidades, desde una dimensión interna; así como oportunidades y amenazas, desde otra externa. La construcción de una matriz FODA no es otra cosa que graficar la intercepción de estos dos tipos de dimensiones, cruzándolas horizontal y verticalmente. De esta manera es posible distinguir con claridad cuatro zonas, cuya intercepción facilita el diseño de estrategias tipo Mini-Maxi, que reduzcan al mínimo la influencia de las debilidades y aumenten al máximo el aprovechamiento de las oportunidades. Se deben desestimar los caminos autosuficientes y pesimistas, donde se sobredimensionan las fortalezas y las amenazas respectivamente. (Ver tabla 2)

20

Tabla 2 Matriz FODA

FORTALEZAS DEBILIDADES

OPORTUNIDADES Zona De Poder Zona De Freno

AMENAZAS Zona De Protección Zona De Conflicto

Estos tipos de matrices son de gran utilidad para los profesores guías. Si un diagnóstico detecta falta de unidad del grupo de adolescentes, el efecto de esta debilidad podría atenuarse aprovechando oportunidades que brinda la comunidad, como la existencia de espacios para el recreo, la promoción cultural, el trabajo voluntario, entre otros. Un ejemplo de gráfico se obtiene al retomar la escala Osgood del capítulo anterior. Desestimando el orden en que aparecen las parejas de antónimos (escala nominal de adjetivos), es posible percatarse de las diferencias existentes entre dos grupos de encuestados. Efectivamente, en el grupo A se observa un consenso general de opiniones; mientras que en el B estas son dispares. En cada caso se han representado sólo seis encuestados, seleccionados al azar de cada grupo. (Ver figura 3).

21

X+4S

Extensa

Amena

Tediosa

Interesante

Banal

Entretenida

Aburrida

Creativa

Rutinaria

Efectiva

Inefectiva

Organizada

Desorganizada

Agradable

Desagradable Grupo A

Breve

Extensa

Amena

Tediosa

Interesante

Banal

Entretenida

Aburrida

Creativa

Rutinaria

Efectiva

Inefectiva

Organizada

Desorganizada

Agradable

Desagradable Grupo B Fig. 3 Ejemplos de gráficos

A continuación se profundizará en la construcción de tablas y gráficos, los cuales son esenciales para la síntesis de la información científica y también para la formulación de hipótesis. Los gráficos 22

albergan, tras la visualización de los datos, un extraordinario valor heurístico. La explicación girará, principalmente, en torno a la información devenida del siguiente fragmento de encuesta.

Estimado(a) profesor(a): Para el desarrollo de nuestra investigación requerimos de su amable colaboración. Por favor, conteste las siguientes preguntas: 1. Asignatura que imparte: _______________ 2. Años de experiencia profesional: ____ 3. Eficacia en el curso anterior: ____ (en %) 4. Grado de influencia que su experiencia ha ejercido en su desarrollo profesional (marque una de las categorías): Muy Alto ____

Alto ____

Medio ____

Bajo ____

Nulo ____

(…) Como puede observarse, se obtienen valores para cuatro variables. La primera de ellas es nominal, la segunda discreta, la tercera continua y la cuarta ordinal. Cada instrumento aporta cuatro datos así que de ser aplicado a 200 docentes el total de datos sería de 800, evidenciándose la necesidad de organizarlos en búsqueda de síntesis. En su versión más simple, las tablas mencionadas tienen dos columnas de frecuencias: una absoluta y otra relativa. He aquí la tabla 3 correspondiente a la primera pregunta del instrumento anterior.

23

Tabla 3 Primera pregunta del instrumento

Asignatura que imparte Historia Español Matemática Biología Física Geografía Inglés Química Otras Σ

Frecuencia Absoluta 32 34 23 19 21 23 27 17 4 200

Relativa 0,160 0,170 0,115 0,095 0,105 0,115 0,135 0,085 0,020 1,000

Esta tabla tiene sus especificidades. En primer lugar, las categorías de la variable son nueve, con la peculiaridad de que la última de ellas no representa una asignatura en particular. Esta denominación (“Otras”) es muy útil cuando la tabulación descubre elementos cuya frecuencia absoluta es muy pequeña respecto a las demás, y la integración queda sujeta a la decisión del investigador. Está claro que inicialmente el investigador no posee información sobre cuáles son las asignaturas que imparten sus encuestados. En la medida que estas aparezcan, van siendo contabilizadas hasta agotar todas las encuestas; para ello suelen aplicarse métodos prácticos como el tarjado. La segunda columna contiene la cantidad de veces que cada una de las asignaturas apareció, en las respuestas de la primera pregunta. La suma final indica, naturalmente, la cantidad de encuestas aplicadas (200) y sirve como forma de control. La segunda columna expresa el valor absoluto dividido entre el total. Por ejemplo, para la asignatura de Historia, 32 dividido por 200 es igual a 0,160. La suma de todos los números de esta segunda columna siempre da 1, lo cual también sirve para verificar la exactitud del cálculo. En este caso, es justo precisar que si se realizan redondeos, el resultado no será necesariamente exacto. Por 24

otra parte, si se corre la coma dos lugares hacia la derecha en la segunda columna, se obtiene inmediatamente el porcentaje que cada una de las frecuencias absolutas representa respecto al total; en el caso de Historia sería 16,0%. Utilizando Microsoft® Excel (en lo adelante, preferiblemente 2002 o superior) es posible construir estas tablas asignando números naturales a las diferentes asignaturas. En la medida en que estas van apareciendo en los instrumentos aplicados, se va construyendo una columna de datos. A continuación se hace uso de la función “Histograma”, la cual aparece en el complemento “Análisis de datos…”. Este último debe ser instalado desde el menú de “Herramientas”. La frecuencia relativa se calcula fácilmente a partir de la suma total de frecuencias absolutas. Se recomienda analizar la hoja “Asignatura” del libro “anexo.xls”, en el cual han sido construidos la mayoría de los gráficos de este material. Un hecho muy importante consiste en que el orden de las filas no tiene sentido para este tipo de tabla de frecuencias. Esto ocurre debido a la naturaleza de la variable, la cual no está ordenada por ser nominal. Si bien la lectura de los datos ofrece una idea de los resultados obtenidos, la visualización resulta más oportuna. Excel brinda la posibilidad de construir diversos tipos de gráficos, tales como los de barra, que ilustran muy bien el comportamiento de estos datos. En la figura 4 las asignaturas han sido dispuestas en el orden en que aparecen, evidenciándose que las más frecuentes tras la aplicación del instrumento fueron Historia y Español.

25

40 35 30 25 20 15 10 5

s tra O

uí m

ic a

és

G

Q

In gl

af ía

eo gr

Fí si ca

H

is to ria Es pa ño M l at em át ic a Bi ol og ía

0

Fig. 4 Gráfico de barras

Otro tipo de gráfico de uso común es el circular o de pastel, como el que se muestra en la figura 5. Regularmente se utiliza para comparar porcentajes, pudiendo separar uno de los sectores para resaltar determinado caso especial, tal como ocurre con la asignatura de Español que presenta la mayor frecuencia. No es recomendable utilizar los gráficos circulares cuando existen muchas categorías, o bien cuando algunas de ellas son desproporcionadamente menores que las otras. Química Otras 2% 9% Inglés 13%

Historia 15% Español 16%

Geografía 12% Física 11%

Biología 10%

Matemática 12%

Fig. 5 Gráfico circular o de pastel 26

En ocasiones algunos datos son tan desproporcionados que ni siquiera los diagramas de barras suministran una buena visualización, incluso cambiando de escala. Por ejemplo, la representación de los datos 40, 2, 5, 9, 12, 1, 10, 6, 11, 9, tiene la desventaja de que el número 40 es bastante grande respecto a los demás. Muchas veces la solución de este problema está en manos de la flexibilidad del investigador. Por ejemplo, los números anteriores corresponden a la cantidad de estudiantes que han solicitado carreras pedagógicas, de 10 escuelas seleccionadas al azar. Ocurre que el número 40 corresponde a un IPVCE, el cual es un centro provincial de elevada matrícula, mientras que los números restantes corresponden a institutos preuniversitarios. El investigador puede resolver este problema redefiniendo las categorías. Por ejemplo, agrupando los valores por municipios y centros provinciales, y no precisamente por escuelas. Es frecuente encontrar cuestionarios con bloques de preguntas del tipo Sí / No / No sé, lo que comporta el uso reiterado de una variable nominal tricotómica. En casos como estos, donde la cantidad de categorías es pequeña y además fija, es útil el empleo de diagramas de columnas apiladas. Cuando las preguntas en bloque se relacionan entre sí, el investigador puede arribar a importantes conclusiones. Véase un ejemplo en la hoja de cálculo “Cuestionario” del archivo “anexo.xls”. Para continuar el análisis de la construcción de tablas y gráficos, la segunda pregunta de la encuesta permite ilustrar otras ideas. La variable “Años de experiencia profesional”, a diferencia de la primera pregunta, tiene muchas categorías. Lo ordinario podría ser escribir una lista vertical de números naturales (comenzando por 0 que significa “recién graduado”), hasta llegar al valor máximo encontrado. Probablemente, al aplicar la técnica del tarjado, muchos números se queden sin marcar, o bien las frecuencias absolutas sean muy pocas. Para resolver este problema, el investigador puede agrupar los valores de la variable en intervalos, lo cual es análogo a la idea antes expuesta sobre el número 40 en el IPVCE. Los intervalos pueden ser predefinidos por el propio investigador, aunque la 27

Estadística ha desarrollado procedimientos muy poderosos para prefijar la cantidad y longitud de estos intervalos (Regla de Sturges). Como la variable se refiere a los años, pueden servir de base los quinquenios sin completar (0-4, 5-9,…). Esta estrategia tiene el inconveniente de que se pierde precisión en la información. Por ejemplo, en la tabla 4 de frecuencias que sigue pueden verse los resultados. Obviamente se sabe que 46 profesores tienen entre 10 y 14 años de experiencia, pero no es posible precisar mediante esta tabla cuántos tienen 10, 11, 12, 13 y 14, exactamente. Es muy conveniente que el investigador conserve los instrumentos aplicados, pues durante el transcurso de la investigación podría necesitar la precisión de algunos datos. Años de experiencia 0-4 5-9 10-14 15-19 20-24 25-29 30 o más Σ

Absoluta 4 19 46 62 50 14 5 200

Frecuencia Absoluta Relativa acumulada 4 0,020 23 0,095 69 0,230 131 0,310 181 0,250 195 0,070 200 0,025 1,000

Relativa acumulada 0,020 0,115 0,345 0,655 0,905 0,975 1,000

Esta nueva tabla procede de la hoja “Años” del archivo “anexo.xls”. Su obtención requiere del establecimiento de una matriz de datos y otra de intervalos, para aplicar la función matricial =Frecuencia (datos; grupos). Esta tabla se diferencia esencialmente de la anterior. Si bien la ausencia de orden impedía analizar la monotonía “desde Historia hasta Otras”, aquí es posible distinguir incrementos, estabilidades o decrementos. Esto justifica la introducción de dos nuevas columnas, donde se expresan las frecuencias acumuladas (absoluta y relativa). Puede observarse que es posible asociar la frecuencia relativa acumulada a los porcentajes. La lectura de estos valores es muy útil; por ejemplo, en la última columna el 0,905 significa que el 90,5% de 28

los encuestados tiene menos de 25 años de experiencia (un total de 181, según la columna de frecuencia absoluta acumulada). Más adelante se profundizará todavía más en el cálculo del tanto por ciento. Es útil observar que, en estas dos nuevas columnas de frecuencias acumuladas, los últimos números siempre coinciden con los totales de las frecuencias ordinarias (en este caso, 200 y 1,000, respectivamente); nuevamente esto sirve para comprobar los cálculos. En los figuras 6 y 7 subsiguientes se muestran sendas frecuencias relativas, ordinaria y acumulada, correspondientes a los años de experiencia de los 200 profesores encuestados. En ambos casos, los valores relativos permiten acotar el tamaño de cada gráfico. Por este motivo, las frecuencias relativas son empleadas mucho más a menudo que las absolutas.

0,35 0,30 0,25 0,20 0,15 0,10 0,05 0,00 0-4

5-9

10-14

15-19

20-24

25-29

30 o más

Fig. 6 Frecuencias relativas

29

1,0

0,975

1,000

0,905

0,8 0,655

0,6 0,4

0,345

0,2 0,115 0,020

0,0 0-4

5-9

10-14

15-19

20-24

25-29

30 o más

Fig. 7 Frecuencias ordinarias y acumuladas

Puede observarse la estructura acampanada del diagrama de barras. Esta disposición es típica de las distribuciones normales, las cuales pueden estudiarse en la mayoría de los libros de Estadística. Tiene sentido ahora decir que la cantidad de profesores aumenta en la medida que la variable se acerca al quinquenio incompleto 15-19; y que disminuye a partir de este. Por tanto la variable es monótona por intervalos. En el diagrama de frecuencias relativas acumuladas puede observarse un crecimiento continuo, pues todos los incrementos son positivos quinquenio por quinquenio. Este tipo de gráfico también es muy importante, especialmente en las distribuciones normales. Por su estructura, constituye un caso particular de los gráficos “poligonales”. La longitud de los intervalos prefijados en la tabla de frecuencia incide directamente en el grado de precisión de la variable. Para tener una idea de la pérdida de exactitud, a continuación se muestra en la figura 8 el diagrama de barras, correspondiente a la frecuencia

30

relativa tomada año por año, partiendo de cero hasta llegar al valor máximo (en este caso 41 años). De todas formas, a pesar de las irregularidades persiste la estructura acampanada. 0,12

0,10

0,08

0,06

0,04

0,02

0,00 0

2

4

6

8

10

12

14

16

18

20

22

24

26

28

30

Fig. 8 Diagrama de barras

El investigador realizó este estudio para analizar el grado de influencia que un docente le concede a su experiencia, en la medida que esta aumenta. Esto no es muy confiable aquí, debido al desbalance que existe entre los diferentes intervalos; lo ideal es que hubiesen sido equitativos. Problemas de este tipo pueden evitarse realizando un adecuado diseño, antes de la aplicación del instrumento. En realidad, el investigador realizó un muestreo aleatorio simple, pero el azar no le ayudó en relación al balance de años de experiencia. Era preferible definir primero los estratos de la población (intervalos de años acumulados), y tomar después las muestras aleatoriamente de cada uno de ellos. Esta forma de proceder se denomina muestreo estratificado. Los datos, así como fueron recogidos, pueden servir para analizar el grado de influencia

31

32

34

promedio, que los docentes de la población conceden a su experiencia profesional. Los diagramas de barras o columnas tienen un notable poder de visualización, pero regularmente pierden exactitud en la información que aportan. Cuando los datos no son muy numerosos es posible construir un tipo de gráfico creado por el matemático norteamericano John Wilder Tukey (1915-2000) en 1977. Se trata de los diagramas de tallos y hojas (stem and leaf), que podrían ser considerados como un estadio intermedio entre la tabla de frecuencias y el propio gráfico. Los diagramas de tallos y hojas resultan muy útiles cuando los datos que se consideran tienen dos o tres cifras significativas. Se construyen trazando una línea vertical a la izquierda de la cual se coloca la primera cifra significativa (tallo), y a la derecha de esa cifra se colocan por su orden todas las posibles últimas cifras significativas (hojas), tantas veces como aparezcan en los datos. Estos diagramas tienen las ventajas de facilitar la identificación inmediata de cada puntuación individual, y de “convertirse” en gráficos si se hacen girar un ángulo recto en sentido antihorario. Los pasos para la construcción de un diagrama de tallos y hojas son los siguientes: ƒ

Identificar los valores máximo y mínimo del conjunto de datos.

ƒ

Decidir el número más apropiado de tallos distintos.

ƒ

Listar todos los tallos distintos en una columna ordenada de forma creciente.

ƒ

Representar cada hoja junto al tallo correspondiente de forma creciente.

32

Para ejemplificar este procedimiento, a continuación se presenta el número de tantos anotados por un equipo estudiantil de basketball, durante un campeonato municipal organizado por los profesores de Educación Física: 85 88

83 82

94 80

80 91

73 85

92 79

68 89

79 65

89 84

86 78

Los valores mínimo y máximo son 65 y 94, respectivamente. Por este motivo, pueden tomarse las siguientes decenas como tallos: 6, 7, 8 y 9. A continuación se construyen las hojas a la derecha de las decenas, colocando las unidades en orden creciente. Este proceso resulta más sencillo si antes se ordenan los datos de menor a mayor. El diagrama resultante es el siguiente: 6 7 8 9

5 3 0 1

8 899 0234556899 24

Aunque el diagrama visualiza todos los datos, la existencia de pocos valores para los tallos proporciona escasos detalles. Una manera de solucionar este problema consiste en dividir cada tallo en dos o más clases. Por ejemplo: 6 7 7 8 8 9

5 3 8 0 5 1

8 9 0 5 2

9 234 6899 4

Para cada valor del tallo (decenas), la primera clase contiene las observaciones con hojas entre 0 y 4 unidades, mientras que la segunda contiene hojas entre 5 y 9. En este diagrama se observa una marcada tendencia a anotar alrededor de 85 puntos. Más adelante, cuando se analicen las medidas de tendencia central, el asunto de la concentración de los datos cobrará mayor rigor 33

conceptual. A continuación se muestra este diagrama ampliado con hojas a la izquierda, donde figuran los resultados de ese mismo equipo en la temporada anterior. Puede observarse, en general, una mejoría en su rendimiento deportivo. 21 9 430 86 2

0 7 0 6 2

0 7 0 5 1 4

6 6 7 7 8 8 9

5 3 8 0 5 1

8 9 0 5 2

9 234 6899 4

Excel no construye estos tipos de gráficos. En el archivo “anexo.xls” ha sido habilitada una macro, de manera que en la hoja “Tallos_y_Hojas” es posible construir diagramas de tallos y hojas relativamente sencillos. Para una construcción más avanzada es necesario hacer uso de paquetes estadísticos como el SPSS (Statistical Package for Social Sciences), el cual es sumamente útil para las investigaciones sociológicas, psicológicas, educacionales, entre otras. De manera similar a como se construyen las tablas de frecuencias para variables discretas, es posible hacerlo en el caso de las continuas. Retomando la tercera pregunta del fragmento de encuesta, es muy instructivo observar que inicialmente el investigador había prefijado los intervalos de veinte en veinte, a fin de identificar las distintas categorías. Los resultados tabulados fueron los que se muestran en la tabla 5 siguiente:

34

Tabla 5 Resultados PORCENTAJE DE EFICACIA [0,00; 20,00] (20,00; 40,00] (40,00; 60,00] (60,00; 80,00] (80,00; 100] Σ

FRECUENCIA ABSOLUTA 0 0 (…) 5 73 122 200

En la primera columna aparecen cinco intervalos consecutivos de igual longitud (20). El símbolo de paréntesis significa que el número no está contenido en el intervalo, mientras que el símbolo de corchete significa que sí lo está. Como puede observarse, la inmensa mayoría de las observaciones se concentran en las dos últimas categorías. Por otra parte, una revisión más precisa de las encuestas arroja que, de los cinco porcentajes más bajos, tres se encuentran entre 40,00 y 50,00; mientras que los dos restantes se ubican entre 50,00 y 60,00. En este caso, resulta conveniente refinar las dos últimas categorías, y reconsiderar las tres primeras. De esta manera se obtiene una nueva tabla de frecuencias, donde la información aportada resulta útil por su mayor precisión. Puede observarse que el 40 no está contenido en el conjunto de porcentajes de eficacia.

35

Tabla 6 Frecuencias

Porcentaje de eficacia (40,00; 50,00] (50,00; 60,00] (60,00; 70,00] (70,00; 80,00] (80,00; 90,00] (90,00; 100] Σ

Frecuencia Absoluta

Absoluta acumulada

Relativa

Relativa acumulada

3

3

0,015

0,015

2

5

0,010

0,025

21

26

0,105

0,130

44

70

0,220

0,350

93

163

0,465

0,815

37 200

200

0,185 1,000

1,000

En el caso de variables continuas las tablas se complementan con una columna adicional, en la cual se colocan números denominados “marcas de clase”; estos sirven para identificar las diferentes clases. Por lo regular, se toma el valor central de cada intervalo, el cual constituye la semisuma de los valores extremos. Por ejemplo, la semisuma de 60,00 y 70,00 es 65,00. En la tabla 7 siguiente abreviada se ilustran todas las marcas de clase. Se conoce, por ejemplo, que un total de 37 profesores tienen resultados superiores al 90% de eficacia; sin embargo, también puede estimarse que 37 profesores tienen aproximadamente un 95,00%, con un margen de error de ±2,5%.

36

Tabla 7 Marcas de clase Porcentaje de eficacia (40,00-50,00] (50,00-60,00] (60,00-70,00] (70,00-80,00] (80,00-90,00] (90,00-100] Σ

Marca de clase 45,00% 55,00% 65,00% 75,00% 85,00% 95,00%

Frecuencia Absoluta 3 2 21 44 93 37 200

(…)

Los datos tabulados en tablas de frecuencia, para variables continuas, pueden ser visualizados mediante diagramas muy similares a los de barras. En este caso, la naturaleza continua de la variable le imprime al gráfico una característica distintiva, pues al representar las diferentes categorías se barre todo el dominio en el eje de las abscisas. De esta manera, las barras se juntan y el gráfico resultante se denomina “histograma”. El histograma es un gráfico para la distribución de una variable continua que representa las frecuencias mediante áreas, y constituye una herramienta científica desde hace siglos. Galileo en 1632 hizo uso de ellos para describir la distribución de errores en observaciones astronómicas. Sin embargo, su denominación fue acuñada por el matemático inglés Karl Pearson (1857-1936) en un trabajo de 1894. Si en las distribuciones se toman clases de igual longitud, las frecuencias son proporcionales a las alturas de los rectángulos del histograma, pues el área se obtiene multiplicando la base por la altura. En este caso, cada altura da idea de la densidad o concentración de los datos en torno a la marca de clase. El área total del histograma es uno cuando expresa frecuencias relativas, y su forma es similar al de frecuencias absolutas. En cambio, el aspecto del histograma se ve afectado por la elección del punto donde comienza el primer intervalo y por la longitud de los intervalos.

37

Un caso extremo en la elección del número de intervalos sería tomar solamente uno y entonces el histograma se convertiría en un rectángulo que no aporta información útil sobre la variable. Otra opción extrema, construyendo más intervalos que datos, podría conducir a clases con a lo sumo un dato, de modo que el gráfico tampoco ayudaría en el estudio de las observaciones. En la última tabla el mencionado investigador construyó seis intervalos, lo cual constituye una cantidad intermedia entre los casos extremos; pero no es la cantidad óptima. Existen diferentes recomendaciones para determinar el número de intervalos. Una regla utilizada frecuentemente consiste en tomar el entero más próximo a la raíz del número de observaciones. En general, se puede comenzar con una cantidad pequeña de intervalos y, a partir de cada histograma, decidir si se aumenta su número para obtener más información de la variable. A continuación se ilustran en la figura 9 los histogramas correspondientes a las frecuencias relativas de 6 y 14 intervalos, ambas sobre el dominio (40; 100]. El primero expresa la elección del investigador, mientras que el segundo es un valor recomendado (√200 ≈ 14,1421 ≈ 14). 0,05 0,04 0,03 0,02 0,01

0,00 0 ,0 45

0 ,0 55

0 ,0 65

0 ,0 75

0 ,0 85

0 ,0 95

Fig. 9 Histogramas frecuencias relativas de 6

38

0,05 0,04 0,03 0,02 0,01

93 ,5 7

85 ,0 0

76 ,4 3

67 ,8 6

59 ,2 9

50 ,7 1

42 ,1 4

0,00

Fig. 10 Histogramas frecuencias relativas de 14

Como las longitudes de los intervalos son iguales en cada histograma, los rectángulos se construyen tomando por altura el cociente de la frecuencia relativa respecto a la longitud de la base. Por ejemplo, el mayor rectángulo del primer histograma tiene altura igual a 0,047 unidades, que se obtiene dividiendo la frecuencia relativa correspondiente entre la longitud de la base (0,465/10 = 0,0465 ≈ 0,047). En el segundo histograma la mayor frecuencia corresponde al undécimo intervalo, con un valor de 0,205. Por este motivo, como la base tiene aproximadamente 4,2857 unidades de longitud (60/14 ≈ 4,2857), la altura se calculó de la siguiente manera: 0,205/4,2857 ≈ 0,0478 ≈ 0,048. Al igual que el diagrama de barras, el histograma ayuda a poner de relieve rasgos importantes de la variable que pueden apreciarse visualmente; en particular, es inmediato comprobar si la distribución es simétrica alrededor de algún eje vertical o si existen picos o máximos locales. Partiendo del histograma es posible mejorar todavía más el poder de visualización, construyendo el correspondiente polígono de frecuencias. El polígono de frecuencias es una representación gráfica de la distribución de frecuencias que resulta equivalente al histograma; se obtiene uniendo mediante segmentos los centros de las bases superiores de cada rectángulo. Para cerrar la figura se unen los extremos de la línea quebrada con las marcas de lo que serían la clase anterior a la primera y la posterior a la última, tomando 39

frecuencias nulas. Con esta construcción el área correspondiente entre la poligonal y el eje de las abscisas es igual al área del conjunto de rectángulos que forman el histograma. Verificar esto constituye un sencillo ejercicio de planimetría. A continuación se ilustra en la figura 11 el polígono de frecuencias correspondiente al segundo de los histogramas anteriores. Como puede observarse la forma del gráfico ofrece una idea mucho mejor del comportamiento de la variable. No es menos cierto que se aprecian varios picos o máximos locales, sin embargo no son comparables con el máximo absoluto sobre la oncena marca de clase (0,048 sobre 85,00). En términos descriptivos puede afirmarse que la variable crece lentamente sobre el intervalo (40; 85], alcanzando finalmente su valor máximo, mientras que a continuación decrece súbitamente en el intervalo (85; 100]. También puede decirse que existe una marcada asimetría a la izquierda (una cola), respecto a la vertical discontinua que pasa por 85,00. 0,060 0,050 0,040 0,030 0,020 0,010

,8 6 97

,2 9 89

,7 1 80

,1 4 72

,5 7 63

,0 0 55

,4 3 46

37

,8 6

0,000

Fig. 11 Polígono de frecuencias

Estos comportamientos asimétricos son frecuentes cuando la variable describe calificaciones relativas al aprendizaje. El número 60 actualmente constituye el punto limítrofe que define el aprobado, de manera que se establece una demarcación entre lo más frecuente (aprobado) y lo menos frecuente (suspenso). Así, es de esperar que 40

la mayoría de las frecuencias se acumulen a la derecha de 60. En general, un grupo alcanza niveles bajo, medio o alto de aprendizaje, en la medida que el eje de simetría se desplaza de izquierda a derecha. Una observación inmediata sugiere indagar qué porcentaje de estudiantes se encuentra suspenso, qué porcentaje sobrepasa determinado puntaje, etcétera. Para resolver este problema se utilizan los gráficos de frecuencias relativas acumuladas, expresadas en términos de tanto por ciento. A continuación puede observarse la figura 12 correspondiente a la variable Porcentaje de eficacia, cuya construcción se describe en la hoja “Eficacia” del archivo “anexo.xls”. Estos gráficos se denominan ojivas porcentuales y en el siguiente puede observarse que los datos que no superan el 85% de eficacia constituyen el 70% del total. Por este motivo un 30% de los profesores sobrepasan el 85% de eficacia. 100% 80% 60% 40% 20%

37 ,8 6 42 ,1 4 46 ,4 3 50 ,7 1 55 ,0 0 59 ,2 9 63 ,5 7 67 ,8 6 72 ,1 4 76 ,4 3 80 ,7 1 85 ,0 0 89 ,2 9 93 ,5 7 97 ,8 6 10 2, 14

0%

Fig. 12 Variable Porcentaje de eficacia

La construcción de ojivas también exige que el investigador tome decisiones sobre el dominio de definición. En el gráfico anterior se han mantenido las dos nuevas marcas de clase inicial y final (37,86 y 102,14). Puede observarse un comportamiento aproximadamente constante en las imágenes de las marcas de clase superiores a 97,86, e inferiores a 37,86.

41

Como ya se ha explicado, tanto en la construcción de histogramas como de ojivas, es útil definir dos nuevas marcas de clase. Un problema frecuente ocurre cuando estas nuevas preimágenes no pertenecen al dominio de definición de los datos. El investigador debe reconocer esto, como ocurre con el valor inalcanzable de 102,14 del gráfico anterior, para entonces obrar en consecuencia. Un estudio similar donde las preimágenes representen los índices generales de una carrera universitaria puede reconocer valores superiores a 5, ya que esto sirve de modelo para analizar los índices incrementados por exámenes de premio. De todas formas, los valores inferiores a 2 no tienen sentido, como no tienen sentido valores negativos o superiores a 100 en la escuela media cubana.

Calificaciones

Los gráficos poligonales también son efectivos para comparar la monotonía de una variable en uno o más sujetos. Por ejemplo, en el caso siguiente se ilustra el comportamiento simultáneo de las calificaciones de dos estudiantes de secundaria básica, en las comprobaciones sistemáticas del componente instructivo de Matemática. Si bien, como tendencia, Luisa ha mejorado sus calificaciones desde el primer hasta el décimo examen, Mario ha sido inestable, con tendencia hacia calificaciones bajas. 10 9 8 7 6 5 4 3 2 1 0

Luisa

Mario

1

2

3

4

5

6

7

8

9 10 11 12

Comprobaciones

En muchas ocasiones es conveniente reforzar la potencia visual de los gráficos, combinando los diagramas de barras con los poligonales; los casos más conocidos se denominan “diagramas de 42

Pareto”. El nombre de Pareto fue dado por una de las figuras más importantes en el control de calidad y administración moderna, el rumano-norteamericano Joseph Moses Juran (1904-1997), en honor al economista italiano Vilfredo Pareto (1848-1923). Resulta muy interesante destacar el hecho de que Juran aplicó este concepto a la calidad, obteniéndose lo que hoy se conoce como la Regla 80/20. De acuerdo a esta regla, si se tiene un problema con muchas causas, puede afirmarse que el 20% de ellas resuelve el 80% del problema, mientras que el 80% restante solo resuelve el 20% del problema. Por lo tanto, el análisis basado en un diagrama de Pareto, separa los “pocos esenciales” de los “muchos triviales”. A continuación se expone un ejemplo de aplicación de los diagramas de Pareto, en el campo de las Ciencias de la Educación, especialmente en el estudio de la calidad. En efecto, un director ha solicitado la cantidad de estudiantes suspensos por asignatura, con el objetivo de diseñar un plan de acción, a fin de mejorar este importante indicador. A continuación aparece una tabla donde se relacionan los datos que solicitó el director. ASIGNATURAS Historia Geografía Biología Química Español Inglés Educación Física Matemática Física

SUSPENSOS 23 5 7 3 31 2 1 65 11

Este es un caso típico de variable nominal con otra cuantitativa apareada, de manera que es posible un ordenamiento conforme a esa segunda variable. Reordenando en forma descendente, de acuerdo a la cantidad de suspensos, es posible construir un diagrama de Pareto como el que aparece a continuación. Excel no permite una construcción exactamente como esta de forma directa, 43

así que es necesario realizar algunas maniobras como se explica en la hoja “Pareto” del archivo “anexo.xls”. 100 % 80 % 60 % 40 % 20 %

M at em

át ic

a Es pa ño l H is to ria Fí si ca Bi ol og ía G eo gr af ía Q uí m ic a Ed In uc gl ac és ió n Fí si ca

0%

Como puede observarse, las asignaturas de Matemática, Español e Historia comprenden cerca del 80% de los desaprobados. Esto sirvió de base para el diseño de una estrategia de trabajo con estas asignaturas priorizadas, reforzando el trabajo metodológico, estableciendo horarios de consulta para la atención a diferencias individuales, diseñando actividades que motiven su estudio, potenciando las relaciones interdisciplinarias, entre otras acciones. Aunque esta estrategia sigue aproximadamente la Regla 80/20, el director también indicó la realización de acciones pedagógicas concretas para resolver los restantes problemas, como ejemplo genuino de atención a la diversidad. Los diagramas de Pareto suelen ser útiles para realizar discriminaciones, cuando se buscan las causas de un problema. Por ejemplo, tres investigadores deseaban determinar las principales causas que influían en los problemas ortográficos de varios grupos de estudiantes. Aplicaron un estudio Delphi a tres rondas, en busca de una estabilidad respecto al criterio de 15 expertos, sobre el

44

verdadero origen de las dificultades. Después de la primera ronda, la tabulación de los resultados mostró que las causas eran de tres tipos, principalmente. El siguiente gráfico se denomina “diagrama de Ishikawa” (o de “espina de pescado”), y muestra con claridad la dinámica causaefecto. Este tipo de diagrama debe su nombre a un teórico de la administración de empresas y experto en control de calidad, el japonés Kaoru Ishikawa (1915-1989). Como puede apreciarse, tres causas principales inciden sobre los problemas ortográficos: de origen pedagógico, psicológico, y lingüístico y sociocultural. A su vez, cada una de estas fuentes puede ser explicada por problemáticas más específicas. Causas Lingüísticas y Socioculturales C1. Modelos lingüísticos desfavorables en la familia y en la comunidad

Causas Pedagógicas

A1. Insuficiente preparación de los docentes A2. Enfoque normativo y tradicionalista

C2. Subestimación y poco respeto por la Lengua Materna

A3. Actividades y tareas ortográficas poco motivadoras

C3. Poco hábito por la lectura y la escritura

A4. Ausencia de una concepción interdisciplinaria

B1. Insuficiente trabajo con la memoria visual, auditiva, semántica y motora B2. Deficiencias en la percepción, observación y escucha

PROBLEMAS ORTOGRÁFICOS

B3. Problemas de concentración, y establecimiento de relaciones Causas Psicológicas

En la segunda ronda del estudio Delphi los investigadores presentaron los resultados anteriores, para que los expertos circularan las causas que consideraban verdaderamente esenciales. 45

No era obligatorio que seleccionaran aspectos de cada conjunto, sino que podían hacerlo independientemente de la clasificación que se mostraba en el diagrama de Ishikawa. Después de tabular los resultados, los investigadores obtuvieron la siguiente tabla de frecuencias:

CAUSAS

A1 A2 A3 A4 B1 B2 B3 C1 C2 C3 Σ

FRECUENCIA ABSOLUTA ABSOLUTA (total de RELATIVA expertos que (respecto al consideran total de esta causa expertos) esencial)

10 1 2 15 15 14 3 13 0 12 85

0,667 0,067 0,133 1,000 1,000 0,933 0,200 0,867 0,000 0,800

Es significativo que esta tabla no es exactamente igual a las anteriores. Por ejemplo, el total de la columna de frecuencias absolutas no es igual al total de expertos, o sea, a la cantidad de instrumentos aplicados; tampoco tiene sentido sumar los resultados de las frecuencias relativas. La razón consiste en el hecho de que la cantidad de ítems (causas) marcados no es igual para cada sujeto. Sin embargo, la suma de frecuencias absolutas sirve para calcular el promedio de causas seleccionadas, por cada uno de ellos. En este caso, 85/15 ≈ 5,67; de donde se deduce que cada sujeto circuló, aproximadamente, unas cinco o seis causas.

46

Una forma de determinar las principales causas podría consistir en exigir, a priori, un determinado porcentaje de selección. Por ejemplo, los investigadores pudieron fijar desde un inicio el 60% de preferencia, como porcentaje mínimo para cada aspecto seleccionado; lo cual significaría la preferencia de nueve o más expertos. Es importante subrayar la necesidad de determinar apriorísticamente este valor, ya sea tomándolo de otras investigaciones, o bien de argumentos cualitativos respecto a la naturaleza del problema. Es erróneo hacerlo a posteriori, pues el conocimiento de los resultados puede incidir en el juicio subjetivo de los investigadores. En caso de prefijar el 60% como punto de corte, de la última columna se obtendría que las principales causas serían: A1, A4, B1, B2, C1 y C3. Al calcular el porcentaje de preferencia para una determinada causa, se aísla el análisis, centrándolo en la causa individual. Los investigadores decidieron seguir otro camino, con otra lógica. Exigieron a priori la selección de las principales causas que, de conjunto, formaban el 60% de las selecciones, respecto al total absoluto (85). Es aquí donde el diagrama de Pareto juega su papel discriminador; en efecto, el diagrama correspondiente es el siguiente:

47

100%

80%

60%

40%

20%

0% A4

B1

B2

C1

C3

A1

B3

A3

A2

C2

Como puede observarse, las cinco primeras barras corresponden a las principales causas que superan (por primera vez) el 60% de las preferencias individuales, conforme a las reflexiones anteriores. Después de haber sido ordenadas descendentemente, la poligonal muestra que las cuatro primeras, de conjunto, superan el 60% del puntaje total. Por tanto, los investigadores debieron seleccionar A4, B1, B2 y C1 en ese mismo orden. Así, el problema no consistió realmente en determinar las causas de mayor frecuencia, sino el conjunto de causas de mayor frecuencia. En este caso, el 60% sirvió como punto de corte. TÉCNICAS SOCIOMÉTRICAS Una de las técnicas sociométricas más aplicadas en el ámbito pedagógico es el sociograma; aquí también es esencial la visualización de la información. Con el sociograma se logra una imagen precisa de las relaciones informales existentes en el seno de los grupos; relaciones que frecuentemente permanecen ocultas, o poco visibles, para quienes trabajan en entornos grupales. Una de 48

sus grandes ventajas reside en la sencillez de las observaciones y de los datos iniciales, necesarios para conseguir los índices cuantitativos que expresan la naturaleza e intensidad de las relaciones. De esta manera, se pueden conocer las redes informales de comunicación y atracción interpersonales que explican, por ejemplo, por qué un grupo escolar responde con entusiasmo en las tareas de clase, mientras otro reacciona frente a las mismas actividades con apatía u hostilidad. El fundador de la Sociometría fue el eminente psiquiatra rumanonorteamericano Jacob Levy Moreno (1889-1974). Él desarrolló en Viena, en 1932, los sociogramas de tipo reticulares; mientras que la creación de los psicogramas (sociogramas del blanco) corresponde a una de sus discípulas más sobresalientes, la psicóloga canadiense Mary Louise Northway (1909-1987), quien también divulgó la Sociometría en el contexto educativo. El procesamiento de la información por medio del sociograma proporciona una noción inmediata e intuitiva de la situación de cada sujeto dentro del grupo, el grado de cohesión del grupo, y la existencia de parejas, cadenas, islas, y polarizadores de primer grado o estrellas. Estos últimos son aquellos individuos que reciben el mayor número de selecciones. La técnica parte de un test sociométrico, donde se inquiere sobre las relaciones establecidas en grupos pequeños, clásicamente según cuatro dimensiones: aceptación, rechazo, expectativa de aceptación y expectativa de rechazo. He aquí un ejemplo, donde se indaga sobre las dos primeras dimensiones, después de haber creado un adecuado rapport:

49

(…) Estimado(a) estudiante: El presente cuestionario es muy importante para el trabajo pedagógico de tus profesores. Por favor, contesta cada una de las siguientes preguntas. Nota: Los resultados de este cuestionario son CONFIDENCIALES. 1. ¿Con cuáles compañeros del grupo te gustaría ir de paseo? ¿Con cuáles no? 2. ¿Con cuáles compañeros del grupo te gustaría estudiar? ¿Con cuáles no? 3. ¿A cuáles compañeros del grupo confiarías tus problemas personales y les pedirías consejos? Los resultados se recogen en una tabla, denominada “matriz sociométrica”. He aquí la tabulación de los datos obtenidos en la primera pregunta, después de la aplicación del test a un grupo de veinte estudiantes. En la matriz correspondiente han sido representadas las aceptaciones con el signo “+”, y los rechazos con el signo “–”. Cada uno de los sujetos aparece simbolizado por un número, desde el 01 hasta el 20.

50

Recepción Emisión 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 Elecciones recibidas Rechazos recibidos

01

02

03

04

05

06

07

08

+

09

10

11

12

13

14

+

15

16

17

18

19

20

+ –

+



+

+ +

+

+



+

+ + +

+

– +

+

+ +

– +

+ + +

+

+

– +

+

+ –



+

3

1

3

0

0

– 2

0

1

1

0

0

1

3

0

3

1

0

2

0

+ 4

3

1

1

0

1

1

0

4

0

0

0

0

0

0

0

0

0

0

1

1

Elecciones emitidas

Rechazos emitidos

3 0 3 1 3 1 3 0 3 1 1 3 0 1 3 1 0 0 1 1 ∑ = 29

0 1 1 0 1 1 0 0 0 0 1 0 0 1 0 1 0 0 1 1

∑=9

51

Aunque las dos últimas filas y columnas revelan información valiosa sobre el estatus de cada individuo, la visualización de estos datos por medio de un sociograma aporta más información. En efecto, a continuación cada relación aparece representada por líneas que indican las diferentes actitudes intergrupales, positivas y negativas. Las aceptaciones se indican con flechas de trazos continuos y los rechazos con trazos discontinuos, de forma que la flecha comienza en el que elige y culmina en el elegido. Si una elección es mutua se trazan flechas con doble sentido; igual ocurre con los rechazos mutuos.

04

17

12

11

10

20

14

03

02

19

06

05 16

01

15 08

07

52

09

13

18

Tal y como sugería el examen de la matriz sociométrica, el sujeto 08 es fuertemente rechazado, mientras que el 03 y el 14 gozan de gran aceptación (estrellas). Sin embargo, hay algo que no era fácil notar en la matriz y que salta ahora a la vista. Los sujetos 01, 07, 09 y 15 aparentaban popularidad, por tener cada uno tres elecciones. El diagrama reticular demuestra que entre ellos existe una interconexión cerrada (clique) y aislada; se trata de una isla. También es posible observar otros hechos, como el aislamiento de los sujetos 13 y 18, la existencia de varias cadenas (como 11-12-1406), y la existencia de ocho parejas positivas y dos negativas. Respecto a la existencia de parejas, es justo señalar que en la matriz pueden ser detectables por simetría respecto a la diagonal principal, pero esto resulta bastante trabajoso. Para concluir, a continuación se representa el sociograma correspondiente a la tercera pregunta del test. En las relaciones solo aparecen líneas continuas, pues la pregunta solo se refería a aceptaciones.

53

18

01

14

04

03

05

06

02

11

20

17

12

15 08

07

16

10

13

19

09

Es significativo que, respecto a la relación de aceptación, exista una notable reducción de la densidad de las elecciones, y que el número de parejas haya aumentado significativamente. Esto se debe a la intimidad, pues los individuos regularmente son selectivos para confiar sus problemas personales. Como puede observarse, la isla se mantiene, como muestra de que estos tipos de configuraciones tienden a ser persistentes. La interacción objeto de estudio se adapta adecuadamente a las relaciones entre dos personas, en las cuales los miembros de la díada se convierten en confidentes. Por otra parte, también puede observarse la desaparición de las estrellas, la notable disminución de las cadenas y el incremento de las islas. El individuo 03, que antes gozaba de alta popularidad, pasa 54

a ser ignorado, a pesar de que emite dos selecciones. Estos fenómenos son comunes en los sociogramas, y ponen de manifiesto las diferentes expectativas de interacción que generan los diferentes grupos juveniles. En general, los sociogramas facilitan la identificación de relaciones y tipos sociométricos. Las relaciones más frecuentes son los cliques y las cadenas, mientras que los tipos sociométricos más comunes son las estrellas (populares o líderes), los entrañables (normales), los aislados (olvidados, ignorados o desatendidos) y los rechazados (excluidos o marginados). La siguiente tabla se utiliza con frecuencia para identificar los tipos sociométricos. La escala cualitativa ordinal (bajo-normal-alto) debe ser definida por el investigador, a partir de indicadores relacionados con la naturaleza de las relaciones sociales que se estudian.

ESTRELLAS ENTRAÑABLES AISLADOS RECHAZADOS

ESTATUS DE ELECCIÓN

ESTATUS DE RECHAZO

Alto Normal Bajo Bajo o Normal

Bajo o Normal Bajo o Normal Bajo o Normal Alto

Una estructura que sirve de complemento para el sociograma es el psicograma. Se trata de una visualización concebida en forma de círculos concéntricos, donde el círculo central constituye el conjunto de mayor aceptación; así sucesivamente los círculos van aumentando en diámetro y, a la vez, disminuyendo en cuanto a nivel de aceptación. Desde el punto de vista individual, es posible realizar estudios de casos, analizando las relaciones particulares de un solo individuo. He aquí las relaciones establecidas entre el individuo 14 y el resto del grupo, respecto a salir o no de paseo.

55

Ninguna selección Tres selecciones

20 Una selección

06

05 14 Cuatro selecciones

12

08

Dos selecciones

Puede observarse que las relaciones de selección se establecen desde el grupo hacia el sujeto 14, mientras que este solo selecciona a 06. Por otra parte, las conexiones se establecen con individuos de diversos niveles de popularidad. Llama la atención que 14 ignora a 03, de manera que ambos polarizadores de primer grado forma sus propios círculos. Los sociogramas pueden complicarse todavía más, aportando como consecuencia más información. Una manera de hacerlo consiste en identificar los individuos masculinos de los femeninos, empleando para ello diversos símbolos como círculos y cuadrados. Otra forma 56

consiste en indicar el ordenamiento de las preferencias y los rechazos, asignando una escala discreta para ponderar la intensidad de las relaciones. Otra manera consiste en partir no solo de las preferencias y rechazos, sino también de las expectativas que tiene cada individuo sobre quiénes lo elegirían o rechazarían. En general, los modelos matemáticos asociados a estas estructuras sientan sus bases en la Teoría de Grafos y han sido desarrollados con mucha profundidad. Actualmente los sociogramas se aplican en campos lejanos de los pequeños grupos, como en análisis de relaciones empresariales, para lo cual han sido desarrollados software muy avanzados. Para las investigaciones educacionales han sido desarrolladas muchas aplicaciones, como “Socgram” que posee licencia pública GNU y puede descargarse de la dirección www.adit.co.uk/downloads/socgram.zip. DIAGRAMA, FLUJOGRAMA Y ORGANIGRAMA A continuación se examinará brevemente un conjunto de diagramas de amplio uso en las Ciencias de la Educación. Al igual que en los otrora mencionados diagramas de Ishikawa, no existe para ellos una teoría matemática sistematizada que exija nociones más profusas que la Lógica o la Teoría de Conjuntos. Los investigadores deben seleccionar con sumo cuidado el diagrama que mejor transmita las ideas que necesita puntualizar. Muchas veces aparecen esquemas en los informes de investigación que, lejos de sintetizar la esencia de una idea, confunden al lector. El uso coherente y riguroso de los diagramas constituye un requisito indispensable en cualquier investigación. Diagramas de Venn: Fueron ideados por el matemático y lógico británico John Venn (1834-1923). Consisten en la superposición de varias regiones casi siempre circulares, para ilustrar la pertenencia exclusiva o inclusiva de elementos o características de varios conjuntos. En las investigaciones educacionales los conjuntos pueden representar áreas del conocimiento, dimensiones de un objeto, estratos sociales, componentes de un proceso, entre otros aspectos.

57

El ejemplo más difundido entre los educadores cubanos, consiste en el solapamiento de tres círculos para representar la interacción de tres esferas básicas de formación de la personalidad: la afectiva, la cognitiva y la motivacional.

Afectiva

Cognitiva

Motivacional

El desarrollo integral de la personalidad puede ilustrarse a través del triángulo curvilíneo central, donde confluyen todos los círculos simultáneamente. Particularmente, el llamado componente inductor o esfera afectivo-motivacional, puede visualizarse mediante el eclipse formado entre los círculos correspondientes. Esta zona sirve para explicar la interacción de procesos muy complejos como los intereses, motivos, emociones y sentimientos. Diagramas de Gantt: Fueron ideados por el ingeniero mecánico norteamericano Henry Lawrence Gantt (1861-1919), durante sus investigaciones de administración científica. Consisten en sencillos cronogramas de barras que ilustran la duración y confluencia en el tiempo de varias tareas, etapas, acciones y, en general, de cualquier conjunto de actividades planificadas. En las investigaciones educacionales son útiles para representar el plan de estudios generado por un diseño curricular, la disposición de las etapas de una estrategia de intervención, las acciones y operaciones desarrolladas por un sujeto al resolver un problema (episodios gráficos o diagramas de Shöenfeld), la gestión de un proyecto, entre otros. En el siguiente ejemplo se ilustra la disposición en el tiempo del plan de estudios de un diplomado básico para la formación doctoral, 58

desarrollado por el Centro de Estudios en Ciencias de la Educación “José de la Luz y Caballero” (CEDU), durante el curso escolar 20062007. Defensa de la tesina Actividades complementarias Cursos opcionales Elaboración de la tesina Cursos obligatorios

7 ay -0 7 ju n07 m

ab r-0

di c06 en e07 fe b07 m ar -0 7

se p06 oc t-0 6 no v06

Exámenes de ingreso

Estos tipos de gráficos no se construyen automáticamente en Excel. No obstante, maniobrando un poco con los gráficos de barras apiladas es posible una buena visualización (véase la hoja de cálculo “Gantt” en el archivo “anexo.xls”). Diagramas piramidales: Son útiles para ilustrar relaciones basadas en la estructura de los objetos. Algunas veces se representa una pirámide en perspectiva; otras veces se dibuja sencillamente una cara, construyendo un triángulo con la base hacia arriba o hacia abajo. Las pirámides se truncan en secciones, donde la jerarquía aumenta desde el vértice hasta la base. En el diseño curricular de las carreras universitarias es común utilizar una pirámide truncada para comparar los componentes académico y práctico. En la asignatura de Biología es común hablar de la “pirámide trófica” que es un modo de representar las relaciones tróficas de un ecosistema, donde cada eslabón o nivel trófico se representa tomando las secciones de una pirámide. En la base se ubican los productores primarios, luego los consumidores primarios, y así sucesivamente hasta llegar a los predadores del ecosistema analizado. En Psicología es conocida la “pirámide de necesidades” de Abraham Maslow (1908-1970), en cuya base se colocan las

59

necesidades fisiológicas, luego las de seguridad, las de aceptación social, las de autoestima, y culmina con las de autorrealización. A continuación se muestra una pirámide muy utilizada en Informática Educativa. En su libro The e-learning fieldbook, Nick Van Dam (n. 1961) resume los estudios empíricos realizados sobre las tasas de retención, memorización y aprendizaje de los alumnos en las modalidades de e-Learning tras realizar un curso on-line. En su diagrama, Van Dam utiliza la pirámide de retención surgida en los años 60 con los estudios de David Dale, sobre la efectividad de distintos medios y canales de comunicación. He aquí el Online Learning Continuum de Van Dam:

60

Simulaciones Juegos on-line

90% de lo que hace

Interacción on-line síncrona (aula virtual) Interacción asíncrona (foros, listas, e-mail) Trabajos colaborativos

70% de lo que dice o escribe

50% de lo que ve y oye

e-cursos basados en vídeo

e-cursos con elementos ilustrativos (esquemas, imágenes, animaciones) Guías de autoestudio ilustradas Presentaciones portátiles o similares on-line sin locuciones

30% de lo que ve

e-mail e-document e-whitepaper

10% de lo que lee

e-reading

e-learning Nivel de diseño instruccional

Bajo

Alto

Las relaciones existentes entre los diferentes medios tecnológicos y la pirámide de retención, revelan que no puede esperarse mucho de un programa de educación a distancia basado exclusivamente en correos electrónicos. El aprender haciendo es el ideal de un software educativo, de manera que en los guionistas recae una responsabilidad extraordinaria. Un buen guión con una programación deficiente puede ser mejorado, pero un mal guión solo puede aspirar a versiones modernas del frío conductismo.

61

Por otra parte, los porcentajes expresados en la pirámide no deben interpretarse de manera literal, por cuanto el proceso de retención no se reduce a la simple memorización de una cantidad finita de elementos. Esto ya se trató anteriormente cuando se analizó la relación entre el IQ y la inteligencia. Los valores porcentuales más bien expresan un orden entre las diferentes formas de interiorizar el conocimiento. Puede observarse que las diferencias entre las etapas consecutivas siempre es del 20%, sin que esto sirva para sostener afirmaciones descabelladas como: “un show de Power Point equivale a un libro electrónico y dos emilios” (cic). Flujogramas: Son diagramas que muestran los detalles algorítmicos de un proceso. Sus símbolos han sido estandarizados por las normas ISO 5807. Por ejemplo, las flechas indican el sentido y trayectoria de una tarea o de un proceso de información. Los rectángulos representan un evento o proceso determinado y son los símbolos más comunes. Por su parte, los rombos se utilizan para representar una condición. Normalmente el flujo de información entra por arriba y sale por debajo si la condición se cumple, o sale por un lado si la condición no se cumple. También se utilizan otros símbolos como el rectángulo redondeado y el círculo. Los procesos algorítmicos no son comunes en las Ciencias de la Educación. Sin embargo, son útiles en la enseñanza de la Matemática (en la situación típica SICA o “serie de indicaciones con carácter algorítmico”), en la enseñanza de la Computación (programación sobre cualquier superlenguaje), en la modelación de procesos de Dirección Científica, entre otros. En el siguiente ejemplo se modela el algoritmo de aplicación de una guía de entrevista.

62

Presentación

Datos Generales NO

¿Conoce…?

Cuestionario 2

SI

Cuestionario 1

Cuestionario 3

Agradecimiento

Se trata de un caso típico de instrumento dirigido a un estrato social amplio. El primer cuestionario ha sido diseñado para sujetos familiarizados con el aspecto indicado en el rombo, el segundo para aquellos que lo desconocen, y el tercero aborda cuestiones comunes a ambos casos. Organigramas: De amplio uso para mostrar relaciones jerárquicas de dependencia y subordinación. Muestran con rapidez los canales de dirección, así como los vínculos y relaciones conceptuales. Son comunes en los estudios relacionados con las estructuras de dirección, ejecución y asesoría; en la organización del trabajo en las diferentes instituciones; en los mapas conceptuales de un currículo; entre otros. Existen diversas clasificaciones de los organigramas. Por ejemplo, atendiendo a su forma se subdividen en verticales, horizontales, mixtos y de bloques. En el siguiente ejemplo se ilustra un 63

organigrama mixto, pues contiene conexiones dispuestas vertical y horizontalmente. Los componentes y relaciones describen con inmediatez la estructura de un complejo CDIP (Centro de Documentación e Información Pedagógica).

CDIP Coordinación

Localización y transferencia de la información

Registro de la Información

Administración

Biblioteca Medioteca

Recursos Humanos y Estadística

Hemeroteca

Normas

Mantenimiento Documentos

Educación Archivos

Personal de Maestranza

Informática A diferencia del flujograma, puede observarse que no se describe un proceso de entrada-salida, sino la estructura jerárquica de diversos componentes. Regularmente no se utilizan flechas y se sobreentiende que las relaciones de dependencia fluyen de arriba hacia abajo. Por ejemplo, la Biblioteca y la Hemeroteca son componentes del Registro de la Información, pero no se supedita una a la otra.

64

Para concluir este tópico se exponen tres diagramas muy sencillos, pero también útiles y de uso común. DIAGRAMA Radial

UTILIDAD Mostrar las derivaciones de un elemento fundamental.

EJEMPLO

Éticos Jurídicos

Políticos Estéticos

VALORES

Religiosos Mostrar un proceso con ciclo continuo.

Científicos

Plan

PDCA

Do

Act

Cíclico

Filosóficos

Check Círculo PDCA de Deming para la mejora continua de la calidad (William Edwards Deming, 1900-1993). Circular

Mostrar los pasos necesarios para lograr un objetivo, para llegar a un fin.

Datos Información Conocimiento Sabiduría

65

Las investigaciones avanzadas en Ciencias de la Educación utilizan con frecuencia el método de modelación. Regularmente, las ideas se ilustran por medio de un esquema compuesto por los componentes y las relaciones esenciales del modelo. Es erróneo identificar al modelo con su representación gráfica, la cual regularmente no es capaz de transmitir toda la riqueza que este entraña. Una de las problemáticas más comunes consiste en diseñar un buen esquema, de modo que por sí mismo sea capaz de revelar los elementos esenciales. Para lograr este objetivo es conveniente partir de las partes constitutivas, disponiéndolas en un orden lógico y en un espacio relativamente económico. Al desplegar las diferentes saetas, es necesario que los trazos se intercepten poco. El tipo y grosor de las flechas sirve para distinguir la jerarquía de las conexiones. En general, los esquemas deben ser: 1. 2. 3. 4. 5. 6. 7. 8.

Autoexplicativos, Sintéticos, Funcionales, Sencillos, Ilustrativos, Coherentes, Lógicos, Compatibles (por ejemplo, con las normas ISO).

El siguiente esquema sintetiza el aporte teórico de una tesis doctoral (Alonso, 2007, p. 41). Se muestra el carácter direccional que adquiere el proceso de formación de competencias laborales en el técnico medio en Mecánica Industrial, mediante la práctica preprofesional.

66

DIMENSIÓN TECNOLÓGICA

Problema Profesional

Técnica

DIMENSIÓN PEDAGÓGICA

Método Tecnológico

Tarea Tecnológica DIMENSIÓN SOCIOECONÓMICA

Desempeño Laboral

Eficiencia Económica

Efecto Social

La disposición de los óvalos en cascada suscita una idea de cambio de dimensión, cuyo tránsito queda aclarado por medio de las flechas de bloques. Las flechas pequeñas (conectores) muestran las relaciones circulares de los componentes, intra e interdimensión. Puede notarse que si las denominaciones de los componentes hubiesen sido encerradas en óvalos, el esquema habría resultado más engorroso. Encerrar estos elementos en rectángulos sería contraproducente, pues estéticamente no conviene mezclar rectángulos dentro de óvalos. Tal como reza un antiguo apotegma latino, la sencillez es el sello de la verdad (Simplex sigillum veri).

67

DESCRIPCIÓN NUMÉRICA DE LOS RESULTADOS La ilustración de los datos por medio de gráficos no es suficiente para una descripción precisa de los mismos. Por su parte, la descripción numérica constituye una poderosa herramienta, durante el análisis de los datos. A continuación se exponen algunos aspectos básicos, desde el uso de razones y proporciones, hasta el cálculo de estadígrafos, todos ellos de mucha utilidad en las investigaciones educacionales. El trabajo con razones y proporciones constituye un aspecto esencial en la práctica investigativa. Es usual enfrentarse a problemas donde la descripción de los resultados implica el cálculo de una razón; por ejemplo, “de una matrícula de 219 estudiantes, aproximadamente las tres cuartas partes alcanzan elevados índices de calidad”. ¿Qué significa esto? Para calcular de cuántos estudiantes se trata, es necesario multiplicar la razón por el total: ¾ (219) = 164,25. Como este resultado no tiene sentido, o sea, no existe una parte decimal de estudiantes, es necesario también redondear: 164,25 ≈ 164. De esta manera, aproximadamente 164 estudiantes alcanzaron tales índices. Debe recordarse que al truncar el número, el redondeo puede ser por defecto o por exceso. Cuando la primera cifra de la parte truncada es 0, 1, 2, 3, ó 4, se redondea por defecto, manteniendo intacta la parte no truncada (así ocurrió en el caso anterior). Cuando la primera cifra de la parte truncada es 5, 6, 7, 8, ó 9, se redondea por exceso, incrementando en una unidad la parte no truncada. Con frecuencia, también es necesario enfrentar el problema inverso. En efecto, el investigador sabe que de una matrícula de 219 estudiantes, 164 alcanzaron elevados índices de calidad. ¿Cómo obtener una fracción sencilla que exprese esta idea de manera razonablemente aproximada? Una manera de proceder consiste en dividir la parte entre el todo, y realizar algunas transformaciones convenientes; por ejemplo:

Fracción =

68

Parte 164 3 ⋅ 55 − 1 3 = = ≈ . Todo 219 4 ⋅ 55 − 1 4

En realidad, el método anterior es muy artificioso y nada generalizable. La Matemática posee una poderosa herramienta que resuelve esta problemática, denominada Teoría de las Fracciones Continuas, pero su análisis supera los límites de esta monografía. En la práctica es conveniente trabajar con algunas fracciones sencillas, tales como las del siguiente recuadro, donde los valores de las fracciones han sido redondeados hasta cuatro cifras decimales: 1 10

= 0,1000

3 8

= 0,3750

7 10

= 0,7000

1 9

≈ 0,1111

2 5

= 0,4000

5 7

≈ 0,7143

1 8

= 0,1250

3 7

≈ 0,4286

3 4

= 0,7500

1 7

≈ 0,1429

4 9

≈ 0,4444

7 9

≈ 0,7778

1 6

≈ 0,1667

1 2

= 0,5000

4 5

= 0,8000

1 5

= 0,2000

5 9

≈ 0,5556

5 6

≈ 0,8333

2 9

≈ 0,2222

4 7

≈ 0,5714

6 7

≈ 0,8571

2 7

≈ 0,2357

3 5

= 0,6000

7 8

= 0,8750

1 4

= 0,2500

5 8

= 0,6250

8 9

≈ 0,8889

1 3

≈ 0,3333

2 3

≈ 0,6667

9 10

= 0,9000

Como puede apreciarse, la tabla se limita a fracciones propias con denominador menor o igual que 10; por este motivo no brinda una gran precisión. Para el caso anterior,

3 164 ≈ 0,7489 ≈ 0,75 = . 4 219 Respecto a las proporciones, es común encontrar en los informes de investigación algunos datos, tales como “en la muestra seleccionada las cantidades de niñas(os), adolescentes y jóvenes, estaban en la relación 1:3:2, aproximadamente”. Esto significa que, por cada niña(o), existen tres adolescentes y dos jóvenes, con cierto margen de error. Por ejemplo, en una muestra de tamaño 600, 100 niñas(os), 300 adolescentes y 200 jóvenes, están en esa relación. En la práctica los datos se manejan de forma aproximada, pues es 69

bastante difícil que las proporciones se den de manera exacta. Con bastante precisión, puede afirmarse que 98 niñas(os), 305 adolescentes y 195 jóvenes, están en la relación 1:3:2. En exámenes constituidos por preguntas de elección múltiple, es usual la aplicación de la fórmula:

No. respuestasincorrectas No. ítems falsos por preguntas ⋅ 10 No. total de preguntas

No. respuestascorrectas− Calificación =

donde el criterio clásico de aprobado es 5 puntos. Puede observarse que existe un sentido lógico en la concepción de dicha fórmula. El factor 10 permite trabajar con la escala de -10 a 10, la cual es bastante cómoda. La fracción principal toma como denominador el máximo puntaje posible, suponiendo que cada pregunta aporta un punto. El numerador constituye la parte del todo que incrementa el puntaje. La diferencia se establece entre el total favorable de respuestas correctas y otra fracción que merece una explicación. En efecto, la fracción que aparece en el numerador constituye un sustraendo especial, el cual puede ser atenuado cuando el número de ítems falsos por pregunta es grande. Por ejemplo, en un examen de quince preguntas con respuestas de elección múltiple, donde cada pregunta tiene cinco ítems (uno verdadero y cuatro falsos), un resultado posible podría ser: nueve preguntas contestadas correctamente, tres incorrectamente y tres sin contestar. Las preguntas sin contestar no puntean, por tanto, la calificación será:

3 4 ⋅ 10 = 5,5. Calificación = 15 9−

Las relaciones analizadas están íntimamente vinculadas a los conceptos de proporcionalidad directa e inversa. Cuando las cantidades aumentan simultáneamente, de manera que su cociente es constante, se dice que son directamente proporcionales. Por el contrario, si al aumentar una disminuye la otra y viceversa, de

70

manera que el producto es constante, entonces se dice que son inversamente proporcionales. Para evaluar la calidad de un examen con preguntas de elección múltiple, se utiliza un índice de discriminación que oscila entre -1 y 1, considerándose un buen índice el comprendido entre 0,25 y 0,35. Una vez aplicado el examen, se ordenan las calificaciones y se forman dos subgrupos: uno fuerte, formado por el 27% superior; y otro débil, formado por el 27% inferior. La fórmula para el cálculo del índice de discriminación es la siguiente:

ID =

2 ⋅ (F − D) , N

donde F es el número de respuestas correctas del grupo fuerte, D el número de respuestas correctas del grupo débil, y N el número total de estudiantes de ambos subgrupos. En esta fórmula, el valor 2/N es constante, pues la cantidad de examinados se fija a priori. Por tanto, el valor del índice de discriminación y el valor de la diferencia F-D, son directamente proporcionales. Como ejemplo de proporcionalidad inversa puede tomarse el cálculo del coeficiente C, de cohesión de un grupo. En efecto, una vez aplicado un sociograma y determinado el número n de islas, este coeficiente se calcula según la fórmula:

C=

1 . 1+ n

Es evidente que el producto C·(1+n) es constante, de manera que C y 1+n son inversamente proporcionales. Por este motivo, la fórmula expresa que el coeficiente C decrece en la medida que aumenta el número n de islas. En el primer sociograma del capítulo anterior, se tiene que n = 1, de donde C = ½; mientras que en el segundo, como n = 3, se tiene C = ¼. Por este motivo, puede afirmarse que el grupo está más cohesionado para las actividades recreativas, que para el intercambio sincero en una relación estrecha de amistad. Esta no es la única manera de describir la cohesión del grupo. Algunos autores utilizan para ello el índice IC = NER / N, donde NER es el total de elecciones recíprocas y N el total de sujetos. En la 71

siguiente tabla se ilustran otros índices sociométricos, cuyas fórmulas se basan en los conceptos de razón y proporción. Los denominadores N-1 y N(N-1) se refieren, respectivamente, al total de sujetos salvo el individuo analizado y al total de relaciones binarias salvo la de un individuo consigo mismo. ÍNDICES INDIVIDUAL

Popularidad

Antipatía

Estatus

GRUPAL

Disociación

Coherencia

Intensidad

FÓRMULA

DESCRIPCIÓN

N Pop = E N−1 N Ant = R N−1

NE = número de elecciones recibidas

(N + NEP ) − (NR + NRP ) ES = E N−1 ID =

NRR N(N − 1)

N IC = ER NEE IS =

NEE + NRE N−1

NR = número de rechazos recibidos NEP = número de elecciones percibidas NRP = número de rechazos percibidos NRR = número de rechazos recíprocos NER = número de elecciones recíprocas NEE = número de elecciones emitidas NEE = número de elecciones emitidas NRE = número de rechazos emitidos

Un caso especial de trabajo con proporciones lo constituye el tanto por ciento, pues permite formarse una idea de la relación real de la parte respecto al todo. La experiencia ha demostrado que el número 100 es bastante cómodo para efectuar las comparaciones. Existen tres conceptos implicados en cualquier cálculo del tanto por ciento: el todo, que se denomina “valor base” y se denota por B; la parte, que se denomina “valor porcentual” y se denota por P; y el “porcentaje”, que es la parte de 100 que expresa la razón de P respecto a B, se denota por p y se expresa en %. La fórmula que relaciona estos tres conceptos es la siguiente:

72

P p = . B 100 De aquí se deduce la existencia de tres problemas posibles, consistentes en el cálculo de uno de los valores, conociendo los otros dos. En todos los casos, el cálculo se realiza aplicando la conocida “regla de tres”. Como ya se vio en las tablas de frecuencias, los valores relativos se calculaban dividiendo las frecuencias absolutas (valores porcentuales) entre el total (valor base). Esto guarda una relación estrecha con el cálculo de porcentajes, como también se mencionó anteriormente. He aquí un ejemplo más. MATRÍCULA

FRECUENCIA ABSOLUTA ABSOLUTA RELATIVA

PORCENTAJE

Niñas

16

0,533

53,3%

Niños

14

0,467

46,7%

Σ

30

1,000

100%

Como puede observarse, 30 es el valor base, mientras que 16 y 14 constituyen los respectivos porcentuales. Por regla de tres, cada porcentaje se calcula multiplicando cruzado 100·P y dividiendo el resultado por B. Esto es equivalente a dividir P por B y correr luego la coma dos lugares hacia la derecha. Los conceptos de razón, proporción y tanto por ciento no son suficientes para una descripción satisfactoria de los datos utilizados comúnmente. El resumen de la información puede hacerse de forma sencilla y precisa, utilizando valores numéricos que den idea de la ubicación o del centro de los datos (medidas de tendencia central); usando cantidades que informen de la concentración de las observaciones alrededor de dicho centro (medidas de dispersión); y mediante números que reflejen otros rasgos de la distribución, como asimetría y apuntamiento. Para estos fines la Estadística ha creado múltiples herramientas, donde las más elementales son los estadígrafos.

73

En primer lugar aparecen los estadígrafos de tendencia central, siendo muy conocidas la moda, la mediana y la media. La moda es el (o los) dato(s) de mayor frecuencia absoluta, y se denota por Mo. Esta definición es aplicable a cualquier tipo de variable, incluyendo las cualitativas. Cuando hay una sola moda, la distribución se llama unimodal; si hay dos, se llama bimodal; si hay tres, trimodal; y si hay más de tres, plurimodal. La moda presenta varios inconvenientes como medida descriptiva, destacando entre ellos que no todos los valores observados intervienen en su cálculo; además, la moda ni siquiera tiene por qué existir. En ocasiones, el hecho de que un conjunto de observaciones presente varias modas puede ser debido a que el fenómeno estudiado se haya producido por la confluencia de distintas poblaciones. En este caso, es conveniente determinar los estratos y llevar a cabo estudios paralelos en cada uno, lo cual permitirá una mayor comprensión del fenómeno. Ejemplo: En el siguiente recuadro aparecen las asignaturas por las cuales un grupo de estudiantes mostró mayor interés. Cada estudiante aparece representado por sus iniciales, y al lado figura su asignatura preferida. LOG YTL JCT ECP PTR LRC JMS LGH YHH YLM YHV MCV AAF

74

→ → → → → → → → → → → → →

Geografía Historia Física Geografía Historia Química Inglés Geografía Inglés Geografía Geografía Química Español

MRT PTS YLA APS YDA MCR YRR AFG YPC YBL MLO THV YUA

→ → → → → → → → → → → → →

Geografía Geografía Español Inglés Historia Geografía Historia Geografía Matemática Geografía Español Matemática Geografía

Una tabla de frecuencias inmediatamente la moda: ASIGNATURA PREFERIDA Geografía Historia Física Química Inglés Español Matemática

Σ

absolutas

permite

identificar

FRECUENCIA ABSOLUTA 11 4 1 2 3 3 2

26

De un total de once asignaturas, siete están en la preferencia de los estudiantes, siendo Geografía la más preferida; o sea, la moda. Aquí la moda resulta útil, pues la frecuencia absoluta correspondiente es mucho mayor que las restantes. La moda es ineficaz cuando supera ligeramente al resto de los valores, y también cuando algún dato tiene una frecuencia notable, pero sin llegar a igualar la moda. Por ejemplo, si la asignatura de Historia hubiese tenido una frecuencia absoluta de 10, no sería moda, pero debería ser tenida en cuenta. La mediana, por su parte, se denota por Me, y para efectuar su cálculo es preciso ordenar primero los datos, por lo que necesariamente quedan excluidas las variables nominales. Una vez que han sido ordenados, por ejemplo de manera ascendente, se razona de la siguiente manera: a) Si la cantidad de datos es impar, entonces se toma el valor central. b) Si la cantidad de datos es par, entonces se toma la semisuma de los valores centrales. Es necesario aclarar que el caso (b) es de uso corriente, pero puede tomarse cualquier valor entre los dos valores centrales, y no precisamente la semisuma. Por este motivo, la mediana no siempre es única. Una forma de comprender mejor que la mediana es una medida de tendencia central, consiste en observar lo siguiente: la 75

mediana es un valor tal, que las observaciones inferiores y superiores a ella son iguales en cantidad. Puede afirmarse también que los valores que superan a la mediana no son mayoría, y que los valores inferiores a ella tampoco lo son. Ejemplo: Los años de experiencia de los profesores del claustro de una escuela aparecen recogidos en el recuadro siguiente: 12 13

24 8

32 8

11 31

2 18

6 25

21 30

18 29

33 18

7 41

21 7

24 14

22 14

34 21

3 31

11 33

Se trata de 32 docentes, donde la más novel solo tiene 2 años de experiencia, mientras que el más experimentado acumula 41 años. Para determinar la mediana primero se ordenan los datos: 2

3

6

7

7

8

8

11

11

12

13

14

14

18

18

18

21

21

21

22

24

24

25

29

30

31

31

32

33

33

34

41

El total de datos es par (32), de manera que se procede como se explicó en (b). Puede observarse que el último valor de los primeros 16 números y el primer valor de los restantes 16, constituyen los valores centrales. Su semisuma es ½(18 + 21) = 19,5, por lo que la mediana es 19,5 ≈ 20 años de experiencia. Existen infinitos valores reales entre 18 y 21 que sirven como mediana; en cambio, la propia naturaleza de la variable suscita la elección de 19 ó 20, como valores más representativos. Una característica distintiva de la mediana consiste en que ella es bastante estable ante ciertas variaciones de los datos. Por ejemplo, si los últimos tres números hubieran sido 29, 34 y 44 (en lugar de 33, 34 y 41, respectivamente), el valor de la mediana no cambiaría. A pesar de que su cálculo es rápido y sencillo, la mediana es muy complicada matemáticamente para la inferencia estadística. Entre sus propiedades también se destaca el hecho de que si dos muestras tienen medianas Me′ y Me″, puede afirmarse que el conjunto unificado de ambas tiene mediana Me, con Me′ ≤ Me ≤ Me″. Además, en

76

distribuciones unimodales, la mediana está siempre entre la media y la moda; incluso más cerca de la media. En vista de que la mediana divide el conjunto de observaciones en dos subconjuntos de igual cantidad de elementos, cabe preguntarse si tiene sentido hallar también la mediana de cada uno de estos subconjuntos. Esta división genera tres valores: la mediana original y otras dos que, de conjunto, dividen el total de observaciones en cuatro partes con el 25% de las observaciones. La mediana de la primera mitad se denomina “primer cuartil”, y se denota por Q1; la de la segunda mitad, “tercer cuartil”, y se denota por Q3. Con esta terminología, la mediana original constituye el “segundo cuartil”, y se denota por Q2. Por su propia definición, los cuartiles no tienen por qué ser únicos. Es necesario precisar que el conjunto de cuartiles no constituyen medidas de tendencia central del conjunto original, o sea, de todas las observaciones; en realidad son medidas de posición, a excepción de Q2. Gráficamente se puede observar el significado de los cuartiles. Si X1, X2,…, X10, son diez datos observados, entonces, suponiendo que en orden ascendente se denotaran por X1′, X2′,…, X10′, resultaría:

Q1 X1′

X2′

X3′

Q2 = Me X4′ X5′ X6′

Q3 X7′

X8′

X9′

X10 ′

Como puede observarse, los tres cuartiles dividen el conjunto en cuatro partes, donde cada una tiene dos elementos; sin embargo, el 25% de 10 es 2,5 ≈ 3. Esta inexactitud va disminuyendo en la medida que aumenta la cantidad de datos. Para los gráficos de frecuencia acumulada, los cuartiles tienen una interpretación muy especial, la cual aparece ilustrada a continuación. Efectivamente, he aquí un diagrama de frecuencia acumulada, donde los valores relativos han sido multiplicados por 100 para indicar porcentajes. Las flechas que parten de cada cuartil indican la división 77

% Frecuencia Acumulada

del eje de frecuencias en cuatro partes iguales, lo cual no quiere decir que los cuartiles dividan el eje de las abscisas de igual manera. 100 75 50 25 0

Q1 Q2

Q3 Variable

Por su naturaleza intuitiva, la media o promedio es la medida de tendencia central más frecuente y conocida por todos; su uso es amplio en todas las investigaciones. Por ejemplo, en el ámbito educacional resulta cotidiano el análisis de los promedios de asistencia y promoción, como indicadores de gran importancia para la emulación escolar. El promedio se calcula sumando todos los valores observados X1, X2, …, XN, y dividiendo luego el resultado entre la cantidad total; o sea, según la fórmula: __

X=

X1 + X 2 + K + X N . N

En el ejemplo anterior se obtiene (12 + 24 +… + 33)/32 = 622/32 = 19,4375 ≈ 19 años. En realidad, los años se cuentan utilizando valores naturales, por lo que el investigador debería optar por la eliminación de la parte decimal. A diferencia de la mediana, el promedio se caracteriza por ser sensible a determinados cambios en los datos. Por ejemplo, si al rectificar los años de experiencia se descubriera que, en vez de 41 era 4, entonces se obtendría como promedio el número 18,28125 ≈ 18 años. En cambio, si el

78

decremento de ciertos datos se compensa con el incremento de otros, entonces el promedio permanece invariable. El promedio también se caracteriza por su cálculo rápido y sencillo; por su fácil interpretación, como una especie de “centro de gravedad” de las observaciones; y por su amplia aplicación en la inferencia estadística. Si se conocen las medias de dos muestras de tamaño dado, entonces es posible calcular la media del conjunto unificado de ambas muestras. Esto no era posible en la mediana, la cual solo se podía estimar. La fórmula para calcular exactamente el valor de la media, en este caso, es la siguiente: __

__

n ⋅ X 1 + n2 ⋅ X 2 X= 1 . n1 + n2 __

__

__

Aquí X 1 y X 2 son las medias de las muestras de tamaño n1 y n2, respectivamente. En general, esta fórmula puede extenderse a cualquier cantidad finita k de muestras, mediante la siguiente fórmula: __

__

__

n ⋅ X 1 + n2 ⋅ X 2 + K + nk ⋅ X k X= 1 . n1 + n2 + K + nk __

Un tipo de media poco usual, pero bastante útil en las investigaciones, es la media ponderada. Este promedio especial consiste en asignar “pesos” a los datos, en dependencia de la importancia que estos tienen. Si la variable asume los valores X1, X2, …, XN, y cada una de ellas tiene los pesos W1, W2, …, WN ∈ N*, respectivamente, entonces la media ponderada se calcula según la fórmula: __

Xp =

W1 ⋅ X 1 + W2 ⋅ X 2 + K + WN ⋅ X N . W1 + W2 + K + WN

Es fácil observar que el promedio ordinario es un caso especial de media ponderada, donde a cada valor se le asigna 1 como peso. Nótese, por ejemplo, que si W1 = W2 = … = WN = 1, entonces en el denominador W1 + W2 + … + WN = 1 + 1 + … + 1 = N. 79

Para una mejor aprehensión de esta fórmula es conveniente notar que cada Xi puede interpretarse como el promedio de una muestra de tamaño Wi, siendo todas las muestras disjuntas (si elementos comunes). El siguiente diagrama ilustra la idea anterior:

(W1, X1)

(WN, XN)

(W2, X2)



(W3, X3)

Cada muestra constituye un estrato de promedio Xi, cuyo peso será menor o mayor según lo sea el tamaño Wi del estrato. La unión de todos ellos conforma una nueva muestra (estratificada), mediante la cual el investigador puede describir mejor determinados hechos y fenómenos. La media ponderada encuentra una aplicación natural en el promedio de varias calificaciones, donde la importancia de cada una de ellas es variable. Por ejemplo, si en una investigación se desea medir el rendimiento académico de un(a) estudiante y se dispone de sus calificaciones en preguntas escritas, trabajos de control parcial, y examen final, entonces es posible asignar pesos a cada una de estos tipos de calificaciones. Por ejemplo, a las preguntas escritas un peso de 1, a los trabajos de control un peso de 2, y al examen final un peso de 4. Los números 1, 2 y 4 no son arbitrarios; es común utilizar potencias consecutivas de igual base, por la naturaleza exponencial de los niveles de importancia de cada tipo de evaluación. En este caso, la base que se ha elegido es 2, tomándose 20 = 1, 21 = 2, y 22 = 4.

80

Para fijar las ideas, si en las preguntas escritas obtuvo 5, 4, 4, 3, 5 y 3; en los trabajos de control, 4 y 3; y en el examen final 4, entonces: __

Xp =

1⋅ 5 + 1⋅ 4 + 1⋅ 4 + 1⋅ 3 + 1⋅ 5 + 1⋅ 3 + 2 ⋅ 4 + 2 ⋅ 3 + 4 ⋅ 4 54 = ≈ 3,86 ≈ 4. 1+ 1+ 1+ 1+ 1+ 1+ 2 + 2 + 4 14

Naturalmente que en ocasiones es necesario hacer algunas adaptaciones, sobre la base de determinados convenios. Si la calificación 2 significa “suspenso” en el sentido usual, es conveniente sustituir el 2 por 0, pues se trata de dos puntos que no representan un puntaje real, lo cual tiene que ver con la escala que se está utilizando. La media ponderada también puede utilizarse en concursos de conocimientos. Por ejemplo, en cierto concurso de Biología se estableció que la puntuación de la prueba teórica se contaba una vez, la de la práctica de laboratorio dos veces, y la de la práctica de campo tres veces. El cálculo del rating consistía en la correspondiente ponderación de los tres resultados. También este tipo de media puede aplicarse en la descripción de los resultados de una escala tipo Likert, tomando como ponderaciones la cantidad de encuestados que marca cada categoría. En la siguiente tabla se ilustran los resultados de la actitud de 100 encuestados hacia cierto aspecto, donde 1 significa “nada de acuerdo”, y así sucesivamente hasta llegar a 5, que significa “totalmente de acuerdo”.

1 9

CATEGORÍAS 2 3 4 12 17 39

5 23

TOTAL DE ENCUESTADOS 100

Los subtotales por columnas han sido calculados después de tomar los valores simétricos, en aquellos valores redactados en forma negativa. La media ponderada puede servir como indicador de medida, para cuantificar el grado de aceptación del aspecto en cuestión. En este caso, su valor es:

81

__

Xp =

9 ⋅ 1 + 12 ⋅ 2 + 17 ⋅ 3 + 39 ⋅ 4 + 23 ⋅ 5 355 = = 3,55 ≈ 4. 9 + 12 + 17 + 39 + 23 100

Por tanto, puede concluirse que los encuestados tienden a estar bastante de acuerdo con el citado aspecto. Si las categorías estuvieran más refinadas, entonces el investigador podría contar con una medida más precisa para su estudio. De todas formas, el problema del refinamiento en una escala tipo Likert enfrenta problemas de orden práctico que frenan el incremento del número de categorías; incluso se recomienda no exceder las siete. Junto a las medidas de tendencia central, las de posición también juegan un papel esencial. Ya anteriormente se analizó la mediana como un tipo de cuartil, pero ella es una medida de tendencia central mientras que los cuartiles no lo son. Los cuartiles son un tipo de medida de posición y constituyen un tipo especial de cuantil. Los cuantiles son valores de la distribución que la dividen en partes iguales, es decir, en intervalos que comprenden el mismo número de valores. Los más usados son los cuartiles, los deciles y los percentiles. Tal como se analizó, los cuartiles son tres y dividen la distribución de frecuencias en cuatro partes iguales; de igual manera ocurre con los deciles y los percentiles. Estos últimos son, respectivamente, 9 y 99, dividiendo las observaciones en sendos conjuntos de 10 y 100 partes. Los deciles se denotan por D1, D2, …, D9, y los percentiles por P1, P2, …, P99. En la práctica, el cálculo de los cuantiles se efectúa sobre datos agrupados. El intervalo de clase que contiene a Cr (cuantil al r%) es el primero cuya frecuencia absoluta acumulada es igual o mayor que (r/100)N, siendo N el número de observaciones. Para efectuar el cálculo se utiliza la siguiente fórmula, aproximada por interpolación lineal:

r N − Fi−1 (li+1 − li ) , Cr ≈ li + 100 fi

82

donde (li; li+1] es el intervalo que contiene a Cr, fi es su frecuencia absoluta y Fi-1 es la frecuencia absoluta acumulada del intervalo anterior. Particularmente, las fórmulas para el cálculo de los cuartiles son las siguientes:

Q1 = C 25 ≈ li +

1 4

N − Fi−1 (li+1 − li ) , fi

Q 2 = Me = C 25 ≈ li + Q3 = C 75 ≈ li +

3 4

1 2

N − Fi−1 (li+1 − li ) , fi

N − Fi−1 (li+1 − li ) . fi

A modo de ejemplo, a continuación se presenta una tabla de frecuencias con las calificaciones obtenidas por los estudiantes de un preuniversitario en su examen de Historia, con vista al ingreso en la Educación Superior.

CALIFICACIÓN (0; 10] (10; 20] (20; 30] (30; 40] (40; 50] (50; 60] (60; 70] (70; 80] (80; 90] (90; 100] Σ

MARCA DE CLASE 5 15 25 35 45 55 65 75 85 95

FRECUENCIA ABSOLUTA 0 1 2 1 3 5 25 45 52 27 161

ABSOLUTA ACUMULADA 0 1 3 4 7 12 37 82 134 161

83

Como puede observarse, los datos aparecen agrupados. Ahora es posible calcular un valor aproximado de la mediana, utilizando la segunda de las fórmulas anteriores. En efecto, el intervalo “mediano” (que contiene la mediana) es el primero cuya frecuencia absoluta acumulada Fi es igual o mayor que ½N = ½(161) = 80,5. Este intervalo es (70; 80], de modo que li = 70, li+1 = 80, fi = 45 y Fi-1 = 37; por tanto,

Me ≈ 70 +

80,5 − 37 (80 − 70) ≈ 79,7 . 45

Para el cálculo del promedio de un conjunto de datos agrupados es factible utilizar una especie de ponderación, donde los valores promediados son las marcas de clase y los pesos las frecuencias absolutas. En el caso anterior resulta: __

X=

0 ⋅ 5 + 1⋅ 15 + K + 27 ⋅ 95 12495 = ≈ 77,6 . 0 + 1 + K 27 161

Puede observarse la relativa cercanía que existe entre el promedio y la mediana. Es oportuno señalar que el cálculo anterior contiene un numerador compuesto por una suma de productos. Frecuentemente no se dispone de una computadora, pero sí de una calculadora digital. En este caso, muchas personas desconocen el uso de los botones M+, M- y MRC. El cálculo de la suma de productos se obtiene fácilmente, combinando los botones M+ y MRC de la siguiente manera: 1. Se efectúa el primer producto y se presiona M+. 2. El procedimiento anterior se repite para cada producto y así van visualizándose todas las sumas parciales. 3. Se presiona el botón MRC para visualizar la suma total. Frecuentemente, los educadores utilizan el promedio como una medida de sus resultados; sin embargo, la experiencia pone de manifiesto que esto no es suficiente para formarse una idea precisa del conjunto de datos. Por ejemplo, el hecho de afirmar que se ha logrado una calificación promedio de 85 puntos en ciertos exámenes no dice mucho. Tal vez la inmensa mayoría de las calificaciones 84

estén cercanas a 85, pero también es posible que una buena parte se disperse hacia arriba y hacia abajo. Esto último significa que los valores extremos se compensan, de manera que surge la incertidumbre de cuán alejadas están las notas de este promedio. Si la dispersión de los datos fuera pequeña, entonces en el grupo predominarían los aprobados cercanos a 85. Si, por el contrario, la dispersión fuera grande, entonces existirían elevadas calificaciones junto a otras muy bajas, probablemente con suspensos. Esto pone de manifiesto que el problema de medir el grado de dispersión es un aspecto útil y necesario en la descripción numérica de los datos. En la siguiente figura se presentan dos conjuntos de datos muy distintos, pero con la misma media. Como puede verse, la diferencia no radica siquiera en su simetría, sino en su concentración. Este ejemplo refuerza los argumentos a favor de complementar el promedio con un valor numérico, que exprese la variabilidad de los datos alrededor suyo.

X+4

X2

X1

_

X3

X6

X5

X

X4

X2

X1

X3

_

X6

X

X Una forma natural de construir una medida de dispersión sería promediar las desviaciones de la media: __

__

__

X 1 − X, X 2 − X, K, X N − X, donde N es la cantidad de observaciones de la variable; sin embargo, se puede demostrar matemáticamente que estas diferencias siempre se compensan y la suma se anula. Una manera de evitar esta anulación consiste en elevar dichas diferencias al

85

cuadrado. La raíz cuadrada del promedio de estos cuadrados recibe el nombre de “desviación típica” y se representa por: N

S=

∑ (X

__

i

− X)2

i=1

.

N

La desviación típica toma valores no negativos y mide la dispersión: a mayor (menor) desviación típica, mayor (menor) dispersión de los datos con respecto a su media. Su cuadrado recibe el nombre de “varianza” y se denota por S². La varianza se utiliza en operaciones matemáticas, pues al evitar la raíz cuadrada tiene propiedades aritméticas más cómodas. Puede demostrarse matemáticamente que existe una fórmula más sencilla para el cálculo de S. En efecto, también se cumple que: N

S=

∑X i=1

N

2 i

__ 2

−X .

Esta otra fórmula tiene la ventaja de que, si se conoce el promedio, se suman simplemente los cuadrados de las observaciones, evitando las incómodas diferencias. Además, casi siempre que un investigador desea calcular la desviación típica, por lo regular ya ha calculado primero el promedio. Estas fórmulas sirven para estudiar la dispersión de los datos en la población. Por este motivo se utilizan los términos de desviación típica y varianza poblacional. La Estadística fundamenta con mucho rigor la conveniencia de utilizar otras fórmulas para la desviación típica y la variancia muestral. En estos casos la única diferencia radica en sustituir el denominador N por su antecesor N-1. Otro aspecto de elevada significación práctica consiste en calcular la cantidad de datos que están alrededor de la media, tomando como límite una cierta cantidad de veces la desviación típica, por defecto y por exceso. La regla del matemático ruso Pafnuty Lvóvich Chebyshev (1821-1894) permite otra interpretación de la desviación típica, como medida de concentración. Este resultado establece que, para 86

cualquier conjunto de datos, la proporción de observaciones que dista menos de m desviaciones típicas de la media es como mínimo:

1−

1 . m2

Si se elige m=2 entonces se tiene como resultado 1-¼ = ¾ = 0,75, de modo que en el intervalo comprendido entre el promedio disminuido en dos desviaciones típicas y el promedio aumentado en dos desviaciones típicas, se acumula al menos el 75% de los datos. El siguiente gráfico muestra la Regla de Chebyshev para los intervalos más sencillos.

_

_

_

_

_

_

_

_

X–4S

X–3S

X–2S

X–S

X

X+S

X+2S

X+3S X

_ X+4S

al menos el 75 % de los datos al menos el 88 % de los datos al menos el 93 % de los datos

He aquí un ejemplo donde se combina el análisis del promedio y la desviación típica. En la siguiente tabla aparecen las calificaciones de una estudiante en las asignaturas de décimo grado, junto a los criterios evaluativos de los profesores. ASIGNATURA Historia Español Matemática Inglés Cultura Política Química Física Biología Geografía Educación Física

CALIFICACIÓN 75 87 74 99 96 90 88 90 91 92

CRITERIO 3 4 3 5 5 4 3 5 5 4

87

El cálculo del promedio es extensible tanto a la variable CALIFICACIÓN, como a la variable CRITERIO. En estos casos se obtiene, respectivamente: __

X CALIF =

75 + 87 + 74 + 99 + 96 + 90 + 88 + 90 + 91 + 92 = 88,2, 10

__

X CRIT =

3+4+3+5+5+4+3+5+5+4 = 4,1. 10

Ahora es posible calcular ambas desviaciones típicas, por medio de la segunda fórmula:

752 + 872 + 742 + 992 + 962 + 902 + 882 + 902 + 912 + 922 SCALIF = − 88,22 ≈ 7,64, 10 SCRIT =

32 + 42 + 32 + 52 + 52 + 42 + 32 + 52 + 52 + 42 − 4,12 ≈ 0,83. 10

Según estos datos, es posible sintetizar la información sobre el estado de la estudiante. En primer lugar, respecto a sus notas, puede afirmarse que su calificación promedio es de 88,2, con una desviación típica de 7,64. Por tanto, las tres cuartas partes de las calificaciones están en el rango 88,2 ± 2×7,64, esto es, superiores a 72,92. Existe incertidumbre sobre el otro cuarto de las calificaciones, el cual queda fuera de este margen. Surge la inquietud de si tiene o no asignaturas suspensas dentro de este cuarto, o sea, calificaciones inferiores a los 60 puntos. Con mayor precisión es posible decir que el 93% de las notas están en el rango 88,2 ± 4×7,64, o sea, superiores a 57,64 puntos. Por tanto, la información obtenida (promedio y desviación típica) aporta bastante información, pero siempre queda un margen de error. Casos como este, deben compensarse con informaciones complementarias, como la cantidad de asignaturas suspensas, el valor máximo y mínimo, entre otras. En relación a los datos obtenidos sobre la variable CRITERIO, llama la atención el hecho de que su desviación típica es mucho menor que la de la variable CALIFICACIÓN. Esto podría sugerir que la primera 88

variable está “más dispersa” que la segunda; sin embargo, esto solo tiene sentido de forma absoluta a partir del tamaño de los datos. Para facilitar el análisis, Pearson introdujo una medida para observaciones no negativas denominada “coeficiente de variación media”, que no depende del tamaño de los datos ni tampoco de sus unidades de medida. Su obtención es posible siempre que la media no sea cero; he aquí su fórmula de cálculo:

CV =

S __

.

X Cuando la media se anula, CV sencillamente no tiene sentido. Este coeficiente no es invariante ante cambios de origen. Es decir, si a los resultados de una medida se le suma una cantidad positiva, B > 0, para tener Y = X + B, entonces CVY < CVX. Asimismo, CV es invariante a cambios de escala. Por ejemplo el coeficiente de variación de una variable medida en metros es una cantidad adimensional que no cambia si la medición se realiza en centímetros. Como los datos son no negativos la desviación típica no supera al promedio. Por tal motivo, para datos mayores o iguales que cero (con promedio no nulo), de la fórmula se deduce que 0 ≤ CV ≤ 1. Así, mientras más cercano de cero esté CV, menor dispersión existirá; y mientras más cerca de la unidad, mayor dispersión. En el ejemplo anterior se tiene que:

CVCALIF =

SCALIF __



7,64 ≈ 0,09, 88,2



0,83 ≈ 0,20. 4,1

X CALIF CVCRIT =

SCRIT __

X CRIT

Por este motivo, el comportamiento de la variable CRITERIO era solo ilusorio. En realidad, la variable CALIFICACIÓN tiene menos dispersión, desde el punto de vista relativo. Existe una medida de dispersión denominada MEDA (mediana de las desviaciones absolutas), para expresar la variabilidad de las

89

observaciones alrededor de la mediana. Su cálculo es sencillo y consiste en hallar la mediana de los siguientes valores absolutos: |X1 – Me|, |X2 – Me|, …, |XN – Me|. Su uso es mucho menos frecuente, pero constituye un efectivo complemento de la mediana. Valores grandes de la MEDA corresponden a observaciones dispersas, mientras que valores pequeños aparecen en conjuntos de datos concentrados alrededor de la mediana. Otra medida de dispersión de amplio uso en psicometría, así como en el procesamiento del criterio de expertos es la “desviación cuartílica”. Se denomina “rango intercuartílico” a la diferencia entre el tercer y el primer cuartil, o sea: RI = Q3 – Q1. La desviación cuartílica es la mitad de este rango:

DC =

Q3 − Q1 . 2

En ambos casos es útil introducir los análogos del coeficiente de variación de Pearson: el rango intercuartílico relativo y el la desviación cuartílica relativa. Para ello basta con dividir RI y DC por el valor absoluto de Me = Q2. Las fórmulas respectivas son:

RIr =

Q3 − Q1 , | Me |

DCr =

Q3 − Q1 . 2 | Me |

Para concluir este capítulo se retorna nuevamente a la representación gráfica de los datos, pero utilizando recursos nuevos. Un tipo de gráfico que ha alcanzado un elevado nivel de generalización, por su sencillez y elevado poder descriptivo, también fue ideado por Tukey: se trata de los diagramas de cajas y bigotes (boxplots).

90

La mitad central de los datos, que va desde el primer hasta el tercer cuartil, se representa mediante una “caja” (rectángulo). La mediana se identifica mediante una barra horizontal dentro de esta caja. Un “bigote” (línea) se extiende desde el tercer cuartil hasta el valor máximo y otro desde el primer cuartil hasta el valor mínimo. Para conjuntos grandes de datos las líneas se pueden extender hasta los percentiles P5 y P95, respectivamente. Esta definición es bastante práctica cuando el rango de datos no es muy grande, de manera que los bigotes nunca resulten excesivamente grandes. A continuación se utilizan tres diagramas de cajas y bigotes para comparar los índices generales de tres grupos de estudiantes. En la hoja “Tukey” del archivo “anexo.xls” se explica detalladamente como maniobrar en Excel para construir estos diagramas. Como puede observarse, los tres grupos tienen aproximadamente un rango de datos de igual longitud. Sin embargo, los resultados del grupo B son inferiores a los dos restantes. La estrechez de la caja del grupo C revela una considerable concentración de los datos por encima de los 75 puntos. De esta manera, puede afirmarse que los resultados del grupo C son superiores a los del grupo A y estos, a su vez, superiores a los del B. 100

75

50

25

0 Grupo A

Grupo B

Grupo C

Cuando el rango de datos es grande se corre el riesgo de que los valores máximo o mínimo sean extremos. Si la dispersión es grande el problema es insignificante, pero si los datos están concentrados el 91

diagrama puede causar confusión. Por ejemplo, en el gráfico anterior pudo ocurrir que el bigote inferior del grupo C fue generado por unos pocos datos inferiores a 50, mientras no existía ninguno entre 50 y 75. Para enmendar este problema Tukey hizo una precisión sobre la construcción de los bigotes. En primer lugar, él clasificó los datos alejados de la caja de la siguiente manera: 1. Dudosamente alejados (suspected outliers), cuando su distancia hasta el cuartil más cercano sobrepasa 1,5 veces el largo de la caja, o sea, el rango intercuartílico RI. 2. Alejados (outliers), cuando esta distancia sobrepasa 3·RI. Partiendo de esta clasificación, Tukey propuso extender cada bigote hasta los últimos datos cuyas distancias a la caja no sobrepasaran 1,5·RI. Excel no construye estos diagramas tan sofisticados, a menos que se le incorpore una macro programada al efecto. A continuación se ilustra un diagrama de esta naturaleza, el cual fue construido utilizando SPSS. Puede observarse el comportamiento de un conjunto de datos, referidos a las matrículas de 300 facultades obrero-campesinas. Con pequeños círculos han sido identificados los datos dudosamente alejados y con asteriscos los alejados.

92

300,00

Alejados 250,00

200,00

Dudosamente alejados 150,00

3·RI Tercer cuartil

1,5·RI 100,00

Mediana 50,00

RI Primer cuartil

0,00 Matrícula

ANÁLISIS DE LA RELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS Un problema frecuente en las investigaciones consiste en indagar la relación existente entre dos variables apareadas; definidas por un conjunto de pares (X; Y), donde cada componente asume valores respectivos de cada variable. La yuxtaposición en pares no es fortuita, sino adscrita a cierta regla. Por ejemplo, la dupla (Xi; Yi) puede ser el par de calificaciones obtenidas por el estudiante i; también puede representar los índices de asistencia y puntualidad de una escuela en el día i; etcétera. Los pares formados pueden representarse con facilidad en una tabla. He aquí un fruto del ingenio del psicólogo hispano-venezolano José Peinado Altable (1909-1995). En 1942 Peinado acuñó el constructo “Índice de Regularidad de Aprendizaje” (IRA), como complemento del IQ en el estudio de alumnos con necesidades educativas especiales. El proceso de resolución de un problema puede conducir a errores; lo más natural consiste en que el número de estos disminuya tras la 93

repetición del ejercicio de resolución. Cabe preguntarse si tal disminución es lenta o rápida, si es brusca o suave, etcétera. En uno de sus experimentos Peinado utilizó el Test del Laberinto Manual, del psicólogo sueco André Rey (1906-1965). Después de esclarecer el problema y propiciar la familiarización de los sujetos, contabilizó los errores cometidos en cada ensayo antes de dar por terminada la tarea. En este caso, al aprendizaje lo daba por concluido si en dos repeticiones sucesivas el sujeto resolvía el problema sin error. He aquí un ejemplo (hipotético). Ensayo (Xi)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

Errores (Yi)

17

12

8

12

10

9

7

5

4

2

4

2

0

0

La representación de estos pares (Xi; Yi) en un sistema de coordenadas cartesianas permite visualizar la actuación del sujeto. Peinado formuló la hipótesis de que, para sujetos normales, entre ambas variables existe una relación dada por la ecuación XY = K, donde el valor de K coincide siempre con el valor de Y en el primer ensayo. De esta manera, la curva teórica que sirve de modelo es una hipérbola equilátera. En el siguiente gráfico se muestran los resultados del ejemplo anterior mediante una línea poligonal, junto a la curva teórica XY = 17. Como en la experiencia real es imposible cometer fracciones de error, se suspende la curva en el decimoséptimo ensayo. Puede observarse que el aprendizaje fue lento, incluso con regresiones. Por otra parte, aunque el experimento culmina con dos ensayos exitosos, se asume que en los ensayos subsiguientes (no realizados) tampoco se cometen errores hasta completar 17ensayos.

94

18 16 14

Errores

12 Comportamiento Real

10 8

Comportamiento Teórico

6 4 2 0 1

3

5

7

9

11

13

15

17

Ensayos

Los valores teóricos sirven para pronosticar los resultados esperados. En este caso, como en el primer ensayo se cometieron 17 errores, entonces se espera que en el tercer ensayo se cometan Y = 17/3 ≈ 5,67 ≈ 6 errores. El valor real para el tercer ensayo fue de 8 errores, por encima del valor teórico esperado. Además, también se espera un número menor de errores en el cuarto intento, pero la realidad fue bien distinta: 12 cuando se esperaba Y = 17/4 = 4,25 ≈ 4 errores. Evidentemente se trata de un sujeto con dificultades en su autoaprendizaje. Contrastando los valores reales con los teóricos, Peinado definió el IRA como la suma de las diferencias entre ellos. En la siguiente tabla aparecen todos los cálculos, obteniéndose IRA ≈ 33,53, el cual es mucho mayor que cero y revela una marcada lentitud en el aprendizaje.

95

ENSAYO 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

ERROR DIFERENCIA REAL TEÓRICO 17 12 8 12 10 9 7 5 4 2 4 2 0 0 0 0 0

IRA

17,000 8,500 5,667 4,250 3,400 2,833 2,429 2,125 1,889 1,700 1,545 1,417 1,308 1,214 1,133 1,063 1,000

0,00 3,50 2,33 7,75 6,60 6,17 4,57 2,88 2,11 0,30 2,45 0,58 -1,31 -1,21 -1,13 -1,06 -1,00

33,53

Es necesario señalar que Peinado también aprovechó el comportamiento de las poligonales para descubrir problemas de aprendizaje. Ya en el gráfico se pudieron observar picos como síntoma de regresiones, pero también suelen aparecer mesetas como manifestación de desatención y otros trastornos. Es importante puntualizar que la hipérbola constituye un modelo ideal. De la misma forma, para otras relaciones entre dos variables existen modelos matemáticos más o menos complejos. Por ejemplo, para explicar el comportamiento del olvido sirve de modelo una función de decrecimiento exponencial. La curva del olvido ilustra la pérdida de retentiva con el tiempo. Un concepto relacionado es la intensidad del recuerdo, que indica cuánto se mantiene un contenido en el cerebro. Cuanto más intenso sea un recuerdo, más tiempo se mantiene. Un gráfico típico de la curva del olvido muestra que normalmente en unos días o semanas se olvida la mitad de lo 96

aprendido, a no ser que se repase. Una aproximación matemática a la curva de la memoria está dada por la siguiente fórmula: R = e − t / S , donde R es la retentiva, S la intensidad relativa del recuerdo y t el tiempo transcurrido. En el siguiente gráfico se ilustra un ejemplo, donde el eje de las abscisas representa 15 días durante los cuales se comprobó la cantidad de datos recordados por un individuo, mientras que las ordenadas muestran los valores relativos respecto al total posible. Puede observarse que a la semana ya había olvidado más del 50% de los datos, mientras que en los tres últimos días logró recordar alrededor del 12%, con una tendencia aparente a fijar esta cantidad. La curva trazada por Excel (línea de tendencia exponencial) tiene un coeficiente igual a 1,0342, muy cercano a la unidad; mientras que 0,1476 es el recíproco de S ≈ 6,78. De esta manera, puede aceptarse con bastante aproximación que la función R = e − t / 6,78 es un buen modelo matemático de la curva de memoria del experimento realizado. 1 0,8 0,6

0,4

y = 1,0342e-0,1476x

0,2 0 1

2

3

4

5

6

7

8

9

10 11 12 13 14 15

La relación más sencilla y de amplia aplicación en la Estadística es la correlación lineal. En la siguiente tabla aparece representado un estudio bibliométrico, desarrollado en CDIP. Durante 120 días se controló la cantidad de obras científicas (X) y humanísticas (Y), solicitadas por los usuarios.

97

Día X Y Día

1

2

3

4

5

6

7

8

9

10

40

37

35

37

17

11

24

29

21

30

22

23

24

25

0

5

20

12

0

13

14

15

16

17

18

19

20

18

1

12

24

17

11

20

22

7

92 104 126 175

69 157

37

89 122

93 181 120 126 175

26

27

0

251 260 294 324 166 137 21

11

28

29

30

31

32

33

34

35

36

21

26

28

10

20

21

37

38

39

40

4

29

27

28

X

3

0

7

3

15

12

Y

59

61

80 101 171

70 120

72

47

76 226 255 203

45 140 204

25 198 200

79

Día

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

X

12

15

34

43

16

22

22

27

30

27

24

8

21

28

17

30

19

27

29

29

88 134

30 174 170

98 225 145 196 139 144

Día

Y

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

X

40

38

21

31

27

19

30

26

26

20

13

24

29

30

11

33

17

40

20

2

77 122 160 136 171 180 305 125 286 111

28

Y Día X Y

130 170 158 188 160 120 201 245 275

225 178 176 213 302 101 125 271 224 81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

97

98

99 100

5

18

11

1

14

22

29

21

27

50

39

35

32

30

33

20

12

40

38

27 105

89

67

79 230 263 266 167 191 224 211 248 258 196

31

91 103 170 137 176

Día 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120

98

X

18

Y

82 169 180 155 208 117 221

24

34

14

33

13

30

6

19

16

46

34 221 247 263

20

30

3

21

3

14

84 142 310 274 156

33

38

27

45

76

75

90

Humanida des

Si se representan estas duplas en un sistema de coordenadas cartesianas, se forma una especie de “nube de puntos” (scatterplot). En enteros aproximados el promedio de textos científicos fue de 22, mientras que el promedio de literatura humanística fue de 156. Trazando sobre la nube de puntos un nuevo sistema de coordenadas, de manera que los ejes queden determinados por estos puntos, el resultado es el siguiente:

I

II

156

IV III 22

Ciencias

Como puede observarse, la nube se concentra en el I y III cuadrante. Tal comportamiento expresa un crecimiento de la cantidad de obras de humanidades, cuando aumenta la cantidad de obras de ciencias. Algo similar ocurrió en la relación exponencial establecida entre la intensidad del recuerdo (R) y el tiempo (t) de la curva exponencial de memoria. Sin embargo, en este último gráfico el crecimiento es más proporcional. Por este motivo, una función lineal constituye un excelente modelo matemático para explicar la relación entre X e Y. El siguiente gráfico ha sido construido en Excel (véase la hoja de cálculo “Regresión_1” del libro “anexo.xls”). La recta definida por la ecuación ∧

Y = 4,55 ⋅ X + 56,28 se obtiene a partir del método de mínimos cuadrados, y constituye el mejor modelo lineal. El símbolo “^” sobre la letra Y sirve para diferenciarla de los valores observados. Este símbolo se usa muy a

menudo en Estadística y se lee “Indian House”, pero es más familiar decir sencillamente “Y techo”. 350 300

Humanidades

250 200 150 100

Y ^ = 4,55 X + 56,28 R2 = 0,4989

50 0 0

10

20

30

40

50

60

Ciencias

La recta anterior es un ejemplo típico de recta de regresión, pues permite predecir Y a partir de los valores de X. Por ejemplo, si X = 25 (textos científicos), se espera que la cantidad de obras humanística sea: ∧

Y = 4,55 ⋅ 25 + 56,28 = 170,03 ≈ 170 . Si se consulta nuevamente la tabla puede observarse que nunca se extrajeron exactamente 25 textos científicos. La forma más cruda de encontrar un valor aproximado para la cantidad de obras humanísticas, consiste en estimarlo calculando el promedio de los subtotales extraídos. En este caso se obtiene aproximadamente 156 obras, con un error relativo del 8,2% (suponiendo 170 el valor exacto) pero este razonamiento no tiene en cuenta para nada el comportamiento de la variable X. De existir una fuerte correlación, a los valores cercanos a X deben corresponder valores cercanos a Y. En general, la aplicación del método de mínimos cuadrados sobre un conjunto finito de pares (Xi; Yi) conduce a la función

100



Y = AX + B , como el mejor modelo lineal que explica Y por medio de X. En este caso, las constantes A y B se calculan de la siguiente manera:

A=

S XY , S 2X

__

__

A = Y− A X , donde SXY es la covarianza entre ambas variables (una especie de varianza conjunta) que se calcula utilizando cualquiera de las siguientes fórmulas __

S XY =

__

∑ (X i − X)( Yi − Y) N

=

∑X Y i

N

i

__ __

−XY,

siendo N la cantidad de observaciones (Xi; Yi). La idea original del concepto de regresión lineal se comparte entre dos amigos: Galton y Pearson. Francis Galton (1822-1911) fue estadístico, aventurero y primo de Charles Darwin. Sus estudios de la relación entre la estatura de los hijos y sus padres les llevaron a los conceptos de correlación y regresión. Uno de estos trabajos fue “Natural Inheritance” (1889), donde introdujo la Ley de la Regresión Universal: “Cada peculiaridad en un hombre es compartida por sus descendientes, pero en media, en un grado menor” (regresión a la media). El trabajo de Galton se centraba en la descripción de los rasgos físicos de los descendientes (una variable) a partir de los de sus padres (otra variable). Pearson, junto a su amigo de Galton, fue un seguidor entusiasta de la Teoría de la Evolución. Creyó encontrar, en la correlación, el instrumento adecuado para convertir la Medicina y las Ciencias Sociales en ciencias tan respetadas como la Física y la Química. Él realizó un estudio con más de 1000 registros de grupos familiares, observando una relación del tipo: altura del hijo ≈ ½ altura del padre + 85 cm. De esta manera, si el padre mide 200 cm, se espera que su hijo mida ½(200) + 85 = 185 cm (alto, pero no tanto como el 101

padre: regresa a la media). Si el padre mide 120 cm, entonces presumiblemente su hijo tenga una estatura de ½(120) + 85 = 145 cm (bajo, pero no tanto como el padre: regresa a la media). Como se vio más arriba, la aglomeración de puntos en el I y III cuadrante suscita la idea de una función lineal de monotonía creciente. Lo mismo sucedería si esta aglomeración se hubiese distribuido en el II y IV cuadrante, pero con monotonía decreciente. En determinados casos la concentración de puntos en torno al centro de gravedad, no sugiere necesariamente una correlación lineal; especialmente cuando son abundantes los puntos en más de dos cuadrantes. Para solucionar este problema Pearson introdujo un coeficiente de correlación lineal que lleva su nombre y se denota por R. La fórmula de cálculo es la siguiente:

R=

S XY , SXSY

donde SX y SY son las desviaciones típicas de las variables X e Y, respectivamente; mientras que SXY es la covarianza entre ambas variables. La diferencia entre regresión y correlación es que en el cálculo de la correlación ambas variables se tratan simétricamente, mientras que en la regresión, no. En la regresión se trata de poner la variable dependiente en función de los valores de la independiente. En consecuencia, si se intercambia el papel de las variables cambiará también la ecuación de regresión, porque la recta se adapta a las unidades de la variable que se desea predecir. Excel es capaz de calcular R automáticamente, haciendo uso de la función = COEF. DE CORREL (matriz1; matriz2). He aquí las principales propiedades de R: 1. Siempre es un número real del intervalo [-1;1], o sea, -1 ≤ R ≤ 1. 2. Si R = 1, existe dependencia lineal directa exacta entre X e Y.

102

3. Si R = -1, existe dependencia lineal inversa exacta entre X e Y. 4. Si R = 0, no existe dependencia lineal entre X e Y. 5. Cuanto más se aproxime R a -1 o a 1, más dependencia lineal existe entre X e Y; y cuanto más se aproxime R a 0, menos dependencia lineal existe entre X e Y. 6. Si R > 0, al aumentar la variable X, aumenta la variable Y. 7. Si R < 0, al aumentar la variable X, disminuye la variable Y. La Matemática demuestra que R² es la proporción de error que se elimina de S 2Y cuando se pronostica Y mediante la recta de regresión mínimo cuadrática, en vez de pronosticarlo mediante la media. De esta manera, cuanto más se aproxime R² a 1, mayor es la bondad del ajuste lineal; y mientras más lo haga a cero, menor será esta. En el último gráfico, junto a la ecuación de la recta de regresión, Excel incrustó también el valor de R² que se denomina “coeficiente de determinación”. En ese caso R² ≈ 0,499, de manera que la bondad de ajuste lineal es relativamente baja. Por tanto, la predicción o pronóstico utilizando la ecuación no es tan efectiva como se quisiera. El valor de R es aproximadamente 0,7063 y esto podría aparentar una fuerte correlación lineal; sin embargo, es el valor de R² quien significa que se ha eliminado solo un 49,9% de error al pronosticar Y mediante la recta de regresión mínimo cuadrática, e vez de hacerlo utilizando la media. Una pregunta latente consiste en determinar un punto de corte para R², que sirva de umbral para decidir si el ajuste es bueno. Este problema es muy complejo y está determinado, entre otras cosas, por la homogeneidad de las varianzas y la presencia de datos atípicos. Hasta aquí solo es factible recomendar el uso combinado del gráfico, del valor de R², y de la experiencia derivada del estudio particular que se desarrolle. Cuando se estudia la relación entre dos variables es importante asegurarse de que los elementos estudiados son homogéneos respecto a dichas variables. Por ejemplo, la siguiente figura ilustra los casos más frecuentes de heterogeneidad. En el primero hay un

103

dato atípico (o discordante con el resto) que afecta sensiblemente el valor de R², como se verá más adelante. 16

14 12 10 8

y = 0,3194x + 5,3039 R2 = 0,1142

6 4

P

2 0 0

5

10

15

20

200 y = 0,4209x + 60,685 R2 = 0,2343

180 160 140

A

120 100 80 60

B

40 20 0 0

50

100

150

200

En el segundo caso aparece otro tipo de heterogeneidad. Puede observarse que el valor de R² es muy pequeño. Sin embargo, si se calcula el coeficiente de correlación para las nubes A y B separadamente, se encuentra que dentro de cada subgrupo existe una correlación fuerte. La conclusión fundamental de estas reflexiones revela que un coeficiente de correlación es el resumen de la relación presente en un gráfico de dispersión. Conviene, por tanto, asegurarse mirando el gráfico que el coeficiente es un buen resumen del mismo. Tratar de interpretar el valor de R² sin haber construido previamente el gráfico puede ser peligroso. En la siguiente figura aparece un análisis

104

distinto, donde se ha desestimado el punto P y se han procesado las nubes A y B independientemente. 16 14 12 10

y = 1,0606x + 2,2254 R2 = 0,9243

8 6 4 2 0 0

200 180

5

10

15

y = 1,37x + 26,153 R2 = 0,8255

160 140 120 100 80

A

60 40

B y = 1,2618x - 80,345 R2 = 0,7222

20 0 0

50

100

150

200

Es necesario agregar que si bien un valor de R² cercano a cero indica muy baja correlación lineal, esto no significa ausencia de correlación. Probablemente las variables X e Y alberguen alguna correlación no lineal, como es el caso de la correlación logarítmica (véase un ejemplo en la hoja de cálculo “Regresión_2” del libro “anexo.xls”). Por otra parte, un coeficiente de correlación alto entre dos variables indica que toman valores relacionados entre sí en los elementos observados, pero no permite concluir la existencia de ninguna relación causal de una variable respecto a otra. Por ejemplo, una correlación alta entre las calificaciones de dos asignaturas no indica necesariamente que los resultados de una dependan de los resultados de la otra. La verdadera causa puede estar en una tercera 105

variable, como la homogeneidad en la calidad de la docencia, la cantidad de horas dedicadas al estudio, entre otras. La presencia de correlaciones espurias puede conducir a la formulación de hipótesis baldías. El investigador debe saber reconocerlas para no invertir tiempo y esfuerzo en análisis inútiles. Otro aspecto a tener en cuenta para el cálculo de R² consiste en el tamaño N de las observaciones. En la siguiente figura se muestra un ejemplo ilustrativo. Si el investigador hubiese seleccionado el subconjunto encerrado por la circunferencia, entonces R² estaría cercano a cero. En cambio, una mejor selección de la muestra como lo es toda la nube de puntos, revela una mejor correlación lineal. 180 160 140 120 100 80 60 40 20 0 0

20

40

60

80

100

120

Tanto la variable X como la variable Y generan, independientemente, sendas tablas de frecuencias. Sin embargo, su apareo motiva un procedimiento para el agrupamiento de los datos, en lo que se conoce como tabla de doble entrada. Efectivamente, para los datos anteriores es posible definir una partición en intervalos para cada variable y luego contar la cantidad de días en que las componentes de (X; Y) pertenecen, respectivamente, a cada par de intervalos. Por ejemplo, de acuerdo a la siguiente tabla de doble entrada, la cantidad de días donde se extrajeron de 0 a 10 obras científicas y de 25 a 75 obras humanísticas, es 15.

106

Y

X

[0; 10]

[11; 20]

[21; 30]

[31; 40]

[41; 50]

Σ

[25; 75]

15

1

[76; 125]

4

19

7

16

[126; 175]

11

14

4

[176; 225]

2

11

9

2

24

[226; 275]

1

10

3

1

15

[276; 325]

Σ

30

1

19

34

29

5

43

Como puede observarse, las sumas de columna, constituyen las frecuencias separado. Estas sumas se denominan totalizan el número de observaciones (N

6

21

3 120

la última fila y de la última absolutas de X e Y por “frecuencias marginales” y = 120).

Cada variable dividida en intervalos, con su respectiva frecuencia marginal, es susceptible de ser representada en un diagrama de barras. Incluso, si hubiesen sido continuas generarían por separado sendos histogramas. Estos análisis independientes no son tan útiles cuando la esencia del estudio reside en el propio apareamiento de las variables. Por tal motivo, es necesario imaginar la construcción de un gráfico de columnas en el espacio de tres dimensiones. En el siguiente gráfico se ilustra una representación gráfica de los datos agrupados en la tabla de doble entrada. Como puede observarse, si bien las columnas se concentran en torno a la diagonal principal, existe tendencia a formar una especie de campana tridimensional. En el archivo “anexo.xls” se explica la construcción de este gráfico en Excel (véase nuevamente la hoja de cálculo “Regresión_1”).

107

3 1; [2

] 50 1; ] [4 40 1; [3 0]

2 1; [1 0]

108 0] ;1 [0

[2 5; 75 [7 6; ] 12 [1 5] 26 ;1 [1 75 76 ] ;2 [2 25 26 ] ;2 75 [2 76 ] ;3 25 ]

20 15

10

5

0

Bibliografía ALONSO, L. A. (2007). La formación de competencias laborales en los estudiantes de técnico medio en Mecánica Industrial a través del período de prácticas pre-profesionales. Tesis doctoral no publicada. Holguín: Instituto Superior Pedagógico de Holguín “José de la Luz y Caballero”. ARSHAM, H. (on-line). Excel for statistical data analysis (disponible en http://www.mirrorservice.org/sites/home.ubalt.edu/ntsbarsh/B usiness-stat/excel/excel.htm). ARCE, C. (1994). Construcción de escalas psicológicas. Madrid: Síntesis. ARY, D.; Cheser, L. and Razavieh, A. (1990). Introduction to research in education. The Dryden Press: Holt, Rinehart and Winston, Inc. BAKER, F. B. (2001). The basics of Item Response Theory. ERIC Clearinghouse on Assessment and Evaluation, University of Maryland, College Park, MD (disponible en http://edres.org/irt/baker/final.pdf). BAUZA, C. N. y Sistachs, V. (2004). Estadística. Teoría básica y ejercicios. La Habana: Félix Varela. BROWN, J. D. (1995). Understanding research in second Language learning: A teacher’s guide to statistics and research design. Cambridge: Cambridge University Press. CRUZ, M. (2007). El método Delphi en las investigaciones educacionales. Memorias de Pedagogía’ 07 (CD-ROM). La Habana: MINED. CRUZ, M. y Campano, A. E. (2007). El procesamiento de la información en las investigaciones educacionales. La Habana: Educación Cubana. CRYER, J. D. (2002). Problems with using Microsoft Excel for statistics. Proceedings of the 2001 Joint Statistical Meetings,

109

University of Iowa (disponible en http://oit.utk.edu/scc/ExcelStatProbs.pdf). CUNHA, L. M. (2000). Dossiê IV – Estatística com Excel. Oporto: Projecto ALEA (disponible en http://alea.ine.pt/html/statofic/html/dossier/doc/Dossier4.PDF). DIXON, W. J. y Massey, F. J. (1980). Introducción al análisis estadístico. La Habana: ER. FRIEDRICH, W. (1988). Métodos de la investigación social marxistaleninista. La Habana: Editorial de Ciencias Sociales. GARCÍA, V. (1966). Estadística aplicada a la educación y ciencias humanas. Madrid: Rilap. GIBBONS, J. D. (1971). Nonparametric statistical inference. New York: McGraw-Hill. GLASS, G. V. & Hopkins, K. D. (1996). Statistical methods in education & psychology, Third Edition. Boston: Allyn & Bacon. GUERRA, C. et al. (1987): Estadística. La Habana: Pueblo y Educación. GOODE, W. J. y Hato, P. K. (1971): Métodos de investigación social. La Habana: Ciencias Sociales. KLEINING, G. & Witt, H. (2001): Discovery as basic methodology of qualitative and quantitative research. Forum: Qualitative Social http://www.qualitativeResearch, 2(1) (disponible en research.net/fqs-texte/1-01/1-01kleiningwitt-e.htm). LÓPEZ-BARAJAS, E.; LÓPEZ, E. (1991): Pedagogía experimental I. Madrid: Universidad Nacional de Educación a Distancia. MATAS, A. (2003): Historical origins of statistics applied to pedagogy. Revista Electrónica de Metodología Aplicada, 8(1), 123 (disponible en www.psico.uniovi.es/rema/v8n1/matas.pdf). MARÍN, J. (2000): Estadística aplicada a las ciencias documentación. Murcia: Diego Marín Librero-Editor.

de

la

MCGUIGAN, F. J. (1978): Psicología experimental. México, D. F.: Trillas. 110

MELIÁ, J. L. (1990): La construcción de la psicometría como ciencia teórica y aplicada. Valencia: Cristóbal Serrano (disponible en www.uv.es/psicometria). MELIÁ, J. L. (1991): Métodos de escalamiento unidireccional. Valencia: Cristóbal Serrano Villalba. MINISTERIO DE EDUCACIÓN SUPERIOR (2007): Resolución No. 210/07. Gaceta Oficial de la República de Cuba, No. 40, Año CV, pp. 209-232 (disponible en http://www.gacetaoficial.cu/pdf/ano_2007/extraordinaria/GO_X_ 040_2007.zip). NORTHWAY, M. L. & Weld, L. (1974): Sociometric testing: A guide for teachers. Toronto: University of Toronto Press. ORLOV, Y. M. (1975): El coloquio y la encuesta como métodos de investigación. Métodos de investigación pedagógica (pp. 119156). La Habana: Pueblo y Educación. PACE, L. A. (2006): Introductory statistics: A cognitive learning approach. Anderson University: TwoPaces LLC. PELÁEZ, T. y Román, J. Ma. (2000): El “Índice de Regularidad de Aprendizaje” de Peinado Altable. Psicodidáctica, No. 010, Victoria-Gasteiz: Universidad del País Vasco (disponible en www.redalyc.uaemex.mx/redalyc/pdf/175/17501009.pdf). PEÑA, D. Y ROMO, J. (2003): Introducción a la estadística para las ciencias sociales. Madrid: McGraw Hill. PÉREZ, O. A. (2006): Esquema conceptual, referencial y operativo sobre los modelos estadísticos en las investigaciones educativas. Tesis doctoral no publicada. La Habana: Instituto Superior Pedagógico “Enrique José Varona”. PEREZ, R. (1991) : Pedagogía experimental. Madrid: Universidad Nacional de Educación a Distancia. POTTEL, H. (2001): Statistical flaws in Excel (disponible http://www.mis.coventry.ac.uk/~nhunt/pottel.pdf).

en

111

SARRAMONA, J. (1980): Investigación y estadística aplicada a la educación. Barcelona: CEAC. SIMON, J. (1972) : La pédagogie expérimentale. Toulouse: Privat. SIEGEL, S. (1956): Nonparametric statistics for the behavioral sciences. New York: McGraw-Hill. SPIEGEL, M. (1975) : Estadística. La Habana: Pueblo y Educación. Stake, R. E. (1995): The art of case study research. Thousand Oaks, CA: Sage Publications. VAN DAM, N. (2003): The e-learning fieldbook. NY: McGraw-Hill. VILLASEÑOR, S. (2002): La investigación de impacto en proyectos de desarrollo: Una propuesta participativa. Jalisco: IMDEC. WAINERMAN, C. H. (1976): Escalas de medición en ciencias sociales. Buenos Aires: Nueva Visión. ZIV, A. Y DIEM, J. (1980): Psicopedagogía experimental. Madrid: Cincel-Kapelusz.

Nota: Todos las hipervínculos a Internet fueron comprobados el 5 de septiembre de 2008.

112

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF