Diccionario-glosario de metodologÃa de la investigación social
Short Description
Download Diccionario-glosario de metodologÃa de la investigación social...
Description
Dionisio del Río Sadornil es doctor en Pedagogía y profesor titular de Universidad. Ha desempeñado su labor docente en la Universidad Complutense y, desde 1974 hasta 2005, en la UNED (Departamento de Métodos de Investigación y Diagnóstico en Educación). Fue Primer Premio del Consejo Social de la UNED a la mejor Unidad Didáctica en 2004. Actualmente es profesor colaborador honorífico de dicha Universidad. Su actividad docente e investigadora se refleja en veinticinco publicaciones sobre temas pedagógicos-didácticos. Los más recientes: Orientación educativa y tutoría; Problemas y diseños de investigación resueltos; Métodos de investigación en Educación.
ISBN: 978-84-362-5154-8
Diccionario-glosario de metodología de la investigación social
Este diccionario pretende ser un prontuario que disipe dudas y afiance conceptos. Contiene cerca de 1.800 entradas que recogen expresiones y términos de las diversas metodologías investigadoras, con las nuevas aportaciones terminológicas de los paradigmas cualitativo-interpretativo, evaluativo, sociocrítico, etc., que se unen a la terminología estadística consagrada en los diccionarios convencionales. No pocos términos se ofrecen con sus varias denominaciones sinónimas (éstas figuran como entradas independientes), y asimismo aquellos que albergan pluralidad de significados. Finalmente destaca por la claridad en la definición y explicación de los términos, sin que afecte al rigor expositivo de los mismos.
Dionisio del Río Sadornil
C
35268
Editorial 9 788436 251548
0135268CU01A01
CU 268
M
Y
CM
MY
CY CMY
K
cuadernos
Diccionario-glosario de metodología de la investigación social Dionisio del Río Sadornil
Dionisio del Río Sadornil
DICCIONARIO-GLOSARIO DE METODOLOGÍA DE LA INVESTIGACIÓN SOCIAL
UNIVERSIDAD NACIONAL DE EDUCACIÓN A DISTANCIA
DICCIONARIO-GLOSARIO DE METODOLOGÍA DE LA INVESTIGACIÓN SOCIAL
Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del Copyright, bajo las sanciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamos públicos. © Universidad Nacional de Educación a Distancia Madrid 2013 www.uned.es/publicaciones © Dionisio del Río Sadornil ISBN electrónico: 978-84-362-6803-4 Edición digital: octubre de 2013
A mis padres («in memoriam»). A mis nietos: Jorge Laura y Elena «investigadores en ciernes» de la vida y promesas de futuro.
INTRODUCCIÓN
El nacimiento de este Diccionario-glosario se debe, en gran parte, a la demanda de los alumnos y al apoyo de algunos colegas. De ahí que su finalidad y estructura pretendan ser eminentemente didácticas, habida cuenta sus destinatarios: estudiantes universitarios de las carreras de Ciencias Sociales (Psicología, Pedagogía, Psicopedagogía, Sociología, Educación social, etc., en cuyo currículo se cursan materias de metodología de investigación en cualquiera de sus vertientes y paradigmas: cuantitativo-estadístico, cualitativo-interpretativo, evaluativo, socio-crítico, etc.), doctorandos y, en general, iniciados (pero no expertos), como una primera ayuda en el quehacer metodológico-investigador. Pretende ser un prontuario que disipe dudas y afiance conceptos. 1. Justificación del título. Se fundamenta en que es: a) diccionario, en cuanto que define la mayoría de los términos —estadísticos o no estadísticos— utilizados en las investigaciones sociales; b) glosario, porque muchos términos (la mayoría) son objeto de una «glosa», explicación o comentario más o menos extensos, que van más allá de la mera definición o concepto de dichos términos referidos a la metodología de investigación en las diversas Ciencias Sociales. Pero en ningún caso pretende ser un «Diccionario enciclopédico», aunque lo parezca en determinadas entradas. 2. Contenido. De las cerca de 1.800 entradas puede decirse que sí recogen todas las expresiones y términos importantes, y no pocos secundarios, aunque es evidente que no puedan estar absolutamente todos los que son menos importantes o secundarios, máxime teniendo en cuenta la rápida evolución de las diversas metodologías investigadoras con nuevas aportaciones terminológicas. No es, por consiguiente, un Diccionario-glosario exhaustivo. 2.1. Estructura del contenido. Dada la finalidad eminentemente didáctica de este Diccionario-glosario, no pocos términos se ofrecen con sus
10
DICCIONARIO-GLOSARIO DE METODOLOGÍA DE LA INVESTIGACIÓN…
varias denominaciones sinónimas (éstas figuran como entradas independientes en su lugar correspondiente), como asimismo aquellos que albergan pluralidad de significados. En su composición no se ha seguido a ningún diccionario concreto, sino que los vocablos y expresiones incluidos se han ido extrayendo de diversos tratados y manuales de metodología de investigación (ver referencias bibliográficas al final). Aunque fundamentalmente la terminología estadística consagrada en los diccionarios convencionales acapara la mayor atención, se incluyen no pocas entradas de términos y expresiones de metodologías no cuantitativas, como las derivadas de los paradigmas cualitativo-interpretativo, el evaluativo o el sociocrítico. 2.2. Satisfacción / insatisfacción. El autor manifiesta, por un lado, su relativa satisfacción por ofrecer un «diccionario diferente» con aportaciones de expresiones y términos nuevos. Pero a la vez confiesa que la decisión de cerrarlo tal como sale a luz, le deja francamente insatisfecho: a) porque hubiera querido abarcar más términos y asimismo redondear otros que, sin duda, pueden aparecer inacabados; b) porque hubiera deseado algo más que una obra para estudiantes y lectores poco iniciados en la materia; de ahí, quizá, el exceso a veces de explicaciones sencillas y comprensibles, pero «pesadas» para los expertos; c) porque su esfuerzo por ofrecer expresiones o vocablos afines o bien sinónimos ha podido quedar incompleto. 2.3. ¿Originalidad en un Diccionario-glosario? En el estado actual de las ciencias (y en concreto de las Ciencias Sociales y de su metodología investigadora) parece difícil la originalidad en la definición precisa de términos y conceptos acuñados por los diversos paradigmas de investigación. Quizá la idea de un Diccionario-glosario —que no diccionario enciclopédico— no sea muy corriente. Por otro lado, parece comprensible que ningún autor de diccionario, por específico que éste sea, domine en profundidad todos los términos técnico-científicos como para definirlos y glosarlos de forma original. Necesariamente tiene que aceptar y transcribir conceptos y definiciones acuñadas por los expertos. Dicho de otro modo, precisa documentarse cuidadosamente en la mayoría de los términos y expresiones que define o glosa, para que el rigor y exactitud sea la norma general que presida su trabajo. Es lo que se ha intentado en el presente Diccionario; incluso en algunos casos citando literalmente la definición de autores expertos en la materia o remitiendo expresa o tácitamente a la bibliografía final consultada.
INTRODUCCIÓN
11
2.4. La claridad como característica, incluso destacando en cursiva palabras o expresiones significativas. Claridad que se intenta en la definición y explicación de los términos. Claridad y sencillez, pensamos, que no pueden estar reñidas con el rigor expositivo. 3. Observaciones de manejo: a) La ordenación alfabética de las entradas tiene en cuenta las «palabras-clave»: sustantivos, adjetivos, verbos, adverbios y vocablos «expresivos» y/o diferenciadores y no artículos, pronombres, preposiciones y conjunciones. Así, p. ej., en caso de dos expresiones con varias palabras —v. gr., «pruebas paramétricas» y «pruebas no paramétricas»— la segunda precederá a la primera por el adverbio no intercalado. b) En el caso de preposiciones que varíen el significado, como sin y con, por ejemplo, se tendrán en cuenta (v. gr.: «muestreo aleatorio con reposición», «muestreo aleatorio simple» y «muestreo aleatorio sin reposición» irán en este orden). c) Los términos en plural se tienen en cuenta y van colocados al final de sus correspondientes singulares. d) Al final del Diccionario-glosario se incluye la explicación más o menos detallada de 21 símbolos griegos más utilizados. e) En cuanto a la «simbología», es frecuente la dificultad que supone el uso de símbolos diferentes para los mismos conceptos o términos, según tratados o autores. Aquí se ha utilizado la simbología de mayor uso. 4. Agradecimientos. Se ha escrito acertadamente, creemos, que ningún libro (al menos los de carácter científico-técnico y académico) ha sido escrito exclusivamente por un único autor, aunque así aparezca en la portada, sin que sea deudor, de una u otra forma, a otros autores que, o bien roturaron antes el camino, o bien contribuyeron con sus ideas a hacer posible otro libro posterior. En el caso de este Diccionario-glosario, esto es una realidad palpable, porque ningún diccionario puede ser original en las ideas contenidas (según se ha comentado anteriormente), aunque sí pueda serlo en la inclusión y enfoque de nuevos términos, como consecuencia del vertiginoso avance de las ciencias y, en nuestro caso, de la investigación en Ciencias Sociales. Muchos libros y autores han sido consultados (algunos se relacionan en las referencias bibliográficas del final, porque han sido citados expresamente en determinados vocablos y expresiones). Además de ellos,
12
DICCIONARIO-GLOSARIO DE METODOLOGÍA DE LA INVESTIGACIÓN…
este autor es deudor a no pocos colegas, cuyas publicaciones han servido de fuente para seleccionar, primero, y conceptualizar, después, gran número de términos y expresiones que todavía no habían encontrado asiento en los diccionarios al uso de metodología de investigación. Especial reconocimiento merecen mis colegas, profesores García Llamas, Gil Pascual y Pérez Juste. Sus publicaciones didácticas han sido de una inestimable ayuda en no pocos términos y expresiones. Al primero tengo que agradecerle el ánimo constante y la ayuda en la inclusión de vocablos y nuevas expresiones de los nuevos modelos de investigación no cuantitativa. Al segundo, la amabilidad de revisar determinadas fichas manuscritas y su desinteresada colaboración con sugerencias y orientaciones que, sin duda, han mejorado la precisión de determinados vocablos y expresiones, aclarando contradicciones menores encontradas en diversos manuales y puntualizando el concepto y contenido de términos de investigación multivariada o multivariable. Varias son las personas que de una u otra forma han prestado valiosa ayuda para la realización de este trabajo. Mi reconocimiento expreso a mis hijos Juan-Luis y Álvaro, por su inestimable colaboración en la transcripción a ordenador de las casi 1.800 fichas manuscritas. 5. Valoración crítica y posibles sugerencias. El autor es consciente de las lagunas y deficiencias de este Diccionario-glosario, así como de las posibles erratas materiales de una obra tan compleja como ésta. Mucho agradecería la valoración crítica de la misma por parte de los lectores y las sugerencias que contribuyan a la mejora de la misma en futuras reimpresiones. Madrid, mayo de 2005.
A
ABSCISA.
Eje horizontal de las coordenadas.
ABSTRACCIÓN. Proceso ideal que consiste en separar, por medio de una operación intelectual, las cualidades de un objeto para considerarlas aisladamente o para considerar el mismo objeto en su pura esencia o noción. Es separar un aspecto parcial, o cualidad, de un objeto total. También se dice del resultado o producto de dicha operación mental. La abstracción, que concentra la atención sobre un aspecto único, difiere del «análisis» en cuanto que éste considera todos los aspectos a la vez y en el mismo plano. ACOVAR.
Acrónimo de análisis de covarianza (véase).
Locución inglesa empleada para referirse a la investigación-acción o investigación activa (véase).
«ACTION RESEARCH».
Predisposición organizada para pensar, sentir, percibir y comportarse de determinada manera ante un objeto cognoscitivo o un referente (referente es una categoría, una clase o conjunto de fenómenos: objetos físicos, acontecimientos, conductas e incluso construcciones hipotéticas). La actitud es una estructura estable de creencias que predispone al individuo a comportarse selectivamente ante referentes actitudinales. (Kerlinger, 1975.) En el desarrollo del concepto de actitud parece asentarse la validez del modelo «tridimensional» que incluye un componente afectivo, otro cognoscitivo y otro comportamental.
ACTITUD.
ACTITUD, escala de.
(Véase: Escala de actitudes).
ADAPTACIÓN A LAS PRUEBAS. Sesgo potencial que se refleja en la medida de la variable dependiente, debido a la adaptación de los sujetos a los tests y pruebas de evaluación. (Véase: Administración de tests).
ADMINISTRACIÓN DE TESTS
14
ADMINISTRACIÓN DE TESTS. Factor o variable extraña que afecta a la validez interna del diseño de investigación cuando no se controla el influjo que la administración de un test ejerce sobre los resultados de otro posterior. Se trata de los efectos reactivos de determinados instrumentos de medida. Un test es reactivo cuando produce cambio al mismo tiempo que lo mide. La mayoría de los tests psicopedagógicos son reactivos, pues siempre que se aplica el mismo test (o su forma equivalente) por segunda vez, se están «recogiendo» los efectos de la primera aplicación. Si los efectos son aditivos, entonces el aumento aparente en los valores de la variable dependiente (V.D.) puede atribuirse equivocadamente a la variable independiente (V.I.).
En el muestreo probabilístico, o al azar, (dentro del muestreo estratificado proporcional con fijación), acto de establecer el número de elementos pertenecientes a un estrato que deben ser incluidos en la muestra.
AFIJACIÓN.
En el muestreo al azar, o probabilístico, afijación proporcional (dentro del muestreo estratificado) que es ponderada por la varianza de la variable en estudio dentro del estrato.
AFIJACIÓN ÓPTIMA.
AFIJACIÓN PROPORCIONAL. En el muestreo probabilístico, o al azar —y dentro del muestreo estratificado—, afijación en la que el número de elementos es proporcional al tamaño del estrato. Se denomina también muestreo estratificado proporcional (véase).
En el muestreo estratificado constante, afijación en la que el número de elementos es igual para cada estrato, con independencia del tamaño y variabilidad de los estratos dentro de la población. (Véase: Muestreo estratificado constante).
AFIJACIÓN SIMPLE.
ALEATORIA, muestra.
(Véase: Muestra aleatoria y muestra probabilística).
Es el azar (ausencia de ley alguna). Si los eventos pudieran explicarse por leyes, ya no serían aleatorios. ¿Por qué, entonces, hablamos de leyes del azar? Porque «los eventos azarosos, en su conjunto, ocurren en forma ordenada con regularidad monótona. Del desorden de la aleatoriedad, el científico extrae el orden de la predicción y el control científicos» (Kerlinger, 1979, 66). A efectos prácticos, la aleatoriedad, en la selección de elementos de un conjunto o de sujetos de una población, se dará cuando cada elemento o cada sujeto tenga las mismas probabilidades de ser seleccionado que los demás. Esto se consigue utilizando cualquier procedimiento de resultados no predecibles (moneda equilibrada, ruleta..., o una tabla de números aleatorios). ALEATORIEDAD.
15
ALFA DE CRONBACH
El principio de azar actúa mejor cuando el número de casos es suficientemente grande. Por ello, en igualdad de otras circunstancias, es preferible contar con muestras grandes. ALEATORIEDAD, prueba de.
(Véase: Rachas, prueba de).
Que obedece al azar y, por tanto, no responde a ninguna ley o patrón sistemático de variación, sino que varía sin orden alguno conocido.
ALEATORIO.
ALEATORIZACIÓN. Dícese de la técnica empleada en los diseños de grupos al azar (dos o más grupos independientes): azar, tanto en la selección de los sujetos, como en la asignación de los sujetos a los grupos y éstos a los tratamientos experimentales.
Técnica de control del efecto del orden de presentación de los tratamientos experimentales que puede utilizarse cuando cada tratamiento se aplica más de una vez. Se establecen bloques de tratamientos de tamaño igual al número de valores o niveles de la variable independiente. Dentro de cada bloque se incluye una tarea de cada condición experimental siguiendo un orden aleatorio.
ALEATORIZACIÓN POR BLOQUES.
Técnica de control del efecto del orden de presentación de los tratamientos experimentales. Consiste en asignar de forma aleatoria (al azar) cada uno de los tratamientos a cada una de las posiciones en la secuencia de presentación.
ALEATORIZACIÓN SIMPLE.
ALFA DE CRONBACH, índice. Coeficiente de medida de consistencia interna de un test o de una prueba. Es un índice de fiabilidad relativa (véase) referido a la autoconsistencia o constancia de una prueba como instrumento de medida. Es la fiabilidad en sentido estricto. La consistencia interna es un índice tanto de la «homogeneidad» de los ítems cuanto de su «calidad técnica». Se basa en las correlaciones entre diversas partes del test, bien entre dos mitades, bien entre todos los ítems. Trata de evaluar si dos mitades del test se comportan como subtests paralelos, o si los ítems del test son paralelos unos a otros. La mayor fuente de error son los errores en la elección de los ítems; éstos pueden no ser homogéneos y, por tanto, la correlación entre conjuntos de ítems no será elevada. («Ítems homogéneos» son aquellos que miden lo mismo, es decir, representan el mismo dominio). Según la teoría renovada, la fiabilidad se mide con el coeficiente «alfa» de Cronbach. Según la teoría clásica, la fiabilidad se mide con el coeficiente de Kappa. Si el instrumento es multidimensional o multifacético, no es correcto medir la consistencia interna de toda la prueba, sino de las diferentes facetas o partes por separado.
16
ALGORITMIA
Ciencia del cálculo aritmético y algebraico; teoría de los números. (DRAE).
ALGORITMIA.
Conjunto ordenado y finito de operaciones para hallar la solución de un problema. (DRAE). También hace referencia al método y notación en las distintas formas del cálculo. En otras palabras, es la norma fija para hallar una particular solución matemática, un procedimiento exacto (como, por ejemplo, el de la raíz cúbica).
ALGORITMO.
AMPLITUD INTERCUARTIL.
Distancia entre los cuartiles Q3 y Q1. Incluye el
50% de los casos. AMPLITUD DE UN INTERVALO DE CLASE. Diferencia entre sus dos límites exactos. Su punto medio es la semisuma de dichos límites. Los intervalos comienzan medio punto antes y acaban medio punto después. (Por ejemplo: 4,5 a 9,5; 9,5 a 14,5, etc.; o más exactamente: 4,5 a 9,49; 9,5 a 14,49…). AMPLITUD SEMIINTERCUARTIL. Es la mitad de la distancia de la amplitud intercuartil (véase). O sea, semidiferencia entre el tercer cuartil, Q3, y el primer cuartil, Q1
Q = ASI = (Q3 – Q1)/2 Como es lógico, entre Q3 y Q1 se encuentra el 50% de los casos. Valores altos de Q indicarán poco peso —poca «densidad»— de las puntuaciones en el centro de la distribución, y lo contrario cuando Q tiene valores bajos. AMPLITUD TOTAL. Diferencia entre la puntuación máxima y la mínima (o mejor, entre la máxima y la mínima más una unidad). Es el rango total o gama: medida de dispersión que se obtiene una vez ordenadas las puntuaciones (o datos cuantitativos continuos) y comprende todas ellas, desde la puntuación inferior o mínima hasta la superior o máxima.
Fórmula: At = (Xs – Xi) + 1. ANACOVA.
Acrónimo de análisis de covarianza (véase).
En general, descomposición de un todo en sus partes. Método que consiste en descomponer un todo (real o formal) en sus constitutivos parciales.
ANÁLISIS.
En el análisis factorial, dícese del método de extracción de los factores basado en maximizar la fiabilidad «alfa» de los factores, considerando que las variables analizadas son el universo, mientras que los sujetos participantes constituyen la muestra.
ANÁLISIS ALFA.
ANÁLISIS CANÓNICO.
(Véase: Correlación canónica).
17
ANÁLISIS COMPONENCIAL
Denominación con la que se suele aludir a los modelos estructurales causales (véase) y que incluye un conjunto de métodos o técnicas cuantitativas cuyo objeto es el estudio de modelos de causación entre un conjunto de variables, partiendo de sus intercorrelaciones. Como afirman Mayurama y Walberg (1982), los modelos causales ayudan al investigador a extraer inferencias causales a partir de datos no experimentales. Se suele aceptar que la investigación estrictamente experimental, es decir, la que supone manipulación de variables para medir sus efectos en otras variables, y la asignación aleatoria de los sujetos a los distintos tratamientos, está más cerca del estudio de la causalidad que la investigación correlacional. El experimento, aunque en el terreno lógico no satisface plenamente las exigencias de la explicación causal, ofrece, en esta línea, garantías ausentes en la investigación no experimental. «El análisis causal se limita a intentar establecer la plausibilidad de un determinado patrón causal y compararlo con otros patrones alternativos, lo que permite rechazar al menos adecuado. Cuando dos o más modelos son congruentes con un conjunto de datos, la decisión acerca de cuál de los modelos o patrones es más plausible, se apoya no en los datos, sino en la teoría que está en la base del modelo. Por tanto, es la teoría y la evidencia empírica previa el factor esencial en la formulación del modelo causal, ya que sólo así es posible extraer inferencias válidas» (Orden Hoz, 1985, 2-6). Existen diferentes enfoques o corrientes de análisis causal. Análisis de sendas («Path analysis») y modelos de ecuaciones estructurales son, junto a modelos causales, algunas de las expresiones diferenciales. Sin embargo, ya en el último cuarto del siglo XX se constató la tendencia a utilizar el término modelos de ecuaciones estructurales, como denominación genérica para todas las variantes de análisis causal. (Orden Hoz, 1985, 2-6; Kenny, 1979; Kerlinger, 1982; Mayurama-Walberg, 1982). ANÁLISIS CAUSAL.
También conocido como análisis de conglomerados (véase), análisis tipológico y otras denominaciones.
ANÁLISIS DE CLUSTER.
ANÁLISIS DE COHORTE. Modalidad específica del estudio longitudinal (véase) centrado en un grupo, definido por Shaie (1965) como «población total de organismos originados en un mismo punto o intervalo temporal». Permite discriminar entre los distintos factores que intervienen conjuntamente en la variación de un fenómeno, con el fin de aislarlos y de evaluar sus interacciones.
En el tratamiento y análisis de datos, método de descripción semántica y cultural especialmente útil en el marco antropológico. (Hay autores que identifican este tipo de análisis con el aná-
ANÁLISIS COMPONENCIAL.
ANÁLISIS DE COMPONENTES
18
lisis de componentes —véase acepción B— en cuanto que éste aborda el significado de los términos). Expresión que tiene dos connotaciones en cuanto a su significado: A) En el paradigma cuantitativo, el análisis de componentes principales intenta condensar la varianza total de la matriz de datos o puntuaciones individuales en unos pocos factores o «componentes» que son combinaciones lineales de las variables primitivas y no están correlacionados entre sí. El primer componente principal extraído condensa la mayor parte de la varianza total. El segundo aporta un máximo de la varianza residual resultante, después de extraer la contribución correspondiente al primer componente. La secuencia puede continuar hasta extraer la varianza total, habida cuenta que los primeros componentes extraídos contienen la mayor parte de la varianza total, de forma que el poder o valor explicativo de los posteriores se va reduciendo progresivamente. (Prieto Adánez, 1985, 6-7). B) En el paradigma cualitativo-interpretativo, y dentro de la realización y desarrollo del análisis de contenido, procedimiento de análisis que tiene en cuenta el tipo de cuestión estudiada, centrándose en buscar las principales diferencias entre los atributos asociados a cada una de las categorías. Mediante la formulación de cuestiones de contraste, se puede revelar el significado de los términos. Para recoger esta información son de gran utilidad las tablas de doble entrada. (Véase: Análisis componencial). ANÁLISIS DE COMPONENTES.
Técnica estadística que agrupa n elementos (las filas de una matriz) en k grupos relativamente homogéneos, teniendo en cuenta la distancia entre los mismos en un espacio de tantas dimensiones como variables medidas o la similitud de sus perfiles en dichas variables. (Navas, 2001). El análisis de conglomerados (cluster) consiste en clasificar las observaciones de las variables en grupos, cuanto más homogéneos mejor, en función de valores observados. Es decir, pretende la máxima homogeneidad de los objetos dentro de los grupos, mientras se mantiene la heterogeneidad entre los mismos. Es una técnica exploratoria, no inferencial, descriptiva. Su solución no es única, sino que depende de la muestra asociada, de la medida de similitud, de las variables, etc. Presenta cierta semejanza con el análisis discriminante (véase), al permitir ambos clasificar individuos en categorías, pero se diferencia de éste en que en el análisis cluster no se conoce «a priori» el grupo de pertenencia y en el discriminante, sí. También tiene similitudes con el análisis factorial (véase) de individuos en la idea de resumir la matriz de datos. Dentro del «análisis multivariante», esta técnica de ordenación y clasificación pretende construir un sistema de jerarquía de clases a partir ANÁLISIS DE CONGLOMERADOS (CLUSTER).
19
ANÁLISIS DE CONGLOMERADOS (CLUSTER)
de un conjunto inicial, que puede ser de individuos, de variables o de individuos y variables conjuntamente. La esencia del análisis de conglomerados tiene que ver con las clases naturales y cualquier asociación natural. «El análisis de conglomerados es una alternativa para analizar la estructura interna de un conjunto de variables. Trata de identificar las variables que están altamente correlacionadas entre sí, de tal suerte que se pueden considerar como formando un grupo distinto de otras que tengan una correlación más baja. El cometido del análisis de conglomerados es identificar las variables que pueden constituir un conjunto aplicando unas determinadas reglas de decisión a una matriz de correlaciones» (García-Hoz y Pérez Juste, 1984, 491-492). El uso del análisis de conglomerados básicamente puede definirse por uno de los siguientes objetivos: 1) Generar hipótesis acerca de las estructuras de conglomerados. 2) Intentar descubrir estructuras y relaciones entre datos. Si lo utilizamos como herramienta de validación de hipótesis (en el sentido que damos a otras técnicas, como el Análisis factorial o el Análisis de correspondencias), para definir estas hipótesis es preciso hacer tratamientos de los datos observados para poder interpretarlos. Estos tratamientos se efectúan mediante algoritmos. El análisis de conglomerados, utilizado como medio de descubrimiento, puede revelar estructuras y relaciones entre los datos, lo cual nos puede servir como técnica exploratoria de una gran matriz de datos, permitiéndonos posteriormente formular hipótesis específicas que exigirán ulteriores tratamientos estadísticos para su validación. • Elementos de un análisis «cluster» (Sánchez, 1978, cit. por García Ramos, 1985): 1) Selección de los objetos que se van a clasificar. 2) Elección de las características o variables observadas sobre cada objeto. 3) Homogeneización de las variables. 4) Concepto de conglomerado adaptado al problema. 5) Medidas de semejanza o desemejanza entre objetos. 6) Implementación de algoritmos para computar los conglomerados. 7) Interpretación de los resultados. El análisis de conglomerados se nos ofrece como una potente técnica de validación de constructos que puede utilizarse prácticamente en los mismos casos que el análisis factorial, pero con una ventaja importante sobre éste: no restringe el campo de análisis a variables empíricas de nivel de medición de intervalo, ya que permite trabajar con variables de medida inferiores (ordinales y nominales), incluso con variables originales de distintos niveles de medición. Aun cuando ambos tipos de análisis (fac-
ANÁLISIS DE CONTENIDO
20
torial y de conglomerados) persiguen objetivos de investigación similares (la reducción de la dimensionalidad de una matriz original) no deben esperarse resultados equivalentes en ambas técnicas, dada su diferente naturaleza y supuestos. Existen diferentes paquetes de programas estadísticos informatizados que incluyen la técnica del análisis de conglomerados, siendo quizás los más conocidos el paquete ADDAD (subprograma CAH2C) y el paquete BMDP (subprograma 1M). También existen algunos programas de análisis «cluster» utilizables en micro-ordenadores, siempre y cuando las restricciones de memoria de los mismos permitan efectuarlos (García Ramos, 1985). En la investigación cualitativa, el análisis de contenido se ha definido, a lo largo de su historia, de muy diversas formas, dadas las múltiples perspectivas que puede adoptar. Para unos, se trata de una técnica de investigación para la descripción objetiva sistemática y cuantitativa del contenido manifiesto de las comunicaciones con el fin de interpretarlas. Para otros, es «un procedimiento para la categorización de datos verbales o de conducta, con fines de clasificación, resumen y tabulación» (Fox, 1981, 709). O es un «método para analizar y estudiar las comunicaciones de una manera sistemática, objetiva y cuantitativa, que permite medir las variables. Gran parte de él no se ha hecho con la finalidad de medir las variables como tales, sino para estimar la significación o frecuencia relativa de varios fenómenos de la comunicación: propaganda, tendencias, estilos, cambios de contenido, legibilidad» (Kerlinger, 1975 y 1985, 367). Una definición de síntesis es la de Bardin (1986, 32): «Conjunto de técnicas de análisis de las comunicaciones tendente a obtener indicadores (cuantitativos o no) por procedimientos sistemáticos y objetivos de descripción del contenido de los mensajes, permitiendo la inferencia de conocimientos relativos a las condiciones de producción-recepción (variables inferidas) de estos mensajes». Este mismo autor propone tres campos o ámbitos de aplicación: 1) Lingüístico, bien de naturaleza escrita u oral: cartas, diarios, libros, panfletos, textos jurídicos, páginas web. Exposiciones, discursos, radio, televisión, cine, discos, publicidad. 2) Icónico: señales, grafismos, cine, publicidad, pintura, carteles, televisión. 3) Otros códigos semióticos que implican una comunicación no verbal hacia los demás: música, elementos de cultura, mitos, estereotipos. ANÁLISIS DE CONTENIDO.
Modalidad de análisis factorial, cuyo objetivo es el estudio de las relaciones existentes dentro de dos conjuntos (tablas de datos) analizados y entre los dos conjuntos analizados. «Pre-
ANÁLISIS DE CORRESPONDENCIAS.
21
ANÁLISIS DE COVARIANZA
tende obtener una representación geométrica que ponga de manifiesto las relaciones existentes entre las frecuencias de la tabla de contingencia, a partir del número de filas (I) y del número de columnas (J) que dicha tabla tenga». «Su campo de aplicación es diferente del análisis factorial clásico, ya que mientras éste puede aplicarse a tablas de datos eventualmente heterogéneas, el análisis de correspondencias se aplica a tablas de datos que se expresan en términos de frecuencias, es decir, a tablas de contingencia. Puede también aplicarse a tablas de datos en forma de código disyuntivo» (Tejedor, 1985, 13). El análisis de correspondencias puede ser simple, para dos variables, o múltiple. Es de citar su ventaja de poder representar en un mismo espacio la relación entre individuos y variables, y su gran adaptación para tratar datos categorizados, tanto si son cuantitativos como si son cualitativos. ANÁLISIS DE CORRESPONDENCIAS MÚLTIPLES.
(Véase: Análisis factorial de
correspondencias múltiples). ANÁLISIS DE COVARIANZA. Técnica estadística que permite determinar el efecto que, sobre la variable dependiente (V.D.), tiene la variable independiente (V.I.), una vez eliminada de la V.D. la influencia que pueda tener una variable extraña, conocida con el nombre de «covariante». El objetivo fundamental del análisis de covarianza (ANACOVA o ANCOVA) consiste en ajustar las puntuaciones de la variable a la covariable; es decir, corregir la variación de la variable criterio en función de la variación producida en la variable extraña, con el fin de tener en cuenta el efecto de ésta. Por tanto, el «análisis de covarianza» lo que consigue es la eliminación, a través de modelos de regresión, de la influencia que recibe la V.D. por parte de la variable extraña que mantiene una relación estrecha con ella. De esta forma, el efecto reflejado en la V.D. estará limpio de esa influencia extraña. Así, pues, nos encontramos ante un análisis de varianza (ANAVA) realizado con las puntuaciones de la V.D. modificadas mediante modelos de regresión. La covarianza expresa la media de los productos cruzados de las desviaciones (x e y) en las puntuaciones de dos variables respecto de sus medias. Consiste en realizar, partiendo de una o más variables nominales y dos o más variables de intervalo, el análisis de varianza entre las variables nominales y una de intervalo, controlando o manteniendo constante la restante o restantes variables de intervalo. Combina las técnicas del «análisis de varianza» y del «análisis de regresión», para conseguir la igualación estadística a posteriori de los grupos, cuando no ha sido posible comparar muestras seleccionadas al azar,
ANÁLISIS DE DATOS
22
situación que es común en los experimentos de aula con muestras disponibles. En tales casos se administra un pretest a cada grupo antes de la aplicación de las variables experimentales (variables independientes). Tras el período experimental, se aplica un postest y se evalúa la ganancia mediante la prueba de covarianza. Si los grupos difieren en una variable, se utiliza la regresión simple; si en más de una, la regresión múltiple. El caso más simple del análisis de covarianza es el de una variable nominal y dos variables de intervalo, controlando una de estas variables de intervalo. «El principio básico del análisis de covarianza en experimentación se basa en medidas de una o más variables antecedentes, es decir, medidas obtenidas antes de asignar aleatoriamente las unidades experimentales a los diversos tratamientos. Esto se hace con objeto de que los datos resultantes de dichas medidas antecedentes manifiesten una regresión considerable, es decir, que la asociación lineal entre las X (las premedidas) y las Y (las posmedidas), sea apreciable» (Glass-Stanley, 1974, 497). Pretende, pues, corregir diferencias iniciales en los grupos de experimentación, basándose en la información previa de una o más variables que se encuentren relacionadas sustancialmente con la V.D. (Fox, 1981; Gil Pascual, 2003; Gonzalvo, 1978; Sierra, 1981). Conjunto de transformaciones numéricas de los datos para conseguir que éstos sean interpretables, generalmente en relación a la hipótesis de investigación. En Ciencias sociales tales transformaciones son de índole estadística. Existen dos enfoques que, más que excluyentes, son complementarios: el descriptivo y el inferencial. (Véase: Estadística descriptiva y Estadística inferencial), ANÁLISIS DE DATOS.
Tipo de análisis en el que no se siguen unas directrices concretas, sino que pueden coexistir diversos enfoques, perspectivas y orientaciones. Conlleva tareas de recopilación, adecuada organización (categorización, clasificación), reducción (síntesis) de datos y comparación con la información recogida en el campo de estudio, para buscar relaciones entre los mismos, descubrir sus mensajes y aportaciones, etc. En suma, lo que trata el investigador es de descifrar el mensaje de los datos, partiendo de la base de que no existe una estrategia o procedimiento general válido para todo tipo de análisis cualitativo. Los rasgos más característicos de esta fase de la investigación cualitativa los concreta Ruiz Olabuénaga (1996) en: — Es interpretativa de los hechos o fenómenos educativos. — Lo que se interpreta es el flujo del discurso social en que se desarrolla la tarea.
ANÁLISIS DE DATOS CUALITATIVOS.
23
ANÁLISIS DE DATOS CUANTITATIVOS
— Esa interpretación exige rescatar lo dicho en otras situaciones ya pasadas y fijarlo para que sirva de criterio de comparación y consulta. Del estudio de varias propuestas, sí puede desprenderse la existencia de tres momentos clave dentro del análisis de datos cualitativos en la investigación en educación: 1. Exploración y presentación comprensible de los datos. Es la aproximación a los mismos para descifrar su mensaje. Se trata de hacer manejable la gran cantidad de datos mediante su reducción conforme a las categorías establecidas. 2. Operaciones con los datos: procesos de transformación y ordenación de datos para hacerlos no sólo más comprensibles, sino también operativos, y así permitir una respuesta coherente a las cuestiones planteadas en la investigación: tablas de contingencia, tablas de incidencia, tablas de valores numéricos; asimismo, procedimientos gráficos. Etc. 3. Interpretación de resultados y extracción de conclusiones. Se habla de tres niveles de interpretación: semántico o aproximativo, significativo (pretende garantizar la validez científica) y el teórico (explicar los resultados tomando como referencia la teoría adecuada al objeto de estudio). En el diseño metodológico de la investigación, fase de la validación de hipótesis en que, tras acudir a la realidad, trata de recoger unos datos relevantes, manipularlos adecuadamente y someterles al tipo de análisis pertinente. Y ello, para ofrecer alguna respuesta al problema investigado, aunque tal respuesta sea la de que no se ha encontrado ninguna. Antes de comenzar el análisis o estudio de los datos, se contemplarán en el plan de análisis, tres aspectos: a) Procedimientos de estadística «descriptiva» e «inferencial» (son complementarios) que se van a utilizar; b) Elección del «nivel de significación» que guíe el análisis de datos; c) Examen de los supuestos y limitaciones del proyecto. El análisis descriptivo obtiene índices calculados sobre muestras (media, desviación típica, etc.) que se utilizan como estimadores de los parámetros respectivos (µ, σ, etc.). El análisis inferencial pone a prueba la/s hipótesis mediante el sometimiento de los datos a las pruebas estadísticas que procedan, eligiendo aquellas que permitan rechazar la hipótesis de nulidad (H0) si realmente fuera falsa. La interpretación de los resultados llevará a unas conclusiones que, provisionalmente, podrán elevarse hasta la teoría y, así, dar a los resultados una significación más amplia y comprensiva. ANÁLISIS DE DATOS CUANTITATIVOS.
ANÁLISIS DESCRIPTIVO DE CONTENIDO
24
Otros tipos de análisis son: el análisis componencial, el funcional y el de razones (véanse). ANÁLISIS DESCRIPTIVO DE CONTENIDO. Tipo de análisis de contenido que, según los objetivos de la investigación, tiene por objeto la identificación y catalogación de la realidad empírica de los documentos, a través de la definición de categorías de sus elementos. ANÁLISIS DESCRIPTIVO DE DATOS.
(Véase: Análisis de datos cuantitativos).
En general, y abreviadamente, podría definirse como técnica de clasificación en la que la variable dependiente (V.D.) es cualitativa y las independientes (V.I.), cuantitativas. Más concretamente, es el método estadístico de análisis multivariado que permite establecer o diferenciar «clusters» o conglomerados de individuos o sujetos, centros escolares, países, textos, etc., en función de sus perfiles característicos en un grupo de variables. Es, por tanto, una técnica adecuada para el estudio de la dependencia o predicción. El análisis discriminante (AD) es una aplicación especial de la correlación múltiple o canónica, que tiene como finalidad encontrar las funciones (compuestos) de variables que discriminan al máximo entre los grupos. Su objetivo fundamental es obtener, a partir de las observaciones en un conjunto de variables para individuos pertenecientes a distintos grupos o subpoblaciones, unas funciones que permitan clasificarlos en uno de ellos. El análisis discriminante (AD) se emplea fundamentalmente cuando varios grupos de casos son clasificados «a priori» mediante alguna característica (sexo, tipo de enseñanza, metodología didáctica utilizada, etc.) y el propósito del análisis consiste en diferenciar a los grupos entre sí en un conjunto de variables, asignando a cada grupo un perfil distintivo de ellas. Está especialmente indicado para la clasificación, predicción y análisis de problemas en los que intervienen dos o más grupos o clases de objetos (datos), por lo que puede emplearse tanto para la determinación de las diferencias entre los grupos de sujetos, cuanto para construir esquemas de clasificación que permitan adscribir a los nuevos sujetos a los «cluster» o grupos formados previamente. Los objetivos resueltos generalmente por el AD son tres: 1) Determinar una combinación lineal de variables que maximice las diferencias entre los grupos. 2) Establecer criterios para clasificar nuevos individuos en uno de los grupos. 3) Determinar la significación estadística de las diferencias entre los perfiles característicos de los grupos. ANÁLISIS DISCRIMINANTE.
25
ANÁLISIS EXPLORATORIO DE CONTENIDO
El objetivo más interesante es el primero (desde la perspectiva teórica). El segundo tiene gran importancia para trabajos aplicados (diagnóstico, orientación individual, etc.) El tercer objetivo no ha sido el más buscado con este método, dada la existencia de otros tests estadísticos de uso más generalizado. (Prieto Adánez, 1985, 17-18; García-Hoz y Pérez Juste, 1984; Gil Pascual, 2003). En la investigación-acción (véase), procedimientos adecuados para la recogida de datos. McKernan (1999) incluye en este apartado, además del análisis del discurso, los métodos basados en la resolución de problemas: análisis de dilemas, análisis de contenido, análisis de documentos, análisis de episodios, seminarios de grupos, torbellino de ideas, debate de grupo, estudio de problemas.
ANÁLISIS DEL DISCURSO.
Procedimiento de análisis de contenido que, teniendo en cuenta el tipo de cuestión estudiada, hace referencia a conceptos que contengan dos o más elementos subordinados. Lo que implica que poseerán una serie de rasgos comunes entre ellos, por lo que se suele comenzar con relaciones sencillas para pasar después a otras más particulares.
ANÁLISIS DE DOMINIOS.
Modelo matemático, perteneciente al grupo de los modelos probabilísticos, ideado para describir las relaciones entre variables latentes (generalmente constructos teóricos) y las respuestas de los sujetos a los tests que las miden. Sobre la base de la construcción de una serie de elementos, cuyas respuestas se creen relacionadas con la variable latente, se administran tales elementos a un grupo de sujetos y la información obtenida es utilizada para describir a los sujetos y/o los elementos en términos de la variable. Desarrollado como marco conceptual para la evaluación de las actitudes, este modelo es útil para el análisis de instrumentos de medida de aptitudes, rasgos de personalidad, rendimientos, destrezas.
ANÁLISIS DE ESTRUCTURAS LATENTES.
Expresión referida a las teorías y procedimientos de investigación conductistas desarrolladas por B. F. Skinner.
ANÁLISIS EXPERIMENTAL DE LA CONDUCTA.
ANÁLISIS EXPLICATIVO DE CONTENIDO.
(Véase: Análisis verificativo de con-
tenido). Tipo de análisis de contenido que, según los objetivos de la investigación, se centra en los estudios de aproximación dirigidos a elaborar, registrar y tratar documentos; es decir, cubre de forma adecuada las primeras formas del análisis.
ANÁLISIS EXPLORATORIO DE CONTENIDO.
ANÁLISIS EXTENSIVO DE CONTENIDO
26
ANÁLISIS EXTENSIVO DE CONTENIDO.
(Véase: Análisis horizontal de con-
tenido). Método estadístico usado para cuantificar la importancia de cada uno de los factores actuantes en un fenómeno. Es, por tanto, un método o técnica multivariante que intenta explicar, mediante un modelo lineal, un conjunto amplio de variables o individuos, según un número reducido de variables hipotéticas llamadas factores. La característica fundamental de los factores es que no son directamente observables. Pueden extraerse factores de variables (técnica R) y de individuos (técnica Q). Así tendremos el análisis factorial de variables o de individuos. Pretende interpretar tests o puntuaciones de series de tests aplicados a un grupo de sujetos y que posibilita computar el número mínimo de factores requeridos para explicar las intercorrelaciones entre las puntuaciones de la serie de pruebas o tests que componen la batería. Esta técnica tiene como base la matriz de correlaciones simples obtenidas de la aplicación de un conjunto de tests a un mismo grupo de sujetos. Sobre esta matriz de correlaciones, el análisis factorial intenta encontrar un número menor de factores (compuestos o variables latentes) que expliquen las correlaciones que figuran en la matriz. Permite, por tanto, reducir la dimensionalidad de una matriz de datos (por ejemplo, las respuestas dadas por N sujetos a los n ítems de una prueba): posibilita pasar de una matriz de dimensión N × n a una de dimensión N × p, donde p < n y las n variables están medidas a nivel de intervalo. (G.a Hoz-Pérez Juste, 1984; Gil Pascual, 2003; Navas, 2001). El análisis factorial fue ampliamente desarrollado a partir de los trabajos de Spearman. ANÁLISIS FACTORIAL.
Utilización del análisis factorial para confirmar la hipótesis de investigación, cuando en una investigación se posee información de las correlaciones entre variables y se puede formular hipótesis acerca de los constructos subyacentes; es decir, se puede establecer un modelo de estructura causal de esas variables. Cuando, por ejemplo, en la construcción de un cuestionario se plantea que ciertos ítems forman una determinada escala, se puede —para confirmar la validez de constructo— realizar un análisis factorial del cuestionario y observar si los ítems mencionados se agrupan en algún factor. Con este proceso se habrá utilizado el análisis factorial confirmatorio.
ANÁLISIS FACTORIAL CONFIRMATORIO.
Técnica estadística que describe las relaciones entre más de dos variables categóricas en función de la distancia entre las mismas en un espacio de pocas dimensiones. Equivalente no paramétrico del análisis factorial (véase).
ANÁLISIS FACTORIAL DE CORRESPONDENCIAS MÚLTIPLES.
27
ANÁLISIS MULTIVARIADO
ANÁLISIS FRECUENCIAL DE CONTENIDO. Tipo de análisis de contenido que, teniendo en cuenta los parámetros de medida y evaluación, contabiliza el número de ocurrencias (frecuencias) de las diferentes categorías objeto de estudio. ANÁLISIS FUNCIONAL. En el tratamiento y análisis de datos, tipo de análisis cuyo enfoque es la consideración y estudio de la organización del marco social.
También denominado extensivo, es el tipo de análisis de contenido que, según el diseño de análisis del objeto de estudio, utiliza un corpus documental extenso. Es típico en los análisis de contenido de carácter cuantitativo.
ANÁLISIS HORIZONTAL DE CONTENIDO.
ANÁLISIS DE IMAGEN. En el análisis factorial, dícese del método de extracción de factores fundamentado en la idea de imagen de una variable entendida como regresión lineal con el resto de variables.
Modalidad de análisis de contenido que, teniendo en cuenta sus aplicaciones, pretende interesarse no solamente por lo que se dice, sino por lo que implica o lo que se deduce del contenido material a analizar. Persigue, por consiguiente, realizar inferencias. ANÁLISIS INFERENCIAL DE CONTENIDO.
ANÁLISIS INFERENCIAL DE DATOS.
(Véase: Análisis de datos cuantitativos).
ANÁLISIS INTENSIVO DE CONTENIDO.
(Véase: Análisis vertical de contenido).
ANÁLISIS DE ÍTEMS. Estudio de la calidad de medida (calidad métrica) de cada uno de los ítems o cuestiones de un test. Consiste en la estimación de los parámetros del ítem (fiabilidad, validez, poder discriminativo y dificultad), en el estudio del posible funcionamiento diferencial de los ítems y en el análisis de distractores (en ítems de elección múltiple). (Navas, 2001, 543).
Modalidad de análisis que, teniendo en cuenta el objeto de estudio, consiste en analizar las muestras y categorías seleccionadas en diferentes momentos de su trayectoria, ya utilizando medidas repetidas, ya recurriendo a muestras independientes.
ANÁLISIS LONGITUDINAL DE CONTENIDO.
Conjunto de métodos estadísticos para el tratamiento simultáneo de variables, con el fin de analizar, describir e interpretar datos multidimensionales. Este conjunto de métodos matemáticos es apto para tratar fenómenos compuestos por varias características medidas. A diferencia de los modelos univariados o bivariados, los métodos de análisis multivariado permiten la manipulación conjunta de todas las
ANÁLISIS MULTIVARIADO.
28
ANÁLISIS MULTIVARIADO
variables observadas y la formulación de conclusiones a partir de las interrelaciones entre todas ellas. Cuando el estudio de las correlaciones se realiza sobre más de dos variables, aparece el análisis multivariante (A.M.) o multivariado: familia de métodos analíticos cuya característica principal es el análisis simultáneo de k variables independientes y m variables dependientes. (García-Hoz y Pérez Juste, 1984; Kerlinger, 1975). El tratamiento conjunto de variables está justificado, porque el «todo» no es igual a la combinación de las partes, como puede verse demostrado, por ejemplo, en el análisis de la varianza, donde el estudio de la significación de medias de grupos, mediante la prueba F, no resulta similar a las correspondientes combinaciones de pruebas t de Student. De esta forma, el tratamiento conjunto de las variables será el que refleje fielmente la realidad del problema abordado. Al ser complejos y multiformes los fenómenos que, con frecuencia, se estudian en las Ciencias de la Educación —y, en general, en las Ciencias Sociales— y presentando múltiples facetas relacionadas diversamente entre sí, los modelos matemáticos univariados o bivariados tienen escasa utilidad para representar la estructura de este tipo de sucesos multidimensionales. De ahí que los métodos de A.M. proporcionen una ayuda muy valiosa para la elaboración de constructos explicativos que pueden dar cuenta de la complejidad de las manifestaciones conductuales. Los métodos de A.M. son muy diversos, por lo que es difícil encontrar un criterio de clasificación exclusiva y exhaustiva de los mismos. Desde una perspectiva muy general, formulada por Kendall, se podrían clasificar las técnicas multivariadas en dos grandes bloques, según el objetivo o producto final del análisis (Prieto Adánez, 1985, 26-27): II) Métodos predictivos. Siguen un modelo de «dependencia» o predicción, cuyo paradigma es la teoría general de la regresión. En ellos es posible identificar un grupo de variables como predictoras o independientes, un criterio o variable dependiente y eventualmente otras cuya influencia se desea mantener bajo control. El problema se centra en especificar las dependencias significativas entre los dos bloques de variables: las independientes y las dependientes. Métodos predictivos
1. 2. 3. 4. 5.
Regresión múltiple. «Path analysis». Análisis de covarianza. Análisis de varianza. Análisis discriminante.
II) Métodos reductivos. Métodos en los que se estudian las interdependencias entre todas las variables originales con el objetivo de reducir al mínimo el número de variables necesarias para descri-
29
ANÁLISIS DE RAZONES
bir la relevante información contenida en las observaciones iniciales. Lo que se desea es construir un modelo simple que facilite la comprensión del complejo caudal de datos originales. Métodos reductivos
1. 2. 3. 4. 5.
Componentes principales. Análisis factorial. Correlación canónica. Análisis de «cluster». Análisis de correspondencias.
Teniendo como criterio clasificador el objetivo del método, o la muestra o población, Gil Pascual (2003) propone esta clasificación: A) Métodos descriptivos: Análisis factorial-descriptivo. Análisis de conglomerados (cluster). Multidimensional de escala. Análisis de correspondencias. B) Métodos explicativos: Análisis factorial-explicativo. Análisis discriminante. Modelos log-lineales. Modelos logit. Segmentación. Análisis de regresión. Regresión logística. Análisis causal. Análisis de correlación canónica lineal. Análisis multivariante de la varianza. ANÁLISIS MULTIVARIANTE.
Análisis multivariado (véase).
Tipo de análisis de contenido que, teniendo en cuenta los parámetros de medida y evaluación, no contabiliza el número de ocurrencias (frecuencias) de las diferentes categorías objeto de estudio, sino que sólo contempla la presencia o la ausencia.
ANÁLISIS NO FRECUENCIAL DE CONTENIDO.
ANÁLISIS PRIMARIO DE CONTENIDO. Tipo de análisis de contenido que, atendiendo a la procedencia del material de análisis, tiene su origen y se nutre en fuentes primarias de información, como cartas, diarios, revistas, libros, documentos históricos, discos, casetes, fotografías, vídeos, películas. ANÁLISIS DE RAZONES. En el tratamiento y análisis de datos, tipo de análisis que se utiliza en el marco de la investigación por encuesta para explicar los motivos de las intenciones, acciones o deseos expresados por los sujetos.
30
ANÁLISIS DE REGRESIÓN
En Estadística, el concepto de regresión hace referencia a conceptos como predicción y ajuste, de forma que se acostumbra a hablar de «rectas de regresión», en vez de «rectas de ajuste» (Véase: Regresión). Es la estimación de una variable partiendo de un valor conocido, cuando entre éste y aquélla existe una correlación imperfecta; es decir, no podemos precisar con exactitud el valor de una variable partiendo del valor dado de otra. Al no existir una relación perfecta (por ejemplo, entre calificaciones académicas y puntuaciones en los tests de capacidad mental) se presenta con frecuencia el «efecto de regresión»: los individuos muy por encima o muy por debajo de la media para una variable, no suelen ser tan superiores o inferiores en la otra (ajuste o regresión a la media). Los trabajos sobre regresión surgieron con Galton, quien observó, sobre la relación entre la altura de los padres y la de los hijos, que los hijos de los padres altos (o bajos) tienden a no ser tan altos (o bajos) como lo eran sus padres; es decir, se aproximan más a la media, «regresan» hacia la media del grupo. El concepto de regresión puede abordarse desde distintos puntos de vista: — Según el tipo de línea que resulte del ajuste: lineal o parabólico. — Según el número de variables explicativas que se incorporen al modelo: una (regresión simple), o varias (regresión múltiple). En la regresión lineal simple tenemos una variable Y (variable dependiente) que suponemos está relacionada con la variable X (variable independiente no aleatoria). Dicha relación la consideramos lineal y aditiva y viene expresada por la ecuación matemática: ANÁLISIS DE REGRESIÓN.
Y = α + βX
También: Y = a + bX
Esta relación indica que mientras X varíe en una unidad, Y variará en β unidades. El parámetro α es la «ordenada en el origen» y el β «coeficiente de regresión» o «pendiente de la recta». Pero esta ecuación se aleja de la realidad. Es muy simple, ya que pretendemos hacer depender la variable Y de una única variable X. Por eso, el modelo realista incorpora un término de error (ε) que recoge la influencia de otras variables y las deficiencias intrínsecas al proceso de medición: Y = α + βX + ε Donde: α y β, parámetros a estimar para determinar el modelo. X = variable no aleatoria. ε = variable aleatoria N (0, σ 2), es decir, sujeta a los requisitos de normalidad, independencia, con media 0 y varianza σ 2.
31
ANÁLISIS DE REGRESIÓN
La dependencia lineal en el caso de varias variables nos llevaría al modelo: Y′ = α + β1 x1 + β2 x2 + … βn xn Donde α, β1, β2 … βn, reciben la denominación de coeficientes de regresión parcial y su estimación se realizaría de forma similar al caso de dos variables. ¿Cuál es la utilidad fundamental del análisis de la regresión? La de facilitarnos el estudio posterior de la relación entre las variables. Así, para la regresión lineal, definimos la varianza residual (s2y.x ) o varianza de los errores (s2e) como la varianza de la serie de diferencias entre las puntuaciones Y e Y′: s2y. x = s2e =
Σ ( y − y ′)2 2 = s2y (1 − rxy ) N
Siendo r 2xy = cuadrado del coeficiente de correlación lineal, de Pearson, o coeficiente de determinación. El binomio regresión-correlación entre variables nos permite, en el contexto de la investigación aplicada, la predicción o pronóstico de comportamientos (rendimiento, aptitudes, etc.) respecto a una variable, partiendo del conocimiento de la otra y de la relación existente entre ambas.(Tejedor, 1985, 28-31; Castro, 19803; Downie-Heath, 19816). El análisis de regresión es una de las técnicas que más se utiliza en la investigación psico-educativa, dadas sus innumerables posibilidades. Sus aplicaciones se pueden agrupar en dos grandes apartados (que no son mutuamente excluyentes, ya que existirán investigaciones en que se apliquen ambos usos): a) Predicción, en la que la combinación lineal de las variables independientes se dirige a maximizar la estimación de la variable dependiente, y es un predictor del poder explicativo de la variable dependiente por las variables independientes; asimismo, la faceta predictiva del análisis de regresión sirve para evaluar el conjunto de variables independientes como predictoras de la variable dependiente. b) Explicación, en cuanto que facilita una visión de la importancia relativa de cada variable independiente valorando su magnitud y signo. Además, se puede trabajar para determinar el tipo de relación existente (lineal, cuadrática, logarítmica, exponencial, potencial, etc.) con la variable dependiente. En cuanto al tipo de variables, parece oportuno subrayar que la variable dependiente del modelo de regresión lineal debe ser continua. Las in-
ANÁLISIS RELACIONAL DE CONTENIDO
32
dependientes pueden ser continuas, ordinales, o nominales transformadas en variables «dummy» o variables ficticias (véase) (Gil Pascual, 2003, 362-364). Modalidad de análisis de contenido que, teniendo en cuenta los parámetros de medida y evaluación, parte de las tabulaciones previas de los análisis frecuenciales, para tratar de medir la ocurrencia conjunta mediante las denominadas tablas cruzadas y el uso de técnicas multivariadas para conocer estructuras más complejas.
ANÁLISIS RELACIONAL DE CONTENIDO.
Término que engloba las técnicas de análisis de datos de observación del comportamiento que permiten detectar las relaciones de contingencia temporal en las ocurrencias de las categorías de conducta y descubrir la existencia de patrones sistemáticos en la dinámica del comportamiento. (Navas, 2001, 543).
ANÁLISIS SECUENCIAL.
Modalidad de análisis de contenido que, teniendo en cuenta la procedencia del material que se analiza, está basado en textos derivados de los originales: transcritos, traducidos, o que supongan interpretación de fuentes primarias.
ANÁLISIS SECUNDARIO DE CONTENIDO.
ANÁLISIS DE SEGEMENTACIÓN. Segmentación es el proceso de identificación de clases para fraccionar o dividir una población sin segmentos o conjuntos diferenciados de individuos homogéneos que satisfacen las condiciones de clasificación de cada uno de los criterios establecidos. La investigación de segmentación se utilizó y sigue utilizándose en el estudio de mercados. Como metodología de investigación educativa en España, esta técnica comienza en 1993 (Gil Pascual, 1993, 357-362). La investigación de segmentación tiene que ver con el descubrimiento y la especificación de grupos de población (segmentos), que difieren en la probabilidad de un suceso como: contraer una enfermedad, responder a un tratamiento, matricularse en una Universidad…El análisis de segmentación facilita la elección de variables destacadas (predictoras —independientes—) y la caracterización de la variable criterio (dependiente) en función de estas variables predictoras. Las tres principales posibilidades del análisis de segmentación son: a) Descriptiva: hallazgo de grupos muy distintos en un determinado aspecto, por lo que se puede emplear en la descripción de muestras e inferencia de poblaciones (Escobar, 1992, 28). b) Exploratoria: como instrumento adecuado para buscar pautas de relaciones complejas entre variables. c) Explicativa: permite realizar hipótesis sobre el modelo de causalidad conforme la forma de dendrograma (forma de árbol).
33
ANÁLISIS DE TEMAS
Por tanto, los usos más reseñables son: Segmentación o identificación de elementos que pueden ser miembros de unas clases específicas. Estratificación: asignación de casos a una categoría entre varias (por ejemplo, buenos, regulares o malos estudiantes). Fusión de categorías y categorización de variables continuas con la mínima pérdida de información. Predicción: Se pueden crear reglas para poder predecir eventos futuros. Reducción de datos y clasificación de variables: sirve para seleccionar variables de un gran conjunto de éstas facilitando la creación de modelos. (Gil Pascual, 2003, 425-464). Uno de los algoritmos más utilizados en la técnica de segmentación es el CHAID. (Véase: Técnica Chaid). Modalidad de análisis de contenido que, según sus aplicaciones, se ocupa —mediante el uso de categorías— de codificar lo que el sujeto o sujetos expresan realmente, es decir, el significado de las palabras, signos lingüísticos y de sus combinaciones. Y ello, desde un punto de vista ya sincrónico o ya diacrónico.
ANÁLISIS SEMÁNTICO DE CONTENIDO.
ANÁLISIS DE SENDAS.
(Véase: Path analysis).
Modelo de análisis de datos correspondientes a variables categorizadas (ya sean nominales, discretas, ordinales, o ya continuas que estén agrupadas en intervalos) cuyos elementos muestrales (frecuencias) se recojan clasificados en tablas cruzadas (tablas de contingencia k-dimensionales: de dos o más variables). El objetivo del análisis de las tablas de contingencia multidimensionales es obtener una descripción de las relaciones entre los factores de la tabla, ya para conocer la relación entre los datos, ya para probar y ordenar las interacciones entre los mismos.
ANÁLISIS DE TABLAS DE CONTINGENCIA MULTIDIMENSIONALES.
ANÁLISIS DE TAXONOMÍAS. Procedimiento de análisis de contenido que tiene en cuenta el tipo de cuestión estudiada. Establece una jerarquía entre los distintos elementos que intervienen en función de las relaciones establecidas, generalmente de tipo semántico, y manifestadas entre los diferentes elementos inclusores o incluidos. Se suele representar gráficamente (diagrama del árbol) y mediante esquemas. ANÁLISIS DE TEMAS. Procedimiento de análisis de contenido que tiene en cuenta el tipo de cuestión estudiada y que nos ofrece una visión general y holística en la que se integran los distintos elementos analizados en el modelo, para poder crear un sistema de significados.
ANÁLISIS TERCIARIO DE CONTENIDO
34
Tipo de análisis de contenido que se basa en materiales que proceden de la experimentación comunicacional, en que se incorporan variables controladas experimentalmente con el objeto de constituir discursos a partir de las interacciones entre los participantes.
ANÁLISIS TERCIARIO DE CONTENIDO.
ANÁLISIS TIPOLÓGICO.
Análisis de conglomerados (véase).
ANÁLISIS TRANSVERSAL DE CONTENIDO. Tipo de análisis que, según el diseño de análisis del objeto de estudio, consiste en seleccionar muestras textuales que difieren en algún dato de especial interés, para formar grupos independientes que se analizan en el mismo momento histórico. ANÁLISIS TRIANGULAR DE CONTENIDO. Tipo de análisis que, teniendo en cuenta el objeto de estudio, utiliza la triangulación (véase), referida a la recogida y comparación de diferentes perspectivas sobre una misma situación de comunicación. Es importante para la validación externa de los datos (generalización). ANÁLISIS DE VARIANZA. «Técnica para analizar mediciones o datos que dependen de varios tipos de efectos, que operan simultáneamente, para decidir qué clases de efectos son importantes, y calcular la magnitud de los mismos» (Scheffé, 1976, 3). El análisis de varianza (ANAVA) es una técnica útil para explicar la variabilidad observada en los datos en distintos sectores, cada uno de ellos respondiendo a alguna causa, circunstancia o factor (véase: Varianza). «El objetivo del análisis de varianza es comprobar hipótesis acerca de medias, no de varianzas. Lo que sucede es que esta comprobación acerca de las medias va a ser llevada a cabo mediante un análisis o descomposición de la variabilidad total de las observaciones de las muestras en dos componentes aditivos» (Amón, 19846, 390). Es, pues, una técnica estadística que permite comparar varias medias de datos observados en las muestras utilizadas. Fue desarrollada por R.A. Fisher, y se utiliza positivamente desde 1923. El análisis de varianza incluye una serie de procedimientos llamados «diseños experimentales», así como ciertas técnicas estadísticas ideadas para ser utilizadas en dichos procedimientos. Las estadísticas utilizadas en el análisis de varianza no son nuevas, sino que, en realidad, son adaptaciones de otras fórmulas y métodos. Los diseños experimentales, en cambio, son relativamente nuevos en varios sentidos, por lo menos en psicología, pedagogía y sociología (Gonzalvo, 1978, 155; Snedecor, 1956 5). El análisis de varianza (ANAVA) puede realizarse mediante pruebas paramétricas (admite el tipo simple —con una variable independiente— y el ANAVA factorial, con dos o más variables independientes) y no paramétricas (entre ellas, las pruebas de Friedman y la de Kruskal-Wallis, ambas para nivel ordinal de medida). El enfoque paramétrico que trata de
35
ANOVA
probar diferencias significativas entre dos grupos es la prueba t, cuya alternativa es el análisis de la varianza o prueba F. No obstante, el auténtico sentido de la prueba F se da cuando se trata de probar las diferencias entre tres o más grupos. Modalidad de análisis de contenido —también denominado explicativo— que, según los objetivos de la investigación, se adentra en el campo de la inferencia al analizar el origen, la naturaleza, el funcionamiento y los efectos de los productos de la comunicación, además de alcanzar la extrapolación de sus resultados a otros contextos.
ANÁLISIS VERIFICATIVO DE CONTENIDO.
ANÁLISIS VERTICAL DE CONTENIDO. Modalidad de análisis de contenido que, según el diseño de análisis del objeto de estudio, aborda un corpus reducido, incluso puede ser de un solo caso. Suele tratarse de análisis no cuantitativo y corre el riesgo de que sus hallazgos no sean representativos. También se denomina análisis intensivo de contenido. ANALOGÍA. Relación entre los términos de dos o más sistemas u órdenes, es decir, la existencia de correlación entre cada uno de los términos de un sistema y cada uno de los términos del otro. Desde esta perspectiva, la analogía equivale a la proporción. ANAVA.
Acrónimo en español de Análisis de varianza (véase).
Análisis de varianza en el que se tiene en cuenta la «variabilidad entre bloques», por lo que se reduce considerablemente la variabilidad «residual», ya que la variable de bloqueo queda controlada y es extraída de la misma. ANAVA BIDIRECCIONAL.
ANDERSON - RUBIN, método. Método en que las puntuaciones factoriales estimadas son ortogonales (es la variante respecto al método Bartlett).
Colección de anécdotas o relatos breves de hechos, acciones o conductas que, debidamente registrados, describen comportamientos que se producen en el contexto educativo objeto de observación. Constituye una de las diferentes formas de registro de la observación de mayor uso y utilidad en el campo educativo. El acopio de datos obtenidos mediante la observación directa y sistemática puede representar un material de alto valor informativo para quien los interprete inteligentemente. Existen múltiples modos de comportamientos de los niños y adolescentes, cuyo análisis e interpretación pueden ser reveladores de un sin número de aspectos importantes de su personalidad.
ANECDOTARIO.
Acrónimo en inglés («analysis of variance») de su equivalente español ANAVA o análisis de varianza (véase).
ANOVA.
ANTICIPACIÓN
36
Método nemomecánico para la memorización en serie o el aprendizaje de pares asociados. Permite puntuar los éxitos y los fracasos ante tal memorización. En este método el sujeto aprende a reaccionar ente un ítem-estímulo con el ítem-respuesta que se presenta más próximo en la ecuación.
ANTICIPACIÓN, método de.
Oposición de ideas. Proposición opuesta a una tesis dada, u oposición de sentido entre dos términos o dos proposiciones.
ANTÍTESIS.
ANTROPOLOGÍA. Ciencia que estudia al ser humano en toda su unidad y complejidad: aspectos biológicos y sociales del hombre (formas de vida). Hoy la antropología es considerada con un sentido unitario, globalizador y totalizador del hombre, abarcando las dimensiones: física, psicológica, cultural, educativa, social y filosófica.
También denominada etnociencia, es la corriente doctrinal que, a través del estudio de la semántica, pretende analizar el conocimiento cultural de un grupo. (Propulsores: Spradley, Tyler). Esta corriente constituye una de las bases conceptuales y metodológicas de la investigación cualitativa (véase) y del paradigma cualitativo-interpretativo (véase).
ANTROPOLOGÍA COGNITIVA.
APLICACIÓN. En matemáticas, correspondencia que a cada elemento de un conjunto asocia un elemento de otro conjunto (correspondencia unívoca).
Aplicación de un instrumento de medida o evaluación (cuestionario, test, prueba…), antes de proceder a su aplicación definitiva, con objeto de tener suficientes garantías en todos y cada uno de los elementos contemplados en la elaboración de dicho instrumento de recogida de datos y de medida. En esta aplicación piloto se trabaja con una muestra reducida de sujetos, lo más representativa posible, para determinar la fiabilidad (se suele utilizar con frecuencia la concordancia entre los elementos similares o estrechamente relacionados, con uno de los coeficientes más empleados: alfa de Cronbach) y validez de dicho instrumento. Ésta nos garantiza que las respuestas a los ítems o preguntas logran una presencia suficiente y representativa de los objetivos y contenidos de la investigación que se pretende realizar; para ello se recurre a la opinión de expertos. Las aportaciones y sugerencias recogidas en la aplicación piloto nos ofrecerán informaciones de especial interés para la depuración del instrumento (cuestionario, test, etc.) tanto en los aspectos formales como en los referidos al contenido: corrección de preguntas o ítems confusos, de doble respuesta, los excesivamente largos, los que sobran (por no aportar información novedosa o relevante), los que se echan de menos, etc. AdeAPLICACIÓN PILOTO.
37
AQUIESCENCIA
más se puede comprobar la forma de presentación, las instrucciones que se ofrecen, el tiempo de contestación y las posibles dudas en cuanto a su presentación y redacción de orientaciones para cumplimentar las casillas pertinentes. Todo ello, para proceder a la redacción definitiva del instrumento en cuestión, que será presentada a la muestra de sujetos previamente seleccionada. APRENDIZAJE SIGNIFICATIVO. Conocimiento interior adecuado a la estructura cognitiva del discente en el que se da un elevado grado de isomorfismo con la realidad. Comprensión unitaria de un objeto. APTUTUD. Eficacia medidle en la realización, adaptación o comprensión de actividades, situaciones o conceptos, respectivamente. APTITUD ESPECIAL.
(Véase: Aptitudes especiales).
Aptitud que permite adquirir perfección en muchas actividades, más bien que en una gama especial de éstas.
APTITUD GENERAL.
APTITUD, tests de. Pruebas de aptitud que intentan diagnosticar o predecir la capacidad o el grado de rendimiento que pueden esperarse de un sujeto en una actividad determinada.
Expresión que incluye, por un lado, aquellas aptitudes que, en los comienzos de la medición de la inteligencia, tenían una representación mínima o quedaban fuera (aptitud mecánica, aptitud administrativa) y por otro, una serie de capacidades específicas para determinadas actividades o profesiones, incluidas las referentes al campo literario, artístico y musical (por ejemplo, el «Test de aptitudes musicales», de Seashore-Saetveit-Lewis). También son reseñables las pruebas de atención, memoria, asociación, percepción, discriminación y razonamiento, que García Hoz denomina funciones mentales. Y, finalmente, las aptitudes creadoras (cuyos tests de creatividad incluyen los factores de fluidez, flexibilidad, originalidad y elaboración), en cuya medición destaca Torrance, tienen su base en la investigación de Guilford. APTITUDES ESPECIALES.
Aptitudes puestas de manifiesto por el análisis factorial (véase) y que subyacen en la realización de un test adecuado.
APTITUDES PRIMARIAS.
APUNTAMIENTO.
Kurtosis (véase).
AQUIESCENCIA. Estilo de respuesta con sesgo, consistente en responder sistemáticamente que se está de acuerdo (o en desacuerdo) con lo que se indica en el enunciado de las preguntas o ítems, al margen de lo que en ellos se afirma.
ARBITRARIEDAD DE LOS INSTRUMENTOS DE MEDIDA
38
Los instrumentos de medida utilizados en las ciencias sociales (pedagogía, psicología, sociología…) son arbitrarios en muchos aspectos. En efecto, cada instrumento —test, prueba— está integrado por un número arbitrario de elementos, y seguirá siendo arbitrario aunque dicho número esté basado en criterios más o menos reflexivamente establecidos; a cada elemento se le atribuye un valor —regla de medida— por lo general igualmente arbitrario: en la mayoría de las ocasiones 1, 0, o bien, +1, –1, etc.; hay veces en que se atribuye diferente valoración a los distintos elementos integrantes de la prueba, con criterios por lo general especulativos; además, la atribución de tales valores —idénticos o diferentes— es a veces estable para todo tipo de sujetos o, por el contrario, cambiante en función de variables tales como edad, sexo, lugar, nivel de estudios, etc. «La arbitrariedad surge no sólo de estos hechos, sino de que lo medido no siempre es fácil de definir, como ocurre cuando se construye una prueba de adaptación social, o de la dificultad intrínseca para encontrar criterios de valoración, como cuando la prueba es de creatividad. Nos encontramos ante un problema difícil, mucho más que en el caso de mediciones de variables en las ciencias de la naturaleza. A ello contribuyen fundamentalmente varios hechos más o menos relacionados: la ausencia de un 0 absoluto; la carencia, por lo general, de unidades de medición constantes o, al contrario, hacer constantes todas las unidades aunque aquello a lo que se atribuye idéntica unidad sea en realidad distinto; la falta de valores límites; la incorporeidad de lo medido; las peculiaridades que, en cada sujeto, adquiere lo medido; las alteraciones que lo medido experimenta con el tiempo, con el lugar o con determinadas características de los sujetos, etc.» (Pérez Juste, 1981, t. 2, 419-420). Todo este conjunto de hechos y circunstancias hacen que, salvo pocas ocasiones, sea muy difícil interpretar las puntuaciones directas o brutas, es decir, aquellas obtenidas directamente al puntuar la prueba, por lo que, generalmente, se suelen transformar a otras denominadas puntuaciones tipificadas.
ARBITRARIEDAD DE LOS INSTRUMENTOS DE MEDIDA.
Método o procedimiento basado en el azar para asignar o determinar las unidades experimentales (generalmente sujetos, en las ciencias sociales) a las condiciones experimentales —niveles o modalidades de la variable independiente—, al objeto de garantizar que todas las unidades experimentales tengan la misma oportunidad de aparecer en cualquier condición experimental.
ASIGNACIÓN ALEATORIA.
ASIMETRÍA. Literalmente, falta de simetría, o sea, deformación en una curva de distribución de frecuencias de datos. A diferencia de una curva normal, que es simétrica, una curva es asimétrica cuando Q1 y Q3 no es-
39
ASOCIACIÓN
tán a la misma distancia de Q2 (mediana) como ocurriría si fuese normal. (Q1, Q2 y Q3 son los cuartiles 1.o, 2.o y 3.o respectivamente). Es, pues, la diferencia de distancias desde los cuartiles primero (Q1) y tercero (Q3) a la mediana. Su notación es SK (de «Skewness», en inglés) o As. Hay dos tipos de asimetría: positiva, cuando Q2 está más cerca de Q1 que de Q3, y negativa, en el caso contrario. En otros términos, la asimetría es positiva cuando la distribución tiene muchas puntuaciones bajas y pocas altas; y negativa, si sucede lo contrario. Cálculo, según índice de Pearson: SK o As = Según índice de Thorndike: SK o As =
X − M0 σ
3( X − Md ) σ
(Nota: en muchos manuales figuran así las dos fórmulas, pero la σ del denominador debiera ser sx, pues se refiere a la desviación típica de la serie de datos de la muestra, no a la desviación típica de la población).
Si la distribución es simétrica (normal), coinciden media, mediana y moda. Si es asimétrica positiva, X > Mo y X > Md. Si es asimétrica negativa, X < Mo y X < Md. Entre 0,37 y 1,00, la simetría es aceptable (por debajo de 0,37, la curva se podría considerar simétrica); con asimetría superior a 1,00, la curva es claramente asimétrica. Asimetría y cuartiles: • Cuando (Q3 – Q2) = (Q2 – Q1) → Asimetría cero (As = 0, distribución simétrica). • Cuando (Q3 – Q2) > (Q2 – Q1) → Asimetría positiva (superior a 0). • Cuando (Q3 – Q2) < (Q2 – Q1) → Asimetría negativa (inferior a 0). ASIMÉTRICA, distribución.
Distribución asimétrica (véase).
Línea recta que, prolongada indefinidamente, se acerca de continuo a una curva, sin llegar nunca a encontrarla. ASÍNTOTA.
Dícese de la curva normal, al no encontrarse o cortar nunca sus extremos al eje de abscisas. Es decir, la curva normal teórica se aproxima indefinidamente a la abscisa, pero sin encontrarla. Sus ramas son tangentes al eje horizontal de abscisas, esto es, se extienden infinitamente en los dos sentidos de su dirección.
ASINTÓTICA.
Relación entre dos variables significativamente mayor o menor de la que se explicaría por azar. Puede ser positiva, si la presencia de una variable aumenta la probabilidad de que ocurra la otra, o negativa en el caso inverso.
ASOCIACIÓN.
40
ASOCIACIÓN ASOCIACIÓN, coeficiente de.
(Véase: Coeficiente de asociación).
Signos utilizados para indicar abreviadamente la significación de los resultados empíricos: *** Significación al nivel de 0,05 (5%). *** Significación al nivel de 0,01 (1%). *** Significación al nivel de 0,001 (0,1% ó 1‰). NS = No significación. ASTERISCOS.
Término elaborado por la Sociometría para referirse al individuo, origen y meta de las relaciones al emitir elecciones o rechazos (expansividad) y al recibirlos de los demás; recepción que configura su estatus sociométrico o posición que ocupa dentro de un grupo social (líder, popular, aislado, rechazado).
ÁTOMO SOCIAL.
ATRIBUTO. Dícese de cada una de las cualidades o propiedades de un ser (sexo, origen racial, etc.). Criterio común de similitud para la agrupación de unidades distintas. Sinónimo: categoría. En Estadística, el término atributo se utiliza para designar características de tipo discontinuo, refereridas generalmente a estados o cualidades que los seres poseen o no, pero que, en principio, no admiten grados. Ciertos autores utilizan como equivalentes los términos «atributo» y «variable cualitativa o categórica». Las características cualitativas consideradas en una investigación se suelen denominar atributos. AUDITORÍA, modelo de.
(Véase: Modelo de Auditoría).
En la evaluación de centros educativos (véase), evaluación interna (véase).
AUTOEVALUACIÓN.
AUTOINFORME. Procedimiento o técnica de enfoque cuantitativo para la recogida de datos cuyo objeto es recabar información más profunda sobre determinados aspectos del programa de investigación evaluativa en estudio. Los autoinformes nos presentan, en lo que se refiere al grupo de sujetos implicados y en comparación con la entrevista, la ventaja de la accesibilidad a un mayor número de elementos con un menor esfuerzo debido a que no es precisa la interacción sujeto a sujeto. Además presenta un grado de especificación que no alcanza la encuesta, ya que ésta pretende llegar a un amplio número de personas para obtener información sobre aspectos generales. No obstante, la subjetividad de estas aportaciones parece evidente. Pero también parece necesario acudir a los autoinformes para recabar información de los usuarios que resulta complejo obtener por otras vías. Para la recogida de información se suele utilizar el cuestionario (véase) que aporta escalas valorativas en la mayor parte de los elementos
41
AXIOMA
que lo configuran. Precisa rigor en su construcción, adecuado formato de las respuestas y del sistema de codificación y análisis de las respuestas y los datos, unido a la garantía del anonimato y la confidencialidad. AUTO-OBSERVACIÓN. Tipo especial de observación en la que observador y observado coinciden en la misma persona. AUTOVALOR l i. El autovalor λi asociado a la función discriminante Di, es la proporción explicada por esta función, de la varianza total explicada por las m funciones discriminantes D1, …, Dm. La suma de los autovalores es la proporción de la varianza que queda explicada, que se conserva, al reducir todo el sistema a los ejes discriminantes.
Proposición tan evidente que no necesita demostración, que es incontrovertible. Los axiomas, como principios evidentes (y, por tanto, dignos de ser estimados, creídos o valorados) constituyen el fundamento de la ciencia. AXIOMA.
B
En síntesis, son archivos de cuestiones utilizadas o a utilizar en pruebas estructuradas de evaluación de actitudes o de rendimientos.
BANCO DE DATOS.
Archivo de un conjunto numeroso de ítems o cuestiones que miden un mismo rasgo, tema, campo o área de conocimiento. Su almacenamiento, aunque puede efectuarse de varias formas, lo más habitual es que se archive o guarde en un ordenador (base de datos o estructura similar) al objeto de posibilitar la construcción de distintos tests o pruebas.
BANCO DE ÍTEMS.
Norma de referencia o puntuaciones normativas obtenidas en un test o en una prueba por el grupo normativo (véase) y que ayudan a expresar la posición relativa de un sujeto al comparar con este grupo de referencia la actuación de dicho sujeto en el test o prueba correspondiente. Naturalmente, la aplicación del baremo se basa en la representatividad del grupo original (norma o grupo normativo) y en el mantenimiento de las circunstancias en las que se construyó tal baremo.
BAREMO.
BARRAS, gráfica de. Representación gráfica de datos mediante rectángulos horizontales o verticales que indiquen dentro o fuera los correspondientes valores. La gráfica de barras es divisible proporcionalmente al todo. Las diversas partes (barras) se distinguen por punteados, rayados, etc. BARTLETT, prueba de.
(Véase: Prueba de esfericidad, Bartlett).
BATERÍA. Conjunto de tests, elaborados o no específicamente, para diagnosticar las aptitudes o el rendimiento de los individuos. Todos los tests de una batería se tipifican sobre la misma población, para permitir comparaciones entre los resultados de las diversas pruebas, aunque en ocasiones no se cumple este requisito. Junto a las baterías de aptitudes diferenciales se han elaborado otras de aptitudes especiales e, incluso, de
44
BERNOULLI
pruebas pedagógicas (de rendimiento: aritmética, ortografía, conocimientos, etc.). BERNOULLI, Ley de.
(Véase: Ley de los grandes números).
BILATERALES (PRUEBAS). BIMODAL, distribución.
(Véase: Pruebas bilaterales).
Serie o distribución de datos que tiene dos modas
(véase). BINOMIAL, modelo.
(Véase: Modelo binomial).
BINOMIAL, prueba.
Prueba binomial (véase).
BINOMIO, desarrollo del. El modelo binomial es un modelo no paramétrico útil o válido para determinar la probabilidad de que un 100% de respuestas a favor de una de las dos opciones propuestas se hubiera producido por azar, cuando la población se halla dividida en torno a esas dos opciones y la medida es simple recuento de frecuencias. O sea: variable dicotómica y medida nominal. (Véase: Modelo binomial). La función matemática que sirve para problemas de este tipo es el desarrollo del binomio (X + Y)n, que tiene cuatro características: 1) Hay dos términos o resultados: X e Y. 2) Cada término tiene una probabilidad de ocurrencia determinada. 3) X e Y cumplen la propiedad de la inclusión, ya que la suma de sus respectivas probabilidades = 1. 4) El universo de X e Y se muestra n veces. Un ejemplo.—Supongamos: a) Dos opciones (Divorcio SÍ - Divorcio NO). b) Población dividida en torno a estas dos opciones: Divorcio SÍ = 45% y Divorcio NO = 55%. c) Las dos opciones son inclusivas (45% + 55% = 100%). d) Hay tres resultados posibles para una muestra de dos sujetos: — Contestar los dos SÍ. — Contestar uno SÍ, y el otro NO. — Contestar los dos NO. Luego, el universo X e Y se muestra n veces (en nuestro caso, n = 2). Por tanto: X 2 + 2XY + Y2. X2 representa una muestra de dos sujetos que contestarían SÍ. 2XY representa una muestra en que uno sería SÍ, y el otro NO. Y2 representa una muestra en que dos serían NO. Distribución de probabilidad al desarrollar el binomio del ejemplo (cuadro adjunto).
45
BLOQUES.
Conclusión de la investigación
Término en el modelo
Probabilidad (P)
P
%
Dos SÍ Uno SÍ; otro NO Dos NO
X2 2XY Y2
(0,45)2 2 (0,45) (0,55) (0,55)2
0,20 0,50 0,30
20 50 30
1,00
100
Total
Tipo de distribución que describe la relación entre una variable X, y otra variable Y, para los mismos sujetos. La relación bivariada, por tanto, es la relación entre dos variables, p.e.: C.I. o cociente intelectual (X) y adaptación escolar (Y). «Gran número de distribuciones bivariadas de frecuencias tomadas en educación y psicología observan una forma característica..., generalmente forma de una campana, tridimensional... Mucho se ganaría si el estadístico matemático pudiera encontrar una serie de curvas matemáticas que describieran adecuadamente diversas distribuciones bivariadas de frecuencias; la superficie matemática que satisface este criterio se conoce como distribución normal bivariada». (Glass-Stanley, 1974, 105-106).
BIVARIADA, distribución normal.
Técnica consistente en constituir los grupos de la forma más homogénea posible desde la perspectiva de algún criterio relevante o variable de bloqueo (véase), esto es, de una variable que mantiene una relación sustancial, cuanto más elevada mejor, con la variable dependiente. Cada bloque así constituido será más homogéneo respecto de tal variable que si se hubiese constituido al azar. Dentro de cada bloque, se forman tantos grupos como niveles, condiciones o tratamientos se experimenten en el diseño. El caso más simple del bloqueo es el del emparejamiento, propio de los diseños de dos grupos. El bloqueo trata de lograr, de una parte, una mayor igualdad de los grupos y, consiguientemente, el control de la variabilidad debida al azar y no al tratamiento experimental (véase: Error típico); es decir, el control de la variabilidad debida al azar estima los errores casuales o aleatorios, además de los errores de medición que contribuyen a aumentar la varianza de unos datos en los diseños al azar. De otra parte, trata de reducir las diferencias individuales entre pares o grupos (bloques) de sujetos, con la consiguiente reducción de la variabilidad debida al azar (error típico), para conseguir un diseño más sensible, esto es, capaz de captar diferencias más pequeñas que las captadas por el diseño completamente al azar.
BLOQUEO.
En la investigación psicopedagógica, agrupaciones de sujetos con valores similares en una variable extraña cuya influencia se desea controlar o neutralizar.
BLOQUES.
46
BMDP
Paquete informático de análisis de datos. BMDP (Biomedical Computer Programs) ofrece distintas versiones de uso en el marco de la investigación social. En la correspondiente a los años noventa del siglo XX se pueden ejecutar los siguientes subprogramas: BMDP.
D. F. L. M.
Descripción de datos. R. Regresión. Tablas de frecuencia. S. Especial. Tablas de vida y análisis de supervivencia. T. Series temporales. Análisis multivariado. V. Análisis de varianza.
Cada uno de los subprogramas generalmente se identifica por un número y una letra; el significado de cada letra permite conocer los tipos de análisis básicos a realizar. Aplícase a las pruebas que pretenden comprobar si se puede afirmar, a partir de los datos empíricos de una muestra, que en la población de la que procede dicha muestra la característica representada por aquéllos sigue un determinado modelo de distribución (normal, uniforme, binomial o cualquier otro) con una determinada probabilidad. Es decir, valiéndonos de la forma de distribución de frecuencias de una muestra, pretendemos hacer inferencias acerca de la forma de distribución de la correspondiente población. Entre las pruebas más conocidas de bondad de ajuste se encuentran la de χ2 (ji cuadrado) y la de KolmogorovSmirnov. (Véase: Pruebas de bondad de ajuste).
BONDAD DE AJUSTE.
BURT, tabla de.
Tabla de Burt (véase).
C
CAMADA. Grupo de individuos que han nacido de la misma madre al mismo tiempo. Se utiliza como un bloque para la experimentación. CANON DE CONCORDANCIA. Uno de los cuatro cánones, reglas o leyes que estableció J. S. Mill (1806-1873) para realizar inferencias en forma segura. Dice este canon: «Si dos o más instancias del fenómeno que se investiga tienen una sola circunstancia en común, la sola circunstancia en que concuerdan todas las instancias es la causa (o el efecto) del fenómeno dado».
Uno de los cuatro cánones, reglas o leyes para realizar inferencias en forma segura, enunciados por J. S. Mill (18061873). Dice este canon: «Si dos casos, uno en que el fenómeno se da y otro en que no ocurre, tienen en común todas las circunstancias menos una, que se da en el primero y no en el segundo, ésta es la causa (o el efecto) de dicho fenómeno».
CANON DE DIFERENCIAS.
CANON DE RESIDUOS. Uno de los cuatro cánones, reglas o leyes para realizar inferencias en forma segura, enunciados por J. S. Mill (1806-1873). Dice este canon: «Quítese de cualquier fenómeno la parte conocida por inducciones previas como efecto de ciertos antecedentes, y el residuo del fenómeno será el efecto de los antecedentes restantes».
La cuarta de las reglas o leyes —cánones— que estableció J. S. Mill (1806-1873) para realizar inferencias sin riesgo. Dice así: «Cuando dos o más casos, en que el fenómeno estudiado se da, tienen únicamente una circunstancia en común, al tiempo que dos o más casos en que dicho fenómeno no se da no tienen nada en común, salvo esta circunstancia, la circunstancia en que ambos grupos de casos difieren es el efecto, o la causa, del fenómeno».
CANON DE VARIACIONES CONCOMITANTES.
CAPTACIÓN DEL TONO, análisis para. Modalidad de análisis de contenido que, teniendo en cuenta sus aplicaciones, pretende abstraer cierto sentido del tono de la actitud comunicada por la respuesta.
48
CARACTERÍSTICA
Propiedad o cualidad que manifiestan los sujetos o los objetos y que les caracteriza o les sirve para distinguirse de otros sujetos u objetos. También, característica hace referencia al fenómeno, categoría o clase que son objeto de estudio y tratamiento estadístico. Los fenómenos cualitativos se denominan «atributos» (p. ej.: sexo); los cuantitativos, «variables» (Gonzalvo, 1978; Navas, 2001).
CARACTERÍSTICA.
CASO.
En la investigación social, sujeto de la población en estudio.
Término que, dentro de sus varias acepciones, se podría definir como uno de los diferentes elementos de clasificación que suelen emplearse en las ciencias (D.R.A.E.). O, en las ciencias sociales, como los distintos modos de ser. Y así, en la investigación propia de estas ciencias, se utilizan las categorías de observación (véase). Dentro del conjunto de significados determinados que este vocablo representa, a la investigación en Ciencias Sociales le interesa el significado de cada una de las dimensiones que comprende una variable de naturaleza cualitativa, que responde a un título genérico en función de los caracteres comunes de los elementos que reúne. Para la formación de categorías se suelen tener en cuenta criterios lógicos, psicológicos y contextuales. Estos criterios nos indican cómo debemos incluir cada unidad de análisis en una categoría determinada, así como también la forma de interpretar esta inclusión.
CATEGORÍA.
CATEGORÍAS CONTINUAS.
Las que comprenden variables continuas (véase).
CATEGORÍAS DISCRETAS O DISCONTINUAS.
Las que comprenden variables
discretas (véase). Conjunto de categorías que cumplen el requisito de no solaparse en sus contenidos, de forma que la inclusión de un caso en una categoría impida su asignación a otra distinta. Es decir que, dado un elemento del fenómeno observado, sólo pueda ser registrado dentro de una categoría de ese conjunto.
CATEGORÍAS EXCLUYENTES.
Conjunto de categorías que cumplen el requisito de comprender o abarcar todos los elementos o casos que componen el fenómeno objeto de observación, de tal suerte que ningún elemento o caso quede sin poder ser asignado a una de las categorías.
CATEGORÍAS EXHAUSTIVAS.
Definiciones operativas de clases que permiten registrar el fenómeno sometido a observación. El diseño de un sistema de categorías es la meta del proceso de categorización (véase), que debe ajustarse a unas normas o reglas: a) definición «clara y precisa» de las categorías en que se divide un conjunto de casos; b) las categorías deben ser mutuamente «excluyentes» (véase: categorías excluyentes);
CATEGORÍAS DE OBSERVACIÓN.
49
CHAID
c) condición de «exhaustividad» (véase: categorías exhaustivas): ningún caso deberá quedar sin poder ser asignado a una de las categorías. CATEGORISMO.
Sistema de categorías.
Proceso de selección y definición de aquellos rasgos o aspectos de la conducta o de la situación que se consideran relevantes para la investigación, al objeto de diseñar un sistema de categorías —categorismo—. La categorización exige «precisión y claridad» en la definición de las categorías, además de que éstas deberán ser mutuamente «excluyentes», además de «exhaustivas».
CATEGORIZACIÓN.
Sigla de Computer Assisted Telephone Interviewing, o sistema estructurado que facilita la realización de entrevistas telefónicas con la ayuda del ordenador. Puede incluir los procesos de selección de la muestra, la presentación del cuestionario, la grabación y el análisis de los datos.
CATI.
Fundamento u origen de algo. Desde el enfoque o postura empirista, el antecedente constante de un fenómeno.
CAUSA.
CAUSAL, diagrama.
(Véase: Diagrama causal).
Puntuación estándar (tipo, modelo, norma o patrón de referencia) cuya media es 500, la desviación típica 100 y su rango de puntuaciones va de 200 a 800 (–3z, +3z): amplitud práctica de las puntuaciones «sigma». La fórmula de la puntuación estándar CEEB (College Entrance Examination Board) es:
CEEB, puntuación.
Z cb = 100
(X − X) + 500 σ
Siendo σ (o mejor, sx) la desviación típica de la serie de datos muestrales. Zcb = 100z + 500 (Véase: Escala CEEB). CENSO. Recopilación de todos los miembros de una población que poseen una determinada característica (por ejemplo, tener un determinado estado civil, vivir en una región específica, etc.) en la que se recogen algunas de las peculiaridades de todos los elementos de dicha población (por ejemplo: edad, profesión, etc.). CENTIL (C).
En la práctica, sinónimo de percentil (véase).
CENTILAJE.
Cálculo de centiles o percentiles (véase).
CHAID, técnica.
Técnica Chaid (véase).
50
CHI CUADRADO
Ji cuadrado, χ2 (véase). «Chi» es la denominación incorrecta (escritura y pronunciación incluidas) de la letra griega χ, que figura así en algunos manuales de inspiración anglosajona.
CHI CUADRADO, c2.
Representación gráfica de datos sobre un círculo por medio de sectores, cuya superficie es proporcional a la magnitud de los valores representados. (Ej.: distribución de calificaciones —sobresaliente, notable, aprobado, suspenso—; alumnos de uno y otro sexo matriculados en una carrera, etc.). CICLOGRAMA.
Tipo de conocimiento humano caracterizado por su objetivo (expresión del conocimiento en forma de reglas de ámbito general) y su método (método científico). Por tanto, la ciencia engloba un conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados, y de los que se deducen principios y leyes generales.
CIENCIA.
CIENTIFICISMO. Afirmación de que sólo a través de la ciencia positiva (experimental) se puede establecer la veracidad de un conocimiento. Se apoya en la teoría según la cual los únicos conocimientos válidos son los que se adquieren mediante las ciencias positivas; lo que desemboca en la doctrina que preconiza que los métodos científicos deben extenderse a todos los dominios de la vida intelectual y moral sin excepción.
La tendencia a dar excesivo valor a las nociones científicas, o pretendidamente científicas, se basa en la confianza plena en los principios y resultados de la investigación científica y en la práctica rigurosa de sus métodos. CLASE. Subdivisión de escala; agrupación por división del todo, es decir, de la amplitud total de la escala.
Clase que tiene mayor frecuencia, en el caso de un conjunto de datos agrupados en clases. Se suele tomar como moda el valor correspondiente a la marca de clase (véase) relativa a la clase modal. CLASE MODAL.
CLUSTER.
Análisis de conglomerados (véase).
COCIENTE DE INSTRUCCIÓN (C. Ins.). Indicador de la posesión de los conocimientos propios de la edad del sujeto. Es el resultado de dividir la edad de instrucción (E. Inst.) por la edad cronológica (E.C.). Su fórmula es:
C. Inst. = E. Inst. / E. C. El resultado se multiplica por 100, para evitar decimales, por lo que la normalidad vendrá expresada por esta cifra; el retraso, por todas las cantidades inferiores a 100; y el adelanto, por las superiores a 100. COCIENTE INTELECTUAL (C.I.). Cifra que expresa la razón o relación (cociente) entre la edad mental y la edad cronológica de una persona. Para que el resultado de ese cociente sea un número entero, se multiplica por cien.
51
COEFICIENTE
Cifra que expresa la relación entre la edad de instrucción (E. Inst.) y la edad mental (E.M.) de un mismo sujeto. Es el resultado de la ecuación siguiente:
COCIENTE DE RENDIMIENTO INTELECTUAL.
C.R. = E. Inst. / E.M. El cociente de rendimiento (C.R.) de un sujeto no expresa sino el valor de la instrucción del sujeto en relación con su capacidad intelectual, o sea, adecuación entre capacidad y rendimiento. Expresión por medio de símbolos determinados (códigos). En la investigación de las ciencias sociales, proceso por el que las respuestas de los sujetos se transforman en un conjunto discreto de valores, o códigos, para ser analizados numéricamente. En el análisis cualitativo de contenido y textual, primera actividad del análisis consistente en asignar «códigos» a las unidades de significado, lo que permite describir e inferir información acumulada en el estudio. Estos códigos pueden ser: descriptivos (atribuyen un nombre a un segmento del texto analizado); interpretativos (permiten identificar conceptos más complejos y abstractos) y códigos de patrón (de carácter más inferencial y explicativo). Los datos así obtenidos constituyen las unidades sobre las que se trabaja, de gran trascendencia tanto para los trabajos meramente descriptivos, cuanto para los basados en la teorización. Para la presentación de la información de manera sistemática, se suele recurrir a las matrices (tablas de doble entrada que cruzan la información textual con los criterios fijados con anterioridad), las redes (véase) y los mapas conceptuales (véase).
CODIFICACIÓN.
Signo (símbolo) o sistema de signos (símbolos) utilizados para representar los valores de una variable o las categorías de un sistema.
CÓDIGO.
Sistema de categorías arbitrarias elaboradas por el investigador para registrar los elementos que son de su interés en el fenómeno observado.
CÓDIGO ARBITRARIO.
CÓDIGO DESCRIPTIVO.
(Véase: Codificación).
CÓDIGO INTERPRETATIVO. CÓDIGO DE PATRÓN.
(Véase: Codificación).
(Véase: Codificación).
Vocablo que, en general, significa que algo —juntamente con otra cosa— produce un efecto (de co y eficiente). En términos algebraicos, es el número o, en general, factor que hace oficio de multiplicador, escrito a la izquierda e inmediatamente antes de un monomio o, si se refiere a todo un binomio o a todo un polinomio, éstos van encerrados en un paréntesis. En términos matemáticos, es el factor constante en un producto. En términos físico-químicos, es la expresión numérica de una ca-
COEFICIENTE.
52
COEFICIENTE DE ALIENACIÓN
racterística o propiedad, generalmente en forma de cociente (por ejemplo: coeficiente de dilatación de los gases). Como término estadístico, significa la medida de la relación entre dos variables (correlación). Sin embargo, esta relación no implica necesariamente que una de las variables sea la causa de la otra, porque, sin perjuicio de que pueda existir o no esa causalidad, en algunos casos dos variables están relacionadas porque ambas lo están a una tercera o son causa de ella. (Downie-Heath, 19816). El que expresa el grado de error que se comete al predecir una variable. El coeficiente de alienación, k, es igual a la raíz cuadrada de la unidad menos el coeficiente de correlación al cuadrado:
COEFICIENTE DE ALIENACIÓN, k.
k = 1 − r2 COEFICIENTE DE ASOCIACIÓN. También denominado coeficiente de coligación, es una medida de concordancia o grado de semejanza o similitud que existe entre variables. Se utiliza, sobre todo, para datos cualitativos y se aplica cuando existen dos variables nominales, cada una de ellas con sólo dos categorías. Ejemplo: variables nominales «estado civil» (con sólo dos categorías: soltero-casado) y «religión» (creyente-ateo) (Véase: Medida de proximidad). El coeficiente de asociación, junto a otras técnicas, se aplica como medida para detectar la tendencia de los datos a aparecer sistemáticamente asociados en ciertas combinaciones de categorías, cuando se trabaja con datos nominales o con datos ordinales expresados en un conjunto de categorías limitadas. Cuando se dispone de datos nominales, obtenidos a partir de dos variables discretas y dicotómicas, se pueden utilizar tres técnicas para estimar la asociación: «ji cuadrado» (véase), coeficiente de correlación «phi» (véase) y contraste «Q»de Cochran (véase). COEFICIENTE DE COLIGACIÓN.
(Véanse: Coeficiente de asociación y Me-
dida de proximidad). COEFICIENTE DE CONCORDANCIA (W), de Kendall. Coeficiente que expresa la relación entre tres o más series ordinales de datos. La cuantía del coeficiente de concordancia W indica el grado de acuerdo o concordancia entre las series. El acuerdo es total, si W = 1; si W = 0, no hay concordancia o acuerdo. (Este coeficiente no puede ser negativo, porque cuando están implicados más de dos conjuntos de rangos, las ordenaciones no pueden discrepar totalmente o por completo). Se aplica, por ejemplo, cuando interesa conocer el grado de acuerdo o de concordancia entre valoraciones dadas por varios jueces, o por un mismo juez en varias ocasiones, a una misma realidad.
53
COEFICIENTE DE CORRELACIÓN
COEFICIENTE CONFIDENCIAL.
Probabilidad asociada al intervalo de con-
fianza (véase). Índice que establece el grado de relación, o mejor, asociación entre dos variables (independientemente de que sean discretas o continuas, o distribuidas o no normalmente) cuando cada una de éstas se ha dividido en categorías. Se utiliza este coeficiente siempre que se quieran relacionar dos atributos (o variables discretas) subdivididos en categorías dentro del mismo grupo de sujetos. (Ejemplo: relacionar las calificaciones de dos asignaturas diferentes: Latín-Matemáticas). Los datos relativos a estas categorías se recogen en una «tabla de contingencia», que puede ser cuadrada o rectangular, según el número de categorías de cada atributo. El coeficiente de contingencia no expresa una correlación en sentido estricto, ya que no hace referencia a la variación concomitante de dos fenómenos; expresa, como indica su nombre, únicamente la «contingencia», es decir, la asociación entre dos fenómenos por la frecuencia con que aparecen en un mismo grupo de sujetos. Si este grupo de sujetos constituye una muestra aleatoria de alguna población, se puede determinar en qué grado la asociación de dos conjuntos de datos de la muestra indica una asociación correspondiente en la población, probando la «significación» de esa asociación. COEFICIENTE DE CONTINGENCIA.
Fórmula de Pearson: C =
S −1 (Coeficiente medio cuadrático de conS tingencia), siendo:
C = Coeficiente de contingencia. S = Suma total general de la tabla de contingencia: resultados de todas las celdillas de la tabla, en cada una de las cuales se divide su fo (frecuencia observada) elevada al cuadrado por el producto de los totales de fo de su columna (sentido vertical) y de su fila (sentido horizontal). Fórmula general de contraste: C=
χ2 , siendo N = número de sujetos χ2 + N
Índice que expresa la medida de la relación conjunta o concomitante (o grado de correlación), covariación o variación conjunta de dos o más series de datos correspondientes a dos o más variables. Indica la existencia de mayor o menor dependencia mutua entre las variables en estudio; y así, en el caso más sencillo de dos variables, indica hasta qué punto la variación de una de ellas provoca la obtención de valores más altos (o más bajos) en la otra. (Véase: Correla-
COEFICIENTE DE CORRELACIÓN.
54
COEFICIENTE DE CORRELACIÓN BISERIAL
ción). Los coeficientes de correlación oscilan generalmente entre + 1 (correlación perfecta positiva) y —1 (correlación perfecta negativa). El valor 0 representa falta de correlación. COEFICIENTE DE CORRELACIÓN BISERIAL (rb).
(Véase: Correlación biserial, rb).
COEFICIENTE DE CORRELACIÓN BISERIAL PUNTUAL (rbp).
(Véase: Correlación
biserial puntual, rbp). COEFICIENTE DE CORRELACIÓN CURVILÍNEA: h (eta).
(Véase: Correlación cur-
vilínea). Coeficiente de correlación para datos estadísticos dicotómicos, con nivel de medición nominal (frecuencias). Es la aplicación a variables dicotómicas del coeficiente rxy de Pearson. Su valor no se puede interpretar como rxy. Será el de la correlación perfecta (+1, positiva, y –1, negativa), cuando dichas variables se repartan por igual en las casillas de las diagonales positiva o negativa, es decir, cuando los totales marginales sean iguales. En los demás casos se determinará un valor máximo de φ para interpretar adecuadamente el valor empírico de este coeficiente. COEFICIENTE DE CORRELACIÓN F (phi).
f fp Donde: El φ máximo será: φ max = 1− m fm f1− p
fm = frecuencia marginal mayor de las cuatro. f1-m = frecuencia marginal complementaria de la misma variable. fp y f1-p = valores de la otra variable. Cálculo de φ: X
Y
φ=
+
– A
+ B
–
C
D
CB − AD ( A + B) (C + D) ( A + C) ( B + D)
COEFICIENTE DE CORRELACIÓN, de Kendall (t).
Coeficiente de correlación
entre rangos, t, de Kendall (véase). COEFICIENTE DE CORRELACÓN MÚLTIPLE.
(Véase: Correlación múltiple).
COEFICIENTE DE CORRELACIÓN ORDINAL. Correlación existente entre valores no cardinales, sino ordinales. Generalmente, coeficiente de correlación de
55
COEFICIENTE DE CORRELACIÓN
Spearman (ρs referido al valor de la población, y rs si se refiere al valor de una muestra) utilizado cuando los datos están expresados en rangos (datos ordenados, según su magnitud). Se funda en rxy (coeficiente de correlación de Pearson —véase—), correlación de la que es una aplicación aproximada, y de la que se distingue por los símbolos ρ (para la población) y r (para el valor de la muestra) en el caso de correlación de Pearson. Hay otros coeficientes de correlación ordinal, como el de Kendall (τ) que, a diferencia de ρs, no tienen su fundamento en rxy (Véanse: Coeficiente de correlación entre rangos, t, de Kendall y Spearman, coeficiente). Coeficiente de correlación de Pearson entre aquella parte de X1 que no depende de X3 y aquella parte de X2 que tampoco depende de X3 (Amón, 1984). COEFICIENTE DE CORRELACIÓN PARCIAL (r12.3).
El coeficiente de correlación de Pearson entre las variables X e Y es el cociente de dividir la covarianza (o producto cruzado, o mejor, suma de los productos cruzados a partir de las desviaciones de las puntuaciones de dos grupos respecto de sus medias) por la raíz cuadrada del producto de las respectivas varianzas. O sea: cociente entre la covarianza de X e Y y el producto de la desviación típica de X por la desviación típica de Y:
COEFICIENTE DE CORRELACIÓN «producto-momento», de Pearson (rxy).
rxy =
s xy sx ⋅ sy
Es el índice más representativo para expresar la correlación entre dos variables cuantitativas continuas. Este índice de relación varía entre +1 y –1, siendo 0 la ausencia total de correlación. Las variables que se correlacionan deberán estar normalmente distribuidas. Exigencia imprescindible es la «linealidad»: relación lineal de valores (datos agrupados alrededor de la diagonal en el diagrama de dispersión). Como base de bastantes correlaciones, es, quizá, el coeficiente más utilizado, con aplicaciones como: determinar la fiabilidad y validez de los tests o pruebas; efectuar el análisis de sus elementos, determinar el rendimiento satisfactorio de los sujetos en función de sus capacidades (ecuaciones de regresión), etc. En este coeficiente se basan todos los estudios de tipo correlacional: análisis multivariado o multivariante, análisis factorial, correlación canónica. Existen diversas fórmulas, según que los datos se presenten en puntuaciones directas, puntuaciones diferenciales, puntuaciones típicas, o datos agrupados en tabla de correlación.
COEFICIENTE DE CORRELACIÓN ENTRE RANGOS
56
Fórmulas para puntuaciones diferenciales y típicas: rxy =
Σxy Σx2 Σy2
=
Σz x z y Σxy = n. s x s y n
Índice que mide el grado de semejanza entre los valores de dos sucesiones ordinales. En concreto: si P es el número de no-inversiones y Q el número de inversiones, por definición tenemos: COEFICIENTE DE CORRELACIÓN ENTRE RANGOS, t, de Kendall.
τ=
P−Q P+Q
Se puede utilizar en todos los casos en que se aplique el coeficiente rs de Spearman, sobre el que tiene ciertas ventajas, aunque es más laborioso de calcular. Se diferencia de rs en que no se basa en rxy de Pearson, ya que considera el orden de n objetos en una variable y su orden en otra e intenta medir «el grado de correspondencia entre estos dos órdenes», según Kendall. «En la práctica —dice— encontramos frecuentemente que, cuando ninguno de los dos coeficientes (rxy y rs) se acercan a la unidad, rs es aproximadamente un 50% mayor que τ en valor absoluto, pero esta regla no es invariable» (cit. por Amón, 19846, 262). Es decir: rs ≈ (3 / 2) τ
Coeficiente que establece la relación entre dos variables cuantitativas y continuas relacionadas linealmente, pero que en ambas se introduce accidentalmente una dicotomía (variables dicotomizadas). Supone que las dos variables que se analizan son esencialmente continuas y que estarían distribuidas normalmente, si poseyéramos información suficiente, p. ej.: establecer relación entre rendimiento y adaptación escolar en alumnos de Secundaria. Éstos pueden clasificarse, según su rendimiento, en «superior» e «inferior» al promedio – (X ) y en «adaptados» e «inadaptados» en la otra variable. El valor rt puede considerarse una estimación del rxy de Pearson, tanto más fiable cuanto más cerca de la mediana se encuentra el punto de dicotomización. COEFICIENTE DE CORRELACIÓN TETRACÓRICA.
Uso de este coeficiente: 1.o) Cuando las dos variables son continuas, distribuidas de acuerdo a la curva normal y en ambas se ha introducido una dicotomía. 2.o) Cuando las dos variables son continuas y normales pudiendo hallarse el coeficiente de correlación de Pearson, pero es tan grande la muestra utilizada que resulta muy laborioso su cálculo. En estos casos se pueden dividir ambas variables en dos catego-
57
COEFICIENTE DE VALOR PRONÓSTICO
rías accidentales que pueden ser superiores o inferiores a la me– dia (X ) o mediana (Md) y después obtener el rt entre las dos variables. (Gonzalvo, 1978, 147-150). COEFICIENTE DE DETERMINACIÓN. Coeficiente de validez elevado al cuadrado, que expresa la proporción de varianza del criterio que puede ser pronosticada a partir del test o prueba. Es el coeficiente de correlación —r— elevado al cuadrado (y multiplicado por 100, si se quiere interpretar como porcentaje) que nos indica —nos da una estimación— de la parte de varianza (variabilidad) de una variable explicada por la otra. 2 d = rxy
(Ej.: Si rxy = 0,55; d = 0,552 = 0,30 (ó 30%). Siendo: X = inteligencia; Y = rendimiento. La inteligencia explicaría el 30% del rendimiento). COEFICIENTE DE DISPERSIÓN. COEFICIENTE DE FIABILIDAD.
Coeficiente de variación (véase). (Véase: Fiabilidad, coeficiente).
Coeficiente de correlación entre medidas de distintos rasgos, cuando se utilizan distintos procedimientos de medida.
COEFICIENTE HETEROMÉTODO-HETERORRASGO.
Término inexacto utilizado a veces para referirse al cociente intelectual (véase).
COEFICIENTE INTELECTUAL.
COEFIFICIENTE MONOMÉTODO-HETERORRASGO. Coeficiente de correlación entre medidas de rasgos diferentes con el mismo método de medida. COEFICIENTE DE RIESGO.
Es el nivel de significación (véase) o de signifi-
cancia. COEFICIENTE DE SIMILARIDAD.
(Véase: Medida de proximidad).
COEFICIENTE DE SIMILITUD PROBABILÍSTICA.
(Véase: Medida de proximidad).
Coeficiente de correlación entre medidas del mismo constructo, cualidad o característica, cuando se utilizan distintos procedimientos de medida. COEFICIENTE DE VALIDEZ CONVERGENTE.
Coeficiente de correlación entre medidas de distintos constructos (véase), cuando se utiliza el mismo procedimiento de medida (coeficiente monométodo-heterorrasgo), o entre medidas de distintos constructos cuando se utilizan diferentes procedimientos de medida (coeficiente heterométodo-heterorrasgo).
COEFICIENTE DE VALIDEZ DISCRIMINANTE.
COEFICIENTE DE VALOR PRONÓSTICO. El coeficiente de valor pronóstico o error de predicción, E (derivado de k, coeficiente de alienación) es el índi-
58
COEFICIENTE DE VARIACIÓN
ce cuyo valor indica la probabilidad de pronosticar una determinada correlación, cuando estamos ante una variabilidad no común: independencia entre un fenómeno y otro que se hallan correlacionados. Se averigua restándole a la unidad el coeficiente de alienación (véase): E = 1 – k (donde: E = error de predicción y k = coeficiente de alienación) k = 1 − r2 .
Por tanto,
E = 1 − 1 − r2 .
COEFICIENTE DE VARIACIÓN. Cociente entre la desviación típica y la media (multiplicado ordinariamente por 100). Es una medida que pretende interpretar debidamente las medidas de variabilidad, al relacionar éstas con las medidas de tendencia central que, por sí mismas, carecen de significado. (Por ejemplo: una desviación típica de 2,8 tendrá diferente significado si la media es 26 que si es 15). Así como la desviación típica y la varianza son estadísticos de variación absoluta, el coeficiente de variación es una medida de variación relativa, ya que relaciona un índice de variabilidad (desviación típica) con otro de posición (media):
CV =
s σ ⋅ 100; o bien: CV = ⋅ 100 (Coeficiente de variación, de Pearson). X X
Esta medida de variación relativa puede calcularse, por tanto, refiriendo la desviación típica a la media, para lo que bastará dividir la des– viación típica (σ) por la media (X ) y así obtener el coeficiente de variación. Éste será significativo siempre que la variable observada sea de carácter positivo. En general, de dos distribuciones que tengan la misma desviación típica, aquella cuya media sea mayor estará más concentrada. Para poder ser utilizado este coeficiente, deberá existir unidad constante de medida, es decir, nivel de intervalo, como mínimo. Con mayor motivo, si existiendo unidad fija, se conoce el cero absoluto (nivel de cociente o de razón). COHORTE.
Grupo social que se estudia.
En el modelo de regresión lineal múltiple, situación que se da cuando existe relación entre las variables independientes. El mayor problema de su presencia, cuando la colinealidad es perfecta, es la imposibilidad de calcular los coeficientes de regresión al ser la matriz de correlaciones singular y, en consecuencia, no existir una solución única mínimo-cuadrática. Cuando la colinealidad es parcial, aumenta el valor de los residuos tipificados y éstos generan unos coeficientes de regresión inestables ante variaciones en los datos, de suerte que una simple variación en un dato puede ocasionar el cambio de signo de algún coeficiente. Entonces el coeficiente de correlación múltiple R no sufre variación.
COLINEALIDAD.
59
CONFIANZA
Resulta difícil evaluar cuál es el grado de colinealidad permitida para que no se produzcan los hechos descritos, aunque hay algunos indicadores. (Gil Pascual, 2003). COMBINACIÓN. Selección de cierto número de objetos tomados de un conjunto de N objetos en la que el orden no se toma en consideración. El número total de combinaciones de N objetos tomados n cada vez, siendo N ≥ n, será:
N
()
Cn = N n
()
()
Donde N es el coeficiente binomial, cuyo valor es: N = n n
N! n!( N − n)!
Se lee: N sobre n (combinación de N elementos tomados de n en n). Ej.: ¿Cuántas comisiones académicas diferentes, de tres miembros, se podrían formar con 10 profesores? (caso de 10 objetos, tomados de 3 en 3, es decir, N = 10 y n = 3). Tendríamos: 10
( )
C3 = 10 = 3
10! = 120 combinaciones o comisiones diferentes. 3!(10 − 3)!
COMPONENTES PRINCIPALES, método.
(Véase: Método de componentes
principales). En el método del factor común (véase), concepto clave del modelo que hace referencia a la parte de la varianza de cada variable que se debe a la contribución de los factores subyacentes. La varianza total de cada variable se descompone en dos partes: comunalidad (h2) y especificidad (s2), incluyendo esta última los errores aleatorios de medición. En el método del factor común, la suma de los valores al cuadrado de cada fila es un índice de la comunalidad de cada variable, mientras que la suma de los cuadrados de las columnas cuantifica la parte de la varianza de la matriz R explicada por cada factor. (Prieto Adánez, 1985, 21). COMUNALIDAD (h2).
CONCORDANCIA (W), de Kendall.
(Véase: Coeficiente de concordancia, W,
de Kendall). CONDUCTISMO. Corriente de la Psicología que asume un principio general de mecanicismo biológico en el que la conducta se explica como producto del condicionamiento (asociaciones con estímulos a los que reacciona dicha conducta o que aparecen como consecuencia de ella) y que descarta, en su explicación, la consideración de procesos mentales no observables. CONFIANZA, límites de.
(Véase: Intervalo de confianza).
60
CONFIANZA CONFIANZA, nivel de.
(Véase: Nivel de confianza).
Estrategia de contrastación y validación de hipótesis consistente en buscar datos que la apoyen. CONFIRMACIÓN.
Efecto sistemático provocado por una variable extraña sobre la variable dependiente (V.D.), lo que imposibilita garantizar que los cambios en la V.D. se deban exclusivamente a la manipulación de la variable independiente (V.I.).
CONFUSIÓN.
Medidas en las que la puntuación verdadera relativa a una medida es una transformación lineal de la puntuación verdadera de la otra. Por tanto, son medidas que no satisfacen ninguna de las condiciones de paralelismo.
CONGENÉRICAS, MEDIDAS.
Agrupación o conjunto natural de elementos (personas, cosas o entidades) que poseen una característica común, la cual da cohesión a dicho conjunto.
CONGLOMERADO.
CONOCIMIENTO. Información que la especie humana ha ido acumulando, a lo largo de su historia, sobre sí misma y la Naturaleza. CONOCIMIENTO CIENTÍFICO. Es el resultado de la aplicación del método científico en la resolución de un problema científico. Principales notas del conocimiento científico: a) Origen metódico y rigor en el uso del método científico. b) Provisionalidad y carácter «autocorrectivo»: no es segura su certeza o su verdad; no puede confiarse en su carácter acabado, definido, infalible. c) Objetivo, por lo que, consecuentemente, deberá admitir la contrastación intersubjetiva o acuerdo entre científicos. Los resultados no serán fruto de intuiciones. d) Aspira al sistema, a la organización, al cuerpo estructurado, organizado y armónico de conocimientos. e) Universal, es decir, un mínimo de generalidad de los resultados; si bien, conforme aumenta la complejidad del objeto de conocimiento, el grado de universalidad tiende a reducirse. f) Repetibilidad del hecho observado para su comprobabilidad. g) Probabilismo, como consecuencia de su «provisionalidad» y carácter autocorrectivo. h) Comunicabilidad a otros de forma comprensible. «Para muchos, el conocimiento científico no es algo diferente del ordinario o sentido común, sino el desarrollo de éste (Bunge, 19765, 19), aunque pueda diferir de él en ciertos aspectos, como su mayor precisión, profundidad y seguridad, críticamente comprobadas en el caso de aquél» (Popper, 19774, 19-22; Zaragüeta, 19532, 167-168).
61
CONSTRUCTO
CONOCIMIENTO EXPERIMENTAL. Modalidad de conocimiento científico que se funda en la observación y experimentación científicas sobre la base de la experiencia. Si «científico» es todo conocimiento demostrado inductiva o deductivamente, lo «experimental» es concebido como opuesto a lo deductivo, pero diferente también de lo meramente empírico. El conocimiento experimental, además de incluir la experimentación (o estudio de los fenómenos provocados) incluye también el conocimiento fundado en la observación científica y no incluye, en cambio, el conocimiento que verse sobre experimentos, si no se hubiese obtenido mediante procedimientos científicos. (García Hoz, 1960, 92). CONSTANCIA. Forma de controlar una variable extraña haciendo que tenga el mismo nivel en todas las condiciones experimentales.
Tipo de control de una variable que se consigue haciendo que tenga el mismo nivel en todos los sujetos. En la investigación experimental, formación de grupos, ya emparejados o apareados (caso de dos grupos), o ya relacionados (caso de tres o más grupos), que serán equivalentes inicialmente antes de introducir los tratamientos experimentales. Por tanto, al menos una variable relevante —pueden ser dos, quizá tres— no experimental (variable extraña) que correlaciona muy directamente con la variable dependiente, quedará neutralizada (bloqueada) al controlarse por igual en los grupos mediante «bloques» de sujetos igualados en esa variable extraña. Para la asignación a las condiciones experimentales se recurre normalmente al azar.
CONSTANCIA DE CONDICIONES EXPERIMENTALES.
En contraposición a «variable», característica que tiene un valor fijo en un determinado proceso, en un cálculo, etc. Es, por tanto, la característica que sólo puede manifestarse bajo una única modalidad (valor fijo).
CONSTANTE.
CONSTRUCTO. Construcción teórica que hace referencia a entidades o cualidades no observables o no detectables directamente. Construcción formal, intelectual, de la ciencia. Reciben la denominación de constructos los conceptos referidos a «objetos» carentes de materialización. En los constructos solemos proceder partiendo de la observación de una serie de conductas observables para, a continuación, inferir la existencia de una característica no visible ni observable, hoy por hoy presumida y no confirmada. (Pérez Juste, 1985; Navas, 2001). Es el caso, por ejemplo, de la «inteligencia», cuya medida (C.I. o cociente intelectual) sólo es posible, hasta el momento, a través de sus manifestaciones externas o conductas observables, lo que conlleva necesariamente una medición indirecta muy imperfecta, que trata de aproximarse a la real (directa), hoy por hoy inviable.
62
CONTINGENCIA CONTINGENCIA, coeficiente de.
(Véase: Coeficiente de contingencia).
Contraste de hipótesis no direccional en el que la región crítica decidida (y, desde ese momento, impuesta) es bilateral, bidireccional, de dos colas o bicaudal, es decir, lo mismo hacia la derecha que hacia la izquierda. (Véase: Hipótesis bilateral y pruebas bilaterales).
CONTRASTE BILATERAL.
CONTRASTE DE HIPÓTESIS. Estrategia, plan o esquema de trabajo para someter a prueba la/s hipótesis formulada/s en una investigación experimental o cuasi-experimental. Recoge el procedimiento que se seguirá, es decir, el método para verificar si existe o no base suficiente, con los datos disponibles, para confirmar o rechazar la suposición inicial. Las hipótesis estadísticas (las del investigador: H1) se prueban frente a las de nulidad (H0) o de no diferencias significativas, entendidas éstas como las que deben poder ser rechazadas antes de proceder a la aceptación de aquéllas. Las hipótesis del investigador (H1) son de dos tipos: bilaterales y unilaterales. (Véase: Hipótesis bilateral e Hipótesis unilateral).
Contraste de hipótesis de investigación mediante pruebas no paramétricas (véase) que se ajustan al modelo no paramétrico.
CONTRASTE NO PARAMÉTRICO.
Contraste de hipótesis de investigación mediante pruebas paramétricas (véase), que se ajustan a los requisitos del modelo paramétrico.
CONTRASTE PARAMÉTRICO.
Contraste de hipótesis direccional en el que la región crítica decidida por el investigador es unilateral, es decir, unidireccional, unicaudal o de una cola, según un sentido bien determinado, ya sea sólo a la derecha o ya sólo a la izquierda. (Véanse: Hipótesis unilateral y pruebas unilaterales).
CONTRASTE UNILATERAL.
Nota o característica del experimento (junto al «cambio planificado o provocación del fenómeno» y la «medición») en virtud de la cual el investigador puede mantener el fenómeno provocado bajo la vigilancia o control para descartar hipótesis rivales a la del investigador, a la hora de afirmar que los efectos medidos en la/s variable/s dependiente/s (V.D.) son debidos a y sólo a —causalidad— la(s) variable(s) independiente(s): V.I. El control se refiere a: 1) El control de las condiciones en que el experimento se produce: diferencias iniciales que podrían hacer variar los resultados finales, y control sobre los sujetos en la formación de los grupos. 2) El control del proceso, para evitar la aparición de variables extrañas que puedan contaminar los resultados finales. Es decir, el con-
CONTROL.
63
CONTROL DE VARIANZA EXTRAÑA
trol de la/s variable/s independiente/s se refiere no sólo al de las variables experimentales que se manipulan, sino también al de las variables extrañas. El control estadístico, en suma, es el procedimiento para controlar fuentes de varianza sistemática secundaria (la debida a las variables extrañas) y de la varianza de error, mediante la aplicación de correcciones estadísticas a las medidas de la/s V.D. Todo ello, para evitar que esas fuentes extrañas de varianza contaminen los resultados (V.D.) y así éstos se deban exclusivamente a la intervención de la/s V.I. Una de las técnicas estadísticas empleadas a tal fin es el análisis de la covarianza (véase). Una de las estrategias fundamentales del control consiste en el grupo, o en los grupos, de control o testigos. La formación de ambos tipos de grupos puede llevarse a cabo con técnicas individuales, como el emparejamiento, o colectivas, éstas de carácter estadístico, bien sea por igualación en medidas representativas de grupos (promedios, variabilidad), bien por procedimiento del azar, que pretende evitar cualquier tipo de tendenciosidad o parcialidad. Precisamente esta técnica de control de distribución al azar (aleatorización) es considerada como la más eficaz. La exigencia de control es uno de los puntos clave de toda investigación, como medio de asegurar la validez de los resultados. Control, ¿hasta qué punto en las ciencias humanas? Hasta donde sea posible, para evitar la contaminación de resultados. El grado de control más o menos riguroso del proceso utilizado dará lugar a resultados ya fiables o ya contaminados y, en consecuencia, aceptables o no como prueba para decidir sobre la aceptación o rechazo de la hipótesis. Hay formas de control que nada tienen que ver con la Estadística (p. ej., la no inclusión de un determinado nivel de una variable en el diseño: trabajar sólo con sujetos de un sexo); tampoco, el control de variables extrañas mediante el diseño adecuado. Pero hay otras netamente estadísticas, como el tomar determinados niveles de la variable independiente —p. ej., C.I. entre 90 y 110—, lo que exige medición previa, o determinar el influjo de la clase social, el sexo, la edad, etc., sobre la variable dependiente utilizando el control estadístico de las mismas, es decir, asignando a cada una su peso correspondiente en el resultado final. (Jiménez et al., 1983, t. 1). CONTROL DE VARIABLES EXTRAÑAS.
(Véase: Control de varianza extraña).
CONTROL DE VARIANZA EXTRAÑA. Es el control de las variables extrañas (véase) y su efecto sobre la/s variable/s dependiente/s (V.D.), y control de la varianza de error (véase). Los procedimientos de control de las variables extrañas son: 1) Eliminar la variable como tal, manteniendo constantes los valores de dicha variable.
64
COORDENADAS
2) Selección de los sujetos al azar (aleatorización) y asignación también aleatoria de los mismos a los grupos y de éstos a los tratamientos. 3) Introducir la variable extraña dentro del diseño en forma de «variable independiente» (V.I.) para lograr que varíe de forma sistemática. Así se puede ejercer control sobre ella y extraer de la varianza total de la V.D. la varianza debida a dicha variable. 4) Emparejamiento de los sujetos. Se trata de constituir grupos equivalentes (bloques) en la variable a controlar. Luego, asignación al azar de cada uno de los componentes de la pareja o bloque a los diferentes tratamientos. 5) Control estadístico: formas de control que aíslan y cuantifican las varianzas. El análisis de covarianza es uno de los procedimientos más utilizados. COORDENADAS, sistema de. Sistema rectangular, cartesiano u ortogonal, compuesto por un eje rectangular —el de las abscisas— y otro eje vertical —el de las ordenadas—. El punto cero es el origen de las coordenadas, o sea, de los dos ejes citados, que están en relación.
En el cálculo de χ2, de Pearson, con frecuencias pequeñas y grados de libertad (g.l.) = 1, si una cualquiera de las frecuencias esperadas es pequeña, p. ej., menor que 10, el valor de χ2 calculado está sobreestimado, en general. Cuando g.l. = 1, debe corregirse dicho valor mediante la corrección de Yates por continuidad. Es debido a que la distribución χ2 es discreta, y los valores obtenidos por medio de una expresión se basan en un modelo probabilístico continuo. Cuando las frecuencias son grandes, la diferencia es muy pequeña; pero si las frecuencias son pequeñas, debe aplicarse la corrección de Yates. Hay quienes aplican siempre la corrección de Yates con un g.l., sin tener en cuenta el tamaño de la muestra. • Fórmula corregida por continuidad: CORRECCION POR CONTINUIDAD, DE YATES.
χ = 2
∑
( O − E − 0, 5)2 E
c
=
∑ i =1
[( f0 − f e ) − 0, 5]2 (con un g.l.). siendo : fe
Σ = sumatorio; O = fo = frecuencias observadas (empíricas); E = fe = frecuencias esperadas (teóricas). La corrección consiste en restar el valor 0,5 cuando O > E, y sumar 0,5 en caso contrario. • Fórmula corregida por continuidad (Yates) para χ2 en tabla de contingencia 2 × 2 (se evita calcular frecuencias esperadas):
65
CORRELACIÓN BISERIAL 2
N N AD − BC − 2 (con un g.l.) χ2 = ( A + B) (C + D) ( A + C) ( B + D)
+
Gr. 1 A
–
C
Gr. 2 B Siendo: N = N.o total frecuencias; A, B, C, D: frecuencias de las correspondientes casillas D
Cuando fe < 5 y, en especial, cuando se aproxima a 2, la corrección de Yates por continuidad no es demasiado buena. Debe utilizarse otro procedimiento: método exacto de Fisher (es complicado). Preferible aumentar el tamaño de N (Downie-Heath, 19816, 217- 220). Tendencia de dos fenómenos a variar concomitantemente. Relación concomitante existente entre dos o más variables, o sea, entre dos o más series de datos. Se trata, pues, de la existencia de mayor o menor dependencia mutua entre dos o más variables aleatorias. Para expresar con precisión el grado de relación entre dos o más variables se utilizan los denominados coeficientes de correlación, que oscilan entre 0 (correlación nula) y +1 (correlación perfecta positiva) ó –1 (correlación perfecta negativa). Se representan generalmente por ρ (rho), si se trata de parámetros poblacionales, o por r, en caso de estadísticos muestrales. (Véase: Estudios correlacionales). Se habla de correlación perfecta cuando a un cambio de un fenómeno o variable corresponda siempre un cambio exactamente determinado en el otro fenómeno o variable (ej.: diámetro y longitud de la circunferencia). La correlación imperfecta se da cuando la variación de un fenómeno propicia la variación en el otro, sin que esto ocurra siempre o sin que la variación o cambio en el otro se produzca de forma exacta (por ejemplo: inteligencia y rendimiento académico). La correlación nula es la ausencia total de relación entre dos variables o fenómenos (por ejemplo: peso corporal y cociente intelectual). A su vez se habla de correlación positiva o directa, cuando a un incremento positivo o negativo de un fenómeno corresponde un incremento, positivo o negativo respectivamente, en el otro (por ejemplo: tiempo de estudio y rendimiento escolar). Y de correlación negativa o inversa, cuando a un aumento positivo de un fenómeno se corresponde un aumento negativo en el otro, y a la inversa (por ejemplo: tiempo de práctica mecanográfica y número de errores) (Pérez Juste, 1985; Gonzalvo, 1978).
CORRELACIÓN.
Correlación o relación entre dos variables: una cuantitativa continua y otra dicotomizada, siendo ésta realmente conti-
CORRELACIÓN BISERIAL (rb).
CORRELACIÓN BISERIAL PUNTUAL
66
nua, pero artificialmente dividida en dos categorías para así actuar como dicotómica. (Ejemplo: cociente intelectual de un grupo de alumnos y rendimiento académico positivo, p, o negativo, q). La correlación biserial exige, por lo general, cuatro condiciones: a) continuidad en la característica dicotomizada; b) la característica dicotomizada estará distribuida normalmente; c) que el número de sujetos sea superior a 50; d) que las proporciones de los grupos formados —p y q—, como resultado de la dicotomización, se aproximen a 0,50, aunque en la práctica se admite que uno de ellos no sea inferior al 10% de los casos. De no cumplirse estas condiciones habría que obtener el coeficiente de «correlación biserial-puntual» (rbp). El coeficiente de correlación biserial es una estimación del coeficiente r de Pearson, pero no se debe manejar como éste. Puede ser mayor o menor que la unidad, es decir, mayor que +1 o menor que –1, debido a diversas explicaciones, no coincidentes, según los autores, en torno al incumplimiento de los supuestos exigidos para su utilización. Para los mismos datos, rb es siempre mayor que rbp (correlación biserial puntual). El coeficiente rb es un estadístico menos fiable que el coeficiente r de Pearson o que el coeficiente rbp, ya que su cuantía fluctúa más de una muestra a otra que el coeficiente r de Pearson. «Hoy en día, apenas existen motivos que justifiquen el empleo de este estadígrafo... y no hay razón alguna para seguir utilizándolo...; cualquiera que sea el método de cálculo empleado, es inferior al coeficiente rbp biserial-puntual». (Downie-Heath, 1981, 127). Correlación biserial por puntos o correlación que aplica el rxy, coeficiente de correlación de Pearson, al caso de una variable cuantitativa continua —o eventualmente discreta— y otra auténtica dicotómica. Ej.: rendimiento académico —variable cuantitativa continua— y sexo —variable dicotómica: masculino, p, femenino, q—. Se utiliza en la preparación y análisis de tests: análisis de elementos de tests y pruebas objetivas (especialmente de «verdadero-falso») como índice de homogeneidad de tal elemento o ítem con la puntuación global de la prueba. Asimismo, puede utilizarse para calcular la validez de los tests cuando el criterio es dicotómico. (Downie-Heath, 1981, 120-126; Gonzalvo, 1978, 26: Pérez Juste, 1985, 174-176). CORRELACIÓN BISERIAL PUNTUAL (rbp).
Medida del grado de asociación entre las puntuaciones discriminantes y los grupos. Representa la proporción de varianza total de las funciones discriminantes atribuible a las diferencias entre los grupos. Es la correlación entre pares de funciones lineales, que se expresa mediante un coeficiente que indica la intensidad de la asociación entre cada par de vectores. Toma valores entre 0 y 1, de tal manera
CORRELACIÓN CANÓNICA.
67
CORRELACIÓN CURVILÍNEA
que cuanto más próximo a 1 esté su valor, mayor es la potencia discriminante de la i-ésima función (Gil Pascual, 2003, 306-307; Tatsuoka, 1971). Este procedimiento, desarrollado por Hotelling en 1935, se utiliza para factorizar separadamente dos colectivos de variables medidas en un mismo grupo de sujetos. Cada grupo de variables se reduce en un número de dimensiones incorrelacionadas entre sí, pero de forma que estén máximamente relacionadas con las dimensiones subyacentes en el otro grupo de variables. Se pretende cuantificar las relaciones entre pares de factores, perteneciendo un miembro de cada par a un colectivo distinto de características. (Prieto Adánez, 1985, 26-28). El análisis canónico es una forma de análisis externo que consiste en una técnica para encontrar la correlación entre un conjunto de variables, tomado como conjunto, y otro segundo conjunto de variables también tomado como tal. La diferencia entre el análisis canónico y la regresión múltiple se halla en que en ésta se correlaciona un factor con un conjunto de factores, mientras que en aquél se estudia la relación entre dos conjuntos de factores o variables (G.a Hoz-Pérez Juste, 1984, 491). Es la existente entre dos variables que se relacionan curvilíneamente, es decir, no de forma linealmente rectilínea. Se expresa mediante el coeficiente η2yx (eta). Determinadas variables tienden a mantener con la edad, por ejemplo, sobre todo si se toman valores suficientemente amplios de ésta, una relación no linealmente rectilínea, sino curvilínea. Tal puede ser el caso de determinadas características psicológicas (como memoria), fuerza muscular, habilidades manuales..., al correlacionarse con la edad. En efecto, cualquier capacidad va variando con el tiempo. Si la variación fuese rectilínea, a una determinada edad le correspondería cierto aprendizaje; al doble de edad, el doble de aprendizaje; es decir, tendríamos una sucesión de puntos que, unidos, formarían una línea recta. Los datos, en este caso, obedecerían a una ley lineal rectilínea. En la relación curvilínea, al aumentar los valores de una variable, los valores de la otra pueden aumentar hasta cierto valor y luego ir disminuyendo, con lo que, gráficamente, la nube de puntos forma una línea curva (p. ej., la fuerza física aumenta hasta una determinada edad, a partir de la cual comienza a disminuir). Si se aplicara en tales casos ryx, de Pearson, el valor de r subestimaría la verdadera relación entre las variables que estamos analizando y sería fácil encontrar valores muy próximos a 0 (cero), aunque, en realidad, la correlación pueda ser muy elevada; ello se debe a la falta de linealidad rectilínea, condición esencial para ryx; por tanto, debe aplicarse el coeficiente de correlación curvilínea, η. CORRELACIÓN CURVILÍNEA.
68
CORRELACIÓN ESPURIA
Conviene señalar que, si bien con r da lo mismo rxy que ryx, esto no ocurre en el caso de eta, donde X es la variable tiempo —edad, por ejemplo— e Y la que se correlaciona con ella —habilidad manual, pongamos por caso—. Generalmente, se calcula η2yx cuyo valor se obtiene por medio de las adjuntas ecuaciones, indistintamente.
η2yx =
Σ[ f c (Yc − Y )2 ] ; Σ(Yi − Y )2
η2 = 1 −
SCD SCT
Donde: fc = número de casos de cada columna. – Y c = Media aritmética de los valores de cada columna. – Y = Media aritmética de todas las puntuaciones. Yi = Cada una de las puntuaciones. SCD = Suma de cuadrados dentro de los grupos. SCT = Suma de cuadrados total de los grupos El valor de η2yx debe compararse, en realidad, con r2xy. Una comparación con rxy exige la obtención de la raíz cuadrada de η2yx (G.a Hoz-Pérez Juste, 1984, 286-288). «El coeficiente η2yx es de tal manera, que si la relación fuese rectilínea en vez de curvilínea, el valor de η sería igual a r. Pero si la relación no es rectilínea, η ≠ r. Por esto η sirve no sólo para ver el grado de relación entre dos características, sino para ver si se relacionan rectilínea o curvilíneamente. Para poder utilizar este coeficiente son necesarios los siguientes requisitos: a) que el total de sujetos sea superior a 100; b) que el número de tiempos considerados sean por lo menos ocho». (Gonzalvo, 1978, 34). En resumen: Si los valores de una distribución bidimensional de frecuencias se hallan relacionados linealmente, los valores de η y r coinciden. Si la relación es curvilínea, el coeficiente η > r. La diferencia entre ambos coeficientes depende de la desviación respecto a la linealidad. Los valores de η2yx están comprendidos entre 0 y 1. Nunca son negativos. El coeficiente η2yx sólo mide el grado de relación existente. (Gonzalvo, 1978, 32-36). CORRELACIÓN ESPURIA. Correlación adulterada o falsa que se obtiene entre dos series de datos (o puntuaciones de tests o pruebas) debida, en parte, a variables o factores diferentes, extraños, a aquellos que se miden en los tests mismos. Esta correlación espuria aparece cuando no hay un control apropiado de las condiciones, lo que provoca un aumento del oportuno coeficiente de correlación. Algunas de las situaciones más comunes que pueden provocar correlaciones espurias son: a) correlación espuria debida a la heterogeneidad; b) correlación espuria de índices; c) correlación espuria entre promedios (Garrett, 19796 , 479-481; Gonzalvo, 1978, 37).
69
CORRELACIÓN MÚLTIPLE
Correlación entre dos variables intercambiables en el conjunto de datos.
CORRELACIÓN INTRACLASE.
Relación existente entre variables cuando se da una clara tendencia a que los puntos que representan a los pares de datos ordenados, sobre un eje de coordenadas, estén próximos a la diagonal. Si todos se ubican en dicha diagonal, habrá correlación perfecta positiva (si la diagonal es la que va de abajo, a la izquierda, a arriba a la derecha) o negativa (en caso contrario). La independencia de variables —ausencia de correlación— estaría representada por la dispersión de los puntos, sin tendencia definida.
CORRELACIÓN LINEAL.
Correlación conjunta de varias variables, denominadas «predictores», con otra, conocida como «criterio». Se simboliza por R1(2,3,4…,n) o correlación entre la variable 1 con las variables 2, 3, 4,…, n. Es el coeficiente de correlación de Pearson entre X1 y X′1, donde X′1 es el pronóstico ofrecido por el plano de regresión de X1 sobre X2 y X3: CORRELACIÓN MÚLTIPLE (R1.23).
R1.23 = rx1xi
La correlación múltiple puede ser entendida como un análisis que nos proporciona el conocimiento de la influencia cuantitativa que tiene cada uno de los factores que influyen en otro. El coeficiente de correlación múltiple es un índice que mide la relación existente entre una variable, X1, y otras variables, X2, X3,…, consideradas conjuntamente. Si, por ejemplo, consideramos tres variables, ese índice medirá la relación existente entre X1 y las dos variables X2, X3 consideradas conjuntamente: R1.23, que valdrá lo mismo, tanto si lo calculamos con puntuaciones directas, como si lo hacemos con puntuaciones diferenciales o típicas. Propiedades del coeficiente de correlación múltiple, R1.23: a) Su cuadrado no puede ser menor que cero, ni mayor que uno. b) R21.23 ≥ r212 y que r213. c) Es siempre positivo. d) Tiende a aumentar cuando aumentan r12 y r13 y disminuye r23, aunque esta afirmación precisaría de matización. e) Será mayor para la muestra por la que se han construido las ecuaciones de regresión, que para otra muestra a la que se aplican esas mismas ecuaciones. (Amón, 19846, t.1). El método de selección de tests Wherry-Doolittle ofrece un procedimiento para resolver ciertos tipos de problemas de correlación múltiple con un mínimo de trabajo estadístico. Consiste en seleccionar analíticamente los tests de la batería y, uno a uno, irlos agregando hasta obtener una correlación máxima.
70
CORRELACIÓN ORDINAL CORRELACIÓN ORDINAL.
(Véase: Coeficiente de correlación ordinal).
Es el tipo de correlación referida a una batería de tests de aptitud utilizada para predecir la realización de una tarea, en que cada test se pondera según la relación única, o correlación parcial, con el criterio. (Gonzalvo, 1978). La correlación parcial permite determinar la correlación de la variable 2 ó de la 3 con el criterio, si se parcializa, o sea, si se mantiene constante otra u otras variables —en este caso, la 1, primera seleccionada por su mayor r con el criterio—. Se simboliza: r2C.1; r3C.1. Significa correlación de la variable 2 con el criterio C, parcializada la variable 1, lo que supone algo así como la correlación neta de la 2 ó de la 3 con el criterio. La correlación parcial permite el cálculo de R o correlación múltiple entre dos o más predictores y un criterio, siendo ésta su principal ventaja. (G.a Hoz-Pérez Juste, 1984). CORRELACIÓN PARCIAL.
Es la correlación ordinal, calculada a partir de datos jerarquizados por rangos. (Véase: Coeficiente de correlación ordinal).
CORRELACIÓN POR RANGOS.
Correlación que se obtiene entre las variables 1 y 2 cuando se elimina de la variable 2 la influencia de la 3. Se simboliza: r1(2.3).
CORRELACIÓN SEMIPARCIAL.
CORRELACIÓN, significado del coeficiente de. Como criterio general, suele admitirse la siguiente valoración de los coeficientes de correlación:
Valor del coeficiente 00 a ± 0,20 ± 0,20 a ± 0,40 ± 0,40 a ± 0,60 ± 0,60 a ± 0,80 ± 0,80 a ± 1,00
Relación despreciable baja o ligera moderada sustancial o marcada alta o muy alta
Pero esta tabla sólo es orientativa y refleja un análisis tosco de valoraciones. Puede, incluso, inducir a error, si no se tiene en cuenta que el significado de un coeficiente de correlación depende del número de casos implicados, de los propósitos de aplicación de la medida, de la naturaleza de las variables relacionadas y de la amplitud de las puntuaciones. (Gonzalvo, 1978). CORRELACIÓN TETRACÓRICA.
rica, rt).
(Véase: Coeficiente de correlación tetracó-
71
CRITERIO
CORRELACIÓN TRISERIAL. Tipo de correlación existente entre dos variables, de las cuales una se ha dividido en tres categorías. Parte de los mismos supuestos que el coeficiente de correlación biserial (véase). CORRELACIONALES, ESTUDIOS.
(Véase: Estudios correlacionales).
COVARIACIÓN. Cambios en una variable que coinciden sistemáticamente con cambios en otra variable.
Medida de la covariación o varianza común de dos variables: cuando los cambios de una variable coinciden sistemáticamente con los cambios en la otra variable. Es la media de los productos cruzados de las desviaciones (x, y) de dos variables. Dicho de otro modo: es el producto cruzado, o mejor, la media aritmética de la suma de los productos cruzados a partir de las desviaciones de cada uno de los n elementos de dos grupos de datos respecto de sus respectivas medias.
COVARIANZA.
Σxy N Con la covarianza, el investigador sólo corrige las diferencias de tratamiento ocasionadas por los efectos de no poder controlar una variable. El objetivo básico del análisis de covarianza (véase) es ajustar las puntuaciones de la «variante» a la «covariante», es decir, corregir la variación de la variable criterio en función de la variación de la variable concomitante, a fin de tener en cuenta su efecto. (Arnau, 1981). 2 Fórmula: cov. = cσ =
CRITERIO. 1. En general, pauta o punto de referencia que se utiliza para enjuiciar hechos o realidades (su valía, verdad, falsedad), o para tomar decisiones. 2. En el campo del aprendizaje, es el modelo elegido como meta a alcanzar, es decir, la regla previamente establecida que se aplica como referencia para calificar y enjuiciar el aprendizaje de un alumno, según el nivel o grado de consecución del objetivo específico correspondiente. 3. En la predicción técnica, factor o variable que se predice, denominándose «predictores» los factores que se utilizan para predecir. P. ej., si se quiere predecir el rendimiento de un escolar, conociendo su inteligencia, el rendimiento sería el «criterio» y la inteligencia, el «predictor». Criterio, entonces, es la variable directamente relacionada con el constructo (véase) que mide una prueba y que ésta trata de predecir. El término criterio ha sido definido, a veces, por sus connotaciones de aplicación práctica: a) Como serie de puntuaciones con arreglo a las cuales se comprueba el éxito de un test predictivo.
72
CRITERIO DE DECISIÓN
b) En el campo psico-educativo, «criterio» tiene un significado muy específico en el estudio de las características de la medida y de los instrumentos de medición, en concreto de la validez. Si se define validez (véase) como grado en que un instrumento mide lo que dice medir, será necesario contrastar lo medido por el instrumento con algo que se considera representativo de lo que debe medir, y esto es lo representado por el «criterio de validez». Criterio de validez será justamente aquello que el test pretende medir. (Pérez Juste, 1985; Navas, 2001; Gonzalvo, 1978). CRITERIO DE DECISIÓN. Criterio que permite aceptar o rechazar la hipótesis nula (H0) a la luz de los resultados observados (empíricos) de la muestra en cuestión. (Véase: Región crítica). CRITERIO INTERMEDIO. En la validez predictiva (véase) de una prueba o test, variable relevante sustancialmente relacionada con el criterio, entendido éste como «criterio último»: lo que el test quiere medir. CRITERIO ÚLTIMO. En la validez predictiva (véase) de un test, lo que el test quiere medir, o variable externa denominada criterio (véase). CRITERIOS DE ELECCIÓN DE PRUEBA ESTADÍSTICA.
(Véase: Elección prueba
estadística). CRITICISMO RACIONAL.
(Véase: Popper y el criticismo racional).
CUADRADO o CUADRO LATINO.
(Véase: Diseño de cuadrado latino).
Forma de interpretar las puntuaciones directas, consistente en referirlas a las diversas escalas cuantiles. Éstas son divisiones de una serie de puntuaciones en varias partes, en función de los porcentajes que incluyen, para así situar las puntuaciones de los sujetos a lo largo de dichas divisiones, utilizando los porcentajes para establecer cierta comparación. Generalmente, la serie (que puede dividirse en cuantas partes se desee) se suele dividir en 4, 10 ó 100, teniendo así los cuartiles (Q), deciles (D), y centiles (C) (véanse) respectivamente. El cálculo de cualquier cuantil —Q, D o C— requiere la ordenación previa de los datos. Parte siempre de la determinación del lugar que ocupa en la serie ordenada, para lo que deben resolverse las expresiones:
CUANTIL.
(Qm /4) · n;
(Dm /10) · n;
(Pm /100) · n
ó
(Cm /100) · n
P = percentil, equivalente a C = centil). Medida de puntuación relativa. Divide el total de la serie de valores en cuatro partes o grupos; es decir, los cuartiles dividen el 100% de la muestra en cuatro partes, por lo que la distancia intercuartil es
CUARTIL (Q).
73
CUOTA
siempre un 25%. Una puntuación que se corresponde con el cuartil primero (Q1) deja por debajo de sí un 25% de los casos; la que caiga en el Q2, un 50%, coincidiendo con la media aritmética; el Q3 deja un 75% por debajo. CUARTIMAX o QUARTIMAX, método.
Método de rotación ortogonal. (Véase:
Rotación de factores). Cociente de dividir por cuatro la distribución ordenada de datos o valores. Los puntos que marcan son cuartiles (véase). Los cuartos son: alto (desde Q3), alto-medio (entre Q2 y Q3), bajo-medio (entre Q1 y Q2) y bajo (inferior a Q1). CUARTO.
CUASI EXPERIMENTO. Tipo de investigación en cuyo plan de recogida de datos el investigador, siguiendo un proceso similar al del experimento, no puede manipular la variable de su interés o no tiene la capacidad de control que precisa un experimento. (Véase: Metodología cuasi experimental). CUESTIONARIO. Instrumento de recogida de información constituido por un conjunto de preguntas o ítems (cuestiones) que se consideran relevantes o adecuados para la obtención de datos sobre un rasgo, característica o dimensión, es decir, sobre una variable. Se trata de un conjunto previamente determinado de preguntas, que se utiliza sobre todo en el proceso de la encuesta, para conocer, en definitiva, características de una población. Mediante el cuestionario se puede describir, clasificar, confirmar, establecer relaciones de lo que opinan, sienten, creen, valoran, piensan los individuos sobre un determinado hecho, fenómeno educativo o variable psicopedagógica, además de su comportamiento ante soluciones concretas que se plantean en la vida real. Como instrumento de evaluación, se suele presentar como un formulario impreso que se utiliza para recoger información sobre un tema y con preguntas relevantes relacionadas con un objetivo concreto. Existen diversas clases de cuestionarios, según los tipos de respuesta solicitada: abiertos, semiabiertos, cerrados y mixtos. El cuestionario es muy utilizado en investigaciones psicopedagógicas y sociológicas, sobre todo para medir variables de estos campos de las ciencias sociales. (Navas, 2001, 545; Pérez Juste, 1985, 58-59). Aunque algunos autores asimilan el término cuestionario al de prueba, parece que existen matices diferenciadores. (Véase: Prueba).
Número de unidades muestrales que, con unas características fijadas, hay que completar en el proceso de obtención de las entrevistas para las encuestas de actitudes y opiniones.
CUOTA.
CUOTA
74
Método o proceso de muestreo utilizado en las encuestas de actitudes y opiniones, en el que el examinador debe seleccionar los sujetos con arreglo a unas características definidas (p. ej., determinado nivel socio-económico, determinada edad, etc.).
CUOTA, control de.
Conjunto de factores que se le ofrecen al alumno como posibilidad de aprendizaje (conceptos, principios, procedimientos, actitudes), como asimismo los medios a través de los cuales la institución educativa proporciona esas oportunidades.
CURRÍCULO.
Del latín «curtus»: curto, recortado, mutilado, incompleto, que no tiene la extensión o tamaño que debe. (Véase: Kurtosis).
CURTOSIS.
Procedimiento para normalizar una distribución observada de valores (datos, puntuaciones). A partir de los resultados, se traza una curva normal. Dicha curva, para cualquier conjunto de datos, es la de ajuste óptimo de la serie. La curva de ajuste óptimo, para cualquier conjunto de datos, tiene la misma media y desviación típica, y se basa en el mismo número de casos que los datos de partida. (Sobre cómo realizar la normalización de datos de una muestra, véase, p. ej., en Downie-Heath, 19816, 96-98).
CURVA DE AJUSTE ÓPTIMO.
CURVA BIMODAL. La curva que presenta dos máximos o modas. Es posible una curva con más de dos modas. CURVA BINOMIAL. Representación gráfica de la distribución binomial. En realidad, a pesar de que la distribución es siempre discontinua, a medida que aumenta el número de casos, la curva binomial se aproxima más a la curva normal, pero nunca es continua como ésta.
Es la curva normal (véase), o curva de error, o curva de «De Moivre», o curva de Gauss.
CURVA DE CAMPANA.
Es la representación gráfica de la función característica del ítem que adopta la forma de una ojiva logística. CURVA CARACTERÍSTICA DEL ÍTEM.
Es la curva normal (véase), así también llamada porque De Moivre (1733) fue el primero en obtener la ecuación matemática de la «curva normal», también denominada curva de Gauss, curva de campana y curva de error.
CURVA DE «DE MOIVRE».
CURVA DE DESARROLLO. Representación gráfica que expresa procesos, pone de manifiesto cambios o evidencia la evolución de un fenómeno. También se denomina de tiempo o diagrama de desarrollo. Puede representar procesos individuales o grupales. CURVA DE ERROR. Es la curva normal (véase), o curva de «De Moivre», o curva de Gauss, o curva de campana.
75
CURVA LEPTOCÚRTICA
CURVA DE FRECUENCIAS. Expresión gráfica de la distribución de frecuencias en una serie de datos pertenecientes a variables cuantitativas continuas. Es la suavización del polígono de frecuencias (véase) para representar mejor que éste el conjunto de casos, de los que los analizados en concreto no son sino una muestra. CURVA DE FRECUENCIAS ACUMULADAS (fa). Representación idónea de la curva de frecuencias en el caso especial en que las frecuencias de cada intervalo no se utilizan de forma aislada, sino que se agrupan en una distribución acumulada en la que cada intervalo incluye las frecuencias del anterior. Ahora bien, como estas frecuencias acumuladas (fa) varían de serie a serie, es preferible reducirlas a porcentajes, también acumulados, con lo que se obtiene la denominada ojiva de porcentajes acumulados (véase). CURVA DE GAUSS. Curva normal (véase). Gauss y Laplace, a principios del siglo XIX, desarrollaron más ampliamente que De Moivre (1733) los conceptos de «curva» y de «probabilidad». La curva normal también recibe las denominaciones de: curva de error, curva de campana y curva de «De Moivre». CURVA DE INFORMACIÓN DEL ÍTEM.
Representación gráfica de la función de
información del ítem (véase). CURVA DE INFORMACIÓN DEL TEST.
Representación gráfica de la función de
información del test (véase). CURVA J. Curva de distribución de la conducta de los sujetos en forma de J invertida. Aparece cuando los controles sociales (señales de tráfico, agentes del orden, por ejemplo) regulan la conducta de los individuos. CURVA LEPTOCÚRTICA. Es la curva puntiaguda cuya «curtosis» o kurtosis (véase) es mayor de 0,263, si Cu o Ku se calcula con la fórmula de dividir la semidiferencia de los cuartiles 3 y 1 (Q3 y Q1) por la diferencia de los percentiles 90 y 10; o superior a 0, si el índice de apuntamiento, basado en el momento de cuarto orden, es a4. (Amón, 19846, 1, 131). Los valores de referencia (0,262 y 0) son los de la curva normal o «mesocúrtica». La curva leptocúrtica pone de manifiesto la existencia de diferencias significativas entre los datos. Indica, asimismo, que la curva abunda en casos medios. Entre sus extremos el número de casos superan en altura a los de la curva normal. Y así, para dos curvas con la misma desviación típica, la más apuntada deberá contener más observaciones bajo los dos extremos alejados de la media que la menos apuntada. (Amón, 1984, t. 1, 130-132; Downie-Heath, 19816, 41-42; Gonzalvo, 1978, 98).
CURVA MESOCÚRTICA
76
Curva normal o de campana en que los datos proceden de una distribución normal. Su índice de «curtosis» o kurtosis (véase) es 0,263 (Ku = 0,675 : 2,56 = 0,263) o 0, si el índice de apuntamiento, basado en el momento de cuarto orden, es a4. (Amón, 19846, 1, 131). Es decir, ni es aplastada —platicúrtica (véase)— ni es apuntada o leptocúrtica (véase).
CURVA MESOCÚRTICA.
También llamada curva de error, curva de campana, curva de Gauss o curva de De Moivre. Este último fue el primero en obtener la ecuación matemática de la curva normal en 1733. Es la forma prevista de la distribución normal. Su altura máxima se encuentra en la media. En lenguaje técnico se expresa diciendo que la ordenada máxima (el símbolo de las ordenadas es y) corresponde a una ordenada igual a la media. Las demás ordenadas son menores que aquélla. La curva normal es asintótica. Quiere decir que, teóricamente, las ramas son tangentes al eje horizontal de abscisas, esto es, se extienden infinitamente en los dos sentidos de su dirección. En la práctica, sin embargo, todos los casos quedan incluidos en tres desviaciones típicas a cada lado de la media. La asimetría de la curva normal es nula y por su grado de apuntamiento o curtosis se clasifica en mesocúrtica. En las ciencias de la educación y en psicología se supone que ciertas características se distribuyen de acuerdo con una curva normal. La curva normal se representa gráficamente en forma de campana, simétrica, y obedece a una distribución normal de datos. Coinciden en el mismo punto (valor más elevado de la ordenada y) las medidas de tendencia central: media, moda y mediana. Es, pues, un modelo matemático, teórico, al que tienden los valores de determinadas variables continuas, de conformidad con el azar o la casualidad. Aclaración: no existe la curva normal, sino que se dan infinitas curvas normales, que varían en función de los valores de µ y de σ. Pero todas ellas se caracterizan por: a) Son asintóticas: no cortan al eje de abscisas sino en el infinito (probabilidad =1). b) La ordenada y, correspondiente a la media, divide a la curva en dos partes iguales (cada una con el 50% de los casos) y simétricas. – c) Los valores o medidas de posición, X , Mo, Md, coinciden: es el valor de «y» (ordenada) más elevado. d) Aunque varíe la extensión de la curva, siempre hay el mismo porcentaje de casos en todas las curvas normales. e) Los puntos de inflexión de la curva se hallan a un valor de σ por encima y por debajo de µ. CURVA NORMAL.
77
CURVAS
f) El nivel de apuntamiento normal (curtosis) es de 0,263 (si Cu o Ku se calcula con la fórmula de dividir la semidiferencia de los cuartiles 3 y 1 por la diferencia de los percentiles 90 y 10) o de 0, si el índice de apuntamiento, basado en el momento de cuarto orden, es a4 —véase: kurtosis—. (Amón, 19846, 1, 131). La tabla de distribución normal que facilita las aplicaciones de la curva está preparada sobre un total de 10.000 casos y sobre la base de que la comparabilidad de las curvas se consigue utilizando la curva normal unitaria, cuyas características son: área = 1; µ (media) = 0 y desviación típica = 1, o sea, tomando como base puntuaciones típicas (z). CURVA PLATICÚRTICA. Curva muy aplastada, que denota no haber grandes diferencias entre los datos. Su «curtosis» o kurtosis (véase) es menor de 0,263 (si Cu o Ku se calcula con la fórmula de dividir la semidiferencia de los cuartiles 3 y 1 por la diferencia de los percentiles 90 y 10) o de 0, si el índice de apuntamiento, basado en el momento de cuarto orden, es a4. (Amón, 19846, 1, 131). CURVA DE PORCENTAJES ACUMULADOS. CURVA PUNTIAGUDA. CURVA EN S.
(Véase: Ojiva de distribución).
Curva leptocúrtica (véase).
Curva típica de procesos humanos bio-psicológicos. (Véase: S,
curva en). CURVA SIGMOIDE.
Curva en S (véase).
Curva en que, a diferencia del polígono de frecuencias, se traza una línea curva tan próxima como sea posible de los puntos del polígono, por lo que resulta sin ángulos ni líneas quebradas. La curva de «percentiles» y «ojiva» es una curva suavizada que se emplea con frecuencia para representar puntuaciones de pruebas.
CURVA SUAVIZADA.
Curva de desarrollo (véase), también denominada diagrama de desarrollo.
CURVA DE TIEMPO.
CURVA EN U. La opuesta a la de Gauss o de campana. Polarización extremosa y media poco nutrida. CURVAS, representación de varias. Para representar gráficamente más de una curva, se reducen o transforman las frecuencias empíricas en sus respectivos porcentajes.
Representación gráfica de diferencias significativas, donde éstas se aprecian y valoran nítidamente comprobando el grado de superposición de las distribuciones, cuyo valor numérico in-
CURVAS, superposición de.
78
CURVAS SUPERPUESTAS
dica el porcentaje de sujetos del grupo inferior que alcanzan o superan la Md (mediana) del grupo superior. Por tanto, la superposición y deslizamiento de curvas se produce al comparar gráficamente los resultados de un grupo con los resultados y características de otro/s grupo/s distinto/s. La representación gráfica se realiza sobre un mismo eje de las distribuciones de frecuencias correspondientes a los grupos estudiados. CURVAS SUPERPUESTAS.
Curvas, superposición de (véase).
D
DATO ESTADÍSTICO.
Número de casos con alguna característica en común.
DATOS DE ARCHIVO. En la investigación evaluativa, y desde el enfoque cuantitativo, forma de recogida de información procedente de las denominadas fuentes documentales. Los datos de archivo nos pueden suministrar información sobre la posición de los usuarios o asuntos implicados, antes de iniciar la intervención en algunas de las variables relevantes del estudio, además de la consulta a la documentación escrita del programa que aporte el evaluador. Los documentos son producto de la actividad social y educativa y reflejan los acontecimientos producidos en un momento de su desarrollo histórico. Existen documentos oficiales y personales. Interesan los segundos en la investigación evaluativa. DATOS BIVARIADOS.
Datos pertenecientes a dos variables, X e Y, para los
mismos sujetos. DATOS ESTADÍSTICOS.
Número de unidades correspondientes a los casos es-
tudiados. Medida de posición relativa. Los deciles son cuantiles de orden 10, ya que dividen la serie de datos o puntuaciones en 10 intervalos de igual frecuencia.
DECIL (D).
DECILAJE.
Cálculo de los deciles (véase).
DECISIÓN ESTADÍSTICA. Decisión de si, para una determinada probabilidad, ciertos valores de la población pueden ocurrir por azar o casualidad, es decir, si los resultados muestrales son o no significativos. Al contrastar una hipótesis de nulidad (H0) se toma la decisión de aceptarla o rechazarla. Si los datos muestrales favorecen más la H0 con un nivel de significación (α), se acepta ésta con un nivel de confianza = 1 – α. Si en las mismas condiciones los datos muestrales hacen más verosímil la hi-
80
DEDUCCIÓN
pótesis alternativa (H1) o de investigación, se acepta ésta y se rechaza aquélla, con el riesgo de error α (coeficiente de riesgo o nivel de significación). La decisión es siempre probabilística, pues la prueba de hipótesis indica la probabilidad de determinado valor muestral bajo el supuesto de que H0 sea verdadera. Pero es un supuesto que la prueba de hipótesis no puede comprobar con certeza, ya que las decisiones estadísticas se basan sobre estimaciones de probabilidad. Y es que dichas decisiones estadísticas, basadas sobre la evidencia observada en muestras, implican siempre la posibilidad de error, por lo que sólo estiman la probabilidad o improbabilidad de ocurrencia de los hechos. DEDUCCIÓN. Proceso de razonamiento que va de lo general a lo particular. Etimológicamente procede del término latino «deducere»: acto para llegar a una conclusión a partir de unas premisas suficientes que contienen dicha conclusión. Tradicionalmente el silogismo (véase) ha sido el modo principal de la deducción, pero también cabe la inferencia proposicional. El sistema deductivo plantea principios primarios, reglas de formación y transformación. DEFINICIÓN CONSTITUTIVA. Definición esencial, o sea, la que incluye el género y la diferencia específica. Define una palabra o una construcción con otras palabras o construcciones (ejemplo, gato: animal mamífero, ungulado, carnívoro).
Definición que se da en conceptos demasiado complejos, añadiendo a su característica genérica las «notas» necesarias para su distinción de entre los de la misma especie.
DEFINICIÓN DESCRIPTIVA.
DEFINICIÓN ESENCIAL.
Definición constitutiva (véase).
Dícese de una definición de variables clara, precisa y concisa que utilice términos observables y cuantificables en función de las acciones u operaciones que sean precisas para hacerlas accesibles a la observación y a los instrumentos de medida. La definición operacional fija significado a una variable mediante la especificación de actividades u «operaciones» necesarias para medirla. Esta operativización de variables garantiza la validez de la investigación, al facilitar la prueba de hipótesis y el acuerdo entre distintos observadores del mismo fenómeno.
DEFINICIÓN OPERATIVA u OPERACIONAL.
DELPHI, técnica.
(Véase: Técnica Delphi).
Proceso de argumentación lógica cuyo fin es el establecimiento de la verdad. DEMOSTRACIÓN.
81
DESVIACIÓN TÍPICA
Indicador utilizado para investigar o evaluar. Dato o ítem (véase) que se considera representativo de algún elemento de la variable o característica que se estudia.
DESCRIPTOR.
DESEABILIDAD SOCIAL. Estilo de respuesta sesgada consistente en elegir sistemáticamente la opción de respuesta que se considera más deseable socialmente, en lugar de la opción que mejor refleja los sentimientos, valores, actitudes o personalidad del sujeto examinado. DESVIACIÓN.
Diferencia entre un valor y otro promedio o típico.
Dícese de un CI (cociente intelectual) considerado como puntuación típica con una media de 100 y una sigma de 15 (Wechsler) o de 16 (Stanford-Binet).
DESVIACIÓN CI.
Desviación típica (véase): S. D. = «Standard des-
DESVIACIÓN ESTÁNDAR.
viation», en inglés. DESVIACIÓN MEDIA (DM). Media de las diferencias (en valor absoluto) de n puntuaciones respecto a su valor promedio. Es, por tanto, la media aritmética de las desviaciones tomadas respecto de un valor promedio – de la serie (media, X ; mediana, Md; o moda, Mo) en valores absolutos (es decir, prescindiendo del signo), por lo que existen tres desviaciones medias: Σ | x| DMx , DMMd , DMMo . Fórmula en seriación: DMx = . N Siendo Σ = sumatorio; x = puntuaciones diferenciales o desviaciones respecto de la media; N = número total de casos o datos.
Fórmula en datos agrupados: DMx =
Σ | f j ⋅ m|
, siendo fj · m = producto N de frecuencias por desviaciones (en valores absolutos). DESVIACIÓN MEDIA CUADRÁTICA. DESVIACIÓN MEDIANA.
Desviación típica (véase).
En la práctica, error probable (véase). Notacio-
nes: DMd y EP. DESVIACIÓN REDUCIDA.
Puntuación típica z (véase).
DESVIACIÓN STANDARD.
Desviación típica (véase): S.D. = «Standard des-
viation», en inglés. Medida de la variabilidad de los valores que muestra una variable, es decir, grado de dispersión o variabilidad de los valores (puntuaciones, datos de los sujetos) dentro de un grupo o conjunto de datos. Representa el valor medio (si bien corregido) de las diferencias entre
DESVIACIÓN TÍPICA.
DESVIACIÓN TÍPICA
82
los valores observados y su media, lo que permite interpretar los valores en función de su media y de su dispersión o variabilidad (desviación típica), ya que representa una determinada distancia —positiva o negativa— de la media. Así, cuanto mayor sea el agrupamiento de los datos o puntuaciones alrededor de la media, menor será su desviación típica. Se emplea para evitar el excesivo influjo que tienen las variaciones extremas sobre la desviación media. Matemáticamente, la desviación típica es la «desviación media cuadrática», porque su valor es la raíz cuadrada del cociente de dividir la suma de las desviaciones elevadas al cuadrado por el número de valores (n) de la serie. Es, por tanto, la raíz cuadrada de la varianza (véase) de una variable. Como, por consideraciones matemáticas obvias, la media compensa las aludidas diferencias, es decir, que las distancias que superan a la media se compensan con las que no la alcanzan, se recurre al procedimiento de elevar estas diferencias a su cuadrado, con lo cual todos los signos matemáticos son de carácter positivo. Su valor medio es la varianza. Sin embargo, como este parámetro estadístico tiene unidades cuadradas con respecto a la variable observada, se suele utilizar su raíz cuadrada (la desviación típica) que recupera la dimensión original de la variable Se representa con la letra griega σ, cuando se trata del valor de la población, y con sx si se trata del valor de una muestra. (SD, Standard Desviation, en inglés). El área o espacio de la curva normal comprendido entre la media y +/– una sigma (σ) es equivalente al 68% de los casos. El área entre la media y +/– dos veces sigma (2 σ) comprende el 95% de los casos aproximadamente. Y entre la media y +/– dos veces y media (2,5 σ) se encuentra el 99% de los casos. En fórmulas: – = 68,26% X±σ – = 95,44% X ± 2σ – X ± 2,5σ = 99% – = 99,74% X ± 3σ • El 68% es la «norma» de la distribución. Desde la media, ± una «sigma» separa la población normal de la superior e inferior. Mide, aproximadamente, las dos terceras partes de la distribución. Se computa par– tiendo de la X y es, como se ha dicho, la raíz cuadrada del promedio del – cuadrado de las desviaciones, tomadas desde la X , de las puntuaciones o datos de la serie (n). (En una clase de 100 sujetos, si su distribución es normal, 68 serían «normales»; el resto, especiales, ya superdotados, ya infradotados). • Propiedades características de la desviación típica (Amón, 19846, t. 1, 109-110):
83
DESVIACIÓN TÍPICA
a) Se considera siempre como positiva (una SD no nula, tiene que ser positiva). b) La varianza y la desviación típica son sensibles a la variación de cada una de las puntuaciones. Basta con que varíe una de éstas, para que varíen aquéllas. Ello es debido a que la varianza y la desviación típica dependen de todas y cada una de las puntuaciones y, consiguientemente, de la media. c) Son (la s2 y s) fundamento de muchas técnicas estadísticas que tienen gran importancia en psicología, pedagogía, etc. d) Son función de los intervalos elegidos (de su amplitud, de su número y de los límites de los mismos). – – e) Fuera del intervalo (X – 2sx, X + 2sx,) se encuentra, a lo más, el [(1/22) 100] por 100 = 25% de las observaciones. Fuera del intervalo – – (X – 3sx, X +3sx) se encuentra, a lo más, el [(1/32) 100] por 100 = – 11% de las observaciones. En general, fuera del intervalo (X – ksx, – X + ksx), se encuentra, a lo más, el [(1/k2) 100] por 100 de las observaciones, sea cual sea la forma de la distribución de frecuencias. f) No serán calculables, o no serán recomendables, cuando no sea calculable, o no sea recomendable, la media como medida de posición o tendencia central. g) La desviación típica viene expresada en las mismas unidades en las que vienen expresados los datos. No ocurre lo mismo con la varianza. Si los datos, p. ej., vienen dados en metros, la desviación típica vendrá dada en metros, pero la varianza vendrá dada en m2. – h) Dados r grupos, el primero con n1 puntuaciones, media X 1 y va– rianza s21, el segundo con n2 puntuaciones, media X 2 y varianza s22, – ... el r-ésimo con nr puntuaciones, media X r y varianza s2r, la varianza, s2x, de las n1 + n2 +....+ nr = n puntuaciones, vale: s = 2 x
Σ n j s2j n
+
Σ n j ( X j − X )2 n
O sea, la varianza de las n puntuaciones es igual a la media de las varianzas más la varianza de las medias. Es decir, la varianza del grupo total es igual a la media de las varianzas de cada uno de los r subgrupos más la varianza de las medias de cada uno de estos mismos r subgrupos. Fórmula general (puntuaciones diferenciales): sx =
Σx2 = N
Σx2 f , siendo : N
Σ = sumatorio; x = puntuaciones diferenciales; f = frecuencias; N = número de datos de la serie.
84
DESVIACIÓN TÍPICA CORREGIDA
• Para corregir el sesgo de la desviación típica de una muestra pequeña (y se quieran deducir conclusiones acerca de la población de partida) se empleará: sx =
Σx2 n −1
(En muestras grandes, p. ej., N = 300, la diferencia que resulta de dividir por 299, en lugar de 300, es nula). Existen ecuaciones para el cálculo directo con puntuaciones brutas o directas y también para procedimientos abreviados. • Significado e interpretación de la desviación típica. La desviación típica ayuda a describir la curva de distribución normal. Cuando los datos obedecen a una distribución normal, tomando unidades de desviación típica a lo largo del eje horizontal con origen en la media, resulta la superficie encerrada por la curva dividida en zonas de área bien determinada, según se ha visto anteriormente. • Relación entre el recorrido y la desviación típica. Si N es grande, un in– tervalo de seis s (tres a derecha y tres a la izquierda de X) cubre prácticamente el recorrido (99,74% de los casos). Conforme disminuye N, el número de desviaciones típicas necesarias para contener todos los casos decrece. Es la desviación típica resultante de la corrección efectuada cuando la desviación típica calculada, a partir de distribuciones de frecuencias con agrupamiento grosero, presenta un sesgo. Ello ocurre cuando cualquier distribución tenga menos de 12 ó 14 intervalos de clase, por lo que será considerada como un agrupamiento grosero. Cuanto más grosero es el agrupamiento, mayor es el efecto de este error en la desviación típica. La corrección a efectuar es la de Sheppard: DESVIACIÓN TÍPICA CORREGIDA.
sc =
s2 −
i2 , donde : 12
sc = desviación típica corregida por el error sistemático debido al agrupamiento. 2 s = varianza (cuadrado de la desviación típica) obtenida a partir de los datos agrupados. i = amplitud del intervalo. (Downie-Heath, 1981, 78-79). DESVIACIÓN TÍPICA, error típico de la (σ σs). Medida de variabilidad de las diversas desviaciones típicas muestrales en relación con la desviación típica que sirve de media.
85
DIAGNÓSTICO
Es la desviación típica resultante de «combinar o promediar dos o más desviaciones típicas». Se puede aplicar la siguiente fórmula de McNemar (Downie-Heath, 1981):
DESVIACIÓN TÍPICA PONDERADA.
sT =
N A ( X A2 + s2A ) + N B ( X B2 + s2B ) − X T2 NA + NB
Siendo: sT = desviación típica ponderada de las dos series. NA, NB = número de elementos de cada una de las series. – – X A, X B = media de cada serie. – X T = media ponderada de las dos series. sA, sB = desviación típica de cada serie. NOTA. Si se han de combinar más de dos series, se suma el elemento correspondiente al numerador y al denominador por cada serie adicional. DETERMINACIÓN, coeficiente de.
(Véase: Coeficiente de determinación).
DETERMINANTES. El determinante de una matriz cuadrada con elementos reales es la suma algebraica de todos los productos posibles, con tal de que en cada producto entre un solo elemento de cada fila y un solo elemento de cada columna. A estos productos se les deja su signo o se les cambia, según que las permutaciones de los índices de las filas y columnas sean de índice par o impar. El determinante de una matriz (sólo puede ser cuadrada, por definición) X se denota con | X | o con det (X).
a11 a12 a21 a22 a31 a32
a13 a23 = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 a33
Los signos + o – están determinados conforme al siguiente patrón, tipo tablero de ajedrez o de damas: + − + − + − + − + … … …
… … … …
También se puede calcular el valor de un determinante: producto de los elementos de una fila o columna por los determinantes que resulten de eliminar la fila y la columna de dicho elemento.
DIAGNÓSTICO. En psicopedagogía y en el ámbito educativo, dícese de la «evaluación diagnóstico» o diagnosticadora, referida a la exploración y descripción de la situación en que se encuentra un sujeto en relación con un determinado problema (personal, de conducta, de aprendizaje, etc.). El diagnóstico tiene una doble función: a) individual: conocer la realidad personal de los sujetos para orientarles; b) grupal: conocer la realidad del
86
DIAGRAMA
grupo para adoptar las medidas o soluciones que procedan ante la situación —de conducta, de aprendizaje, etc.— diagnosticada. Representación gráfica de la variación de uno o más fenómenos, o la demostración de las relaciones entre las diferentes partes de un conjunto o sistema.
DIAGRAMA.
DIAGRAMA DE BARRAS. Representación gráfica de datos mediante barras de altura proporcional a la magnitud de dichos datos. Se suele utilizar cuando se trabaja con caracteres o valores discretos. DIAGRAMA CAUSAL.
Forma de representación gráfica del modelo causal
(véase). DIAGRAMA CIRCULAR.
Diagrama de sectores (véase).
DIAGRAMA DE DESARROLLO.
Curva de desarrollo (véase).
DIAGRAMA DE DISPERSIÓN.
Representación gráfica de las variaciones de
un fenómeno. Expresión de la correlación entre dos variables, dispuesta en cuadros de doble entrada con tantas celdillas como resulten de multiplicar los valores —o los intervalos utilizados— en ambas variables. Cada caso o sujeto se representa mediante un punto o segmento en la celdilla de intersección de su par de valores. Representación gráfica de un fenómeno que aporta una imagen clara de la forma general de una distribución de datos o puntuaciones. El resultado es un polígono de frecuencias (véase).
DIAGRAMA LINEAL.
Representación gráfica de datos por medio de un círculo dividido en sectores circulares de amplitud proporcional a la magnitud de los datos que representan. DIAGRAMA DE SECTORES.
DICOTÓMICO.
Que sólo tiene dos valores posibles.
El diferencial semántico (conocido con la sigla DS) es un método para observar y medir el significado psicológico de los conceptos. La técnica del diferencial semántico, debida a Osgood, Suci y Tannenbaum, está encaminada fundamentalmente a la medición de los significados connotativos de los objetos —en su sentido más amplio— para los diferentes individuos; la medición consiste en la localización de los conceptos que los representan en un espacio semántico uni, bi o tridimensional, de carácter bipolar para cada dimensión. Osgood fue quien inventó el diferencial semántico (DS), con el propósito de medir los significados connotativos de los conceptos como puntos de lo que llamó «espacio semántico». En gran medida, los indivi-
DIFERENCIAL SEMÁNTICO.
87
DISCRIMINACIÓN DE UN ÍTEM
duos necesitan compartir las definiciones verbales y conductuales de las cosas. Aunque cada persona ve las cosas en forma un poco diferente, a veces muy diferente, todos los conceptos tienen algún núcleo común de significado, porque todo concepto posee un significado cultural común. Y eso se aprecia claramente en la definición del vocablo concepto (idea que concibe o forma el entendimiento; pensamiento expresado con palabras). (Kerlinger, 1975, 395-405; Pérez Juste, 1983b, 167-169). Propiedad psicométrica de un ítem referida a las demandas exigidas al sujeto para responderlo correctamente. Para cuantificar esta característica, la forma más sencilla y frecuente es utilizar el índice p, en la teoría clásica de los tests, y el parámetro b en la teoría de respuesta al ítem. (Véanse: Índice p de dificultad y Parámetro b).
DIFICULTAD DE UN ÍTEM.
DIFICULTAD DE UN TEST. La dificultad de un test o prueba depende directamente de la dificultad de los ítems (véase) que componen dicho test, ya que la media en éste es igual a la suma de los índices de dificultad (véase) de los ítems del test. Esta relación habrá de tenerse en cuenta en la selección de los ítems, si el objetivo es la construcción de una prueba definitiva con una dificultad media determinada. Una distribución aproximada de la composición ideal de los elementos de un test o prueba, en cuanto a su dificultad, es la siguiente: Muy difíciles .................................. 10% Difíciles.......................................... 20% Dificultad media............................ 40% Fáciles ............................................ 20% Muy fáciles .................................... 10%
Escala entre cuyos dos extremos, y a lo largo de la misma, se producen variaciones ordenadas. (Ejemplos: una dimensión de la actitud es el grado «favorable»; la «agudeza», en la percepción, es una dimensión del tono o altura del sonido, etc.).
DIMENSIÓN.
Propiedad psicométrica del ítem referida a la capacidad de éste para diferenciar o discriminar entre sujetos que presentan diferentes niveles o grados en el constructo medido por el test. La discriminación se basa en el principio de que los sujetos mejores, es decir, los que puntúan más alto en una prueba, han de resolver correctamente un ítem en mayor proporción que los sujetos que puntúan más bajo. Los estadísticos para estimar este parámetro, en la teoría clásica de los tests, son el índice D (véase) y un índice basado en la correlación ítem-test, sin incluir el ítem bajo estudio (también conocido como índice de homogeneidad). En la teoría de respuesta al ítem, esta propiedad se conoce como el parámetro a. (Véase: Índice D de discriminación). (Navas, 2001).
DISCRIMINACIÓN DE UN ÍTEM.
DISCUSIÓN
88
Análisis o comparación de los resultados de una investigación a la luz de otros existentes o posibles (otras investigaciones o teorías). Es la reflexión que realiza el investigador sobre la adecuación de los resultados y en relación a las implicaciones que los datos obtenidos en su investigación tienen para su/s hipótesis.
DISCUSIÓN.
El término diseño es entendido, en general, como conjunto de principios, métodos y actividades orientadas a la resolución de problemas. El diseño de investigación, en sentido amplio, significaría planificación de la investigación en su totalidad. En sentido restrictivo (es el más propio), etapa del proyecto de investigación. Para Kerlinger (1975, 214) es el plan, la estructura y la estrategia de investigación concebidos para obtener respuestas a preguntas de investigación y controlar la varianza». El plan sería el esbozo general del proyecto de investigación; incluye desde la formulación de la/s hipótesis hasta el análisis de los datos. La estructura es el esquema, el paradigma de lo que se hará con las variables. La estrategia englobaría los métodos de recogida y análisis de datos. El diseño como estructura tiene por misión (según O’Neil, 1968) probar, en condiciones constantes de elementos extraños, los efectos de las variaciones experimentales, mas no el acto mismo de la provocación del fenómeno, que es una cuestión práctica en la que intervienen factores como los de oportunidad y adecuación a las características de la variable independiente y del ambiente en que se desarrolla el experimento. Como plan estructurado de acción, el diseño, en función de unos objetivos básicos, está orientado a la obtención de información o datos relevantes a los problemas planteados. Como etapa del proyecto de investigación, el diseño trata de controlar todas las fuentes de invalidación internas y externas (variables extrañas o intervinientes) para poder conocer la verdadera influencia de la variable experimental (independiente) sobre la dependiente. Y así, se le asignan los siguientes objetivos específicos (Kerlinger, 1975, 217 ss.): a) Maximizar la varianza sistemática primaria (la experimental) aumentando la magnitud de los valores de la variable independiente o bien seleccionando sus valores óptimos. Los diseños de más de dos grupos pueden alcanzar este propósito, ya que tomar más valores aumenta las probabilidades de que se elijan los óptimos y de que no quede fuera ninguno que deba ser medido. b) Controlar la varianza sistemática de las variables extrañas o fuentes de variación secundarias, lo que se consigue: b.1) por eliminación de la variable como tal (seleccionando los sujetos de tal forma que sean lo más homogéneos posibles sobre dicha variable independiente); b.2) por distribución al azar, con muestras suficientemente grandes y con técnica DISEÑO.
»
89
DISEÑO
de muestreo aleatorio simple, además de asignar, si se puede, a los grupos condiciones, métodos y factores por el procedimiento de azar; b.3) mediante la introducción de la variable extraña como variable independiente (se controla así su influencia sobre la variable dependiente); b.4) por el emparejamiento de los sujetos (grupos relacionados que son asignados al azar a los grupos experimentales); b.5) mediante el balanceo (igualación mediante grupo de control) o contrabalanceo (en el caso de que todos los sujetos reciban todos los tratamientos o procedimientos experimentales). c) Minimizar la varianza del error, es decir, el azar (o factores asociados a las diferencias individuales) y los errores de medición. Se emplean como principales técnicas: c.1) «bloqueo», que lleva a los diseños de bloques (simple, doble, etc.); c.2) «anidado», técnica propia de los diseños jerárquicos o de tratamiento intragrupo; c.3)» análisis de covarianza», para controlar una variable extraña después de haberse realizado el experimento. Por otra parte, la minimización de la varianza del error se logra aumentando la «fiabilidad» y «validez» de las medidas de la variable dependiente. En suma: VT = VE – VD Siendo: VT = varianza total. VE = varianza entre grupos. VD = Ve = varianza dentro de los grupos o varianza de error. La prueba o razón F =
VE VD
Clases de diseños: a) Según la línea de investigación: diseños estadísticos o de grupos de sujetos (siguen la vía «hipotético-deductiva», recurren normalmente a la aleatorización como técnica de control y emplean técnicas estadísticas en el contraste de hipótesis) y diseños no estadísticos, que siguen la vía inductiva, sin que se apliquen técnicas estadísticas normalmente; suelen emplear un solo sujeto o una muestra muy reducida, valiéndose de la eliminación y la constancia como técnicas de control. b) Según el grado de control (Campbell y Stanley, 1974): Preexperimentales o precientíficos, cuasiexperimentales y experimentales, según que controlen, respectivamente, casi ninguno, algunos, o casi todos los llamados factores de invalidez interna y externa. c) Según la técnica de control utilizada: aleatorización (diseños de dos o más grupos al azar, o sea, utilizan la selección al azar al elegir los sujetos y al asignarlos a los grupos y tratamientos experimentales) y constancia de las condiciones experimentales, donde hay que distinguir los «diseños de grupos emparejados» (si son dos) o «relacionados» (si son
90
DISEÑO AB
tres o más) equivalentes inicialmente antes de introducir los tratamientos experimentales, y los diseños de bloques, donde la muestra total se divide en grupos o bloques atendiendo a alguna característica llamada «variable de bloqueo»; a su vez, cada bloque se subdivide en tantos grupos como condiciones experimentales existan y se asignan a éstas aleatoriamente. Tanto la variable de emparejamiento como la de bloqueo deben estar estrechamente relacionadas con la variable dependiente. Para la asignación de las condiciones experimentales se recurre normalmente al azar. Finalmente, cuando el «sujeto es su propio control» se habla de diseño intrasujeto, en que cada sujeto es sometido a todos los valores de la variable independiente o condiciones experimentales, midiéndose la variable dependiente bajo cada una de las condiciones; la comparación de estas medidas permite determinar los efectos de los distintos valores de la variable independiente. d) Según el número de variables independientes: diseños univariables, que utilizan una sola V.I. (variable independiente), y diseños multivariables o multivariados (también llamados «factoriales»), que emplean dos o más variables independientes y admiten, a su vez, nuevas clasificaciones, si nos fijamos en la técnica de control utilizada (Jiménez et al., 1983). Plan de investigación experimental con un solo sujeto (N = 1), cuya secuencia es: línea base-tratamiento. (Línea base es una serie de registros sin intervención).
DISEÑO AB.
Plan de investigación experimental con N = 1 (o sea, un solo sujeto) en el que la secuencia es: línea base-tratamiento-retirada del tratamiento-tratamiento. (Línea base es una serie de registros sin intervención).
DISEÑO ABAB.
DISEÑO ANIDADO.
Diseño jerárquico (véase).
Diseño experimental en el que se forman bloques homogéneos de sujetos en una variable extraña (variable de bloqueo) para luego asignar aleatoriamente, o sea, al azar, los sujetos clasificados dentro de cada bloque a las diferentes condiciones experimentales. (Véase: Constancia de condiciones experimentales). La muestra total, por consiguiente, se divide en conjuntos o bloques atendiendo a alguna característica llamada «variable de bloqueo», que deberá estar estrechamente relacionada con la variable dependiente y que, como variable extraña, se desea neutralizar o bloquear. A su vez, cada bloque se subdivide en tantos grupos como condiciones experimentales existan y se asignan a éstas aleatoriamente. DISEÑO DE BLOQUES HOMOGÉNEOS ALEATORIZADOS.
91
DISEÑO COMPLETAMENTE ALEATORIZADO
Este diseño de bloques al azar es preferible a un diseño de grupos totalmente al azar, porque las diferencias entre tratamientos son mejor detectadas en estos diseños. Diseño de encuesta en el que algún grupo específico se estudia a lo largo del tiempo, aunque los datos pueden obtenerse de miembros diferentes, pero que pertenezcan a la misma cohorte (o grupo social que se estudia) en cada obtención y/o recopilación de datos.
DISEÑO DE COHORTES.
DISEÑO DE COMPARACIÓN CON UN GRUPO ESTÁTICO. Diseño en el que un grupo que ha experimentado la variable independiente se compara con otro que no la ha experimentado, a fin de establecer el efecto de aquélla. El primero —que recibe la variable independiente (V.I.) o tratamiento experimental— es el «grupo experimental»; el segundo actúa de «control». Pero es un diseño que se puede considerar como preexperimental, porque el segundo grupo aporta controles muy débiles. En efecto, al ser los grupos muestras de «poblaciones» ya formadas, nada permite asegurar que éstos habrían sido equivalentes de no ser por la presencia de X (V.I.). DISEÑO COMPENSADO. Diseño que tiene por objeto un mayor control experimental, que se alcanza aplicando a todos los sujetos o situaciones la totalidad de las técnicas o tratamientos. Por eso, a este tipo de diseños se les llama también «experimentos rotativos», «diseños cruzados», «diseños de conmutación»... El diagrama adjunto responde al tipo de cuadrado latino (véase), con aleatorización restrictiva:
1.a Aplicación Grupo A Grupo B Grupo C Grupo D
X1 0 X2 0 X3 0 X4 0
2.a Aplicación X2 0 X4 0 X1 0 X3 0
3.a Aplicación
4.a Aplicación
X3 0 X1 0 X4 0 X2 0
X4 0 X3 0 X2 0 X1 0
Cada técnica o tratamiento (X) aparece solamente una vez en cada columna y fila (p. ej., X2 aparece en la 1.a aplicación en grupo B; en la 2.a, en grupo A; en la 3.a, en grupo D; y en la 4.a, en grupo C. Igualmente puede comprobarse con las demás técnicas o tratamientos. Diseño experimental en el que se asignan aleatoriamente los sujetos a cada nivel de la variable independiente, formándose así tantos grupos distintos de sujetos como niveles tenga la variable independiente.
DISEÑO COMPLETAMENTE ALEATORIZADO.
92
DISEÑO DE CONMUTACIÓN DISEÑO DE CONMUTACIÓN. DISEÑO CRUZADO.
(Véase: Diseño compensado).
(Véase: Diseño compensado).
Es el diseño experimental que pretende reducir la varianza de error. Consiste en un diseño de bloques al azar: a) con un solo sujeto por casilla b) con más de un sujeto por casilla Es un paradigma balanceado, ya que cada técnica o tratamiento se expresa solamente una vez en cada hilera (o fila) y columna. El diseño de caudrado latino para una V.I., por doble bloqueo, pretende disminuir el error debido a dos fuentes de variación (doble bloqueo), en nuestro caso, C y B (véase cuadro). Los tratamientos se asignan al azar, de forma que aparezcan una sola vez por fila y columna; es decir, cada fuente de variación (C y B) tendrá tantos niveles como tratamientos haya. Esquema básico adjunto. DISEÑO DE CUADRO o CUADRADO LATINO.
B1 B2 B3
C1
C2
C3
A1 A2 A3
A2 A3 A1
A3 A1 A2
B y C = Fuentes de variación. A1, A2, A3 representan los tratamientos asignados al azar. Los sujetos de cada celdilla reúnen las condiciones especificadas para los correspondientes niveles C y B. Se considera «estándar» (como en nuestro ejemplo) cuando la primera fila y columna siguen la serie natural numérica. Las matrices pueden ser: 3 × 3; 4 × 4; 5 × 5, etc. Ventajas: Reduce el número de observaciones y grupos; y aun en el caso de perderse el control experimental sobre alguna técnica, las demás permanecen, pudiendo incluso estimarse a partir de las medias de las demás características en estudio. Inconvenientes: Para estudiar los efectos de interacción que pudieran ser considerados interesantes, existen, a partir del diseño de cuadrado latino, otros diseños más complejos: de replicación, de cuadrado greco-latino y de hipergreco-latino (Jiménez et al., 1983; Arnau, 1981). DISEÑO CUASI-EXPERIMENTAL. Dentro de la metodología cuasi-experimental (véase) es el diseño que controla algunos factores de invalidez interna y externa (a diferencia del pre-experimental, que no controla ninguno o casi ninguno, y del experimental, que pretende controlar todos o casi todos). Es decir, el diseño cuasi-experimental controla algunas va-
93
DISEÑO DE DOS GRUPOS CON POSTEST
riables que pueden interferir con la variable independiente (V.I.) o tratamiento experimental, y contaminar los resultados. El investigador manipula deliberadamente los valores de la V.I. para evaluar los efectos que produce dicha manipulación en la variable dependiente (V.D.), pero sin el control propio del método experimental. Desde el punto de vista de la práctica educativa, y en cuanto que respetan la situación natural o contexto didáctico, los diseños cuasi-experimentales han cobrado una importancia creciente. Generalmente, estos diseños se llevan a cabo en situación real o de campo, donde una o más variables independientes son manipuladas por el investigador en condiciones sólo controladas hasta donde lo permita la situación. Además, son más factibles que los experimentales, ya que la planificación de éstos rompe las condiciones reales de los fenómenos que estudian. Pero, a cambio, los resultados de los cuasi-experimentales son de inferior grado o de menor potencia a la hora de controlar la varianza del error y al mismo tiempo maximizar la varianza sistemática. En función del método, se clasifican: a) Metodología N = 1 (véase) b) Grupales Otros autores (como Cook y Campbell, 1976) los clasifican así: diseños de grupos no equivalentes, de cohorte, regresión discontinua, series de tiempos y correlaciones. A pesar de sus debilidades y limitaciones, estos diseños son muy útiles en educación. DISEÑO DE DISCONTINUIDAD EN LA REGRESIÓN. Diseño cuasi-experimental que utiliza las puntuaciones en el pretest como variable de asignación de los sujetos a las condiciones experimentales y además se caracteriza porque sus resultados suelen analizarse empleando ecuaciones de regresión. DISEÑO DE DOS GRUPOS CON POSTEST. Modelo de diseño en que se confía que la asignación al azar permita formar los dos grupos inicialmente equivalentes desde la perspectiva de las variables relevantes, razón por la cual el investigador renuncia a cualquier tipo de comprobaciones de tal hecho. El paradigma es el adjunto.
Selección y Asignación
Pretest
Variable independiente
Experimental A
Azar
—
X1 o XA
T1 (Test o prueba)
Control (o experim. B)
Azar
—
X2 o XB
T2 (Test o prueba)
Grupo
Postest
94
DISEÑO DE DOS GRUPOS CON PRETEST
Estadísticamente se parte del supuesto de que, al haber sido formados ambos grupos al azar a partir de una misma población, la variabilidad apreciada en T1 y T2 viene a ser una doble estimación de la variabilidad de dicha población: el efecto diferencial de X (X1 y X2) se estima a través de las diferencias de medias aritméticas en la prueba t o del cociente entre varianzas, en la prueba F (en el supuesto de pruebas paramétricas). Por descontado que adquiere otras modalidades, en otras pruebas, en concreto en las no paramétricas (Jiménez, et al., 1983, t. 2). Modelo de diseño en que no se confía que la simple asignación al azar de los sujetos a cada uno de los dos grupos los convierta en homogéneos o inicialmente equivalentes, al menos en ciertas variables, antes de empezar a recibir la variable independiente (V.I.) o tratamiento. De ahí que, para poder afirmar que las diferencias finales en la variable dependiente (V.D.) no tienen que ver con iniciales diferencias entre ambos grupos, se acude a medidas de referencia (pretests o pruebas anteriores a la actuación de la V.I.). Puede necesitarse comprobar si se han producido cambios, o resulta conveniente disponer de tales medidas de referencia como elementos explicativos de los posibles resultados finales, o bien que la complejidad de la investigación requiera tales medidas iniciales. Paradigma adjunto.
DISEÑO DE DOS GRUPOS CON PRETEST.
Grupo
Selección y Asignación
Pretest
V.I. (variable indep.)
Postest
Experimental
Azar
T1
X1 o XA
T2
Control
Azar
T3
X2 o X B
T4
Este diseño permite análisis estadísticos más amplios y complejos que los diseños con sólo «postest». Caben tres tipos diferentes: T1 – T3, para decidir sobre la equivalencia o no de los grupos antes de introducir la V.I. T2 – T4,para probar la hipótesis de significatividad o no de los resultados. Coincide este análisis con el del diseño sólo con postest. (T1 – T2) – (T3 – T4), si interesan las comparaciones de ganancia entre ambos grupos (experimental y control) entre sus respectivos pretest y postest, o sea, diferencias en el grupo experimental menos diferencias en el grupo de control. Autores como Kerlinger (1975) indican que este tipo de análisis no es recomendable, salvo que «el efecto de la manipulación experimental sea muy fuerte», pues consideran que tales puntuaciones de diferencia «generalmente son menos fidedignas que las puntuaciones de las que se
95
DISEÑO ESTADÍSTICO
calcularon». La solución que ofrecen es la de utilizar análisis de covarianza y, todavía mejor, análisis de regresión múltiple. DISEÑO ECOLÓGICO (O NATURAL). Es un diseño cuasiexperimental (en cuanto que no controla todas las fuentes de variación sistemática y secundaria) y de carácter fenomenológico que pretende, fundamentalmente, captar el significado del hecho educativo. Se desarrolla, por tanto, frente al rigor de la investigación del laboratorio que, a causa de las numerosas manipulaciones, impide una observación real del contexto en el que se ubican los fenómenos. La consideración de la importancia del contexto como variable independiente supone una posición decidida para alcanzar una explicación fenomenológica del aprendizaje y el desarrollo del educando. La hipótesis de trabajo es la importancia que tiene el profesor en la dinámica de la clase. Su objetivo es identificar las características que permitan clasificar estilos de enseñanza y su relación con los rendimientos de los estudiantes. Habida cuenta de su credibilidad, se presenta como idóneo para la investigación en el aula, ya que se preocupa por analizar los fenómenos pedagógicos en la misma a través de la observación sistemática y el análisis de interacción dentro del aula. En cuanto a la validez externa (generalización de resultados de una investigación a poblaciones de sujetos distintas a la original del diseño), en la posición ecológica —según Cronbach— se entiende que cualquier generalización desaparece con el tiempo, por lo que no tiene mucho sentido; sólo cabe hablar de «transferencia». En la aplicación del modelo ecológico al espacio didáctico y pedagógico, entre otros modelos de análisis pueden señalarse dos: a) Paradigma de análisis semántico contextual, de Tikunoff: las variables contextuales son situacionales, experienciales y comunicativas; son éstas las que condicionan de alguna forma la estructura semántica y su significado. b) Análisis de tareas y demandas escolares, de Doyle, cuyo principio fundamental se refiere a la concreción de la estructura de tareas mediante el intercambio de actuaciones-calificaciones. (Jiménez et al., 1983, t. 2, 417-424).
Diseño de investigación que sigue la tradición «hipotético-deductiva» como línea de investigación. Se enmarca dentro de los diseños clásicos o de tradición «fisheriana» (de Fisher) que reciben también la denominación de diseños de grupos, porque trabajan con grupos de sujetos. Como técnica de control recurren normalmente a la aleatorización (azar) y utilizan técnicas estadísticas para el contraste de hipótesis.
DISEÑO ESTADÍSTICO.
DISEÑO EVOLUTIVO
96
Diseño en que la edad es estudiada como variable independiente (V.I.). Puede ser: a) longitudinal, si se realiza a través de los mismos sujetos; b) transversal, si se lleva a cabo con grupos de sujetos distintos.
DISEÑO EVOLUTIVO.
DISEÑO EXPERIMENTAL. Diseño de investigación que utiliza la metodología experimental para establecer con garantía relaciones causales entre los fenómenos. Por ello, su esquema o estructura lógica de acción permite mantener constante el influjo de las variables experimentales pertinentes y controlar así la influencia de la o las variables independientes (V.I.) sobre la o las variables dependientes (V.D.). Controla, si no todas la fuentes de invalidez o variables extrañas (en educación, y en las ciencias sociales en general, es muy difícil el control total), sí casi todas, para mantener constante el influjo de la/s V.I., a diferencia de los diseños cuasi-experimentales, que controlan algunas variables extrañas, o de los pre-experimentales, que no controlan casi ninguna. El control experimental se refiere a los siguientes aspectos: a) manipulación de la V.I. por el investigador, quien le asigna niveles; deben aplicarse dos o más niveles de la V.I. para poder contrastar los efectos o resultados sobre la V.D.; b) minimización o mantenimiento constante del influjo de las variables no experimentales (variables extrañas); c) elección de la/s muestra/s al azar y asignación también al azar de los sujetos a grupos y de éstos a los tratamientos; de esta forma se garantiza que, por efecto del azar, los grupos sean equivalentes y comparables entre sí, por lo que las posibles diferencias encontradas al medir la V.D. en cada grupo sean efecto de la aplicación de los niveles de la V.I. McGuigan (1976) considera siete aspectos en los diseños experimentales: a) Planteamiento del problema. b) Formulación de la hipótesis. c) Manipulación de la variable independiente. d) Medida de la variable dependiente. e) El procedimiento. f) Tipos de análisis de los datos. g) Anticipación de resultados posibles. Para Campbell y Stanley (1978), lo decisivo de un diseño es su capacidad para controlar las distintas fuentes de invalidez interna y externa e indican, junto a los factores que controla cada diseño, el tipo de pruebas estadísticas adecuadas para el análisis de datos.
97
DISEÑO DE GRUPO DE CONTROL NO EQUIVALENTE
Una propuesta de metodología científico-experimental, más o menos completa, entre otras, podría ser la siguiente (Río Sadornil, 2003, 163): 1. Planteamiento del problema: definición clara y precisa. 2. Estado de la cuestión. Consulta de fuentes bibliográficas y no bibliográficas. 3. Formulación de hipótesis: general y específicas. 4. Validación de hipótesis: diseño metodológico. 4.1. Variables independientes, dependientes y extrañas a controlar. (Definición operativa). 4.2. Población y muestra. 4.3. Instrumentos de medición: selección, o bien, elaboración. 4.4. Recogida y tabulación de datos. 4.5. Análisis de datos: pruebas estadísticas aplicables. 4.6. Decisión estadística: aceptación o rechazo de hipótesis. 5. Interpretación de resultados: conclusiones y sugerencias. 6. Informe de investigación. DISEÑO EX-POST-FACTO.
(Véase: Ex-post-facto, diseño).
DISEÑO EX-POST-FACTO PROSPECTIVO. Diseño ex-post-facto (véase: Ex-postfacto, diseño) en el que se seleccionan grupos de sujetos con diferentes valores en la variable independiente y se los compara en la dependiente.
Diseño ex-post-facto (véase: Expost-facto, diseño) en el que la selección de los sujetos se efectúa según sus características en la variable dependiente para —de forma retrospectiva— buscar variables independientes que expliquen la dependiente.
DISEÑO EX-POST-FACTO RETROSPECTIVO.
Diseño multivariable o que emplea simultáneamente dos o más variables independientes. Admite diversas clasificaciones, según la técnica de control utilizada. En este plan de investigación se crean tantos grupos como combinaciones de los niveles de las variables independientes (V.I.).
DISEÑO FACTORIAL.
Plan de investigación experimental con tres variables independientes con M, N y O niveles respectivamente. Se forman tantos grupos como el producto del número de niveles.
DISEÑO FACTORIAL M × N × O.
DISEÑO CON GEMELOS. Diseño utilizado, en el caso de los humanos, como bloque para estudiar efectos asociados a la herencia o al ambiente. Es un caso particular de la camada (véase), donde los individuos tienen el mismo componente genético.
Diseño cuasi-experimental con regla de asignación no aleatoria y desconocida, en el que se aplican DISEÑO DE GRUPO DE CONTROL NO EQUIVALENTE.
DISEÑO CON GRUPO DE CONTROL NO EQUIVALENTE CON DOBLE PRETEST
98
los niveles de tratamiento a dos o más grupos ya formados, de los que tenemos una o varias medidas pretest y una medida postest. Consta de dos grupos (experimental y de control) que han recibido pretest y postest, pero sin igualación preexperimental por aleatorización. Los grupos así constituidos (p. ej., una clase, un curso completo...) lo son de forma natural. El tratamiento o técnica (X) se asigna por azar a uno cualquiera de los grupos. Diagrama: 0 X 0 − − 0 0
El análisis estadístico es el propio de dos grupos. De gran difusión en la investigación de los fenómenos educativos. Diseño cuasi-experimental con grupo de control no equivalente, caracterizado por tener dos medidas pretest que le hacen especialmente indicado para controlar el efecto de la maduración.
DISEÑO CON GRUPO DE CONTROL NO EQUIVALENTE CON DOBLE PRETEST.
El que carece de grupo de control, tanto en sentido estricto, como en sentido amplio. Por su estructura misma, los diseños de este tipo tampoco se prestan al control estadístico, pues no es posible aplicarles las técnicas del análisis de covarianza, por ejemplo. Y sin ningún sistema de control no es coherente llegar a afirmaciones científicas. Al ser muchos los factores incontrolados que actúan o pueden actuar en simultáneo con la variable independiente (V.I.), los datos obtenidos no permiten llegar a afirmaciones inequívocas. Por eso a estos diseños se les llama preexperimentales o precientíficos. Como estrategia de investigación, este diseño utiliza un solo grupo y una sola variable independiente en sus manipulaciones y observaciones experimentales, con lo que es difícil lograr el deseado control experimental al no existir grupo «testigo» o de control.
DISEÑO DE GRUPO ÚNICO.
Diseño que estudia un solo grupo cada vez, después de someterlo a la acción de algún estímulo o tratamiento que se supone capaz de provocar un cambio. Las debilidades de este diseño son básicamente estructurales y conducen a no controlar o controlar mal las variables extrañas. Al adolecer de tan absoluta falta de control, su valor científico es casi nulo. Kerlinger (1975) dice que «hablando científicamente este diseño es inútil; peor aún: puede ser muy engañoso».
DISEÑO DE GRUPO ÚNICO CON POSTEST.
DISEÑO DE GRUPO ÚNICO CON PRETEST-POSTEST. Diseño preexperimental en que el grupo es medido dos veces: una, antes de introducir la variable independiente (preensayo o pretest); otra, después de la manipulación expe-
99
DISEÑO INTRAGRUPO
rimental o introducción de la variable independiente (postensayo o postest), para evaluar los cambios producidos por ésta. Su característica esencial es que el grupo se toma a sí mismo como punto de comparación. Supone una pequeña mejora con relación al de «grupo único con postest» solamente, pero es catalogado como preexperimental, a causa de las dificultades que ofrece para controlar la mayor parte de las variables extrañas. Se representa: t1 X t2 Tipo de diseño de investigación experimental en el que se utiliza la aleatorización (azar) con dos o más grupos independientes: azar, tanto en la selección de los sujetos, como en la asignación de éstos a los grupos y de los grupos a los tratamientos experimentales. DISEÑO DE GRUPOS AL AZAR.
DISEÑO DE GRUPOS ALEATORIOS.
(Véase: Diseño de grupos al azar).
Plan experimental que utiliza grupos de sujetos distintos y hace que estos grupos sean lo más similares mediante el bloqueo de una o más variables.
DISEÑO DE GRUPOS ALEATORIOS CON BLOQUES.
Plan experimental con grupos de sujetos distintos, donde no es posible asignar individualmente los sujetos a las condiciones experimentales. La asignación de los grupos enteros a cada tratamiento es aleatoria (asignación al azar).
DISEÑO CON GRUPOS YA FORMADOS.
Diseño que trabaja con grupos naturales sin alterarlos, esto es tal como están constituidos al margen de la investigación. En estas condiciones es natural la falta de garantía de que, en tales grupos, antes de iniciarse la investigación, no existan diferencias significativas en variables relevantes. Por ello, será imprescindible contar con mediciones previas de tales variables relevantes. DISEÑO DE GRUPOS NATURALES.
Diseño en el que a cada sujeto se le aplican todos los niveles de la variable independiente (V.I.) o condiciones experimentales y se comparan los efectos entre sí. Los efectos producidos al medirse la variable dependiente (V.D.) bajo cada una de las condiciones mostrarán que se han llevado hasta el extremo las condiciones de homogeneidad respecto a las diferencias individuales, además de que las medidas permitirán determinar los efectos de los distintos valores de la V.I. De hecho, cada sujeto puede considerarse como un solo bloque (más que de homogeneidad, se trata en este caso de identidad consigo mismo): el sujeto es su propio control, el mejor posible. La técnica del bloqueo se lleva, pues, hasta sus últimas consecuencias en el diseño intragrupo, también denominado diseño intrasujeto (véase).
DISEÑO INTRAGRUPO.
100
DISEÑO INTRASUJETO
El diseño intrasujeto experimental es el diseño de investigación en el que cada sujeto actúa como su propio control, sometiéndose a todos los valores de la variable experimental o variable independiente (V.I) y registrando los valores correspondientes. Es decir, el mismo grupo de sujetos recibe todos los niveles de la V.I. (tratamiento). Con el diseño intrasujeto la técnica de «bloqueo» se lleva hasta sus últimas consecuencias. En efecto, si a cada sujeto se le aplican todos los niveles de la V.I. y se comparan entre sí, los efectos producidos mostrarán que se han llevado hasta el extremo las condiciones de homogeneidad respecto a las diferencias individuales. De hecho, cada sujeto puede considerarse como un solo bloque (más que de homogeneidad, se trata en este caso de identidad consigo mismo): el sujeto es su propio control, el mejor posible. Por tanto, el error experimental se reduce muy sensiblemente, ya que se evita una fuente de invalidación tan importante como son las diferencias psicológicas entre los sujetos. El diseño intrasujeto simple de «medidas repetidas» puede ser comparado, análogamente, a un diseño factorial con dos factores independientes. Los principales inconvenientes del diseño intrasujeto provienen del sesgo que introducen algunos factores intrínsecos a la estructura misma del diseño, efectos de carácter secuencial, práctica, fatiga, aprendizaje integrado, comprensión de las tareas, etc. DISEÑO INTRASUJETO.
Diseño intrasujeto en el que el control del orden de presentación de los tratamientos experimentales se realiza utilizando los mismos sujetos.
DISEÑO INTRASUJETO COMPLETO.
Diseño de factores inclusivos o de tratamientos intragrupos (denominación que también recibe), es el diseño donde se encuentran factores anidados. Tiene tres potenciales fuentes de variación: a) la atribuible a la variable experimental o tratamiento (variable A); b) el efecto debido a los grupos (variable B); c) las diferencias individuales como variación residual y, en consecuencia, la variación del error. Este diseño tiene, pues, en cuenta no sólo el «rol» del individuo, sino la posible influencia del grupo sobre el mismo. El hecho de pertenecer a determinado grupo discente (en el caso de investigaciones pedagógico-experimentales) hace que el factor «grupo» se anide en el de técnica o metodología didáctica. Puesto que en este diseño se muestran grupos, siendo éstos la unidad experimental, o en todo caso, a partir de estos grupos se seleccionan los sujetos, suele recibir también el nombre de diseño de sujetos intragrupos intratratamientos. El modelo matemático en un diseño jerárquico de dos factores, en que uno de los factores se halla anidado dentro del otro, es: DISEÑO JERÁRQUICO.
Yijk = µ + α k + γ j( k ) + ε ijk
101
DISEÑO DE MUESTRAS CRONOLÓGICAS EQUIVALENTES
O sea, la puntuación Yijk de un determinado experimento se modifica teniendo en cuenta (αk) o efecto del «k-ésimo» nivel de la variable de tratamiento o factor A; (γj(k) ) o efecto del «γ-ésimo» nivel de G (factor de grupos) anidado en el «k-ésimo» nivel de A, y, por supuesto, por un componente de error experimental (εijk). Por tanto, cada observación del experimento se halla afectada por un efecto de tratamiento, un efecto de grupo y un componente de error. El diseño jerárquico se utiliza cuando no es posible aplicar todas las técnicas o tratamientos a todas y cada una de las muestras aleatorias y cuando los efectos reactivos alberguen la probabilidad de aparecer con fuerza. Tiene, por tanto, la ventaja de evitar efectos reactivos, además de que se necesitan menos grupos que en los diseños factoriales. No obstante, su precisión es menor que en los diseños completamente aleatorios, al partir del supuesto de que es poco significativa la interacción de la variable experimental y la de clasificación inclusiva. Por su posibilidad de aplicación a los centros educativos, este diseño tiene una gran importancia didáctica. (Arnau, 1981, 137-144; Escotet, 1980, 58). DISEÑO DE LÍNEA BASE MÚLTIPLE. Diseño experimental de sujeto único donde varias conductas se registran simultáneamente, interviniendo sobre ellas con el mismo tratamiento de forma escalonada en el tiempo. Este plan de investigación es una extensión del diseño AB (véase), donde no puede realizarse una retirada del tratamiento.
Diseño que implica la recogida de datos de la misma población en diferentes momentos temporales. El diseño longitudinal puede adoptar dos modalidades: a) Diseño longitudinal con distintos grupos de sujetos, que es el plan de investigación en el que la misma encuesta se aplica más de una vez a muestras distintas; b) Diseño longitudinal o plan de investigación con encuestas en el que se aplica la encuesta en más de un momento.
DISEÑO LONGITUDINAL.
DISEÑO DE MEDIDAS REPETIDAS.
Diseño intrasujeto (véase).
Como variante del diseño de series cronológicas (véase), es el cuasi-experimento que presenta muestras equivalentes, a fin de contrastar la significación de las diferencias entre medias. Asignando la variable experimental (X) alternativa en una de las muestras o grupos, el diagrama que representa este tipo de cuasi-experimento sería: X1 0 X0 0 X1 0 X0 0 Una aplicación práctica consiste en introducir dos variables, o dos valores de una misma variable, y contrastar el rendimiento respectivo. DISEÑO DE MUESTRAS CRONOLÓGICAS EQUIVALENTES.
102
DISEÑO MULTIGRUPO
La prueba estadística de contraste sería la t (con los respectivos grados de libertad). (Jiménez, et al., 1983). Diseño de dos o más grupos o muestras. Estos diseños pueden analizar una sola variable independiente (V.I.) con tantos niveles o condiciones como grupos haya (diseños unifactoriales o univariados); o también, dos o más V.I.: diseños factoriales, multivariados o multivariables. DISEÑO MULTIGRUPO.
DISEÑO MULTIVARIABLE. Diseño de investigación experimental que utiliza simultáneamente dos o más variables independientes (V. I.). Se toman medidas de dos o más variables dependientes (V.D.), como consecuencia del tratamiento simultáneo de dos o más V.I. Utiliza el análisis multivariado (véase) o multivariante. Los diseños multivariables o factoriales admiten clasificaciones atendiendo a la técnica de control utilizada, de acuerdo con estos dos grandes apartados: diseños factoriales sencillos y diseños factoriales complejos.
Es el diseño del individuo único o metodología N = 1 (véase). (Véase también: Estudios de caso único).
DISEÑO N = 1.
DISEÑO NATURAL.
(Véase: Diseño ecológico).
Diseño de investigación que sigue la vía inductiva. Estos diseños utilizan un solo sujeto (N = 1) o una muestra muy reducida. Como técnicas de control emplean la eliminación y la constancia. Normalmente no aplican técnicas estadísticas. Gozan de cierta tradición (Wundt, Ebbinghauss, Watson, Thornedike, etc., los emplearon en sus investigaciones). Por los años treinta del siglo XX fueron revitalizados por Skinner y dos décadas después fueron bastante utilizados en la investigación de laboratorio. DISEÑO NO ESTADÍSTICO.
DISEÑO OBSERVACIONAL. Plan específico de acción en el que se determinan las condiciones y etapas que van a configurar el proceso de observación que se llevará a cabo, con el objeto de estructurar y sistematizar la recogida de datos y su análisis posterior, en coherencia con los objetivos de la investigación. (Navas, 2001). DISEÑO DE PANEL. Diseño longitudinal o diacrónico en el que se recopilan datos varias veces a lo largo del tiempo de los mismos sujetos o elementos de la muestra. DISEÑO PRECIENTÍFICO.
Diseño pre-experimental (véase).
DISEÑO PRE-EXPERIMENTAL. Diseño precientífico o diseño de grupo único y que, por consiguiente, carece de grupo de control, tanto en sentido estricto como en sentido amplio. Al no controlar este diseño casi ningún
103
DISEÑO REVERSIBLE
factor de invalidez interna y externa (casi ninguna variable extraña), la posibilidad de establecer relaciones causales entre la variable independiente (V.I.) y la dependiente (V.D.) está muy limitada por la aludida falta de control experimental y la ausencia de manipulación de la V.I. por parte del investigador. No es posible, por tanto, hacer afirmaciones científicas. Por su estructura misma, los diseños de este tipo tampoco se prestan al control estadístico, pues no es posible aplicar las técnicas del análisis de covarianza, por ejemplo. En consecuencia, los datos obtenidos con ellos no permiten concluir en afirmaciones inequívocas, ya que son muchos los factores incontrolados que actúan o pueden actuar en simultáneo con la V.I. Apenas si pueden controlar uno o dos de estos factores. Esta incapacidad para controlar variables extrañas (que pueden ser explicaciones del resultado observado en la V.D.) les hace inadecuados para probar hipótesis de investigación. Naturalmente, en estos diseños sólo se estudia una sola V.I. En definitiva, las conclusiones, en los diseños pre-experimentales, son engañosas, pues la falta de control de variables extrañas impide saber si la V.I. es la causa del cambio observado. Los diseños pre-experimentales incluyen los diseños ex-post-facto. DISEÑO PRETEST-POSTEST, de grupo único.
Diseño de grupo único con pre-
test-postest (véase). DISEÑO PRETEST-POSTEST con grupos naturales. Diseño que pretende analizar las relaciones entre la variable independiente (V.I.) y la variable dependiente (V.D.), actuando sobre la primera (V.I.) con grupos ya formados de forma natural (p. ej., clases de un determinado nivel en un centro educativo). Admite o puede admitir diferentes posibilidades al combinar el número de grupos y la posibilidad de aplicar el postest en uno solo de los grupos y el pretest-postest en el resto. DISEÑO REVERSIBLE. Diseño univariable y cuasiexperimental, que presenta más de dos condiciones experimentales con etapas claramente diferenciadas. El diseño reversible incompleto (A-B) es el que tiene dos etapas, en una de las cuales se aplica la variable independiente. La «línea base» (registro estable y sensible de la frecuencia con que ocurre una determinada clase de respuestas durante un periodo arbitrario) nos permite evaluar los efectos respecto de la variable dependiente. El comportamiento propio de la etapa A se describe de forma precisa, con objeto de poder compararlo más tarde. El diseño reversible A-B-A es el que, tras establecer la «línea base», incluye una variable independiente, para más tarde volver a la línea original, de tal manera que el sujeto sea su propio control.
DISEÑO REVERSIBLE ABAB
104
El diseño reversible A-B-A-B es una forma específica de replicación directa intrasujeto, porque la segunda secuencia A-B (A2-B2) es una repetición o réplica de la primera secuencia A-B (A1 -B1) efectuada en el mismo sujeto. Este diseño de replicación intrasujeto consiste en la aplicación de alguna forma de reforzamiento durante las etapas manipulativas (A), aunque esta aplicación puede generalizarse a cualquier procedimiento en el que durante las etapas A se registre una «línea base» sin la presentación de la variable independiente, y durante las etapas B se registre una «línea base» contingente a la presentación de la variable independiente. (Castro, 19803, 103-119). DISEÑO REVERSIBLE ABAB. Diseño experimental de sujeto único en el que se introduce y retira el tratamiento varias veces. Es una forma específica de la replicación directa intra-sujeto. (Véase: Diseño reversible). DISEÑO SECCIONAL.
Diseño transversal (véase).
Diseño evolutivo (véase) donde se estudia el efecto de cohorte (véase: Diseño de cohortes) como variable independiente, además de la edad.
DISEÑO SECUENCIAL.
El que se caracteriza por la realización de una serie de mediciones respecto de un sujeto o un grupo, y entre las cuales se introduce un tratamiento o técnica que, en consecuencia, produciría una presumible variación experimental. Diagrama: 01 02 03 04 05 X 06 07 08 09 010 (siendo 0 = cada medición; X = tratamiento o técnica introducida). Este procedimiento se utilizó en la investigación clásica del siglo XIX. Se emplea cuando, por ejemplo, en el proceso de enseñanza-aprendizaje de un alumno o de un grupo se introduce cualquier variación experimental. Exige, no obstante, el planteamiento previo de la hipótesis alternativa esperada.
DISEÑO DE SERIES CRONOLÓGICAS.
DISEÑO DE SERIES TEMPORALES. Diseño cuasi-experimental que adopta estas modalidades: a) Diseño de series temporales interrumpidas con replicaciones intercambiadas: es aquél en que se evalúa el efecto del tratamiento en grupos de similares características, pero en diferentes momentos temporales. b) Diseño de series temporales interrumpidas con replicaciones múltiples: aquel diseño en que se compara el efecto que sobre una serie temporal tiene la introducción y retirada del tratamiento en más de un momento temporal. c) Diseño simple de series temporales interrumpidas: es aquél en que se compara una serie de tiempo antes y después de introducir el tratamiento. (Navas, 2001).
105 DISEÑO SINCRÓNICO.
DISEÑO TRANSVERSAL CON ENCUESTAS
Diseño transversal (véase).
Diseño de cuatro grupos formados al azar que pretende observar y controlar la varianza sistemática experimental y mantenerla limpia de variables extrañas (varianza sistemática secundaria), ya que controla las variables extrañas mediante esos cuatro grupos seleccionados aleatoriamente. De los cuatro grupos, dos reciben el tratamiento experimental (variable independiente) y otros dos, no. Dado que incorpora, junto al grupo de control, otro más que tampoco recibe el tratamiento experimental, este diseño aumenta su poder de generalización, ya que puede analizarse prácticamente el efecto posible de la variable independiente (V.I.) bajo cuatro modalidades diferentes. Esquema de este diseño: X O2 R O1 R O3 O4 R X O5 R O6 DISEÑO DE SOLOMON.
En el diagrama adjunto, de los cuatro grupos, representados por R, dos (el primero y el tercero) reciben la influencia de la variable experimental (X), o sea, la intervención sobre la que se quieren constatar los cambios en el postest; mientras que el segundo y el cuarto, al no recibir el tratamiento experimental, actúan como grupos de control. Por otra parte, dos de los cuatro grupos —el primero y el segundo— tienen una medida previa o pretest (O1 y O3), mientras el tercero y el cuarto no tienen esa medida previa; pero en todos se aplican las mismas pruebas postest (O2 O4 O5 O6). Al trabajar con dos grupos de control (el dos y el cuatro) y dos experimentales (el uno y el tres), aumenta considerablemente su poder de generalización de los resultados, si los valores alcanzan la significación estadística, puesto que se podrán analizar los efectos producidos por la intervención del tratamiento experimental en cuatro formas o modalidades diferentes. DISEÑO DE SUJETO ÚNICO. Diseño de investigación que mide los efectos de un tratamiento sobre un solo sujeto. Es el diseño de N = 1. (Véase: Estudios de caso único). DISEÑO DE SUJETOS INTRAGRUPOS INTRATRATAMIENTOS.
(Véase: Diseño je-
rárquico). DISEÑO TRANSVERSAL. Diseño que se basa en observaciones recogidas de una muestra específica en un único período determinado en el tiempo. También es denominado seccional o sincrónico. DISEÑO TRANSVERSAL CON ENCUESTAS. Plan de investigación con encuestas que tiene por objetivo describir una población en un momento dado.
106
DISEÑO UNIVARIABLE
DISEÑO UNIVARIABLE. Diseño de investigación experimental que utiliza una sola variable independiente (V. I.). Se puede presentar bajo dos modalidades: a) bicondicional (dos condiciones o niveles de la V. I.: dos grupos, uno por condición o nivel); b) multicondicional (más de dos condiciones o niveles de la V. I.: tantos grupos como condiciones o niveles tenga la V.I.). DISEÑO DE VUELTA ATRÁS. Plan de investigación experimental con N = 1 (o sea, con sujeto único) en el que se produce alguna retirada del tratamiento, esperándose que la conducta vuelva a ser como era en la línea base - atrás (véase). DISIMILARIDAD (distancia). DISIMILITUD.
(Véase: Medida de proximidad).
Medida de distancia. (Véase: Medida de proximidad).
En la medida de proximidad (véase), dícese de la distancia entre dos individuos i, j, para una variable X en el plano que cumple:
DISTANCIA EUCLÍDEA.
d ( i, j) = ( X i1 − X j1)2 + ( X i2 − X j2 )2 DISTANCIA INTERPERCENTIL. Es la diferencia entre dos percentiles o centiles simétricos (Ej.: P85 – P15 ó P80 – P20). Excluye los extremos. Los límites de la amplitud interpercentil equidistan de la Mediana (Md) o P50. El decil, el cuartil y el percentil (véanse) son medidas de posición muy útiles. Son la base para establecer ciertas medidas de dispersión sobre la amplitud.
Alternativa de respuesta incorrecta o errónea en ítems de elección múltiple. La cualidad fundamental de un buen distractor es que tenga el mismo atractivo o aparente verosimilitud que la respuesta correcta, con lo que se evita o disminuye el riesgo de los aciertos por azar.
DISTRACTOR.
Distribución de frecuencias que no cumple con las características exigidas para una distribución simétrica (véase).
DISTRIBUCIÓN ASIMÉTRICA.
Dícese de la distribución o serie de valores en la que hay dos modas (véase) o modos.
DISTRIBUCIÓN BIMODAL.
DISTRIBUCIÓN BINOMIAL. «Es la distribución muestral de las proporciones observadas en muestras tomadas al azar de una población de dos clases» (Siegel, 1982, 57). La población de dos clases o dos opciones es denominada población dicotómica (véase): hombre-mujer, con título-sin título, etc. Informa de los distintos valores que pueden aparecer cuando H0 (hi-
107
DISTRIBUCIÓN DE FRECUENCIAS
pótesis de nulidad) hipotetiza un valor específico en la población. Es decir, en cualquier población de dos clases, al saber que la proporción de casos en una clase es π, entonces la proporción en la otra clase será 1 – π. (En diversos manuales el símbolo de proporción de población es P, en lugar de π, y el símbolo Q sustituye a 1 – π). La distribución de probabilidad será simétrica cuando π = 1 – π = 0,50. La correspondiente prueba de bondad de ajuste indica si es o no probable que las proporciones o frecuencias observadas en una sola muestra procedan de una población con un valor π determinado. Si es muy probable, se acepta H0, porque se supone que la desviación de la muestra respecto del valor de π se debe a las fluctuaciones del azar. Si es muy improbable el valor muestral de «p» observado, se rechaza H0 y se acepta la hipótesis alternativa, H1. (Véase: Binomio, desarrollo del). DISTRIBUCIÓN BIVARIADA. Tipo de distribución de frecuencias de datos correspondientes a dos variables, como mínimo, pertenecientes a unos mismos sujetos para el estudio de las relaciones entre ellas. DISTRIBUCIÓN CONTINUA.
La que adoptan las variables continuas (véase).
DISTRIBUCIÓN DISCONTINUA O DISCRETA.
La que adoptan las variables dis-
cretas (véase) o discontinuas. DISTRIBUCIÓN EMPÍRICA.
(Véase: Distribución de frecuencias).
DISTRIBUCIÓN DE FRECUENCIAS. La distribución de frecuencias de una variable hace referencia al conjunto de valores posibles para la variable y número de veces que cada uno de ellos ha sido observado en el conjunto de la muestra o de la población de sujetos estudiada. Dicho de otra forma, es el conjunto de números, atribuidos a las modalidades o clases, y de las frecuencias (proporciones o porcentajes) correspondientes a cada una de ellas. Las poblaciones realmente son finitas y tienen una distribución empírica (desconocida) individual y propia de cada una de ellas. De dichas poblaciones finitas extraemos muestras, mediante las cuales hacemos inferencias acerca de aquéllas. «Para poder hacer inferencias sobre poblaciones realmente existentes, a partir de muestras extraídas físicamente de aquéllas, necesitamos una tecnología estadística cuya construcción, primero, y cuya aplicación, después, exige la introducción de una variable aleatoria X con cierta distribución teórica f(x)». (Amón, 19846, 216-217). En la distribución empírica para datos cuantitativos discretos se utiliza una tabla de frecuencias (como, p. ej., el número de alumnos en cada aula de un colegio de Primaria) y también para datos cualitativos. Con da-
108
DISTRIBUCIÓN
tos cuantitativos continuos se puede utilizar una distribución de frecuencias por intervalos, lo que supone decidir el número de intervalos y su amplitud, así como la forma de expresarlos. DISTRIBUCIÓN, función de.
(Véase: Función de distribución).
Distribución que se puede considerar una versión multivariante de la distribución F de Snedecor y es muy utilizada en el análisis múltiple de la varianza. Se puede decir que Λ = |A| / |A + B| sigue la distribución lambda de Wilks con parámetros (n, s, t) y se denota: Λ (n, s, t). Tiene como propiedades: a) no depende de la matriz de covarianzas; b) tiene equivalencia con la distribución F; c) la distribución Λ (n, s, t) se utiliza en el análisis multivariante de la varianza para contrastar hipótesis lineales (donde n es el número de variables observables; s es el número de grados de libertad de la matriz de dispersión residual; t representa el número de grados de libertad de la hipótesis). (Gil Pascual, 2003).
DISTRIBUCIÓN LAMBDA (Λ Λ) de Wilks.
Distribución de frecuencias de los valores obtenidos para un estadístico (media, proporción, etc.) en distintas muestras aleatorias del mismo tipo y tamaño. Es decir, distribución que toma un determinado estadístico cuando se extrae de una misma población un número elevado —en teoría, infinito— de muestras aleatorias del mismo tamaño. Sería la distribución de las infinitas puntuaciones que podríamos obtener en infinitas muestras aleatorias, pero que no extraemos. Se trata de distribución de probabilidad teórica, que establece una relación funcional entre los posibles valores de un estadístico y la probabilidad o densidad de probabilidad asociada con cada uno de estos valores cuando de una población definida se extraen todas las muestras posibles de tamaño n. Todo estadístico tiene una determinada distribución muestral. • Distribución muestral de la diferencia de medias es la distribución de las diferencias de los infinitos pares de medias aritméticas, calculadas en infinitos pares de muestras extraídas al azar de una población estadísticamente infinita —o muestreada con reposición, si es finita—. Esta distribución muestral sigue el modelo normal o gaussiano cuando tales muestras tienen suficientes grados de libertad (son suficientemente grandes). En esa distribución, como en cualquier otra, hay una media aritmética, que es igual al parámetro µ —o media aritmética de la población— y una desviación típica que no es sino el error típico, en este caso el error típico de la distribución muestral de la diferencia de medias aritméticas.
DISTRIBUCIÓN MUESTRAL.
109
DISTRIBUCIÓN SIMÉTRICA
DISTRIBUCIÓN MUESTRAL DE DIFERENCIA DE MEDIAS.
(Véase: Distribución
muestral). DISTRIBUCIÓN MUESTRAL DE UN ESTADÍSTICO. Distribución de frecuencias de los valores obtenidos para un estadístico (media, proporción, etc.) en distintas muestras del mismo tipo y tamaño. Es la distribución que toma el estadístico estudiado cuando se extrae de una misma población un número elevado —en teoría, infinito— de muestras aleatorias del mismo tamaño.
Distribución de una serie de datos o valores en la que hay más de una moda (véase) o modo, aunque en el caso de dos modas se denominaría más propiamente distribución bimodal (véase). DISTRIBUCIÓN MULTIMODAL.
Distribución de frecuencias de tipo simétrico, o conformada simétricamente, cuyas propiedades sirven para obtener deducciones estadísticas a partir de los datos muestrales medidos de una variable. (Véase: Curva normal).
DISTRIBUCIÓN NORMAL.
DISTRIBUCIÓN DE POISSON.
(Véase: Modelo de Poisson).
Conjunto de los números reales y de las correspondientes probabilidades asignadas a los mismos por la ley de función de probabilidad (véase). Sin embargo, con gran frecuencia, función de probabilidad y distribución de probabilidad suelen ser usadas indistintamente, siendo el contexto el encargado de indicar si se trata de la ley, o del conjunto de números y de probabilidades asignadas a los mismos por dicha ley (Amón, 19846, 2, 86). La distribución de probabilidad es cualquier regla o mecanismo que sirva para determinar P(X = x), probabilidad de que la variable aleatoria X tome cada uno de los valores posibles x. Esta regla o mecanismo puede ser una tabla, un gráfico o una fórmula. Una fórmula que sirva para calcular P(X = x) se denomina función de probabilidad (véase). DISTRIBUCIÓN DE PROBABILIDAD.
DISTRIBUCIÓN RECTANGULAR. DISTRIBUCIÓN SESGADA.
Distribución uniforme (véase).
Distribución de datos (frecuencias de datos) asi-
métrica. DISTRIBUCIÓN SIMÉTRICA. Distribución de frecuencias de datos cuyos casos se hallan situados de forma igual en los intervalos de clase a ambos lados del punto medio. En una distribución simétrica coinciden media, mediana y moda. Diremos que una distribución de frecuencias es simétrica, si a cada puntuación Xi+ distante de la media, por la derecha, una distancia k, le co-
DISTRIBUCIÓN TEÓRICA
110
rresponde otra puntuación Xi– distante de la media, por la izquierda, la misma distancia k y tales que la frecuencia correspondiente a Xi+ es la misma que la correspondiente a Xi–. DISTRIBUCIÓN TEÓRICA. Las distribuciones teóricas hacen referencia a determinados modelos teóricos a cuyas propiedades tienden los conjuntos de datos o valores empíricos, una vez interpretados, tras su manejo estadístico mediante transformaciones, tratamientos, análisis y pruebas. El tratamiento de los datos requiere, por tanto, la aplicación a los mismos de las propiedades de los modelos teóricos a los que tienden y de los que únicamente difieren en cuantía esperable por efectos del azar. Y aquí caben dos situaciones fundamentales: a) Comprobar si los datos empíricos se acomodan a determinados modelos: curva normal, distribución binomial, de Poisson, o la hipergeométrica. Mediante las pruebas de bondad de ajuste a una distribución determinada: normal, binomial, de Poisson, etc. (pruebas: binomial, χ2 y Kolmogorov-Smirnov) se comprueba si los datos de la muestra o valores empíricos son compatibles con la distribución de probabilidad propuesta por H0 (hipótesis nula o de no diferencias significativas), o si, por el contrario, discrepan de forma significativa del modelo (H1: hipótesis alternativa o de investigación). b) Tener constancia, por propia comprobación o por conocimientos teóricos, de que determinados valores siguen un modelo concreto, en cuyo caso se utilizan las propiedades del mismo para poner a prueba determinadas hipótesis o para estimar ciertos parámetros o ciertas puntuaciones verdaderas. La distribución normal (véase) es, sin duda, la más usada en las Ciencias Sociales (psicología, pedagogía, etc.).
Distribución de valores o frecuencias de una variable aleatoria continua X, cuyo modelo teórico es el denominado rectangular o uniforme, es decir, por igual. Ejemplo: color de ojos (negros, azules, verdes, marrones, dando por supuesto que los cuatro colores están repartidos por igual en la población).
DISTRIBUCIÓN UNIFORME.
Distribución o serie de valores en la que sólo hay una moda (véase) o modo. DISTRIBUCIÓN UNIMODAL.
Distribución que siguen algunas matrices de especial relevancia en el análisis multivariante. Su papel es similar al de «ji-cuadrado» del caso univariante.
DISTRIBUCIÓN DE WISHART.
111
DURACIÓN
y1 Dado el caso de una variable Y = … yN con distribución N (0,1), cuyas N observaciones son independientes, la N
distribución Y ′Y =
∑y
2 i
2 es una χ N . Si se generaliza a n variables,
i =1
y11 se puede definir la matriz Y: y21 … yN1
y12 y22 … yN2
… y1n … y2n … … … yNn
cuyas filas siguen una distribución normal multivariante N (0, k) y son estocásticamente independientes. La distribución de la matriz simétrica Y′Y es la distribución de Wishart, Wn (K, N), para n variables y de parámetros K y N. Tiene especial aplicación en el análisis múltiple de la varianza. (Gil Pascual, 2003, 64). Forma de control de posibles efectos de expectativas consistente en que ni el administrador del tratamiento ni el sujeto que lo recibe sepan el tipo de tratamiento que se está utilizando.
DOBLE CIEGO.
Término pedagógico, de utilización relativamente reciente y muy restringida, que trata de mejorar tanto las técnicas y métodos de construcción de pruebas de evaluación, cuanto la formación técnica del personal evaluador. Se refiere al estudio sistemático de los métodos de exámenes y pruebas de evaluación, así como de los sistemas de calificación y del comportamiento de evaluadores y evaluados.
DOCIMOLOGÍA.
DUALISMO CARTESIANO. Consideración teórica del mundo dividido en dos esferas independientes: el mundo de lo visible y el mundo de lo inteligible (del pensamiento). «DUMMY», variable.
(Véase: Variable ficticia).
Tipo de medida, utilizado en la observación, que informa al observador del tiempo en que el elemento observado se hace presente en una determinada unidad de registro.
DURACIÓN.
E
E = ERROR DE ESTIMACIÓN. Diferencia entre el valor de un estadístico y el valor correspondiente del parámetro. (Véanse: Error de sesgo y error muestral). E = ESPACIO MUESTRAL. EBBUTT, modelo de. ECIS, modelo.
Conjunto de todos los casos posibles.
(Véase: Modelo de Ebbutt).
Modelo ECIS (véase).
ECONOMÍA DE FICHAS. Sistema de refuerzos que se asienta en los principios del aprendizaje y que utiliza fichas con un valor de intercambio acordado con el sujeto.
Igualdad que contiene una o más incógnitas. • Ecuación determinada es aquella en que la incógnita tiene un número limitado de valores. • Ecuación diofántica es la ecuación algebraica con una o más incógnitas y coeficientes enteros, de la que interesan solamente sus soluciones enteras. • Ecuación indeterminada: aquella en que la incógnita puede tener un número ilimitado de valores. • Ecuación lineal: aquella cuyas variables son de primer grado.
ECUACIÓN.
ECUACIÓN DETERMINADA. Ecuación en que la incógnita tiene un número determinado o limitado de valores.
Ecuación algebraica con una o más incógnitas y coeficientes enteros, de la que interesan únicamente sus soluciones enteras.
ECUACIÓN DIOFÁNTICA.
ECUACIÓN DE ESTIMACIÓN.
Ecuación de regresión (véase).
Ecuación matricial que presenta la forma a’x = 0, donde a’ y x son vectores de orden n x 1, el primero de coeficientes y el segundo de incógnitas. Ejemplo: si a’ = (3; – 4) y
ECUACIÓN HOMOGÉNEA.
114
ECUACIÓN INDETERMINADA
x x = 1 , entonces a’x = 0 da una ecuación homogénea con dos incógnitas: x2 3x1 – 4x2 = 0
Ecuación en que la incógnita puede tener un número ilimitado de valores. ECUACIÓN INDETERMINADA.
ECUACIÓN LINEAL.
Ecuación cuyas variables son de primer grado.
ECUACIÓN NO HOMOGÉNEA. Ecuación matricial que adopta la forma a´x = k, donde k es una constante distinta de cero.
Ecuación utilizable para predecir la puntuación de un sujeto en una variable, cuando se conoce su puntuación en otra. Une al predictor y al criterio. Utilizando el coeficiente de correlación, se pueden escribir las ecuaciones de regresión simple así:
ECUACIÓN DE REGRESIÓN.
Predicción de X a partir de Y: X ′ = rxy × Predicción de Y a partir de X: Y ′ = rxy ×
sx (Yi − Y ) + X sy sy sx
(Xi − X ) + Y
Siendo: rxy = coeficiente de correlación entre X e Y sx = desviación típica de las puntuaciones X sy = desviación típica de las puntuaciones Y – X = media de las puntuaciones X – Y = media de las puntuaciones Y Hay ecuaciones para puntuaciones típicas y diferenciales. Para remediar el escaso valor predictivo de un solo predictor, se acude a la predicción basada en la regresión múltiple (véase), que utiliza varios predictores, con lo que aumenta la precisión de la predicción. ECUACIONES ESTRUCTURALES. «Las ecuaciones estructurales (esencialmente se trata de ecuaciones matemáticas corrientes) son afirmaciones sobre la dependencia de una variable con respecto a otra u otras que la preceden en la cadena causal que se ha establecido como hipótesis» (Baltes, 1981, 267). A partir del modelo hipotetizado con todas sus definiciones, limitaciones y supuestos, se elaboran las ecuaciones estructurales que intentarán reflejarlo fielmente y, a partir de ellas, se iniciará el análisis. (MateoRodríguez Espinar, 1984). ECUAMAX O EQUAMAX, método.
tación de factores).
Método de rotación ortogonal. (Véase: Ro-
115
EFECTO DEL ORDEN
EDAD CRONOLÓGICA (EC).
Tiempo transcurrido desde el nacimiento.
Edad cronológica correspondiente a los sujetos cuya puntuación media en la prueba o test de inteligencia coincide con la del sujeto en cuestión; es decir, edad determinada por la puntuación de un test de inteligencia comparada con la media de una determinada edad cronológica. Los tests de inteligencia determinan aproximadamente la relación entre la edad mental y la cronológica de los sujetos examinados. Dan un cociente intelectual, C.I. (véase).
EDAD MENTAL (EM).
EDAD PRENATAL (EP). Edad que abarca, desde 280 días antes, hasta el nacimiento (estados germinal, embrionario y fetal). EDUCCIÓN. Acción y efecto de educir o sacar algo de otra cosa, deducir. Es la intuición de relaciones en presencia de datos o características. EFECTO DE COHORTE. En los diseños evolutivos (véase), efecto asociado a la fecha de nacimiento y no debido a la edad.
Cuantificación del grado en el que un diseño muestral específico es menos eficiente que el muestreo aleatorio simple.
EFECTO DEL DISEÑO.
Variación de la variable dependiente (V.D.), entre las distintas condiciones experimentales, producida por el cansancio que origina la repetición de la tarea en los diseños de medidas repetidas. A este efecto se le considera variable extraña que se ha de controlar.
EFECTO DE LA FATIGA.
EFECTO «HAWTHORNE».
(Véase: «Hawthorne», efecto).
Variación en la conducta del sujeto de una condición experimental a otra, producida por cambios en el interés que las tareas le suscitan. Este efecto constituye una variable distorsionante que debe ser controlada. EFECTO DE LA MOTIVACIÓN.
En la investigación etnográfica, el denominado «efecto nativo» es el riesgo a evitar por el investigador, consistente en alcanzar tal nivel de implicación con el grupo en estudio, que se llegue a perder sensibilidad y visión objetiva de los problemas. Este riesgo está implícito en la recogida de información y radica en determinar el tiempo que el investigador debe permanecer en el campo de acción.
EFECTO NATIVO.
Variación producida en la variable dependiente (V.D.), según las distintas condiciones experimentales, cuya causa se atribuye al orden en el que son presentados los diferentes niveles de tratamiento (niveles de la variable independiente: V.I.) en los diseños de medidas repetidas. Este «efecto del orden» es considerado como variable extraña a controlar.
EFECTO DEL ORDEN.
EFECTO PLACEBO
116
Efecto producido supuestamente por una sustancia, o en general por un tratamiento, debido a las expectativas de los sujetos y no a las propiedades de la sustancia o tratamiento administrado.
EFECTO PLACEBO.
Variación de la variable dependiente (V.D.), entre las distintas condiciones experimentales (variable independiente: V.I.) producida por la repetición de la tarea en los diseños de medidas repetidas. Este efecto es considerado variable extraña que debe ser controlada. EFECTO DE LA PRÁCTICA.
Factor que amenaza la validez externa de los diseños de investigación y que se produce cuando un pretest podría aumentar o disminuir la sensibilidad o la calidad de la reacción de los participantes a la variable experimental. Es el efecto de interacción de las pruebas. Esta situación se daría cuando los resultados obtenidos en un grupo con pretest para una población no fueran representativos de los efectos de la variable experimental para el conjunto sin pretest del cual se seleccionaron los participantes experimentales. Es decir, el efecto que produce la variable experimental es diferente en sujetos que han recibido pretest respecto de los que no lo han recibido. De ignorarse este posible efecto reactivo de la prueba sobre la medida de la variable dependiente, podría pensarse que dicho efecto ha sido causado por la variable independiente.
EFECTO REACTIVO DE PRUEBAS.
Efecto que puede aparecer en los valores de la variable dependiente si, a partir de un determinado valor, no es posible obtener otros más bajos (o más altos), permaneciendo constantes a pesar de la variación en los niveles de la variable independiente. EFECTO SUELO (techo).
Factor de invalidez externa de un diseño de investigación provocado por los efectos reactivos de la situación experimental en los sujetos participantes, lo que impediría hacer extensivo el efecto de la variable experimental a las personas expuestas a ella en una situación no experimental. La artificialidad o novedad de un experimento y la conciencia de los sujetos de que están participando en él son ejemplos de dispositivos experimentales que crean unas condiciones «no naturales», incompatibles con la posterior generalización de conclusiones, pues son causa fundada de falta de representatividad y, por tanto, obstáculos para esa generalización a situaciones naturales o normales. (Véase: «Hawthorne», efecto). EFECTOS REACTIVOS DE DISPOSITIVOS EXPERIMENTALES.
ELECCIÓN PRUEBA ESTADÍSTICA. Las pruebas estadísticas para probar hipótesis (su rechazo o aceptación a determinados niveles de probabilidad) no suelen plantear problemas en su aplicación; pero sí antes y después de ese momento:
117
ELECCIÓN PRUEBA ESTADÍSTICA
a) antes, para elegir la(s) más idónea(s); b) después, para interpretar los resultados en coherencia con los planteamientos experimentales. A) Elección de la prueba: criterios A.1. Potencia: en igualdad de condiciones, se elegirá la prueba más potente (aquella con la que se pueda rechazar más fácilmente H0 o hipótesis nulas falsas). Las pruebas paramétricas (véase) son más potentes que las correspondientes no paramétricas (véase). A.2. Modelo estadístico. Cada modelo estadístico exige unas condiciones (a las que se aludió en «potencia») o supuestos que, de darse, hacen a esos modelos los más potentes. Hablamos de las pruebas «paramétricas», que exigen: a) Independencia de las observaciones (datos) respecto de las demás, lo que se garantiza mediante la selección aleatoria de la muestra. b) Distribución normal de las poblaciones de las que se obtuvieron las muestras. c) Varianzas iguales u homogéneas de las poblaciones origen de las muestras. A.3. Nivel de medición. Las pruebas «paramétricas» exigen medición del nivel de intervalo como mínimo, mientras que a las «no paramétricas» les basta con mediciones ordinales e, incluso, nominales. B) Discusión En rigor, las pruebas «paramétricas», por su mayor potencia, se utilizarán siempre que lo permitan las suposiciones del modelo: independencia de los datos, normalidad de distribución, homogeneidad de varianzas y nivel de medición de intervalo. Pero si no se cumplen tales supuestos y las utilizamos, lo que hacemos es atribuir gratuitamente a los datos una información y unas virtualidades suplementarias que no poseen, lo que puede llevar al falseamiento de los resultados. • En cuanto a la potencia, nótese que las pruebas «no paramétricas» pueden alcanzar igual potencia que las «paramétricas» aumentando N (número de datos o sujetos). • Respecto al modelo estadístico, la «independencia de los datos» es exigencia común a ambos tipos de pruebas. — El supuesto de «normalidad» no es demasiado relevante en cuanto al valor de α (probabilidad de error tipo I: H0 es verdadera y se rechaza). — El requisito de «homogeneidad de varianzas». Cuando no se cumple, los resultados pueden llegar a ser gravemente sospe-
ELEMENTO MUESTRAL
118
chosos; parece ser que los casos más delicados se dan con grupos de n desigual. • Nivel de medición. Hay dos posturas enfrentadas: a) Siegel y otros son radicales al exigir pruebas «no paramétricas» para datos nominales y ordinales. b) Lord y otros se oponen a la relación «escala de medida-prueba estadística». Glass y Stanley sostienen que cualquier conjunto de números es susceptible de procesarse estadísticamente mediante cualquier técnica (con algunas limitaciones, evidentemente). El punto de fricción es el nivel «ordinal», el más comúnmente alcanzable en las ciencias psicopedagógicas. Amón y Kerlinger coinciden al proponer la utilización de pruebas «paramétricas» en «escalas ordinales» finas («cuasi-intervalo»), siempre que se muestre prudencia en la interpretación de resultados. (Pérez Juste, 1985a). ELEMENTO MUESTRAL. Cada uno de los sujetos o individuos seleccionados en una muestra extraída de una población determinada. ELLIOT, modelo de.
(Véase: Modelo de Elliot).
Técnica de formación de parejas de sujetos para constituir dos grupos de la forma más homogénea posible, según algún criterio relevante o variable de bloqueo (véase), que guarda estrecha relación, cuanto más elevada mejor, con la variable dependiente (V.D.). Es el caso más simple del bloqueo (véase), en este caso con diseño de dos grupos. Como únicamente se trabaja con dos niveles de la variable independiente (V.I.), o sea, con dos tratamientos, cada bloque —integrado por una o varias parejas de sujetos— recibe los dos niveles que son experimentados, uno por el o los primeros miembros de las parejas y el otro por los segundos miembros de dichas parejas.
EMPAREJAMIENTO.
Observable. Conocimiento a través de los sentidos o como resultado de la experiencia o de la práctica.
EMPÍRICO.
EMPIRISMO. Sistema o procedimiento fundado en la mera práctica o en la experiencia. Como sistema filosófico, es opuesto al racionalismo, ya que considera la experiencia sensorial como única fuente del saber. No reconoce en el conocimiento ningún elemento que no proceda de la experiencia interna (reflexión) o externa (sensación). La limitación del empirismo consiste en sobrevalorar metafísicamente el papel de la experiencia, a la vez que subestima el de las abstracciones y teorías científicas en el conocimiento.
Modalidad de investigación destinada a la recogida de información no a través de pruebas, sino por medio de preguntas formuladas directamente a los sujetos.
ENCUESTA.
119
ENTREVISTA
En esta metodología de investigación y valiéndose de los datos obtenidos de las muestras, la encuesta persigue una información sobre grupos, generalmente de poblaciones específicas de las cuales se han extraído dichas muestras, al objeto de describir alguna de las características de la población de sujetos bajo estudio, o bien para analizar las relaciones entre algunas de sus características. Es lo que pretenden las denominadas encuestas por muestreo. ENCUESTA ANALÍTICA. Encuesta por muestreo en que se comparan varios subgrupos de una población, para indagar si existen diferencias entre ellos y formular o contrastar hipótesis sobre sus causas. (Ej.: las encuestas de fertilidad en un país cualquiera, para averiguar hasta dónde las parejas o matrimonios planifican número y espaciamiento de sus hijos, actitudes de ambos miembros de la pareja al respecto, razones de dichas actitudes y éxito que logran en su planificación familiar). (Cochran, 19855, 23).
Es la encuesta por muestreo, cuyo objetivo es obtener determinada información respecto a grandes grupos. (Por ejemplo: número de escolares de Primaria y Secundaria que acostumbran ver cierto programa de televisión). (Cochran, 19855, 23).
ENCUESTA DESCRIPTIVA.
ENCUESTA EPIDEMIOLÓGICA. Las encuestas epidemiológicas son encuestas transversales que se realizan para conocer el estado de expansión de una enfermedad o epidemia.
Escala (también denominada de estaninos) que divide la serie total de casos en nueve unidades o categorías (nueve rangos), dando el valor 1 al rango inferior de la escala y el 9 al superior. Su media es 5 y su desviación típica, 2. Para saber en qué eneatipo o estanino se encuentra una puntuación (Xi) se transforma ésta en z y, a continuación, en eneatipo mediante la ecuación: Eneatipo = 5 + 2z ENEATIPOS.
ENTREVISTA. Como metodología de investigación, procedimiento en que un investigador realiza un conjunto de preguntas a un sujeto para obtener información sobre un determinado tema. Como método de orientación, en general la entrevista es un medio de comunicación donde tiene lugar un intercambio de mensajes entre entrevistador y entrevistado, realizado de forma presencial, cara a cara entre ambos. Se trata de una conversación, no por la mera satisfacción de conversar, sino para lograr un propósito definido. Es una parte del proceso de ayuda al alumno en la tarea de hacer elecciones, de suerte que au-
120
ENTREVISTA ABIERTA
mente la probabilidad de que su desarrollo futuro sea satisfactorio para él y para quienes le rodean. (Véase: Entrevista tutorial). La entrevista, por tanto, y en cualquier caso (diagnóstica, investigadora y terapéutica), puede definirse como una conversación intencional orientada hacia unos objetivos precisos. ENTREVISTA ABIERTA.
Entrevista en profundidad (véase: Entrevista).
ENTREVISTA CLÍNICA. Tipo de entrevista abierta (no estructurada) cuya finalidad es eminentemente terapéutica, ya que se dirige al campo de las motivaciones y sentimientos de los sujetos.
Modalidad de entrevista en que el acto de enviar las preguntas y recoger las respuestas se hace a través del correo. Sólo se utilizan cuestionarios.
ENTREVISTA POR CORREO.
Tipo de entrevista en la que el entrevistador toma la iniciativa y asume la responsabilidad del sujeto (como le ocurre al médico cuando actúa sobre un enfermo). En su decisión de ayudar al sujeto, intenta influir en sus decisiones, controlando la entrevista y dirigiéndola en todo momento. Consecuentemente, el entrevistador directivo discutirá los proyectos del entrevistado y los admitirá o rechazará, según crea conveniente en cada caso. La existencia de determinadas prescripciones que, en principio, el sujeto se ve obligado a aceptar, no supone que no pueda rechazarlas en última instancia. La aplicabilidad de este tipo de entrevista no parece adecuada con sujetos formados y maduros. En cambio, a menor edad (inmadurez) y menor formación, mayor directividad.
ENTREVISTA DIRECTIVA.
También denominada de orientación, es aquel tipo de entrevista que supone una situación intermedia entre la directiva y la no directiva (véanse), ya que la iniciativa, aquí, es compartida entre entrevistador y entrevistado. La responsabilidad es del sujeto, pero con la ayuda del entrevistador; es decir, la decisión es del sujeto, tras estudiar «pros» y «contras» con el entrevistador. La relación entre ambos es cordial y amistosa, basada en la confianza, respeto y simpatía. El entrevistador muestra comprensión y aceptación del sujeto entrevistado para ayudarle a utilizar sus recursos personales y ambientales. Y también disposición a ayudarle a decidir y responsabilizarse de sus decisiones. La entrevista ecléctica de orientación tendría una aplicatividad casi generalizada en la etapa adolescente y de Educación Secundaria, siempre contando con las excepciones por defecto de edad-madurez (entrevista directiva) y por exceso de edad-madurez (entrevista no directiva). ENTREVISTA ECLÉCTICA.
121
ENTREVISTA NO DIRECTIVA
Tipo de entrevista que se compone de un conjunto de preguntas previamente determinado. Las preguntas suelen ser cerradas, sin descartar las abiertas. Es utilizable en las encuestas. Usa un protocolo previo de preguntas de alternativa fija o bien de varias alternativas de respuesta para que el sujeto elija la que crea más apropiada. Realmente se trata de un interrogatorio en el que las preguntas se formulan en el mismo orden y con los mismos términos. Tanto las preguntas como las respuestas suelen ser cerradas y se reflejan de forma escrita mediante la correspondiente codificación, para que el entrevistado seleccione, ordene y exprese su grado de acuerdo o desacuerdo. Esta presentación facilita la realización de estudios exploratorios, de sondeo, pero sin profundizar sobre cuestiones más complejas o íntimas. Su principal inconveniente es la falta de flexibilidad.
ENTREVISTA ESTRUCTURADA.
Técnica de entrevista muy utilizada en la investigación etnográfica. Se lleva a cabo, de manera preferente, con los denominados informantes-clave (véase), sin descartar al resto de personas implicadas. Aunque se precisaría de un guión, es más recomendable la entrevista no directiva (véase).
ENTREVISTA ETNOGRÁFICA.
ENTREVISTA FOCALIZADA. Entrevista en profundidad (véase), modalidad muy técnica en que se parte de un listado de tópicos sobre los cuales se realiza la entrevista. Requiere del entrevistador una gran habilidad, experiencia y trato personal.
Tipo de entrevista, propugnada por Rogers, en la que el entrevistador cede la iniciativa al entrevistado y deja la responsabilidad en manos del mismo, por lo que no influye en las decisiones que éste toma. En la entrevista, el entrevistador calla, casi no interviene sino para aceptar las opiniones del entrevistado o para aumentar la información del sujeto en cuanto a su propia actividad mental. Rehúsa, incluso, a dirigir ese proceso de información del propio sujeto cuando éste se esfuerce por encontrarlo él mismo. Al aceptar las opiniones del sujeto, lo hace para que éste encuentre las explicaciones o soluciones. Este clima de aceptación supone que el entrevistado pueda explayar sus juicios y sentimientos, sin temor a reproche, crítica o censura. La «no directividad» es una actitud hacia el sujeto entrevistado (cliente, en general) por la que el entrevistador (o terapeuta) rehuye la tentación de imprimir a aquél una dirección cualquiera sobre un plano cualquiera; huye de creer que el cliente o entrevistado deba pensar, sentir o actuar de una forma determinada. La «no directividad» es usada principalmente con sujetos que, por su madurez, se aproximan a los patrones adultos (sin dar, por supuesto, sin más, que todos los adultos sean maduros).
ENTREVISTA NO DIRECTIVA.
122
ENTREVISTA NO DIRIGIDA ENTREVISTA NO DIRIGIDA.
Entrevista no directiva (véase).
Modalidad de entrevista en la que las preguntas son, en general, abiertas y en su conjunto no están previamente determinadas. Es la entrevista abierta (véase).No se utiliza en las encuestas. Su objetivo fundamental es captar el mensaje del entrevistado sin ningún filtro previo, por lo que permite una mayor libertad a la iniciativa tanto del entrevistador como del entrevistado. Las preguntas que se formulan suelen ser abiertas, para que el entrevistado construya la respuesta. Dentro de esta propuesta caben tres modalidades, según el campo concreto de la entrevista y su nivel de directividad: entrevista focalizada o entrevista en profundidad (véase), entrevista clínica (véase) y entrevista no dirigida (véase: entrevista no directiva). ENTREVISTA NO ESTRUCTURADA.
ENTREVISTA DE ORIENTACIÓN.
Entrevista ecléctica (véase).
ENTREVISTA PERSONAL. Tipo de entrevista en la que el entrevistador está físicamente presente para formular las preguntas y recoger las respuestas del entrevistado. ENTREVISTA EN PROFUNDIDAD. Técnica de investigación cualitativa en la que interactúan entrevistador y entrevistado (este último no a título individual, sino en calidad de sujeto social prototípico dentro del tema de estudio) que se desarrolla a partir de un guión temático y no de un esquema cerrado y rígido de preguntas. ENTREVISTA POR TELÉFONO. Modalidad de entrevista en la que el acto de formular las preguntas y recoger las respuestas se hace a través del teléfono. Sólo se utilizan cuestionarios.
Técnica de relación interpersonal que facilita al tutor toda una gama de relaciones que la acción tutorial le exige respecto a sus alumnos o tutorandos. La entrevista tutor-alumno es una conversación organizada con objetivos flexibles, usada como medio de orientación personal, escolar-académica y profesional del alumno. Persigue un doble fin: 1.o) Facilitar al entrevistado un mayor conocimiento de sí mismo y del mundo que le rodea. 2.o) Ayudarle a enfrentarse con un problema o una situación en que ha de tomar la responsabilidad de decidir. La entrevista tutor-alumno es, por consiguiente, una situación de diálogo constructivo en la que se establece una relación personal basada en la confianza y la amistad que proporciona una información mutua, por la que el tutor ofrece ayuda y estímulo —motivos de acción— al estudiante, ENTREVISTA TUTORIAL.
123
ERROR DE ESTIMACIÓN
quien en última instancia decide libremente y se responsabiliza de sus decisiones (Artigot, 1973, 45). EPISTEMOLOGÍA. (Del griego «episteme» = conocimiento, saber científico; «logos» = tratado). Sinónimo de gnoseología, es la disciplina filosófica que se ocupa de la teoría del conocimiento. Estudia el origen y los principios materiales del conocimiento humano. Como doctrina de los fundamentos y métodos del conocimiento científico (teoría crítica del conocimiento científico) pregunta por la verdad del pensamiento, por su concordancia con el objeto. Es la teoría del pensamiento verdadero. Los principales problemas epistemológicos son: — posibilidad del conocimiento — su origen o fundamento — su esencia o trascendencia — criterio de verdad Estudia críticamente las leyes, métodos y resultados de las diversas ciencias, para determinar su estructura lógica, su origen y su validez. EPISTEMOLÓGICO.
Perteneciente o relativo a la Epistemología (véase).
EQUAMAX, método.
Método de rotación ortogonal. (Véase: Rotación de
factores). Forma de control de una variable que se logra haciendo que aparezcan sus distintos niveles de forma semejante, mediante el azar, en cada uno de los grupos del experimento.
EQUILIBRADO.
EQUIVALENCIA RACIONAL, MÉTODO.
(Véase: Método de equivalencia ra-
cional). En Estadística se utiliza el término error para referirse a la diferencia que se da entre los valores medidos y los verdaderos.
ERROR.
ERROR ALEATORIO. Diferencia observada en las puntuaciones de la variable dependiente no explicable por ninguna da las variables bajo control. Es un error casual o debido al azar. Los errores aleatorios originan variaciones que tienden a compensarse en el infinito. Son inevitables, ya que están ligados a los procedimientos de muestreo existentes para la extracción de muestras representativas; incluso en el caso de procedimientos aleatorios de muestreo los subconjuntos extraídos se apartarán en cierta medida en sus características de las correspondientes a la población o conjunto total.
Diferencia entre el valor de un estadístico y el valor correspondiente del parámetro. (Véase: Error de sesgo y error muestral).
ERROR DE ESTIMACIÓN.
124
ERROR DE MEDIDA
ERROR DE MEDIDA. Diferencia que existe entre la puntuación empírica obtenida por el sujeto en un instrumento de medida y el nivel real que dicho sujeto posee en la característica medida por dicho instrumento. (Véase: Medición, error de).
Medida en que un estadístico varía con respecto a un parámetro, por razones debidas al grado de representatividad de la muestra elegida. Se concreta en la diferencia entre un valor poblacional (parámetro) y un determinado valor muestral (estadístico o estadígrafo). Normalmente no se conocen los parámetros o valores reales, fijos, de la población; por lo que, en principio, nos es imposible especificar con rigor y exactitud el error muestral de un estadístico en una muestra determinada. Sin embargo, sí podemos estimar los parámetros y, por tanto, también estimar y describir la magnitud del error muestral. Para ello, tomaremos cada medida muestral (del mismo estadístico, en varias muestras consideradas representativas) como estimación del parámetro «real». El conjunto de estadísticos obtenidos en las diversas muestras pueden interpretarse como estimaciones del respectivo parámetro poblacional, es decir, del valor que se obtendría conociendo todos los datos de la población. La variación entre los valores de las distintas muestras debe atribuirse al error muestral.
ERROR MUESTRAL.
Valor resultante de multiplicar los valores de t o z por el error típico (véase) del estadístico en cuestión (media, diferencia de medias, etc.) de acuerdo con un nivel de confianza (véase) determinado. Ese producto de t o z por el error típico de las diferencias de medias se interpreta, pues, en términos de «probabilidad» (generalmente, p = 0,95 ó 0,99).
ERROR MUESTRAL MÁXIMO.
ERROR DE MUESTREO.
Error muestral (véase).
Error que representa la diferencia entre el verdadero valor de y1 en la población y su correspondiente valor estimado mediante la ecuación de regresión. (Véase: Coeficiente de valor pronóstico). ERROR DE PREDICCIÓN.
Mediana de las desviaciones, en valor absoluto, ordenadas con respecto a la media. Es aquel error respecto del cual el error o desviación de cualquier medida tiene las mismas probabilidades de ser mayor que de ser menor; o lo que es lo mismo: en una serie normal o ideal, la mitad de las desviaciones son menores; por consiguiente, el error probable es el error o desviación que tiene más posibilidades de manifestarse. En la práctica, el error probable (EP) se supone igual que la desviación mediana; es decir, el EP es el error o desviación que ocupa el puesto central en la serie ordenada de errores. Pudiéramos establecer una com-
ERROR PROBABLE (EP).
125
ERROR SISTEMÁTICO
paración y decir que la variación media es a la media como el EP es a la mediana. Para averiguar el EP o desviación mediana no hay más que ordenar los errores según su magnitud, prescindiendo del signo, y señalar el que ocupe el lugar central. Este índice de variabilidad tiene la ventaja de ser muy fácil de calcular. En él no influyen los errores extremos más que los medios, por lo que suele preferirse a la DM (desviación media). Es igual a la desviación cuartil y equivale a 0,6745 σ (sigma). Ej.: si sigma = 3, el EP sería = 3 × 0,675 = 2,02. Se refiere al 50% de los casos en una curva nor– mal. En una distribución normal, sumando y restando a la X el EP quedan comprendidos el 50% de los casos entre los valores resultantes. Es decir, por interpolación en la tabla de fracciones bajo la curva normal encontraremos que ± 0,6745 σ incluyen el 25% inmediatamente por encima y debajo de la media, abarcando, en consecuencia, la amplitud del rendimiento normal. (G.a Hoz-Pérez Juste, 1984; Gonzalvo, 1978). Dícese del error originado por una cierta parcialidad que introducimos en nuestro criterio. Se inscribe dentro de los llamados errores muestrales (junto con los aleatorios) que no son sino la diferencia entre los estadísticos (valores de muestras) y sus correspondientes parámetros (valores de la población). El error de sesgo aparece cuando no utilizamos sistemas imparciales de muestreo, es decir, cuando trabajamos con muestras no representativas, cuyos datos no recogen ciertas características importantes de la población. En consecuencia, los valores muestrales se alejarán de los de la población en forma y cuantía no determinable, a no ser que pueda evaluarse el tipo y magnitud del sesgo cometido. Se dice que un estimador es insesgado si el promedio de todos los valores posibles de éste es igual al valor del parámetro. O lo que es lo mismo, si la media de la distribución muestral del estadístico es igual al valor del parámetro estimado. – La X es un estimador insesgado de µ, pues el valor medio de una distribución muestral coincide con el valor del parámetro. La Md y la Mo también son estimadores insesgados de µ, si las infinitas muestras de la distribución muestral de estos estadísticos se extraen de una población normal. La desviación típica (sx) es estimador sesgado de σ, a pesar de no serlo la varianza muestral (s2x) respecto de la varianza (σ2) poblacional. (Jiménez, et al., 1983, t. 1). ERROR DE SESGO.
ERROR SISTEMÁTICO. Expresión con que se denomina la tendencia sistemática ya a subestimar o ya a sobreestimar el parámetro de interés, a causa de una deficiencia en el diseño de investigación o en la realización de un estudio. También se le denomina sesgo (véase).
ERROR TÍPICO
126
ERROR TÍPICO. Medida de la variabilidad de una distribución muestral (véase) o desviación típica de la distribución muestral de un estadístico. Es decir, es la desviación típica de las infinitas puntuaciones que podríamos obtener en infinitas muestras aleatorias pero que no extraemos. Viene a ser una medida estimativa de los errores casuales o aleatorios y de medición que contribuyen a aumentar la varianza de unos datos. El error típico, por tanto, estima ese error. Los estadísticos obtenidos en muestras al azar son estimaciones de los parámetros, y sus errores típicos miden la bondad de la estimación. Un error típico grande no implica necesariamente falta de representatividad de la muestra, pues la variación puede estar originada por los errores de medición. Si éstos son pequeños, un error típico grande sí indica un considerable error de muestreo. Los estadísticos con menor error típico, por consiguiente, son los que dan estimaciones más precisas.
Es la desviación típica de la distribución muestral del estadístico en cuestión, o lo que es lo mismo, desviación típica de los errores de estimación. (Véase: Error típico). El error típico estima los errores casuales o aleatorios, además de los errores de medición que contribuyen a aumentar la varianza de unos datos. – Un caso muy utilizado es el error típico de la X (o desviación típica de la distribución muestral de la media) que se suele representar por σX–. Sus aplicaciones son similares a las de la desviación típica en una distribución de las puntuaciones empíricas de un grupo de sujetos en un rasgo cualquiera. s s Para estimar µ, su σX– se calcula: σ X = , o bien , , que es la n −1 n fórmula general que se utiliza cuando la desviación típica de la muestra se ha calculado dividiendo por (n –1) en lugar de por n solamente. Como es sabido, los estadísticos obtenidos en muestras al azar son estimaciones de los parámetros y sus errores típicos miden la bondad de la estimación. Los estadísticos con menor error típico son los que dan estimaciones más precisas. Al incluirse en el error típico las diferencias no debidas al tratamiento experimental, cuanto mayor sea dicho error típico (o sea, el denominador en los contrastes estadísticos), las diferencias empíricas debidas a la V.I., o tratamiento experimental (numerador) tendrán que ser lo suficientemente elevadas como para superar a las incluidas en el error típico. Dicho de otro modo: ante diferencias empíricas pequeñas, el diseño al azar, en su contraste, puede no detectarlas, y concluir que no hay diferencias significativas aunque, en realidad, las haya. ERROR TÍPICO DE UN ESTADÍSTICO.
127
ERROR TÍPICO DE MEDIDA
ERROR TÍPICO de estimación del criterio (sy.x).
Desviación típica de los errores de
estimación del criterio. Desviación típica de los errores de estimación de la puntuación verdadera.
ERROR TÍPICO de estimación de la puntuación verdadera (sv.x).
Estimación de la variabilidad de las medias muestrales extraídas de determinada población, en torno a la media que sirve de base al estudio (media poblacional). Cuando se aumenta el número de muestras extraídas y su tamaño, se observará que todas las medias de las muestras se acercan más aún al valor del parámetro, porque las medias obtenidas en muestras aleatorias grandes son muy estables (ley de los grandes números, de Bernouilli). Lo mismo sucederá con sus errores típicos, que se agruparán en torno a la desviación típica de la desviación muestral. El grado de confianza de la media se indica por su error típico: a menor error típico, estimación más precisa, por lo que se puede tener fe en las estimaciones de medias si el valor del error típico no es excesivo. Fórmula para computarlo, en el caso de muestreo al azar y con reposición: s σX = x n
ERROR TÍPICO DE LA MEDIA (s X–).
Cuando n < 30, se toma n –1 bajo el radical para compensar el cálculo por debajo del error típico de la media, que se halla siempre presente cuando las muestras son pequeñas: n < 30. El error típico obtenido se – simboliza con +, es decir: X + error típico obtenido. El valor del error típico de la media es menor que la desviación típica de las puntuaciones individuales, porque al calcular las medias de las muestras, las puntuaciones extremas no están representadas por las medias que, lógicamente, son valores promedios. o smed . Desviación típica de los errores de medición. El error típico de medida de un instrumento de medición es igual al producto de la desviación típica de las puntuaciones empíricas por la raíz de la diferencia entre la fiabilidad perfecta (uno) y la fiabilidad empírica de dicho instrumento. ERROR TÍPICO DE MEDIDA (se
σ e = σ med = s x 1 − rxx Este error típico revela con qué aproximación una puntuación obtenida representa a su puntuación verdadera. Expresa mejor la fiabilidad de un test que el coeficiente de fiabilidad, ya que toma en cuenta la variabilidad dentro del grupo.
128
ERROR DE TIPO I Y TIPO II
ERROR DE TIPO I Y TIPO II. Tipo I: Rechazar H0 (hipótesis nula o de no diferencias) cuando es verdadera y admitir H1 (hipótesis alternativa) siendo falsa. Probabilidad = α . Tipo II: H0 es falsa y la aceptamos, rechazando H1, que es verdadera. Probabilidad = β.
Alternativas H0 es verdadera
H1 es verdadera
Rechazar H0 (Aceptar H1)
Error tipo I (Probabilidad = α)
Decisión correcta (Probabilidad = 1 – β)
Rechazar H1 (Aceptar H0)
Decisión correcta (Probabilidad = 1 – α)
Error tipo II (Probabilidad = β)
ESCALA. En general, continuo de medida en el que se puede establecer un orden y situar un conjunto de objetos, sujetos o datos, en virtud del grado en que éstos presentan o manifiestan la variable (psicológica, pedagógica…) que se desea medir. El término escala tiene varias acepciones. Como escala de medida (acepción más generalizada), se dan tantas escalas o niveles como reglas o conjunto de reglas diferentes para la atribución de numerales a la realidad empírica. Algunos utilizan el término escala para referirse a técnicas como el diferencial semántico (véase) o a la metodología «Q» (véase), que unos incluyen en el marco de las escalas de actitudes (véase) y otros dentro de las escalas de estimación (véase). También se mencionan las escalas de valores (véase). En el ámbito psicopedagógico, las escalas son instrumentos de medida y de evaluación que ayudan a percibir y valorar de un modo más objetivo y sistemático diferentes fenómenos de su ámbito (hechos, comportamientos, aprendizajes, etc.) que generalmente sólo se pueden detectar a través de la observación. Existen diferentes tipos de escalas: numéricas, gráficas, nominales, descriptivas, de actitudes, de producción, de valoración, etc.
Escala cuya finalidad consiste en situar al individuo en cierto lugar de un continuo de concordancia de la actitud en cuestión. La actitud aquí es entendida como una predisposición organizada para pensar, sentir, percibir y comportarse en cierta forma ante un referente o un objeto cognoscitivo. Es una estructura estable de creencias que predispone al individuo a comportarse selectivamente ante referentes acti-
ESCALA DE ACTITUDES.
129
ESCALA D
tudinales. (El referente es una categoría, una clase o conjunto de fenómenos: objetos físicos, acontecimientos, conductas e incluso construcciones hipotéticas). (Kerlinger, 1975, 348). Escala que consta de un número relativamente pequeño de reactivos homogéneos, que supuestamente son unidimensionales (véase: Escala unidimensional). Sus elementos están relacionados unos con otros por bloques, de forma que, en condiciones normales, el acuerdo con uno de ellos implica el acuerdo con los anteriores, o los siguientes, según el tipo de ordenación. La puntuación total de cada sujeto es la suma de las puntuaciones de cada uno de los elementos con los que se muestra de acuerdo.
ESCALA ACUMULATIVA (de Guttman).
Escala de clasificaciones sumadas (véase).
ESCALA ADITIVA.
Escala de valoración formada por un enunciado y un conjunto de categorías que pueden o no estar ordenadas.
ESCALA DE CATEGORÍAS.
ESCALA CEEB. La Escala CEEB (College Entrance Examination Board) es la que se basa en la escala T (véase) a la que multiplica por 10, por lo que tiene como media 500 y desviación típica 100. Puntuación CEEB = 500 + 100z Ejemplo: Con una z = 1,83, transformada en puntuaciones derivadas T y CEEB, tendríamos:
T = 50 + 10 · 1,83 = 68,3 CEEB = 500 + 100 · 1,83 = 683 En esta escala se evitan «decimales» cuando la z correspondiente tiene uno o dos, además de obviarse los resultados «negativos», ventaja que hereda de la escala T, siempre que z > –5, ya que esta escala T pone el 0 en un lugar equivalente a z = – 5 ESCALA CENTIL.
(Véase: Percentil).
ESCALA DE CLASIFICACIONES SUMADAS. Conjunto de preguntas sobre «actitudes» a las que se supone de manera aproximada el mismo valor actitudinal. Los sujetos responden a cada una de esas preguntas reflejando su grado de acuerdo o desacuerdo. Una de sus variedades es la escala Likert (véase). ESCALA DE COCIENTE. ESCALA CUANTIL.
Escala de razón (véase).
(Véase: Cuantil).
Es la escala S (véase), denominación preferible a escala D, ya que en diversas publicaciones y manuales la escala D se identifica como escala de dogmatismo (véase). ESCALA D.
130
ESCALA D
Escala del dogmatismo, relacionada con la escala F (véase), ideada por Rokeach, que supuestamente mide el grado de apertura y de inmutabilidad de los sistemas de creencias de los individuos, así como su intolerancia y su autoritarismo. Es una escala de clasificaciones sumadas (véase), en la que Rokeach, con el método deductivo, estudió las características de sistemas abiertos y cerrados de creencias, y luego elaboró reactivos para descubrirlas. En su medición del «dogmatismo», de derecha y de izquierda, Rokeach muestra un intento serio y ambicioso de medir variables importantes que son complejas, con bastante éxito según parece.
ESCALA D (dogmatismo).
Técnica sociométrica que describe y mide las relaciones sociales o el tono social del grupo y la popularidad o impopularidad de los sujetos individualmente considerados. Es muy similar al sociograma, tanto en la elaboración de la prueba, como en la aplicación y en la interpretación.
ESCALA DE DISTANCIA SOCIAL.
Escala relacionada con la escala F (véase) y realizada por Adorno para intentar medir el etnocentrismo, es decir, medir más directamente las actitudes prejuiciadas, dado que la escala F mide el etnocentrismo de forma indirecta. El etnocentrismo es la tendencia emocional que hace de la cultura propia el criterio exclusivo para interpretar los comportamientos de otros grupos, razas o sociedades. ESCALA E (etnocentrismo).
ESCALA DE ENEATIPOS.
(Véase: Eneatipos).
ESCALA F (autoritarismo). Escala diseñada para medir el autoritarismo (inicialmente, F significó «Fascismo»). Es utilizada como medida de la personalidad y de actitudes, ya que mide actitudes generales o grupos de valores, así como rasgos de la personalidad. Subraya el autoritarismo de la derecha. Es una escala de clasificaciones sumadas, donde los sujetos deben contestar a varias afirmaciones generales, normalmente 29 ó 30. La escala F ha caído en descrédito a causa de las críticas de sociólogos y psicólogos, en el sentido de que no resiste una aplicación rigurosa de los criterios de validez. Sin embargo, pese a su limitación, hay datos que revelan ser satisfactorias su concepción teórica y su elaboración como medida del autoritarismo. Se han diseñado varias escalas relacionadas con la escala F: escala E (véase), escala D (véase) y escala O (véase).
Tipo de escala que intenta lograr una medición elevada de las actitudes a escala de intervalos aparentemente iguales (intervalos constantes). Se fundamenta en principios
ESCALA DE INTERVALO CONSTANTE, de Thurstone.
131
ESCALA LIKERT
distintos a los de las escalas de clasificaciones sumadas y las escalas acumulativas. En esta escala es destacable la importante tarea de dar «dimensión» a las preguntas (ítems): a cada reactivo se le asigna un valor escalar que indica la fuerza de una actitud en una contestación de acuerdo. El universo de reactivos es considerado como un conjunto ordenado; es decir, difieren en su valor escalar. Además, los reactivos de la escala utilizada se eligen de forma que los intervalos sean iguales, característica psicométrica deseable por su importancia. Esta escala representa el intento más elaborado de superar el nivel ordinal de medición de las actitudes, al procurar que los ítems constituyan una escala ordenada de igual distancia entre cada dos elementos consecutivos (Kerlinger, 1975, 349). ESCALA DE INTERVALOS. Escala o nivel de medición en la que la unidad de medida es constante, lo que permite que los sujetos no sólo puedan ser ordenados, sino asignados a números reales, de tal manera que unas diferencias iguales entre los números asignados a dichos sujetos reflejan diferencias idénticas en la cuantía de los atributos medidos. Su unidad se basa, por consiguiente, en una igualdad de diferencia. Son verificables empíricamente igualdad-desigualdad y orden.; y, además, se puede comprobar cuántas veces queda contenida una unidad empírica, elegida arbitrariamente, dentro de la diferencia entre dos modalidades. El punto cero (0) de la escala es arbitrario y no indica ausencia del atributo. También es arbitraria la unidad de medida. A las relaciones de equivalencia y de mayor a menor añade la de proporción conocida entre dos intervalos cualesquiera. Se trata, pues, de una escala de medida con origen arbitrario e igual distancia entre sus unidades, de suerte que los números asignados a los objetos se pueden sumar y restar; asimismo, las diferencias entre esos números se pueden multiplicar y dividir. Soporta cualquier transformación lineal del tipo y = ax + b, con a > 0 y b ≠ 0. Los estadísticos paramétricos comunes, como la media, la desviación típica, los coeficientes de correlación de Pearson y las pruebas paramétricas más conocidas, como la t o la F, se aplican a datos medidos en este tipo de escala. ESCALA DE INTERVALOS de apariencia igual.
Escala de intervalo constante
(véase). Escala de categorías ordenadas que refleja o denota el grado de acuerdo o desacuerdo con la afirmación contenida en los enunciados de los ítems. Es una variedad de las escalas de clasificaciones sumadas, que consisten en un conjunto de preguntas sobre actitudes que, según se supone, tienen de manera aproximada el mismo «valor actitudinal» y a las que los ESCALA LIKERT.
ESCALA DE MEDIDA
132
sujetos responden en grados diversos de acuerdo o desacuerdo. La puntuación de las actitudes de un individuo se calcula sumando las puntuaciones de las preguntas formuladas en cada escala, o se suman y se promedian. El objetivo es situar al individuo en cierto lugar de un continuo de concordancia de la actitud en cuestión. Características más importantes de estas escalas de clasificaciones sumadas: a) las preguntas (ítems) son una serie de reactivos que tienen igual «valor actitudinal»; b) estas escalas permiten la expresión de «intensidad» de la actitud. ESCALA DE MEDIDA. Conjunto de modalidades (distintas) y de números (distintos) relacionados biunívocamente. Es decir, a cada modalidad le corresponde un solo número y a cada número una sola modalidad. Tendremos uno u otro tipo de escala, según que sean verificables empíricamente más o menos relaciones entre las modalidades que forman parte de la escala. De acuerdo con este criterio, se distinguen cuatro tipos de escalas: a) nominal: sólo es verificable empíricamente la igualdad-desigualdad. b) ordinal: son verificables empíricamente igualdad-desigualdad y orden. c) de intervalos: son verificables empíricamente igualdad-desigualdad y orden. Podemos, además, comprobar cuántas veces queda contenida una unidad empírica, elegida arbitrariamente, dentro de la diferencia entre dos modalidades. d) de razón: son verificables empíricamente igualdad-desigualdad y orden. Además de poder comprobar empíricamente cuántas veces queda contenida una unidad empírica, elegida arbitrariamente, dentro de la diferencia entre dos modalidades, podemos también comprobar cuántas veces una modalidad cualquiera contiene dicha unidad empírica. Esta escala se denomina también de cociente o de proporción. (Amón, 19846, t. 1, 35). Las escalas de medida frecuentemente reciben la denominación de niveles de medida (véase) o de medición.
Escala de medida en la que sólo es verificable empíricamente la igualdad-desigualdad. Los números y símbolos se utilizan para distinguir entre sí los grupos a que pertenecen varios objetos o sujetos. Se clasifican los objetos o sujetos y las clases se numeran. La relación es la de equivalencia. Esto es, los objetos o miembros de cualquier clase deben ser equivalentes en la propiedad medida. En esta escala de medida los números se asignan a los objetos o sujetos con el
ESCALA NOMINAL.
133
ESCALA DE PENTAS
único fin de designarlos o clasificarlos en grupos o subgrupos, atendiendo a conceptos determinados (p.e: sexo, raza, estado civil, nivel socio-económico, nivel académico, etc.), no para indicar orden o magnitud, sino simplemente para nombrarlos o denominarlos, siendo la transformación uno a uno la única que soporta este tipo de escala. Sus estadísticos son la frecuencia, el modo y el coeficiente de contingencia. • Pruebas no paramétricas que utilizan datos nominales son, por ejemplo, la binomial, la χ2 y la de McNemar; en ellas los datos son meras agrupaciones de frecuencias obtenidas según cierta clasificación. Escala de obstinación, relacionada con la escala F (véase), ideada por Rokeach, es una escala de clasificaciones sumadas (véase). Mide la intolerancia general. Su estructura se basa en el método deductivo: Rokeach formuló sus escalas (la D de dogmatismo y ésta de obstinación) estudiando las características de sistemas abiertos y cerrados de creencias y luego elaboró reactivos para descubrirlas.
ESCALA O (obstinación).
Escala de medida en que sólo son verificables empíricamente la igualdad-desigualdad y el orden. Se diferencia de la escala nominal, fundamentalmente, en que a la relación de equivalencia incorpora la de mayor a menor. Es decir, en ella los números asignados a los objetos o sujetos reflejan la cuantía de los atributos que los objetos o sujetos poseen, sin que ello signifique que a diferencias iguales entre los números correspondan diferencias iguales en la cuantía de los atributos (las unidades de medida no son iguales, es decir, no hay unidad constante de medida). Los números asignados a los objetos o sujetos permiten decidir si un objeto o sujeto posee en mayor grado que otro la característica medida. Por tanto, en esta escala los elementos (objetos o sujetos) medidos están colocados por orden de tamaño —por rangos—, pero sin unidades iguales ni cero verdadero o absoluto. Soporta cualquier tipo de transformación monótona creciente. La mayoría de las escalas de medición psico-pedagógica son de esta clase (por ejemplo: puntuaciones de un test de inteligencia, calificaciones escolares obtenidas mediante pruebas no objetivas, etc.). • La mayor parte de las pruebas no paramétricas utilizan este tipo de datos. Algunas de ellas, como la «prueba de los signos», requieren que los datos tengan como base una distribución continua, aunque se midan en categorías discretas. Hay estadísticos propios del nivel ordinal, como la mediana o el coeficiente de correlación de Spearman.
ESCALA ORDINAL.
ESCALA DE PENTAS.
(Véase: Pentas).
134
ESCALA DE PROPORCIÓN ESCALA DE PROPORCIÓN.
Escala de razón (véase).
ESCALA DE RAZÓN. También denominada escala de cociente o de proporción, la escala de razón tiene todas las características de la escala de intervalo y cuenta además con un punto cero real (absoluto) que indica ausencia del atributo medido. En ella son verificables empíricamente igualdad-desigualdad y orden. Además de poder comprobar empíricamente cuántas veces queda contenida una unidad empírica, elegida arbitrariamente, dentro de la diferencia entre dos modalidades, podemos también comprobar cuántas veces una modalidad cualquiera contiene dicha unidad empírica. La escala de razón obedece, por tanto, al criterio de relación. Establece una distribución por equivalencia relativa (con una unidad: cm., minuto, segundo…, etc.) o entre los datos (razón o cociente de los mismos). Esta escala de medida, con origen absoluto e igual distancia entre sus unidades, admite y hace posible que los números asignados a los objetos se puedan sumar, restar, multiplicar y dividir. Además, soporta cualquier transformación del tipo y = ax, donde a > 0. En esta escala los números asignados a los objetos son números «verdaderos» con un verdadero cero; lo único arbitrario es la unidad de medida. En cambio, un cero en una prueba de inteligencia no significa ausencia de inteligencia sino cero puntos en una prueba determinada. Con este tipo de medida se puede usar cualquier prueba estadística, pero no puede obtenerse en aquellas variables que son relevantes para su estudio científico en investigaciones de psicología y educación.
Escala derivada de la escala típica lineal (la de puntuaciones z) que obvia los inconvenientes de ésta (valores con decimales y valores negativos) al tener como media 50 y desviación típica 20. Dada una puntuación z cualquiera, es fácil transformarla en su valor S correspondiente mediante esta sencilla ecuación: S = 50 + 20z. – Por ejemplo, un sujeto que en una distribución con X = 25 y sx = 6 obtenga una Xi = 37, tendrá:
ESCALA S.
z = (37 – 25) : 6 = 2 Por lo tanto: S = 50 + 20 · 2 = 90 Sin embargo, se suele preferir la escala T (véase), porque la escala S puede también volver a tener los inconvenientes de la escala z cuando se dan Xi muy desviadas de la media. Por ejemplo, en el caso anterior, si Xi = 1, ocurriría: z = (1 – 25) : 6 = – 4 S = 50 + 20 · (– 4) = – 30
135
ESCALA DE VALORACIÓN
La escala S sitúa el 0 a la altura de – 2,5z, por lo que cualquier valor Xi al que corresponda una z < – 2,5 dará lugar a puntuaciones S negativas. Por el contrario, T pone el 0 en un lugar equivalente a z = – 5, con lo que sólo aparecerán los números negativos en caso de Xi cuya z < – 5, lo que no suele acontecer. Sin embargo, con estas transformaciones únicamente se evitan los «decimales», si las correspondientes z sólo tienen uno; pero cuando tienen dos decimales (por ejemplo, z = 1,83), sigue apareciendo un decimal al transformar z en S o T: S = 50 + 20 · 1,83 = 50 + 36,6 = 86,6 T = 50 + 10 · 1,83 = 50 + 18,3 = 68,3 Por ello se han ideado otras escalas que los evitan de raíz. Tal es el caso de la escala CEEB (véase). Escala derivada de la escala típica lineal (la de puntuaciones z), pero con media 50 y desviación típica 10. Se suele utilizar para obviar los inconvenientes de la escala z, que tiene valores no sólo positivos, sino también negativos y asimismo decimales en ambos casos. Dada una puntuación z cualquiera, es fácil su conversión en valor T correspondiente mediante esta sencilla ecuación: T = 50 + 10z. Por ejemplo, un – sujeto que en una distribución con X = 25 y s = 6 obtenga una Xi = 37, tendrá: z = (37 – 25) : 6 = 2 T = 50 + 10 · 2 = 70 Se suele preferir esta escala T a la escala S (véase) para evitar en esta última los valores «negativos», cuando se dan Xi muy desviados de la media, siempre que z > – 5, ya que la escala T pone el 0 en un lugar equivalente a z = – 5. No obstante, con las transformaciones a ambas escalas únicamente se evitan los «decimales» si las correspondientes z sólo tienen uno; pero cuando tienen dos decimales (por ejemplo z = 1,83), sigue apareciendo un decimal al transformar z en S o T: S = 50 + 20 · 1,83 = 50 + 36,6 = 86,6 T = 50 + 10 · 1,83 = 50 + 18,3 = 68,3 Por este motivo se han ideado otras escalas, como la escala CEEB (véase), que evitan de raíz la aparición de decimales. ESCALA T.
Escala que mide una variable y solamente una. Su denominación obedece a la relación acumulativa entre reactivos y puntuaciones totales de los sujetos.
ESCALA UNIDIMENSIONAL.
ESCALA DE VALORACIÓN. Prueba no cognitiva formada por ítems de respuesta cerrada. Es un medio para que el examinador registre el juicio que
ESCALA DE VALORES
136
ha formado de un sujeto (o de sí mismo) sobre la base de unos rasgos definidos por la escala. ESCALA DE VALORES. Escala en la que se expresa preferencia por determinados modos de conducta y estados finales de existencia (valores). Los valores son, en parte, fruto del ambiente cultural y denotan preferencia por cosas, ideas, personas, instituciones y conductas. Dicho de forma sencilla, los valores expresan lo «bueno», lo «malo», los «imperativos» de la conducta humana. Someten ideas, conductas… a un continuo de aprobación-desaprobación. Palabras como paz, felicidad, igualdad, libertad, sabiduría designan valores. (Kerlinger, 1975). Es conocida la escala valorativa de Allport-Vernon: Estudio de valores. ESCALAMIENTO.
(Véase: Medición).
ESCALAR. Convertir las puntuaciones directas o datos brutos en otros más fácilmente interpretables (centiles, rangos, etc.)
Escalas de estimación (como también las denominan varios autores) que, si bien son similares a las «listas de control», se diferencian de éstas en que son instrumentos que no sólo indican la presencia de un rasgo a observar, sino que además disponen de una escala para que se señale sobre la misma el grado o la medida en que dicho rasgo aparece a los ojos del observador. Al señalar la intensidad se agrega a la observación una nueva dificultad: emitir un juicio. Las escalas de calificación pueden ser: escalas numéricas, escalas gráficas y escalas descriptivas (véanse). ESCALAS DE CALIFICACIÓN.
ESCALAS DESCRIPTIVAS. Escalas de calificación (véanse) en que, a través de diversas categorías, se describen sucintamente, pero del modo más exacto posible, la característica o el rasgo que se observa. Estas escalas son más recomendables que las numéricas y las gráficas (véanse), puesto que la descripción del rasgo o característica evita que el observador les asigne un significado personal. Ejemplo adjunto (tomado de Lafourcade, 1972, 167-168): Consigna. Debajo de cada rasgo figura una serie de categorías representadas por breves descripciones de las conductas docentes. Señale la categoría que, según su juicio crítico objetivamente expuesto, corresponde a la realidad verificada. (Sólo se describe un rasgo como ejemplo). Sentido de la cooperación. Capacidad para trabajar en equipo con compañeros y superiores:
137
ESCALOGRAMA
Siempre dispuesto a prestar su ayuda desinteresada para el logro de objetivos vinculados a su labor docente. Superpone el éxito del trabajo colectivo al suyo personal. 10
Evidencia conformidad al integrar grupos de trabajo.
9
Coopera, pero Prefiere trabasin mayor es- jar solo. fuerzo y sin mostrar mucha voluntad en ello.
8 7
6 5
4
3
No presta ni permite ayuda. Evita todo trabajo en común.
2
1
0
ESCALAS DE ESTIMACIÓN. Forma de registro de la observación sistemática — entre las de mayor uso y utilidad — cuya característica es la inclusión de una valoración en intensidad del rasgo a estudiar. Las escalas de estimación pueden ser de tipo numérico, gráfico o descriptivo. Se identifican con las escalas de calificación (véase), denominación preferida por varios autores. ESCALAS GRÁFICAS. Escalas de calificación (véanse) en que el rasgo o característica es seguido por una línea horizontal, sobre la cual se señala la categoría advertida por el observador. Ejemplo: «Grado de puntualidad en la asistencia a clase de un alumno».
5
4
3
2
1
Siempre
Generalmente
A veces
Raras veces
Nunca
0
Es necesario precisar qué significan para diversos observadores términos como «siempre», «generalmente», etc. ESCALAS NUMÉRICAS. Escalas de calificación (véanse) en que puede ser apreciada o estimada la intensidad del rasgo observado mediante grados representados por números cuya significación (previamente reconocida) se mantiene constante a lo largo de todas las características o rasgos seleccionados. La clave, por ejemplo, puede ser: 5. Excelente; 4. Muy bueno; 3. Bueno; 2. Regular; 1. Deficiente. Pero, para que su uso proporcione informaciones fiables, se deberá describir muy claramente qué se entiende por «excelente», «muy bueno», etc. Sólo así dos o más observadores podrán tener en sus apreciaciones un alto grado de coincidencia.
Escala para valorar las actitudes cualitativamente desfavorables, según el método de Guttman. Está orientada hacia la consecuencia de una escala «pura», en la que el sujeto con una actitud específica que responda favorablemente a cierta cuestión, será favorable a todas las cuestiones menos extremas, y desfavorable respecto a todas las más extremas (Gonzalvo, 1978).
ESCALOGRAMA.
ESPACIO MUESTRAL (E)
138
ESPACIO MUESTRAL (E). Conjunto de todos los casos posibles o conjunto de todos los resultados posibles de un experimento aleatorio. Se distinguen tres tipos de espacios muestrales: a) Espacio muestral discreto finito: el que consta de un número finito de elementos. P. ej., lanzamiento al aire de dados con puntos rojos y negros. b) Espacio muestral discreto infinito: el que consta de un número infinito numerable de elementos, es decir, tal que sus elementos pueden ser puestos en correspondencia biunívoca con la sucesión de los números naturales. P. ej., lanzamiento de una moneda al aire hasta que salga cara. c) Espacio muestral continuo: el que consta de un número infinito no numerable de elementos, es decir, tal que sus elementos no pueden ser puestos en correspondencia biunívoca con la sucesión de los números naturales. P. ej., lanzar con arco una flecha a diana. (Amón, 19846, 2, 22-23). ESTADÍGRAFO. Valor representativo de una muestra (media, mediana, desviación típica, etc.), relacionado con una característica medible de la misma y obtenido a partir de los datos de dicha muestra. La representatividad de la muestra permite extender dichos valores a la población: «estiman» o son estimadores de los parámetros (véase). Los estadísticos o estadígrafos se simbolizan con letras latinas. (Véanse: Estadístico y Estimador). ESTADÍSTICA. El concepto de Estadística alberga, al menos, tres acepciones distintas: 1. Ciencia (Véase: Estadística, ciencia). 2. Conjunto de datos cuantitativos referidos a una población, a los recursos naturales e industriales, al tráfico de cualquier otra manifestación de las sociedades humanas, etc., (p. ej., estadística del número de alumnos de una Facultad universitaria a lo largo de un quinquenio). 3. Método que permite utilizar los datos recogidos como ayuda en la toma de decisiones. ESTADÍSTICA (Ciencia). Rama de la Matemática que estudia los fenómenos aleatorios (los producidos por azar o ausencia de ley alguna) «apoyándose en una base axiomática que, con los fundamentos lógicos en que se basa y los teoremas que de ella se derivan constituyen la teoría de la probabilidad» (García-Hoz y otro, 1966, 12). El fundamento científico de los trabajos estadísticos es la ley de los grandes números, debida a Bernouilli: cuanto mayor es el número de observaciones, menor es la probabilidad de que el valor observado se aleje significativamente de su valor verdadero. La Estadística —como ciencia
139
ESTADÍSTICA DESCRIPTIVA
que recoge, ordena y analiza los datos de una muestra extraída de cierta población— permite al investigador asignar probabilidades a los valores obtenidos en las muestras para decidir, con cierto grado de seguridad (seguridad probabilitaria), sobre los valores verdaderos o parámetros. Es decir, valiéndose del «cálculo de probabilidades», se encarga de hacer inferencias acerca de la población. Para lo cual proporciona pruebas o contrastes adecuados para la aceptación o no de las hipótesis del investigador. Y ello, porque los fenómenos aleatorios, aunque se manifiestan en un desorden aparente, se rigen a la larga —cuando es elevado el número de observaciones— según leyes de monótona regularidad. (Kerlinger, 1975). Realmente se puede hablar de dos tipos de Estadística: la pura o científica y la aplicada. Ésta, basándose en los principios y leyes elaborados por aquélla, los aplica a muchos campos del saber como instrumento y/o análisis de resultados para la toma de decisiones. En cuanto a sus funciones, destacan la Estadística descriptiva y la inferencial (véanse). La Estadística ha permitido el desarrollo de métodos, técnicas y modelos que facilitan la resolución de problemas y la toma de decisiones. ESTADÍSTICA ANALÍTICA.
Estadística descriptiva (véase).
Parte de la Estadística que se limita a recoger, ordenar y analizar los datos de una muestra, es decir, se limita a describir la muestra. Compendia o simplifica afirmaciones referentes a medidas realizadas sobre una población. Se aplica, en sentido amplio, a muestras que representan poblaciones a las que debería referirse en sentido estricto. Sirve para la descripción numérica de un grupo particular. Ninguna conclusión va más allá del grupo descrito, y cualquier similitud con los de fuera del grupo no puede ser garantizada. Los datos describen este grupo y solamente éste. A la Estadística descriptiva le corresponden los procesos estadísticos que se realizan con los datos empíricos, tomados, recogidos o/y medidos en las muestras. Generalmente concluye su misión en la determinación de ciertos valores numéricos, denominados estadísticos o estadígrafos (véanse), cada uno de los cuales pone de relieve una característica del grupo estudiado. La interpretación de estos valores suele quedar limitada a la comparación con otros valores obtenidos en muestras similares, pero viene a decir poco en torno a su aplicación a los conjuntos que interesan al investigador, y a la persona encargada de la toma de decisiones. Pretende, en definitiva, la descripción de características relevantes propias de un conjunto de datos, por lo general de lo que se conoce como muestras (subconjunto, que se pretende representativo de la población total de casos).
ESTADÍSTICA DESCRIPTIVA.
ESTADÍSTICA DE DISTRIBUCIÓN LIBRE
140
La Estadística descriptiva es un «instrumento de investigación, no producto final de ésta» (Van Dalen). ESTADÍSTICA DE DISTRIBUCIÓN LIBRE.
(Véase: Estadística no paramétrica).
Parte de la Estadística que, basándose en el cálculo de probabilidades, se ocupa de hacer inferencias acerca de la población a partir de los datos obtenidos en las muestras, siempre que éstas sean representativas y extraídas de dicha población. Consiste, por tanto, en el proceso de extensión de los resultados obtenidos en las muestras a las poblaciones de las que aquéllas fueron extraídas. Este proceso de inferencia, esto es, de generalización de los resultados a la población, a partir de los obtenidos en las muestras, requiere como «conditio sine qua non», la suficiencia y representatividad de dichas muestras. Ahora bien, para inferir o transformar un conocimiento acerca de una realidad concreta en un conocimiento universal, es necesario contar con que cualquier estimación de los valores de la población (parámetros), a partir de los obtenidos en las muestras (estadísticos), vendrá afectada por errores de tipo aleatorio, surgidos de la selección de las muestras —errores muestrales—. Tales errores vienen a afectar a los valores empíricamente alcanzados en las muestras, y es la teoría de la probabilidad la que nos permite determinar los márgenes entre los que cabe esperar que se encuentren los parámetros, con ciertos niveles de confianza, mas nunca el verdadero valor o parámetro. Al contener cualquier muestra cierto margen de error, lo que la inferencia estadística pone a disposición del investigador es la posibilidad de indicar las probabilidades de que ocurra determinado evento simplemente en función de la casualidad o las fluctuaciones muestrales. Como dice acertadamente Kerlinger (1975), inferir estadísticamente significa sacar conclusiones probabilísticas. Así, pues, obsérvese que no se trata de inferir características de la población frente a las características de la muestra; se trata de inferir una consistencia de los resultados frente a la probabilidad de su ocurrencia, bajo la suposición de que, habiendo sólo interferencias aleatorias, la probabilidad de que esos resultados se encuentren empíricamente es alta o baja. Además de la función estimadora de parámetros, la Estadística inferencial nos permite poner a prueba determinadas hipótesis acerca de aquéllos, tales como que las medias aritméticas de dos o más grupos sean diferentes, que la variabilidad de un grupo sea superior o inferior a la de otro, que exista o no correlación entre dos series de datos, etc. En definitiva, la Estadística inferencial, al informarnos sobre los valores de la población —parámetros—, permite conocer el hecho objeto de estudio en marcos amplios, resolver y establecer hipótesis, plantear leyes ESTADÍSTICA INFERENCIAL.
141
ESTADÍSTICO
y tomar decisiones con suficiente conocimiento de causa y, lo que es de enorme importancia, evaluar los márgenes de error que afectan a nuestras afirmaciones (nivel de significación). (Gª Hoz-Ferrer, 1966; Kerlinger, 1975; Pérez Juste, 1983, t. 1; Rodrigues, A., 1980). ESTADÍSTICA NO PARAMÉTRICA. Como sinónimo de estadística de distribución libre, es aquella que se calcula sin suponer la concurrencia de una distribución subyacente. Las fórmulas correspondientes de tratamiento estadístico utilizan datos de nivel de medida nominal y ordinal. (Véase: Pruebas no paramétricas).
La que, a diferencia de la «no paramétrica», en el tratamiento de los datos se basa en ciertos supuestos acerca de la naturaleza de la distribución y los tipos de medidas utilizadas (distribución normal y medidas de nivel intervalo o de razón), además de otras condiciones, como la independencia de los datos y la homogeneidad de varianzas. Utiliza, por consiguiente, tratamiento estadístico a base de pruebas paramétricas (véase), que exigen los supuestos indicados, pero que son más sensibles y oscurecen menos las relaciones significativas de los datos; es decir, son más potentes para rechazar hipótesis nulas falsas.
ESTADÍSTICA PARAMÉTRICA.
Procedimiento didáctico utilizado para el aprendizaje de la introducción a la metodología estadística, según los principios de la enseñanza programada.
ESTADÍSTICA PROGRAMADA.
Es «toda función definida sobre los valores numéricos de una muestra» (Amón, 19846, 1, 40). También llamado estadígrafo o estimador, es el valor que representa o mide una característica de una muestra, y que es obtenido a partir de los datos de esa muestra. Intenta representar el valor verdadero del parámetro de una población. Los estadísticos, por tanto, describen muestras y se simbolizan me– diante letras latinas (X = media; s2x = varianza; r = correlación). Los valores o estadísticos que se obtienen por tratamiento de los elementos muestrales (datos muestrales), tales como las medidas de posición o de variabilidad, cambian normalmente de muestra a muestra, mientras que los parámetros (véase) poseen valores fijos. Si las muestras son grandes y elegidas aleatoriamente, cabe esperar que las diferencias en sus estadísticos sean menores que si son pequeñas y/o no aleatorias. Describen la conducta referida a las características de un grupo —población— deducidas de cierto número de casos individuales. El estadígrafo (o estadístico) se refiere a la muestra y no tiene validez hasta que se combinan cierto número de observaciones y medidas individuales, posibilitando generalizaciones, reglas, principios o leyes. Cuando el estadístico adquiere validez y es aceptado, se denomina parámetro. Las expreESTADÍSTICO.
142
ESTÁNDARES
siones «alumno medio», «adolescente típico», «edad media»..., son conceptos estadísticos y, como características de grupo, pueden ser expresados en medidas de edad, tamaño u otro rasgo capaz de ser descrito numéricamente. La representatividad de la muestra permite extender dichos valores a la población (o universo). Es decir, puede entenderse que los estadísticos pretenden representar a sus correspondientes parámetros, o, en términos técnicos, los estadísticos son estimadores de los parámetros. ESTÁNDARES (evaluación de programas).
(Véase: Evaluación de programas:
estándares). ESTANDARIZACIÓN. ESTANINOS.
Tipificación (véase).
Eneatipos (véase).
ESTIMACIÓN. En la metodología de investigación, dícese del acto de atribuir valores no medidos a una realidad a partir de otros que sí lo han sido. Así, se habla de estimación refiriéndose al valor estadístico para el cálculo del parámetro (valor poblacional) a partir del valor muestral. Fundamentalmente, caben dos situaciones: 1) atribuir valor o valores a la realidad estudiada en todo su conjunto, a partir de unos valores medidos en un subconjunto (muestra); 2) cuando se da correlación entre dos o más variables y se desea estimar uno o varios valores en una de ellas (criterio) a partir de los alcanzados en otra u otras (predictores). (Véanse: Estimación puntual y Estimación de intervalos). ESTIMACIÓN, coeficiente de. Coeficiente de regresión. (Véanse: Regresión y Ecuación de regresión). ESTIMACIÓN, ecuación de.
Ecuación de regresión (véase).
ESTIMACIÓN, error típico de.
(Véase: Error típico de un estadístico).
Es aquella que, al estimar un parámetro, no da un valor único para éste, sino un conjunto de valores, entre los cuales se espera se encuentre el verdadero valor del parámetro en estudio, con una probabilidad conocida. Ej.: Si se toman varias muestras, todas del mismo tamaño (n = 100) de alumnos de Secundaria y se estima que la media de horas de estudio de la población de Secundaria oscila entre 3 horas (media más baja de las muestras) y 5 horas (media más alta), sin poder precisar más, este intervalo —cuyo límite inferior es 3 y el superior 5— marca un tramo o segmento en el continuum de la escala numérica, uno de cuyos puntos se espera coincida con el valor de µ (media de la población de Secundaria). ESTIMACIÓN DE INTERVALOS.
143
ESTIMADOR
Se trata de un intervalo de confianza (véase) o intervalo de probabilidad: probabilidad de que incluya dentro de sus límites el valor del parámetro. El coeficiente o nivel de confianza es la probabilidad, antes de extraer una muestra particular, de que un intervalo escogido al azar, de entre los múltiples intervalos de la distribución, capte el valor del parámetro. Según se parta, por ejemplo, de una media muestral única o de la diferencia entre dos medias muestrales —y siempre fijando de antemano el nivel de confianza (N.C.) de la estimación, que generalmente en ciencias sociales suele ser de 0,95 ó 0,99 — se procede a la estimación de intervalos. Para ello, se resta y se suma al estadístico o estimador (media única o diferencia de medias) el producto de los valores críticos (ver en tabla de distribución normal: para 0,95 es 1,96 y para 0,99 es 2,58) por el error típico del estadístico en cuestión. (Véanse: Error típico de un estadístico y error típico de la media). Es aquella estimación (estadístico o estadígrafo) que considera un único valor como estimación del parámetro. Ej.: si se desea conocer la media de horas que estudian los alumnos de Secundaria, se elige aleatoriamente una muestra de alumnos (p. ej., – n = 300) y se calcula la media (p. ej., X = 3,5 horas). El 3,5 representa un solo punto en la escala numérica y es, por ello, una estimación puntual de µ (media de la población). La estimación puntual de un parámetro no es muy significativa si no se acompaña de alguna medida del error probable que se comete al realizar la estimación.
ESTIMACIÓN PUNTUAL.
ESTIMADOR. Estadístico o estadígrafo que —como valor descriptivo obtenido empíricamente de una muestra— «estima» el correspondiente valor en la población, valor llamado «parámetro». De otro modo: es el estadístico que permite inferir algo acerca de alguna propiedad o parámetro que interesa conocer. Las propiedades de un buen estimador son: A) Carencia de sesgo, es decir, no tendenciosidad. Un estimador será insesgado cuando el promedio de todos los valores posibles del – mismo sea igual al valor del parámetro. [Así, X (media) será un estimador insesgado de µ, cuando la media de los infinitos valores de – X en infinitas muestras aleatorias de la misma población equivalga a µ; algo que también ocurrirá con la Md (mediana) y con la Mo (moda) si las infinitas muestras de la distribución muestral de estos estadísticos se extraen de una población normal]. El sesgo negativo desaparece a medida que n tiende a infinito. B) Consistencia, en la medida en que, al aumentar el tamaño de la muestra (n), el valor del estimador se acerca más y más al paráme-
ESTIMADOR CONSISTENTE
144
tro. Es decir, si a medida que n se aproxima a N poblacional, la probabilidad de que el estimador sea próximo al parámetro tiende a 1. C) Eficiencia relativa o grado de precisión que alcanza el estadístico en la estimación del parámetro. Esta propiedad indica que se deben preferir los estimadores que tengan la mínima varianza. Es decir, un buen estimador muestral es el que posee un menor error típico para n dado. Y así, dados dos estadísticos, uno es tanto más eficiente cuanto menor sea el intervalo de confianza creado para captar el parámetro (en igualdad de tamaño de la muestra). En líneas generales, – entre las medidas de posición, el mejor estimador es la X (media), seguido de Md (mediana) y éste de Mo (moda). En variabilidad, s y s2, mejor que DM (desviación media) respecto de Md, o que EP (error probable). Ahora bien, un estadístico puede alcanzar el mismo grado de eficiencia que otro, elevando el valor de n o tamaño de la muestra. (G.a Hoz-Pérez Juste, 1984; Jiménez et el., 1983). D) Suficiencia. Un estimador será denominado «suficiente», si él solo basta para estimar el parámetro; o sea, si agota toda la información que existe en la muestra en orden a estimar el parámetro en cuestión. ESTIMADOR CONSISTENTE. Es aquel estimador que, a medida que aumenta el tamaño de la muestra (n) su valor se acerca más y más al parámetro. Es decir, si a medida que n muestral se aproxima a N poblacional, la probabilidad de que su valor sea próximo al parámetro tiende a 1.
Característica de un estimador que debe entenderse como grado de precisión que alcanza en la estimación del parámetro. Indica que se deben preferir los estimadores que tengan la mínima varianza. Un buen estimador muestral es aquel que tiene un menor error típico para n dado.
ESTIMADOR EFICIENTE.
Propiedad de un estimador que no tiene sesgo o tendenciosidad. Es el estadístico o estadígrafo cuyo promedio de todos los valores posibles del mismo es igual al valor del parámetro. Es decir, aquel estadístico cuya distribución muestral es igual al valor del parámetro. Evidentemente no sólo interesa que el estimador sea insesgado, sino, además, que tenga mínima varianza. A medida que n tiende a infinito, el sesgo negativo desaparece. ESTIMADOR INSESGADO.
Leyes que permiten predecir en términos de probabilidad y con un margen de error, por mínimo que sea, para la generalidad de un grupo o de un conjunto de fenómenos o elementos, pero no para cada uno de los individuos o elementos que lo forman. Como adjetivo, «estocástico», por su etimología griega, significa «hábil en conjeturar». El D.R.A.E. lo define como «perteneciente o relativo al
ESTOCÁSTICAS, leyes.
145
ESTRUCTURA SIMPLE
azar». De ahí que las leyes estocásticas no se puedan expresar en términos de certeza, sino en términos probabilísticos, porque se mueven en el terreno del azar. (Del griego «stochastikós» = conjeturado, hábil en conjeturar). Perteneciente o relativo al azar. Teoría estadística de los procesos cuya evolución en el tiempo es aleatoria (tal, por ejemplo, como la secuencia de las tiradas de un dado o de una moneda sin defecto). Se trata del proceso formado por un conjunto de funciones del tiempo tales que el conjunto puede caracterizarse mediante propiedades estadísticas. Las expresiones «proceso estocástico» y «proceso aleatorio» son sinónimas y cubren prácticamente toda la teoría de probabilidades, desde el lanzamiento al aire de monedas hasta el análisis armónico. En la práctica, la expresión «proceso estocástico» ha quedado restringida al caso en que el tiempo interviene como parámetro, de acuerdo con el concepto apuntado.
ESTOCÁSTICO.
Proceso de agrupación de elementos que componen una población o universo en grupos homogéneos denominados estratos (véase), como paso previo al muestreo estratificado (véase), lo que supone una mejora de la representatividad de la muestra respecto de la/s variable/s o característica/s utilizada/s para la estratificación. La estratificación permite garantizar la presencia de diferentes grupos en la muestra, sobre todo cuando se trata de poblaciones no homogéneas, de tal suerte que los aspectos más significativos de la población estén representados en la muestra.
ESTRATIFICACIÓN.
Subdivisiones del total de la población o universo en subpoblaciones, capas, clases o grupos homogéneos, de los cuales se extrae un cierto número de elementos que se consideran representativos (muestra estratificada). El objetivo es ofrecer información no sólo general, sino diversificada sobre cada uno de los cortes (estratos).
ESTRATOS.
El principio de estructura simple fue formulado por Thurstone (1935) y ha inspirado los métodos de rotación más fundamentales. Este principio exige: 1. Cada variable no debe estar saturada en más de un factor. 2. Cada factor debe tener pocas saturaciones altas y las restantes, próximas a cero. 3. No deben existir factores con la misma distribución de saturaciones. Es decir, dos factores distintos deben presentar saturaciones altas y bajas en diferentes variables. Los tres criterios son formulaciones muy rigurosas y no siempre pueden lograrse en la práctica. Los procedimientos analíticos de rotación orESTRUCTURA SIMPLE.
ESTUDIO
146
togonal (véase: Rotación de factores) han intentado desarrollar matemáticamente los criterios de la estructura simple. Término frecuentemente utilizado para referirse a una investigación concreta en el campo de las Ciencias Sociales.
ESTUDIO.
ESTUDIO DE CAMPO. Modalidad de estudio científico analítico de carácter «ex-post-facto» realizado en el marco de situaciones naturales (comunidades, escuelas, fábricas, organizaciones e instituciones). Pretende descubrir las relaciones e interacciones entre las variables de carácter sociológico, psicológico y pedagógico en las estructuras reales sociales. En un estudio de campo, el investigador observa la situación social o institucional y luego examina las relaciones entre actitudes, valores, percepciones y conductas de los sujetos y de los grupos. Según indica Kerlinger (1975), en un estudio de campo el investigador analiza la situación que se produce en un momento determinado y, a continuación, examina las relaciones que se generan entre las actitudes, los valores, las percepciones y las conductas, tanto de los sujetos de forma individual, como cuando se encuentran integrados en los grupos. Los estudios de campo suelen ser divididos en dos tipos generales: exploratorios y de prueba de hipótesis. ESTUDIO DE CASOS. Estrategia de investigación que se basa en el estudio descriptivo de un sujeto individual o de una situación de la vida real. Esta modalidad investigadora ha cumplido un papel importante en Psicología aplicada, especialmente en los orígenes de la psicología clínica. Desde el enfoque cualitativo de la investigación, el estudio de casos trata de observar en profundidad las peculiaridades de una unidad individual, sea ésta un sujeto, un grupo, una clase, una escuela o una comunidad escolar o social. Su propósito fundamental es probar, de forma profunda y analizar con intensidad el fenómeno social o educativo que configura el denominado ciclo vital de esa unidad, cuya finalidad última debe ser la posibilidad de establecer generalizaciones acerca de una población más amplia, aunque en la mayoría de los casos es cuestionable que lo logre. En conclusión, el estudio de casos se caracteriza por llevar a cabo análisis en profundidad sobre unidades muestrales que pueden ser un sujeto o un grupo social, a través de sus manifestaciones y vivencias personales, cuya finalidad inmediata es la resolución del caso dentro de su contexto social de vida. El estudio de casos es una metodología que establece un marco de discusión y debate, donde el intercambio de ideas respecto de la misma situación que se analiza es extraordinariamente enriquecedor para los participantes. La práctica de esta metodología en equipos de trabajo permite
147
ESTUDIO DE DESARROLLO.
comprender mejor los puntos de vista de los demás que tienen funciones distintas. El conocimiento mutuo, además de favorecer una percepción más objetiva de los demás, elimina tensiones. En síntesis: un estudio de caso es la historia de una situación de la vida real, en un entorno concreto, que ha sido enfrentada por los agentes sociales (ejecutivos) y los usuarios, dentro del contexto ambiental en el que se desenvuelven. Tipo de estudio de casos caracterizado por representar un informe detallado del hecho o fenómeno educativo, pero sin una fundamentación teórica previa. En realidad los estudios de casos de tipo descriptivo vienen a ser un paso previo a la formulación de hipótesis, ya que aportan datos sobre informaciones básicas en determinadas áreas educativas.
ESTUDIO DE CASOS: DESCRIPTIVO.
Estudio de casos consistente en valorar la información para emitir un juicio sobre la misma y, luego, tomar decisiones de mejora en el ámbito estudiado (grupo social, comunidad educativa, etc.) Supone tres operaciones básicas: la descripción, la explicación y el juicio, lo que implica un paso más que el estudio interpretativo en el análisis de la realidad social. Es, por tanto, el estudio más completo, al ofrecer una descripción densa, fundamentada, holística y viva de la realidad, a la vez que simplifica los datos, esclarece los significados y puede comunicar conocimientos implícitos.
ESTUDIO DE CASOS: EVALUATIVO.
ESTUDIO DE CASOS: INTERPRETATIVO. Tipo de estudio de casos que supone un paso más que el descriptivo, ya que los análisis contienen descripciones ricas en detalles y con intensidad. Se caracterizan por su complejidad, profundidad y orientación teórica. Los datos se utilizan para desarrollar categorías conceptuales y contrastar teorías preexistentes. Su nivel de abstracción y conceptualización puede ir desde la simple sugerencia de relaciones entre variables hasta la construcción de una teoría, recurriendo a la inducción. ESTUDIO DE CASOS MÚLTIPLES. Análisis de dos o más sujetos, grupos o situaciones. Esto conlleva mayor complejidad que los estudios de un solo caso o realidad única e irrepetible, por lo que se suele recurrir a enfoques diversos y de mayor rigor. El objetivo se dirige hacia la contrastación de teorías y la posibilidad de llegar a generalizaciones de resultados más allá del propio contexto estudiado. Con este tipo de estudio se busca una mejor comprensión de los casos que a su vez conducirá a un mayor conocimiento teórico, al ser más extensiva la recogida de información.
Modalidad de investigación descriptiva que analiza los hechos y fenómenos sociales, en su proceso temporal, a través de
ESTUDIO DE DESARROLLO.
148
ESTUDIO DESCRIPTIVO
las relaciones e interrelaciones y los cambios que se pueden producir en su contexto de actuación. El objetivo fundamental se dirige a describir el desarrollo que reflejan las distintas variables durante un determinado periodo de tiempo. Estos estudios pueden ser de naturaleza cuantitativa y cualitativa, según enfoque y objetivos a lograr. Los estudios de desarrollo que tienen una mayor presencia en el campo educativo son los estudios transversales (véase: Investigación transversal) y los estudios longitudinales (véase). ESTUDIO DESCRIPTIVO. Estudio diseñado para determinar los valores de las características de una población, ya trabajando con todos los casos de esa población o, de no ser esto posible, con una muestra representativa de dicha población.
Modalidad de investigación descriptiva que se ocupa de analizar el comportamiento de muestras representativas de sujetos, con el fin de descubrir frecuencias y distribuciones de variables sociológicas, psicológicas y pedagógicas que conduzcan a extrapolar los resultados a poblaciones más amplias. Se trata de indagar sobre hechos, fenómenos, opiniones, intereses, motivaciones, actitudes, intenciones, etc., recogiendo información —generalmente a través de preguntas directas— de los sujetos que la poseen, para lograr un conocimiento, lo más completo posible, sobre el problema que se pretende investigar.
ESTUDIO DE ENCUESTA.
ESTUDIO EXPLICATIVO. Estudio cuyo diseño permite descubrir relaciones entre variables, de las que algunas pueden ser relaciones de causalidad. ESTUDIO «EX-POST-FACTO».
Investigación «ex-post-facto» (véase).
Enfoque de investigación que tiene como objetivo evaluar repetidamente, a lo largo del tiempo, a los mismos sujetos. Está en consonancia con el proceso mismo de relación educativa, que se concreta en una serie de intervenciones y de observaciones sobre sus efectos (sean o no duraderos). Puede centrarse en un caso único o en el estudio de un grupo. El estudio intensivo de un grupo de sujetos en distintos momentos de su desarrollo puede ser corto (entre uno y tres años) o largo (5, 10, 20 ó 30 años). Si se le considera como diseño de investigación, estaría próximo al diseño cuasi-experimental, sobre todo al diseño de series temporales. Puede ser longitudinal puro, combinado con estudios transversales, y retrospectivo (aproximándose a los estudios históricos y a los «ex-post-facto»). El análisis de cohorte (véase) es una modalidad específica del estudio de un grupo (o «promoción»). (Pérez Juste, 1985, 103). ESTUDIO LONGITUDINAL.
Modalidad de investigación descriptiva que se caracteriza por el hecho de que el observador contempla de manera in-
ESTUDIO OBSERVACIONAL.
149
ESTUDIOS DE CASO ÚNICO
tencionada —pero sin intervención ni provocación— la realidad (social, educativa, etc.) que se está produciendo en un momento determinado. El observador se limita a constatar y registrar lo que está aconteciendo en un determinado lugar. Para que la observación alcance el preceptivo nivel de rigor y cientificidad, deberá ser rigurosa y sistemática, de forma que se delimiten claramente las propuestas de observación y no algo que se realiza de manera aleatoria y sin control. Estudio que se realiza a pequeña escala con el propósito de probar el funcionamiento de todos los aspectos de una investigación. Incluye los instrumentos y los procedimientos de obtención de datos, así como de su codificación y análisis. El estudio piloto funciona como modelo provisional o con carácter experimental, es decir, como paso previo al estudio en profundidad. En la investigación social permite analizar los comportamientos previsibles y solventar los posibles inconvenientes que se puedan suscitar en una situación dada.
ESTUDIO PILOTO.
Estudio que se centra en el análisis de una realidad única e irrepetible, lo que conlleva la realización de un trabajo exhaustivo sobre el caso particular. Existe la posibilidad de contrastar la información recogida con otras fuentes para ver el grado de congruencia. Esta propuesta se mueve en el campo del diagnóstico individual del sujeto, para orientar en la toma de decisiones terapéuticas que procedan.
ESTUDIO DE UN SOLO CASO.
ESTUDIOS DE CASO ÚNICO. Estudios o investigaciones que se ocupan de un solo individuo o bien de un solo grupo perfectamente identificado, sin tener en cuenta su representatividad. Son característicos de la metodología cualitativa (véase) y — en cuanto que no pretenden alcanzar leyes generales, sino que tratan de comprender el comportamiento del sujeto individual (estudios de particularidades)— de la metodología idiográfica (véase). En esta modalidad se pueden contemplar los diseños N = 1 (véase: Metodología N = 1) y los estudios de casos. Se caracterizan estos estudios por el hecho de que el sujeto o grupo es observado, medido, analizado, etc., varias veces a lo largo del tiempo que dura el trabajo de investigación. Y además, se caracterizan por su estructura en torno a unas determinadas fases, donde se puede apreciar nítidamente la estabilidad de la línea base que sirve de referencia, los efectos atribuibles al tratamiento experimental y la previsible vuelta a los niveles estables en la retirada de la intervención. En no pocos casos la información recogida es analizada sin tener que recurrir a la estadística.
ESTUDIOS CORRELACIONALES
150
ESTUDIOS CORRELACIONALES. Estudios sobre la relación o independencia entre variables. Trabajan conjuntamente con los valores medidos en dos o más variables, tratando de apreciar si una es función de otra u otras, o si está relacionada o no con otra(s), y en qué grado. En las ciencias humanas es difícil, si no imposible, encontrar variables que sean función de otras, dándose, por el contrario, el fenómeno de la correlación. (Pérez Juste, 1985ª y 1985b: «Correlación»). (Véase: Correlación). El objetivo de los estudios correlacionales es descubrir las relaciones existentes entre las variables que intervienen en un fenómeno, tratando de precisar su magnitud y el tipo —positivo o negativo— de tal relación (correlación). Los índices numéricos que la ponen de manifiesto se denominan coeficientes de correlación (véase). ESTUDIOS DE GRUPO. Investigaciones que se centran en el análisis de muestras seleccionadas mediante alguna modalidad de muestreo, preferentemente el probabilístico, para garantizar su representatividad y así poder extrapolar los resultados alcanzados a las poblaciones de las que se han extraído las muestras. Naturalmente los estudios con grupos podrán tener más o menos nivel de generalización, mayor o menor control, una finalidad próxima o lejana. Pero, eso sí, uno de los requisitos de este tipo de investigación se refiere al proceso seguido para seleccionar a los sujetos y las características presentes en el grupo, de forma que nos ofrezcan suficientes garantías de representatividad de la muestra respecto de la población. Así los resultados y conclusiones del estudio serán transferibles (validez externa) al grupo amplio o población. ESTUDIOS DE SUJETO ÚNICO.
(Véase: Estudios de caso único).
Estudio de las causas de un orden determinado de efectos. (Por ejemplo, causa u origen de una enfermedad, de una anomalía, etc.).
ETIOLOGÍA.
ETNIA.
Grupo humano con formas de vida muy semejantes.
ÉTNICO.
Rasgo perteneciente a un grupo cultural diferenciado, nación o
raza. ETNOCIENCIA.
Antropología cognitiva (véase).
(Del griego: «ethnos» = pueblo; «grapheoo» = describir). Parte de la antropología que tiene por objeto la descripción, clasificación y filiación de las razas o pueblos. Es la descripción sistemática de los pueblos y sus culturas, condición previa a los conocimientos etnológicos. Esta ciencia parte de la antropología cultural, para estudiar descriptivamente las costumbres y tradiciones de los pueblos, es decir, la cultura de un grupo humano o alguno de sus aspectos.
ETNOGRAFÍA.
151
EVA
Lo característico de la etnografía es la fase descriptiva, decir qué hay en la realidad de ese grupo humano, cuáles son los factores de etnicidad que justifican sus respectivas formas de vida, a través de la recogida de datos de dicho grupo humano. La técnica usual de los estudios descriptivos es la observación, que en la investigación etnográfica ha de ser participativa, o mejor, observación participante (véase). Se exige al investigador la inmersión en la comunidad humana que investiga, donde cualquier miembro de la misma es potencial fuente de información y de datos. La etnografía recoge sus datos de muchas otras ciencias (historia, medicina, literatura, filosofía, arqueología, etc.), pues le atañe todo lo que sea expresión de la vida humana. Su misión estriba en la sistematización de toda la información recogida, para que el etnólogo la estudie e induzca leyes generales sobre el comportamiento de los pueblos. Corriente doctrinal que se basa en los conceptos de interacción social, tanto dentro de los grupos como entre grupos. (Pueden ser citados: Green, Cicuorel, Erikson). Esta corriente constituye una de las bases de la investigación cualitativa (véase) y del paradigma cualitativo-interpretativo (véase).
ETNOGRAFÍA DE LA COMUNICACIÓN.
Corriente doctrinal que busca la exploración, descripción y análisis de las manifestaciones culturales de un grupo humano determinado. Basada en los trabajos de Mead y Malinowski, ha sido aplicada al ámbito escolar por Goetz, LeCompte, Wolcot y Dobbert. Esta corriente contiene uno de los elementos básicos en la configuración de los conceptos fundamentales y metodológicos de la investigación cualitativa (véase) y del paradigma cualitativo-interpretativo (véase).
ETNOGRAFÍA HOLÍSTICA.
ETNOGRÁFICO. ETNÓGRAFO.
Relativo o perteneciente a la etnografía (véase).
Persona que se dedica a la etnografía (véase).
ETNOLOGÍA. Parte de la antropología que estudia las razas, pueblos o grupos humanos, los compara e investiga sus diferencias, para explicar sus formas de vida. Estudia, por consiguiente, las causas y razones de las costumbres y tradiciones de los pueblos. ETNOLÓGICO. ETNÓLOGO. ETOLOGÍA. EVA, plan.
Perteneciente o relativo a la etnología (véase).
Persona que se dedica a la etnología (véase). Estudio biológico y evolutivo del comportamiento animal.
(Véase: Plan EVA).
152
EVALUACIÓN
Proceso de estimación, apreciación o valoración que nos permite determinar el mérito o valor y la calidad de algo (DRAE). «Proceso, o conjunto de procesos, para la obtención y análisis de información relevante en que apoyar un juicio de valor sobre un objeto, fenómeno, proceso o acontecimiento, como soporte de una eventual decisión sobre el mismo» (Orden Hoz, 1985, 133). En general, se conoce como evaluación el proceso mediante el cual se obtiene una información que conduce a la elaboración de juicios de valor y que servirá de base para tomar decisiones. El término evaluación es más amplio que medición (véase), al estar éste contenido en aquél y ser más aplicable a los fenómenos educativos, los cuales, por su componente psíquico, se resisten a ser medidos, dado que lo psíquico es: a) espiritual; b) cualitativo; c) totalidad indivisible; d) irrepetible y en continuo cambio. Todo lo cual nos lleva a hablar de evaluación, ante la gran dificultad, si no imposibilidad, de medida rigurosa de los fenómenos educativos, en el fondo de los cuales late el problema de la complejidad del ser humano (Pérez Juste, 1983). Es de recalcar que, por definición, la evaluación no es algo puntual, sino un «proceso» que nos permite obtener información necesaria que sea relevante, fiable, válida y adecuada para poder emitir juicios de valor, tanto del proceso como del producto, ante una eventual toma de decisiones de mejora.
EVALUACIÓN.
EVALUACIÓN ADAPTADA.
(Véase: Evaluación: modelo de Rossi).
Evaluación que pretende determinar el nivel de calidad de las actividades educativas que tienen lugar en el seno de los centros educativos, así como los resultados que de las mismas se derivan. Y ello, con el fin de garantizar una adecuada toma de decisiones de mejora sobre la propia institución objeto de estudio. EVALUACIÓN DE CENTROS EDUCATIVOS.
EVALUACIÓN COMPRENSIVA. EVALUACIÓN CONTINUA.
(Véase: Evaluación: modelo de Rossi).
(Véase: Evaluación formativa).
EVALUACIÓN DE ENSEÑANZA SUPERIOR. Dentro de la evaluación de centros, la evaluación de instituciones de Enseñanza Superior tiene como finalidad la obtención de información válida y valiosa sobre las mismas para ayudar en la toma de decisiones de mejora, no sólo de las propias instituciones, sino del personal implicado en las mismas. Además, pretende ofrecer datos debidamente contrastados a las autoridades que deben decidir sobre la calidad de las instituciones y los resultados de su tarea docente e investigadora. Los diversos planteamientos y propuestas hablan de una evaluación interna (promovida desde dentro o desde fuera) y una evaluación externa
153
EVALUACIÓN FORMATIVA
complementaria, para matizar mejor las propuestas y contrastar los resultados. Siempre teniendo en cuenta la evaluación global de la institución concreta, con vistas al logro de las metas y objetivos propuestos por la evaluación y que deben repercutir sobre su calidad. Desde una perspectiva aplicativa, se pueden citar tres tipos de evaluación: 1. Autoevaluación institucional (evaluación interna): es la desarrollada desde dentro de la institución universitaria y con su propio personal. Permite un análisis contextualizado de los problemas y ofrece una valoración sobre sí misma en busca de una mejora de calidad. 2. Evaluación externa (juicio de expertos), ya solicitada desde la propia institución, ya impuesta por la autoridad académica. Alcanza buena validez de contenido, al contrastarse las opiniones de diferentes expertos. 3. Evaluación externa (basada en criterios de rendimiento): propuesta objetiva para valorar la realidad de las instituciones, si bien la clave radica en determinar los criterios más apropiados. La propuesta de evaluación institucional que ofrece García Llamas (2003), tomando como referencia diferentes autores consultados, se concreta en tres aspectos básicos: a) Evaluación de la enseñanza (alumnado, profesorado, autoridades y órganos colegiados); b) Evaluación de la investigación (implicación del profesorado, recursos disponibles y logros de la investigación); c) Evaluación de los servicios (de apoyo didáctico al alumnado, administrativos y laborales). EVALUACIÓN EXTERNA. En la evaluación de centros educativos (véase), y desde la perspectiva de la implicación y la responsabilidad de los participantes, evaluación realizada por agentes ajenos al proceso didácticoeducativo. Puede actuar como complemento de la evaluación interna (véase) y así constituir entre ambas una combinación racional de los dos enfoques. La evaluación externa puede ser propuesta desde dentro de la institución o desde fuera (autoridades académicas o político-educativas, de la Administración o de la Empresa). En el primer caso, los evaluadores externos cumplen un cometido técnico de apoyo y asesoramiento al personal del centro, pues aportan sus conocimientos, cualificaciones profesionales y experiencias. Todo ello, al servicio de la institución. EVALUACIÓN FORMATIVA. Modalidad de evaluación realizada desde el comienzo de un programa (o proyecto de actividades ordenadas a la consecución de algún fin) y durante su desarrollo práctico para conocer sus
EVALUACIÓN GUIADA POR TEORÍA
154
efectos e introducir los cambios oportunos. Es la también denominada evaluación continua (aunque con matices, según algunos autores), dada la dimensión temporal del proceso evaluador del programa en cuestión. En el modelo Scriven (véase: Evaluación: modelo de Scriven), la evaluación formativa centra su cometido en la determinación de las actividades y resultados sobre la marcha, durante el proceso, a la vez que indica hasta qué punto están funcionando o han funcionado bien los procesos y los procedimientos para alcanzar determinados objetivos. En general, proporciona ayuda al personal para su perfeccionamiento. EVALUACIÓN GUIADA POR TEORÍA.
(Véase: Evaluación: modelo de Rossi).
EVALUACIÓN INTERNA. En la evaluación de centros educativos (véase), y desde la perspectiva de la implicación y la responsabilidad de los participantes, autoevaluación llevada a cabo por los protagonistas directos de la enseñanza. Éstos asumen un protagonismo activo en los procesos de enseñanza-aprendizaje e intervienen, además, en los aspectos organizativos y de funcionamiento del centro. La autoevaluación lleva consigo un perfeccionamiento de la escuela, los programas que en ella se imparten, los directivos y los profesores participantes. Trata de analizar, de forma sistemática y formal, las reflexiones intuitivas de los hechos acaecidos en el centro escolar. Entre otras posibles alternativas, se pueden contemplar las siguientes variables: objetivos planteados; contexto en que se realiza; proyecto educativo; aspectos organizativos y de gestión; medios y recursos disponibles; clima escolar del centro; relaciones con la comunidad educativa; y papel protagonista del profesorado. EVALUACIÓN DE INVESTIGACIONES. Evaluación de las características, así como de las aportaciones más reseñables de las investigaciones evaluadas. La evaluación de una investigación en Ciencias Sociales —y más concretamente en Educación— precisa de una serie de criterios y sugerencias que permiten discernir lo principal de lo secundario, de manera que las contribuciones fundamentales al desarrollo de la ciencia sean valoradas, en su justa medida, por las personas responsables de la misma. Tomando en consideración las aportaciones de la Agencia Nacional de Evaluación y Prospectiva (ANEP), del Centro de Investigación y Documentación Educativa (CIDE), de la Comisión Interministerial de Ciencia y Tecnología (CICYT) y de varios autores, la propuesta de García Llamas (2003) para la evaluación de investigaciones en educación se basa en los siguientes criterios generales: 1. Fundamentación teórica: análisis de la teoría subyacente a la propuesta de investigación y estudio de la coherencia y actualidad de la propuesta misma.
155
EVALUACIÓN DE MATRIZ DE CORRELACIONES
2. Aspectos metodológicos: desarrollo de la investigación, en el marco concreto de estudio. 3. Relevancia de los resultados: aportaciones y hallazgos a los que se ha llegado en la investigación; valoración de resultados desde diferentes puntos de vista. 4. Otros aspectos: presentación del informe, lenguaje, bibliografía, cuadros y esquemas, gráficos, elaboración de síntesis. A estos criterios generales de evaluación de investigaciones en educación, y en el caso de proyectos de investigación para los que solicita ayuda el equipo investigador, habría que contemplar diferentes aspectos relacionados con éste. Se agrupan en dos apartados: a) Composición del equipo investigador: currículum de sus miembros; experiencia del director o investigador principal, responsable del trabajo; presencia de miembros de distintos niveles del sistema educativo; composición multidisciplinar del grupo; conexión del equipo con otros grupos (nacionales e internacionales), etc. b) Actividades de investigación ya realizadas por el equipo: experiencia de los componentes en la parcela objeto de investigación; realización de investigaciones en otros campos y aportaciones a la comunidad científica; transferencia de los resultados de trabajos anteriores al campo objeto de estudio, etc. Es el elemento más sobresaliente para valorar la pertinencia y las limitaciones del análisis factorial. Para que se pueda realizar el análisis factorial, las variables tienen que estar muy correlacionadas, lo que implica coeficientes de correlación grandes en valor absoluto. Esto conduce a que el determinante de la matriz de correlación sea distinto de 1. Como lo que se pretende al factorizar es encontrar factores independientes, o sea, no correlacionados, si partimos de una matriz de correlación con valores bajos no será necesario su factorización. Para ver si una matriz R se puede factorizar, se utiliza la prueba de esfericidad de Bartlett, donde, si se rechaza la hipótesis nula (H0: |R| = 1), la matriz es apropiada para la factorización. Otra forma de observar el grado de correlación entre las variables es por medio de los coeficientes de correlación parcial (véase). Las correlaciones parciales son estimadoras de la correlación entre los factores únicos y deben acercarse a cero cuando se cumplen las suposiciones del análisis factorial. Una matriz que contiene los coeficientes de correlación parciales negativos debe mostrar una proporción muy reducida de coeficientes de correlación altos para que pueda considerarse apropiado el análisis factorial (Gil Pascual, 2003, 104). EVALUACIÓN DE MATRIZ DE CORRELACIONES.
EVALUACIÓN
156
Modalidad de evaluación de programas que utiliza métodos naturalistas, en que los parámetros de la evaluación son negociados entre los clientes y los evaluadores. Esta evaluación naturalista, por su apertura, es muy sensible a los diferentes enfoques de los que encargan la evaluación, por lo que la negociación entre clientes y evaluadores exige gran cantidad de tiempo y recursos para dar respuesta a las necesidades. Por consiguiente, la búsqueda del consenso entre las partes es criterio básico en esta propuesta.
EVALUACIÓN: modelo de Guba y Lincoln.
Evaluación de programas, integral e integrada, que consiste en un proceso sistemático, diseñado intencional y técnicamente, de recogida de información rigurosa —valiosa, válida y fiable—, orientado a valorar la calidad de un programa, como base para la posterior toma de decisiones de mejora tanto del programa como del personal implicado y, de modo indirecto, del cuerpo social en que se encuentra inmerso. Esta definición de Pérez Juste (1992 y 1995) es una de las más completas sobre la evaluación de programas y se asienta sobre el concepto de programa como plan sistemático de intervención, específica e intencionalmente elaborado, al servicio de metas consideradas valiosas desde una perspectiva pedagógica. Esta propuesta de modelo evaluativo es integral de todos los elementos que intervienen en el proceso educativo e integrada en un marco de referencia más amplio, como es el centro escolar y el propio sistema educativo. Recoge tres momentos: 1. Momento inicial (el programa en sí mismo), que comprende tres dimensiones: calidad intrínseca del programa; adecuación al contexto; y adecuación a la situación de partida. 2. Momento procesual (el programa en su desarrollo), que comprende dos dimensiones: ejecución y marco. 3. Momento final (el programa en sus resultados), que comprende tres dimensiones: medida y logros; valoración; y continuidad. Una de las aportaciones destacables de este modelo es el rigor con que se trata la evaluación inicial (el programa en sí mismo) para conocer las virtualidades y posibles efectos del programa, antes de su aplicación. También es destacable el marcado matiz pedagógico del modelo, traducido a lo largo de toda la propuesta y más explícitamente en la formulación de criterios e indicadores planteados para cada uno de los momentos y dimensiones de la evaluación.
EVALUACIÓN: modelo de Pérez Juste.
Modalidad de evaluación de programas denominada comprensiva. Implica la aplicación sistemática de los procedimientos de investigación social en la valoración de la conceptualización y
EVALUACIÓN: modelo de Rossi.
157
EVALUACIÓN
el diseño de un programa, de la puesta en marcha y de la utilidad de los programas de intervención social. La evaluación comprensiva necesita recoger información sistemática sobre las necesidades, la planificación, puesta en práctica y valoración de los esfuerzos realizados. La evaluación adaptada surge como alternativa a las limitaciones de la propuesta anterior en el tiempo y recursos necesarios: reduce su amplitud y precisa de un proceso de ajuste para dar respuesta a las cuestiones planteadas. Mediante una matriz de 3 x 3 combina por un lado los estadios de los programas y por otro las actividades propias de la evaluación. La evaluación guiada por la teoría pretende incorporar más teoría sustantiva a las evaluaciones (son pocos los evaluadores que recurren a la teoría sobre cómo trabajan los programas, su naturaleza, las causas de los problemas sociales, los conceptos educativos y las técnicas implicadas en las intervenciones). Aunque se inclina por la utilización conjunta de métodos cuantitativos y cualitativos, piensa que los primeros son más válidos para la revisión general, aunque defiende también el empleo de los segundos como complementarios. Por ello, prefiere un paradigma que acepte los experimentos y cuasi-experimentos en los diseños de investigación para llegar a generalizaciones. Evaluación de programas orientada hacia el consumidor, por lo que concede una gran importancia a las necesidades sociales. Partiendo de una crítica a otros enfoques centrados en el logro de objetivos de los participantes, trata de satisfacer prioritariamente las necesidades de los consumidores. Defiende la objetividad de los criterios de valoración, el desarrollo de la lógica probatoria, para culminar el proceso con juicios y recomendaciones a los consumidores. Y ello, porque concibe la evaluación como la «determinación sistemática y objetiva del valor o el mérito de algún objeto».
EVALUACIÓN: modelo de Scriven.
Tipo de evaluación de programas centrada en el cliente o respondente y no sólo en los resultados. Pretende ofrecer un servicio útil y valioso a personas específicas, por lo que su característica fundamental es la sensibilidad hacia los temas esenciales, especialmente los que ayuden a los colectivos en su entorno inmediato. Manifiesta gran interés por la evaluación de proyectos locales que ayuden a resolver y comprender los problemas próximos de forma contextualizada. Responde, por tanto, a necesidades de información de las audiencias y toma en consideración los diversos valores de las personas interesadas en el programa cuando juzga su adecuación: evaluación respondente o centrada en el cliente y orientada hacia las actividades del programa. Se distingue EVALUACIÓN: modelo de Stake.
EVALUACIÓN
158
de la evaluación preordenada (véase) en que ésta resalta las metas como criterio de evaluación y se basa en un plan apriorístico. Emplea métodos cualitativos y el estudio de caso, frente al uso exclusivo de base experimental. Evaluación de programas orientada a la decisión, es decir, evaluación que se basa en la importancia de la toma de decisiones sobre un determinado programa con el fin de maximizar los resultados de dicha evaluación, no sólo al finalizar el proceso, sino a lo largo del mismo. Su propuesta «CIPP» distingue cuatro tipos de evaluaciones con sus correspondientes decisiones de mejora: • Evaluación de contexto: sirve de base a las decisiones sobre la planificación e identifica las necesidades de un programa para definir sus objetivos. • Evaluación del «input» o entrada: recursos disponibles, métodos aplicables, estrategias alternativas al programa y planes de mayor potencial. • Evaluación del proceso: marcha del programa, ajuste de actividades al plan previsto para introducir las modificaciones necesarias. • Evaluación del producto: valorar, interpretar y juzgar los logros, y si se han alcanzado los objetivos previstos, para seguir, ampliar o reformular el programa.
EVALUACIÓN: modelo de Stufflebeam.
Modalidad de evaluación de programas orientada al logro. Hace hincapié en que las decisiones sobre la validez o invalidez de un programa vendrán determinadas por el nivel de congruencia entre los objetivos propuestos y los logros alcanzados. Según el nivel de logro de los objetivos, se tomarán las decisiones pertinentes. Las limitaciones de esta propuesta se centran en su consideración de la evaluación como un proceso terminal, en que los posibles fallos no son detectados hasta finalizar el estudio.
EVALUACIÓN: modelo de Tyler.
EVALUACIÓN PREORDENADA. Modalidad de evaluación de programas que resalta las metas del programa como criterio de evaluación, es decir, se basa en un plan apriorístico. Utiliza los datos para la comprobación de los objetivos y las normas para juzgar los programas, realizando informes-tipo de la investigación. Uno de los puntos básicos del modelo de Stake radica en la diferenciación entre la evaluación preordenada y la respondente (evaluación centrada en el cliente) que se orienta hacia las actividades del programa. (Véase: Evaluación: modelo de Stake).
Tipo de evaluación que, referida a los propósitos de la evaluación de programas, está enfocada a la toma de decisiones sobre el programa objeto de evaluación.
EVALUACIÓN PROACTIVA.
159
EVALUACIÓN SUMATIVA
Entre las muchas definiciones que se han dado de esta expresión, las clásicas la conciben como un proceso para determinar en qué medida los objetivos educativos se han logrado mediante los programas de currículos y enseñanza-aprendizaje. Su objeto es medir los efectos de un programa, comparándolos con las metas propuestas, para tomar decisiones de mejora. Una definición bastante completa es la de Pérez Juste (1992 y 1995): proceso sistemático, diseñado intencional y técnicamente, de recogida de información rigurosa —valiosa, válida y fiable—, orientado a valorar la calidad de un programa, como base para la posterior toma de decisiones de mejora tanto del programa como del personal implicado y, de modo indirecto, del cuerpo social en que se encuentra inmerso. Por tanto, la evaluación de programas se configura como un componente intrínseco de los procesos sociales y educativos desde una perspectiva globalizada de los mismos.
EVALUACIÓN DE PROGRAMAS.
EVALUACIÓN DE PROGRAMAS: estándares. La expresión estándares se refiere a tipos, modelos, normas, patrones o referencias (D.R.A.E.). Los estándares suponen un principio de mutuo acuerdo entre las personas que están implicadas en la práctica profesional de la evaluación para que ésta sea de calidad. El Comité Conjunto de Estándares para la Evaluación educativa (1998), presidido por J. R. Sander, pergeñó un documento de Estándares para la evaluación de programas que pretende facilitar la tarea de los evaluadores para alcanzar unos resultados éticos, viables, útiles y bien fundamentados. Por ello se indica que esta tarea debería reunir cuatro atributos o estándares básicos: utilidad, viabilidad, propiedad y precisión. (El detalle de estos cuatro estándares puede verse en Comité Conjunto de Estándares…, 1998).
Evaluación de programas centrada en el cliente y orientada hacia las actividades del programa, según el modelo de Stake. (Véase: Evaluación: modelo de Stake).
EVALUACIÓN RESPONDENTE.
Modalidad de evaluación que recopila información sobre resultados alcanzados, una vez finalizado un programa (o proyecto de actividades ordenadas a la consecución de algún fin) para conocer el valor y el mérito del mismo. La recopilación de datos e información se basa en los aportados por la evaluación formativa (véase) o continua. En el modelo Scriven (véase: Evaluación: modelo de Scriven) la evaluación sumativa se puede efectuar al finalizar una unidad, un semestre, un curso, un ciclo. En ella se analizan todos los efectos de los obEVALUACIÓN SUMATIVA.
EXPECTACIÓN
160
jetos y se comparan con las necesidades de los consumidores para tomar las decisiones oportunas. Predicción o anticipación de acontecimientos futuros, basándose en los estímulos actuales y la experiencia anterior.
EXPECTACIÓN.
Modalidad de investigación que, junto con la observación, acude a la experiencia para probar hipótesis. Es, por tanto, una fase del diseño de investigación (un momento del método científico), pero se diferencia de la observación en la capacidad de provocación del fenómeno por parte del investigador, aunque algunos añaden la medición en el experimento. Si en la «observación» el investigador espera que el fenómeno se produzca, en la «experimentación» provoca el fenómeno, lo observa y, a veces, lo mide a continuación. La experimentación se concreta en el experimento (véase), que presenta dos modalidades: de laboratorio y de campo (véase). (Pérez Juste, 1985, 108). EXPERIMENTACIÓN.
EXPERIMENTO. Diseño experimental o investigación científica en la que el investigador manipula o controla una o más variables independientes (V.I.) y observa la/s variable/s dependientes (V.D.) en busca de una variación concomitante con la manipulación de la/s V.I. Por tanto, el diseño experimental o experimento es aquel en que se manipula al menos una V.I. (Kerlinger, 1975). Es una forma de experiencia científica que no sólo ofrece resultados y conclusiones más fiables que otras formas de experiencia, sino que, además, es la única capaz de permitir el establecimiento de relaciones causa-efecto. (Véase: Metodología experimental). Tres notas esenciales del experimento: a) Provocación del fenómeno (cambio planificado). b) Control de las condiciones en que el experimento se produce y del proceso, evitando la aparición de variables extrañas. c) Medición.
Tipos: 1) Experimento de laboratorio: marco ideal para la investigación pura y fundamental que permita identificar variables relevantes, elaborar leyes, contrastar teorías. 2) Experimento de campo, con tres características: a) diseño o planificación del experimento por adelantado, ideando la V.I.; b) situación o contexto real y natural, no artificial (como en el laboratorio); c) propósito u objetivo fundamental: la comprobación de la «aplicabilidad a situaciones de la vida real de leyes científicas conocidas o de hipótesis específicamente desarrolladas en situaciones controladas de laboratorio» (French, 19793, 105).
161
EX-POST-FACTO
EXPERIMENTO ALEATORIO. Experimento sometido a las leyes del azar y en el que, por tanto, se conocen de antemano los resultados posibles, si bien no se sabe con certeza cuál de ellos se va a producir o presentar, aunque sí su probabilidad. Por tanto, es toda operación cuyo resultado no puede ser pronosticado con certeza.
Estudio de investigación que se realiza en una situación natural, real, donde una o más variables independientes son manipuladas bajo condiciones controladas con el máximo cuidado que permita la situación. Por sus cualidades, estos experimentos son recomendables para el psicólogo social, el sociólogo y el educador, pues se adaptan perfectamente a no pocos problemas sociales, psicológicos y pedagógicos de interés para estas disciplinas (en su mayoría, los experimentos pedagógicos, por ejemplo, son experimentos de campo: se llevan a cabo en aulas y en escuelas). Además, los experimentos de campo se adaptan perfectamente para someter a prueba teorías y para la solución de problemas prácticos. También son adecuados para someter a prueba hipótesis globales. EXPERIMENTO DE CAMPO.
EXPERIMENTO DE LABORATORIO. Investigación en que la varianza de todas o casi todas las variables independientes capaces de influir, y que no tienen relación con el problema inmediato, se reducen al mínimo. Esto se hace aislando la investigación en una situación física distinta de la rutina de la vida diaria y manipulando una o más variables independientes (V.I.) en condiciones rigurosamente especificadas, «operacionalizadas» y «controladas». Se trata del experimento que permite un control relativamente completo de influencias extrañas capaces de afectar a la variable dependiente (V.D.), aislando una situación de la vida externa al laboratorio. «Aun admitiendo su falta de representatividad (validez externa), posee el requisito esencial de cualquier investigación: la validez interna». Por eso, sus posibles deficiencias son realmente insignificantes (Kerlinger, 1975, 281-283). Es el marco ideal para la investigación pura y fundamental que permita identificar variables relevantes, elaborar leyes, contrastar teorías. EXPERIMENTO ROTATIVO.
(Véase: Diseño compensado).
Proceso por el cual se establece la relación de causa y efecto. Desde la perspectiva científica, la explicación causal es la única que establece las condiciones de control válidas para el hallazgo de las relaciones.
EXPLICACIÓN.
Diseño de investigación que no manipula la variable independiente (V.I.), sino que a través del estudio y observación de una EX-POST-FACTO, diseño.
EXTRAGRUPO
162
variable dependiente (resultado), imagina o supone una V.I. como presunta causa del resultado observado. La prueba de hipótesis se plantea cuando los fenómenos a que se refiere han ocurrido ya; esto es, actúa hacia atrás (inferencia hacia atrás). Recoge datos sobre hechos y situaciones que ya han acontecido, por lo que no se pueden controlar ni la V.I. ni las variables extrañas. Este tipo de investigación se caracteriza por utilizar variables asignadas como variables independientes, de manera que los sujetos que forman parte de dicha investigación habrán sido seleccionados por haber estado sometidos a determinadas condiciones o por exhibir determinadas características. Sujetos fuera del grupo propio, sobre todo si pertenecen a uno considerado antagónico de aquél.
EXTRAGRUPO.
1. Deducción estadística fuera de los límites de una ordenación. O sea, acción y efecto de averiguar el valor de una magnitud para valores de la variable que se hallan fuera del intervalo en que dicha magnitud es conocida. 2. Dícese también de la acción y efecto de aplicar conclusiones obtenidas en un campo a otro.
EXTRAPOLACIÓN.
F
F, escala.
(Véase: Escala F).
F, DE SNEDECOR, PRUEBA. Prueba estadística paramétrica, también denominada ANAVA (análisis de varianza). Es la prueba de significatividad alternativa a la prueba t para más de dos grupos o muestras, ya que sería incorrecto tratar de establecer diferencias significativas entre cada dos medias por el procedimiento t. No obstante, los resultados por los dos procedimientos son realmente idénticos, ya que t2 = F. La razón F (o cociente entre VE —varianza entre grupos— y VD —varianza dentro de los grupos—) recibió esta denominación por Snedecor, en honor de Ronald Fisher, inventor del ANAVA, pero fue Snedecor quien preparó las tablas de distribución F. El enfoque F informa de la varianza «entre» grupos, por un lado, y de la varianza «dentro» de esos grupos, por otro. Pero se trata de un análisis de varianza simple, porque sólo pone de relieve si el efecto o resultado es o no significativo; no puede precisar entre qué grupos se da significatividad y entre cuáles no. Para las comparaciones múltiples entre grupos hay que acudir a métodos como T, de Tukey y S, de Scheffé (véanse).
En el análisis factorial (según Yela, Castell y otros) denominación que recibe cada unidad o dimensión de variabilidad común existente en cierto campo de fenómenos (por ejemplo, aptitudes: verbal, matemática, espacial, etc.); también sería una influencia subyacente que es causa de una parte de la variabilidad de cierto número de manifestaciones conductuales, pero relativamente independiente de otras influencias. En los diseños factoriales, las variables independientes suelen recibir la denominación de tratamientos o factores. El análisis factorial tiene por finalidad ayudar al investigador a descubrir e identificar los factores (unidades o dimensiones) en que se fundan muchas medidas.
FACTOR.
FACTOR COMÚN, método.
(Véase: Método del factor común).
FACTOR GENERAL (G)
164
Expresión que alberga dos acepciones: 1. Capacidad general con la que se correlaciona cada uno de los factores primarios (Thurstone). 2. Capacidad general comprendida en las puntuaciones de tests, especialmente en los de inteligencia, distinta de las especiales y únicas para cada prueba (Spearman).
FACTOR GENERAL (G).
FALSACIÓN. Estrategia de contrastación de hipótesis que consiste en buscar datos que la refuten. También se dice del hecho de rebatir una proposición o una teoría mediante un contraejemplo o una observación empírica consistente.
Posición filosófico-crítica que surge de los planteamientos iniciales del «racionalismo crítico» revisados por Popper (1934, 19774 y 1985), quien se muestra muy crítico con el empirismo lógico y presta especial atención a la problemática de las Ciencias Sociales. La base de su racionalismo crítico (realismo crítico) se asienta en las reglas para la obtención de las hipótesis y teorías científicas. La sustitución de la verificación empírica por la falsación la razona así: dado que no es factible comprobar todos los posibles casos recogidos en las hipótesis científicas, no podemos utilizar la verificación, sino la «falsación». Es decir, si no se encuentra caso alguno en que no se cumpla la formulación de la hipótesis, ésta será aceptada como científica, si bien provisionalmente. Pero mientras la aceptación es provisional, el rechazo puede ser concluyente. De ahí que los enunciados serán tanto más aceptables, en la medida en que su capacidad para sobrevivir a las pruebas sea más convincente. FALSACIONISMO.
FENOMENISMO. Teoría del conocimiento que se basa en la tesis de que únicamente las sensaciones son objeto inmediato de conocimiento. FENOMENOLOGÍA. Teoría de los fenómenos o de lo que aparece (lo aparente). Esta doctrina filosófica se basa en la idea de que la conciencia se orienta hacia el objeto («intencionalidad de la conciencia»), lo que conduce a la consecuencia de que no hay objeto sin sujeto. Los fundamentos del método fenomenológico son: «la reducción fenomenológica», es decir, la limitación de todo juicio a la experiencia pura y «la reducción trascendental», esto es, la consideración del propio sujeto del conocimiento no como un ser real, sino como conciencia pura. Pretende «reducir» todo saber anterior, con el propósito de alcanzar un conocimiento objetivo de un fenómeno en lo «que es y verdaderamente significa».
165
FIABILIDAD ABSOLUTA
Perteneciente o relativo a la fenomenología (véase). No observable directamente, por lo que requiere reducir lo aparente (lo que se manifiesta) para encontrar el significado objetivo.
FENOMENOLÓGICO.
Criterio métrico de calidad que facilita información sobre la cantidad de error aleatorio que contiene una medida. La fiabilidad, en general, es identificada con la precisión de la medida, independientemente de las circunstancias de la recogida de datos, por lo que los resultados alcanzados deberán ser independientes de los investigadores que realicen la tarea. Y así se habla de datos fiables como aquellos que son creíbles, fidedignos, sin error. Como cualidad de un test, se refiere a que dicho test mide lo que pretende con exactitud y consistencia en diferentes ocasiones, obteniendo resultados comparables (véase: Fiabilidad relativa). La fiabilidad es, por tanto, el criterio para la valoración de un sistema de recogida de datos que informa del grado en el que un investigador, dada la misma situación, obtiene los mismos resultados en dos momentos distintos, o el grado en que dos investigadores, en la misma situación y circunstancias, obtienen los mismos resultados. En el caso del análisis cualitativo de contenido, existirá una buena fiabilidad si, ante un mismo texto, diferentes analistas llegan a resultados similares. Fox (1981) establece como fiabilidad suficiente cuando se logra un mínimo del 90% de acuerdo, para códigos de una o dos cifras; si son de más de dos, se suele rebajar la exigencia al 85%. Estos porcentajes son el resultado del cociente entre el número de unidades de datos, codificados de manera idéntica, y el número total de unidades de datos codificadas. Krippendorf (1990) señala que se deben contemplar, al menos, tres tipos de fiabilidad: — Estabilidad. Mediante la técnica del test-retest se comprueba que los resultados permanecen inalterados en el transcurso del tiempo. — Reproductibilidad. Recurre también al test-retest, aunque en este caso se busca una reproducción de datos entre el primer análisis y el segundo. — Exactitud. Utiliza la técnica de test-norma, comparando los resultados empíricos con la norma establecida para su interpretación. (Este procedimiento es considerado el más eficaz). FIABILIDAD.
La que se expresa en términos de varianza, o sea, de variabilidad exclusivamente debida a la característica medida —varianza verdadera (s2v)— y no a elementos ajenos o varianza de error (s2e). Se define en términos del error típico de medida. Si en cada puntuación directa hay un cierto error, (Xi = Xv + ei), podemos calcular la desviación típica (sx) de los errores de medida de todas las puntuaciones. En FIABILIDAD ABSOLUTA.
166
FIABILIDAD
el caso de que esto lo hiciéramos con infinitas puntuaciones de un mismo sujeto o con infinitos sujetos con la misma puntuación, obtendríamos el error típico de medida (σmed), cuya fórmula es:
σ med = s x 1 − rxx , siendo: sx = desviación típica de los errores de medida rxx = coeficiente de fiabilidad = rAA = r11 O sea, con la fiabilidad absoluta se pretende determinar la cuantía máxima de error (distancia a la puntuación verdadera), que admitimos con determinada probabilidad, para los diferentes sujetos medidos con la prueba. Un test absolutamente fiable sería aquel cuya variabilidad —varianza— fuera totalmente debida o explicada por la característica medida —varianza verdadera (s2v)—, mientras que lo habitual es que parte de la varianza total (s2t) de las puntuaciones sea explicada por elementos ajenos —varianza de error (s2e)— a tal característica. Una forma de expresar la fiabilidad sería hacerlo en términos de varianza: rxx = 1 −
se2 st2
Cociente entre la varianza de las puntuaciones verdaderas y la varianza de las puntuaciones empíricas obtenidas en un test. Para aumentar la fiabilidad de un test, hay que aumentar el número de elementos o ítems que lo componen.
FIABILIDAD, coeficiente de.
Ajuste progresivo de los registros de dos o más observadores o calificadores que se realiza por trabajo conjunto y negociado en la aplicación del sistema de categorías en algunas sesiones de observación. Suele estar previsto y formar parte del proceso de preparación de los observadores y sirve además para poner a prueba y depurar el sistema de categorías (Navas, 2001).
FIABILIDAD POR CONSENSO.
Tipo de fiabilidad que se refiere a la estabilidad de una observación a través del tiempo, constatada en la repetición de las medidas (Kirk y Miller, 1986, citados por García Llamas, 2003, 51).
FIABILIDAD DIACRÓNICA.
FIABILIDAD EXTERNA. Tipo de fiabilidad que, en la investigación social —y especialmente en la cualitativa— pretende analizar si un investigador descubriría los mismos fenómenos y elaboraría los mismos contrastes en un único escenario o en otro similar. Depende básicamente de que otros investigadores sean capaces de reconstruir las estrategias analíticas originales (replicación).
167
FIABILIDAD RELATIVA
FIABILIDAD, índice de. Correlación entre las puntuaciones verdaderas y las puntuaciones empíricas obtenidas en un test.
Precisión de las valoraciones realizadas por juez, observador o calificador. Se suele definir en términos del acuerdo mostrado entre las valoraciones proporcionadas por el juez y el resto de los jueces que intervienen en el proceso.
FIABILIDAD INTERJUECES.
Tipo de fiabilidad que, en la investigación social, y especialmente en la cualitativa, analiza el grado de congruencia en los análisis realizados por un segundo investigador, tomando como base el conjunto de contrastes elaborados previamente.
FIABILIDAD INTERNA.
Propiedad de las medidas logradas con un determinado instrumento, entendida como exactitud de los datos, en el sentido de su estabilidad, repetibilidad o precisión. Un instrumento de recogida de datos será fiable cuando, utilizado dos veces en las mismas circunstancias, produzca datos idénticos. Suelen considerarse cuatro técnicas para estimar la fiabilidad: a) fiabilidad por repetición (test-retest), con la que se determina el coeficiente de «estabilidad»; b) fiabilidad de formas paralelas o equivalencias, técnica que da lugar a un coeficiente de «equivalencia»; c) fiabilidad partida, o par-impar, o técnica de mitades, con la que se obtiene un coeficiente de «consistencia interna»; d) fiabilidad de Kuder-Richardson, técnica que supone una modalidad del coeficiente de «consistencia interna».
FIABILIDAD DE MEDIDAS.
FIABILIDAD QUIJOTESCA. Fiabilidad que consiste en determinar las circunstancias en las que un único método de observación origina, de forma continuada, una medida invariable (Kirk y Miller, 1986, cit. por García Llamas, 2003, 51). FIABILIDAD RELATIVA. Aquella fiabilidad en la que se toma como referencia las puntuaciones del test, pero no se hace mención alguna de las puntuaciones verdaderas de los sujetos. La fiabilidad se expresa mediante un coeficiente de correlación, que es:
a) Coeficiente de estabilidad entre las diferentes puntuaciones de un sujeto o grupo de sujetos en dos aplicaciones espaciadas de una misma prueba. Es la constancia o permanencia de los resultados en sentido «temporal», al medir un rasgo en varias ocasiones, dos por lo general. b) Coeficiente de equivalencia entre dos o más muestras de elementos o ítems (pruebas paralelas) de una misma población de conductas. Es la coherencia o concordancia entre resultados obtenidos en dos o más muestras de elementos o ítems que se pretende sean re-
FIABILIDAD SINCRÓNICA
168
presentativos de los que podrían haberse seleccionado para medir un rasgo o característica. c) Coeficiente de consistencia interna entre dos subconjuntos (dos mitades) de una misma muestra de elementos o ítems. Es la consistencia entre las respuestas dadas, dentro de una misma prueba, a dos o más partes en que ésta se divida: dos mitades relacionadas adecuada y equilibradamente. d) Coeficiente de fiabilidad como estabilidad y equivalencia a la vez. Situación mixta de a) y b) anteriores en la que el coeficiente de fiabilidad se calcula sobre las puntuaciones de un grupo de sujetos en dos o más pruebas paralelas aplicadas con una cierta separación temporal, en un intento de evitar tanto los efectos de la memoria como los de la práctica. (Gª Hoz-Pérez Juste, 1984, 426-429). FIABILIDAD SINCRÓNICA. Tipo de fiabilidad que supone la semejanza de las observaciones, dentro del mismo período de tiempo (Kirk y Miller, 1986, citados por García Llamas, 2003, 51-52).
Resumen sobre las características de: población, tamaño de la muestra, técnica de muestreo, afijación, error muestral y fecha de realización.
FICHA TÉCNICA.
Disciplina filosófica que estudia las asunciones básicas de la actividad científica. FILOSOFÍA DE LA CIENCIA.
Expresión que, en la investigación cualitativa, denomina la técnica en la que el coordinador de un grupo de discusión toma una posición más directiva y presente que en el grupo de discusión ordinario, por lo que sus intervenciones tienden a dirigir a los participantes en el grupo directamente hacia el objeto de estudio (Navas, 2001, 551). FOCUS GROUP.
Procedimiento de estimación empírica del coeficiente de fiabilidad, que consiste en aplicar a los mismos sujetos dos formas paralelas de un test en dos ocasiones o momentos distintos.
FORMAS PARALELAS, método de las.
FRACCIÓN MUESTRAL.
Razón del tamaño de la muestra al de la población.
FRECUENCIA. Tipo de medida utilizado en la observación, que nos informa del número de veces que se repite un valor (observación, puntuación, dato…), es decir, número de ocurrencias del valor de una variable o de una categoría de conducta. En general, se habla de tres tipos principales de frecuencias:
a) Frecuencias absolutas. b) Frecuencias relativas. c) Frecuencias acumuladas.
169
FRECUENCIA ACUMULADA
Repetición de un intervalo, o de un valor de la variable (si es discreta). Es el número entero de observaciones correspondientes al mismo. Representando por ni la frecuencia absoluta correspondiente al intervalo Ii, o al valor Xi de la variable, la suma de todas las frecuencias ni es el número total de observaciones:
FRECUENCIA ABSOLUTA.
n1 + n2 + … + nm = ni (frecuencia absoluta) Siendo m el número de intervalos y n el número de valores de la variable. FRECUENCIA ACUMULADA. Cuando los valores de la variable están ordenados, una distribución de frecuencias acumuladas (al final de cada intervalo) es la ordenación de frecuencias en la que, a las frecuencias correspondientes a cada valor o clase de la variable se le acumulan las frecuencias correspondientes a los valores o clases inferiores. La frecuencia acumulada absoluta correspondiente a la clase Ii o al valor Xi, es: Ni = n1 + n2 + … ni Por ejemplo: N7 = n1 + n2 +…n7. Siendo, por tanto, la última frecuencia absoluta acumulada igual al número total de observaciones, n. Nm = n1 + n2 …+ nm = n La frecuencia acumulada relativa, Hi, es igual a la absoluta, Ni, dividida por n, p. ej.: H4 = N4 / n Es evidente que la última frecuencia acumulada relativa será igual a la unidad: Hm = h1 + h2 + … hm = 1 a (G. Hoz-Ferrer, 1966). Ejemplo global adjunto.
Xi 0 1 2 3 4 5
Frecuencias absolutas ni
Frecuencias acumuladas Ni
Frecuencias relativas hi
Frecuencias relativas acumuladas Hi
1 1 3 4 5 6 N = 20
1 2 5 9 14 20
1/20 1/20 3/20 4/20 5/20 6/20
1/20 2/20 5/20 9/20 14/20 20/20 = 1
170
FRECUENCIA DE CLASE
FRECUENCIA DE CLASE. Para algunos autores (Glass-Stanley, 1974, 31-32; Amón, 19846, 1, 61) marcas de clase (véase), en plural: número de observaciones contenidas dentro de la clase en cuestión. FRECUENCIA, distribución de. Serie de puntuaciones o datos ordenados según su valor y agrupados en intervalos de clase (véase). FRECUENCIA EMPÍRICA. La observada (fe o fo): número de veces que se repite un valor de una variable. Las frecuencias empíricas de una variable, en una prueba experimental, estarán constituidas por el número de veces que se repite esa variable (cuando es discreta) o número de veces que se repite un valor de una variable (si es continua) en un intervalo determinado. FRECUENCIA ESPERADA (fe o ft). Frecuencia teórica (véase). FRECUENCIA MARGINAL. Cada una de las sumas de fo (frecuencias observadas), en una tabla de distribuciones de frecuencias, en cada una de las filas (sentido horizontal) por un lado, y en cada columna (sentido vertical), por otro. La suma total de frecuencias marginales de las filas coincidirá con la suma total de frecuencias marginales de las columnas. FRECUENCIA OBSERVADA (fo). Frecuencia empírica (véase). FRECUENCIA, polígono de. (Véase: Polígono de frecuencias). FRECUENCIA RELATIVA. Cociente entre la frecuencia de un valor observado (observación, puntuación o dato) y el total de observaciones realizadas. O, de otra forma: la frecuencia relativa de conductas es el cociente entre la frecuencia de una categoría de conducta y la suma de las frecuencias de todas las categorías del sistema. Frecuencia relativa de un intervalo Ii, o de un valor de la variable Xi, es la frecuencia absoluta ni correspondiente dividida por el número total de observaciones n. Si llamamos hi a la frecuencia relativa, tendremos: hi = ni /n Ejemplo: Distribución de alumnos según puntuaciones en Dibujo:
Puntuaciones Xi ( de 0 a 5)
Número de alumnos ni = frecuencias absolutas
Frecuencias relativas hi
0 1 2 3 4 5
1 1 3 4 5 6 N = 20
1/20 1/20 3/20 4/20 5/20 6/20 1
(Para la frecuencia relativa de transiciones, véase: Frecuencia de transiciones).
171
FUENTES PRIMARIAS
Número de veces que se repite un valor de una variable (o de un intervalo determinado), según un modelo concreto de distribución: normal, rectangular, etc. Por tanto, las frecuencias teóricas (ft) o esperadas (fe) de una variable estarían constituidas por el número de veces que se repite esa variable en un intervalo determinado, según un modelo de distribución específico: normal, rectangular, etc. FRECUENCIA TEÓRICA (ft o fe).
Número de veces que una determinada categoría es seguida de otra durante la misma sesión de observación. La frecuencia relativa de transiciones es el cociente entre la frecuencia de transición del par de categorías en estudio y la frecuencia de la categoría de conducta antecedente. (Navas, 2001).
FRECUENCIA DE TRANSICIONES.
Prueba estadística no paramétrica para G muestras relacionadas, útil para probar la H0 (hipótesis nula) de que G (c) muestras han sido extraídas de la misma población, cuando los datos de esas G muestras igualadas están medidos, por lo menos, en una escala ordinal (variable continua). Sobre la prueba Q, de Cochran (véase) tiene la ventaja de que se puede utilizar incluso con muestras muy pequeñas, al disponer de tablas de probabilidades exactas. Los datos se disponen en una tabla de dos clasificaciones con N hileras o filas y c columnas. Las hileras son los conjuntos de sujetos igualados y las columnas representan las diferentes condiciones o niveles de la variable independiente (V.I.). Las puntuaciones se transforman en rangos por hileras o filas separadamente: los rangos de cualquier hilera van de 1 a k. Esta prueba determina la probabilidad de que las diferentes columnas de rangos (por muestras o grupos) procedan de la misma población. FRIEDMAN (c2r), prueba de.
FUENTES DE CONOCIMIENTO. Expresión que tiene una doble connotación: a) materiales que sirven de documentación e información al investigador; b) otra más amplia referida a las prácticas sociales, más o menos institucionalizadas, surgidas dentro de la cultura, con el fin de acumular, organizar y transmitir conocimientos.
En la revisión documental, las fuentes generales son aquellas que sirven de referencia para los investigadores. Su consulta orientará o podrá orientar hacia otras fuentes más específicas (revistas, documentos de interés, etc.). Las fuentes generales suelen ser editadas por instituciones dedicadas a la investigación en forma de índices, referencias, boletines, etc.
FUENTES GENERALES.
Fuentes de documentación que facilitan de manera directa información sobre resultados de la investigación: textos o escritos
FUENTES PRIMARIAS.
172
FUENTES SECUNDARIAS
originales donde se recoge directamente la experiencia o vivencia del propio autor (informe de investigación, comunicación o ponencia). Aquí se engloban las revistas especializadas, las monografías, las actas de congresos y simposios, etc. Son los resúmenes o referencias de publicaciones primarias. Se trata de fuentes en las que el autor o autores no han participado de forma directa, puesto que informan sobre trabajos desarrollados por otros investigadores. Suelen ser textos ordenados y clasificados por reconocidas autoridades, que posibilitan el acceso a las fuentes primarias. Aquí se incluyen bibliografías, anuarios, catálogos, reseñas de libros, directorios, etc.
FUENTES SECUNDARIAS.
Regla matemática entre dos conjuntos que asigna a cada miembro del primero otro miembro del segundo (DRAE). Es la relación que existe entre una variable y una o más variables distintas. Esta relación se escribe generalmente, como f (x), «función de x» o «f de x», donde x es la variable. (Véase: Aplicación).
FUNCIÓN.
FUNCIÓN CARACTERÍSTICA DEL ÍTEM. Función que expresa cuál es la probabilidad de que un sujeto —con un determinado valor en la característica o rasgo evaluado por la prueba— responda correctamente a un ítem.
Función que indica cuál es la probabilidad de que un sujeto, con un determinado valor de la característica o rasgo evaluado por la prueba, presente un determinado patrón de respuestas en la prueba en cuestión. Es igual al producto de las funciones características de todos los ítems del test.
FUNCIÓN CARACTERÍSTICA DEL TEST.
Función de distribución de X es aquella función que atribuye a todo valor real de xi la probabilidad de que la variable aleatoria X valga xi o menos que xi. Su notación simbólica será la siguiente:
FUNCIÓN DE DISTRIBUCIÓN.
F (xi)= P (X ≤ xi) Por supuesto, esa probabilidad será la suma de las probabilidades de todos los sucesos elementales de E (o espacio muestral) a los que X asigna valores iguales o menores que xi (Amón, 19846,2). La función representada por f (x) = ax, en la que x (variable independiente) es un exponente (DRAE).
FUNCIÓN EXPONENCIAL.
FUNCIÓN DE INFORMACIÓN DEL ÍTEM
Función que indica, para cada punto de la escala en la que se mide la característica de interés, cuál es la información que sobre esa característica proporciona el ítem en cuestión.
173
FUNCIONAMIENTO DIFERENCIAL DEL ÍTEM
FUNCIÓN DE INFORMACIÓN DEL TEST
Función que indica, para cada punto de la escala en la que se mide la característica de interés, cuál es la información que sobre esa característica proporciona un estimador de la misma. Conjunto de pares asociados de X y de sus respectivas probabilidades. Dado que un mismo hecho elemental puede darse en E (espacio muestral) varias veces, la función de probabilidad de X es aquella que asigna a todo número real, xi , la probabilidad de que la variable aleatoria X asuma ese valor numérico, valga xi. Simbólicamente: FUNCIÓN DE PROBABILIDAD.
f (xi) = P (X = xi) La fórmula que sirve para calcular P ( X = xi) se denomina función de probabilidad. FUNCIONAMIENTO DIFERENCIAL DEL ÍTEM. El funcionamiento diferencial de un ítem se manifiesta cuando la probabilidad de responder correctamente a ese ítem difiere para sujetos que pertenecen a diferentes grupos (blancos-negros, varones-mujeres, universitarios-no universitarios, etc.), pero que tienen el mismo nivel en la característica medida por el test.
G
GAMA.
Rango total o amplitud total (véase).
GAMMA, g, de Goodman y Kruskal. «Proporción de pares semejantes o no-inversos, dentro de los no empatados, menos proporción de pares desemejantes o inversos, dentro, también, de los no empatados» (Amón, 19846, 1, 269). Se utiliza cuando la muestra consta de muchas observaciones y son muy pocos los valores ordinales alcanzables por ellas, por lo que será muy grande el número de empates.
γ =
ns nd n − nd − = s ns + nd ns + nd ns + nd
GENERALIZABILIDAD. Propiedad de generalización (véase) atribuible a los resultados, cuando son extensibles al resto de sujetos o casos que no han participado en la investigación. GENERALIZACIÓN. Extensión de los resultados encontrados en una investigación al resto de casos o sujetos no estudiados en ella. Esta propiedad atribuible a los resultados se denomina generalizabilidad. Un tipo especial de generalización consiste en la interpolación y extrapolación de resultados a partir de los empíricamente hallados, que permitan formular leyes de aplicación general.
Distorsión de la naturaleza de una condición experimental producida por la aplicación de otra anterior. GENERALIZACIÓN DIFERENCIAL.
Propuesta de evaluación de centros que tiene sus raíces en la Misión Académica para la Formación de Enseñantes, creada para fomentar y coordinar la preparación del profesorado en el desarrollo de programas específicos de apoyo a la escuela. El Grupo de Estudio de los Efectos del Dispositivo (GETED) ha elaborado guías (gran cantidad de documentos y propuestas) sobre el funcionamiento y evaluación de instituciones escolares, con especial referencia a la autoevaluación. GETED de Lyon, guías.
176
GIBBS
La recogida de datos para la autoevaluación se efectúa mediante fichas, que contienen los siguientes aspectos: identificación del centro escolar; el alumnado; los contextos de actuación; recursos humanos y materiales; aspectos pedagógicos y organizativos del centro; imagen proyectada al exterior. GIBBS, modelo de. GNOSEOLOGÍA.
(Véase: Modelo de Gibbs).
Sinónimo de epistemología (véase).
No son coincidentes las definiciones que los diversos autores asignan a esta expresión. En general, es el conjunto de observaciones libres (datos) que poseemos de los resultados de un experimento. Si, p. ej., tomamos de cada sujeto una medida, se entiende por grados de libertad (g.l.), al total, N, de medidas. Ahora bien, si aplicamos a este conjunto de medidas u observaciones una restricción, perdemos un grado de libertad, es decir, perdemos tantos g.l. como restricciones lineales apliquemos. Indican aproximadamente en qué número de sujetos o datos se ha basado el estadístico. El número de g.l. se refiere a la cantidad de elementos independientes de los que se obtiene la información necesaria para un adecuado conocimiento de la muestra. O sea, número de valores de la variable que pueden variar libremente. Hay quien habla de «concepto matemático del nombre dado al número de observaciones linealmente independientes que ocurren en una suma de cuadrados» (Ya-Lun Chou, 19772, 276). Como regla general, el número de g.l. para el cálculo de cualquier índice o razón de variación es igual al número de observaciones menos la cantidad de restricciones lineales aplicadas. Así, si afirmamos (en una serie de datos) que el número de desviaciones respecto de su media es igual a cero, hemos establecido una restricción lineal que afectará la relación existente entre las diversas puntuaciones. El principio básico para el cálculo de los g.l. es: g.l = número de observaciones independientes de una fuente de variación menos número de parámetros estimados para el cálculo de la variación. Por ejemplo, las puntuaciones 10, 14, 6, 5 y 5, cuando se presentan como desviaciones de una media de 8, se transforman en + 2, + 6, – 2, – 3 y – 3. La suma de estas desviaciones es 0. En consecuencia, si se conocen cuatro desviaciones cualesquiera, la desviación restante (la 5.a) estará determinada por las anteriores. El número de grados de libertad es 4 (Arnau, 1982; Ferguson, 1986; Rosenthal y Jacobson, 1980). «Para generalizar: el número de grados de libertad, representado por δ, puede considerarse como el número de elementos que pueden escogerse libremente; o como el número de variables que pueden variar libremente; o como el número de variables independientes». (Ya-Lun Chou, 19772, 277). En algunos manuales se representa por ν, «ny» o «nu».(Ostle, 19838, 337). GRADOS DE LIBERTAD.
177
GRUPO NATURAL
GRADUACIÓN, escala gráfica de. Procedimiento de calificar a cada sujeto, mediante el cual el examinador registra su juicio colocando una marca en algún punto de una línea impresa, que comienza indicando el grado más bajo del rasgo y acaba en el más alto.
Representación gráfica por medio de coordenadas: en la abscisa se representa la variable independiente, y en la ordenada la característica medida (de izquierda a derecha —abscisa— y de abajo arriba —ordenada— en vertical). Se indica siempre el punto cero. Los intervalos son iguales. Si se omite una parte de la escala, debe representarse mediante líneas quebradas para indicar la parte de la escala que falta.
GRÁFICA LINEAL.
En una investigación con dos o más grupos (muestras), grupo que no recibe el tratamiento específicamente experimental, es decir, que recibe un nivel nulo de la variable independiente.
GRUPO DE CONTROL.
GRUPO DE CONTROL NO EQUIVALENTE.
(Véase: Diseño con grupo de con-
trol no equivalente). GRUPO DE DISCUSIÓN. Técnica de investigación cualitativa que consiste en una reunión de grupo de 6 a 8 asistentes más el coordinador y que se basa en el supuesto de una estabilidad discursiva en las distintas posiciones sociales existentes respecto al objeto de estudio investigado. Se puede definir como un tipo de conversación debidamente planeada y diseñada para obtener información de un campo concreto de interés, en un ambiente permisivo, sin directividad. Esta técnica permite acceder a imágenes colectivas y simbólicas cargadas de valor, que configuran actitudes, condicionan comportamientos y dan lugar a estados de opinión más o menos permanentes. GRUPO EXPERIMENTAL. En una investigación con dos o más grupos, es el grupo que recibe un nivel no nulo de la variable independiente (V.I.), es decir, que recibe el tratamiento específicamente experimental. GRUPO DE INCIDENCIA CRÍTICA. Subgrupo de individuos con características parecidas pertenecientes a una misma unidad social.
Se habla de grupos naturales cuando la selección y formación de grupos para un estudio cuasi experimental se realiza en función de alguna variable del organismo o institución que se desea estudiar como variable independiente que no puede ser manipulada. Se trata de una situación realista y bastante común: formar los grupos a estudiar con sujetos que pertenecen a grupos naturales tal como están constituidos, o se seleccionan de grupos naturales, sin alterarlos, al azar o mediante emparejamiento para la asignación a los tratamientos.
GRUPO NATURAL.
178
GRUPO NORMATIVO
GRUPO NORMATIVO. Grupo de referencia que sirve de norma y con el que se desea comparar la actuación del sujeto en un test o prueba.
Técnica de investigación cualitativa consistente en una reunión de tres personas más el coordinador y que se encuentra en un espacio discursivo intermedio o de transición entre la entrevista en profundidad y el grupo de discusión. (Navas, 2001).
GRUPO TRIANGULAR.
GUÍAS DEL GETED. GETED
de Lyon (véase).
H
«H», DE KRUSKAL-WALLIS (prueba).
(Véase: Kruskal-Wallis, prueba de).
HÁBITO. Facilidad adquirida por larga y constante práctica de un mismo ejercicio. En psicología, difiere esencialmente de la «costumbre» en que ésta consiste en una repetición de ciertos actos, mientras que el hábito constituye su resultado.
Fenómeno referido a la ausencia de efecto que produce el observador sobre las conductas de los sujetos observados, a consecuencia de su presencia continua o prolongada.
HABITUACIÓN.
Tendencia a calificar o evaluar un objeto, o un sujeto, por rasgos parciales o por la impresión general que se tiene de ellos. Ejemplos: calificar de inteligente a alguien que comparte nuestras ideas; dar a un sujeto, con quien se simpatiza, una calificación más alta de la que se merece; o, en general, al evaluar a los individuos, que la puntuación de una característica tienda a influir en las calificaciones de las demás. (Gonzalvo, 1978; Kerlinger, 1975). HALO, efecto de.
Efecto consistente en la tendencia de los humanos a alterar su comportamiento, con independencia del tipo y nivel de variable independiente, por el mero hecho de sentirse observados como parte de una investigación. La presencia de personas extrañas provoca con frecuencia conductas reactivas, como asimismo la sofisticación de la situación experimental, cuando los sujetos la perciben como algo fuera de la normalidad. En tales circunstancias se desencadena una serie de conductas distintas a las que manifestarían si ignorasen que son objeto de estudio. Se trata, por tanto, de un resultado, o hallazgo, inesperado, debido a cualquier cambio que puedan suponer novedad o artificialidad de un experimento y la conciencia del sujeto de que está participando en él. Ello obstaculiza la generalización de conclusiones, y es lo que se denomina «efecto reactivo de los dispositivos experimentales». De ahí que los ha«HAWTHORNE», efecto.
180
HERMENÉUTICA
llazgos imprevistos deben despertar mayor sospecha que los previstos. Antes de aceptarlos, deben ser validados por una investigación independiente, en la cual se haga una predicción específica antes de que aparezcan y se sometan a prueba (Kerlinger, 1975, 110-111 y 243-244). HERMENÉUTICA. Etimológicamente (del griego «hermeneutikós», hermenéutico), arte de interpretar textos para fijar su verdadero sentido, y especialmente el de interpretar los textos sagrados. Teoría de la comprensión que se ocupa del modo en que se posibilita el acceso al otro, ya sea sujeto, texto, acontecimiento, etc. Escuela filosófica cuya línea de pensamiento es antipositivista. Parte del principio de captar el interior de la persona para comprenderla en toda su intensidad. Le interesa analizar las manifestaciones externas de la conducta humana, los hechos históricos y sociales para «comprender» su significado profundo. El término comprender representa el principio metodológico propio de las ciencias sociales: «comprensión desde dentro» de los fenómenos histórico-sociales y humanos (unidad entre el sujeto y el objeto). Sus postulados se resumen así: 1. Rechazo del monismo metodológico. 2. Rechazo del método positivo y, en concreto, del canon ideal de explicación científica de la física-matemática. 3. Rechazo al excesivo afán causalista y predictivo. 4. Oposición a reducir la razón a la mera razón instrumental. Por tanto, la corriente hermenéutica se desvincula del método único de las ciencias naturales, de su canon ideal de explicación científica y de su excesivo afán causalista y predictivo. Trata de comprender «desde dentro», más que de explicar, los fenómenos humanos. Esta corriente hermenéutica sentaría las bases del paradigma cualitativo-interpretativo (véase). HETEROCEDASTICIDAD.
(Véase: Heteroscedasticidad).
En contraste con homoscedasticidad (véase), es la condición o característica de una distribución de datos en que las desviaciones típicas (o las varianzas) de las ordenaciones (filas o columnas) tienden a ser desiguales. Frente a la varianza constante —en caso de homoscedasticidad— en la heteroscedasticidad se da una varianza no constante: un aumento o una disminución de dicha varianza. La heteroscedasticidad ocurre cuando V (yi| xi) varía según la escala de valores de X. Es observada a menudo en datos en los que, por ejemplo, las variaciones en las alturas de los árboles podrían disminuir con aumentos en las edades de los árboles, o donde las variaciones en el gasto para consumo son mayores al aumentar el nivel de ingresos. (Ya-Lun Chou, 19772). HETEROSCEDASTICIDAD.
181
HIPÓTESIS
Cuando los datos no son homoscedásticos, no se aplican los métodos usuales para calcular los valores esperados sobre el eje Y para cada valor correspondiente al eje X (ejes de coordenadas). (Downie-Heath, 19816, 104-105). Etimológicamente (del griego «eurískein», inventar) significa arte de inventar. Técnica de la indagación y del descubrimiento. Búsqueda o investigación de documentos históricos. En algunas ciencias, manera de buscar la solución de un problema mediante métodos no rigurosos, como por tanteo, reglas empíricas, etc. Es el caso, por ejemplo, de la programación heurística (véase), técnica empleada para la creación de modelos de simulación (véase). HEURÍSTICA.
Perteneciente o relativo a la heurística (véase). Indagador, investigador.
HEURÍSTICO.
HIPÓTESIS. Conjetura que se formula como tentativa de solución a un problema acerca de la relación existente entre variables implicadas. A ella se puede llegar, bien mediante la inducción y la generalización de lo observado, bien mediante la deducción de implicaciones observables de un modelo teórico. Ya se proceda por la vía inductiva o ya por la deductiva, es necesario siempre contrastar empíricamente con la experiencia la hipótesis ofrecida como solución tentativa. Suele expresarse en forma condicional: «si…, entonces…».Una hipótesis de investigación es bilateral o bidireccional o de dos colas (bicaudal) cuando se contrasta en regiones críticas (zonas de «no azar» o de ubicación de H1 o hipótesis alternativa) situadas en ambos extremos del modelo. Es unilateral, unidireccional, de una cola (unicaudal), cuando el contraste trata de averiguar si un parámetro es mayor o menor que el postulado por la hipótesis nula (H0). Aquí la región crítica se sitúa a la derecha (unilateral derecha) o a la izquierda (unilateral izquierda) del modelo. Toda hipótesis debe estar apoyada en una teoría, en una explicación racional, verosímil, de la realidad; es decir, bien fundamentada. Lo que no impide esa capacidad intuitiva y creativa para establecer relaciones no evidentes entre variables (las evidentes se le ocurren a cualquiera): «ver lo que otros ven y pensar lo que otros no han pensado», según Krebs (premio Nóbel). La mera formulación de la hipótesis se convierte en orientación y guía del proceso y de su resolución al identificar las variables implicadas, al relacionarlas de una u otra manera, al expresar los indicadores que permitirán su mantenimiento o su rechazo. Será pues, contrastable; de lo contrario no merecería la aceptación de la comunidad científica: contrastable en forma pública e intersubjetiva. Aunque, ante la imposibilidad
HIPÓTESIS ABSTRACTA
182
de contrastar directamente la hipótesis científica, lo que se contrasta son las consecuencias observables de la misma. Para ello habrá que definir operativamente las variables, es decir, traducir a indicadores empíricos, observables, las consecuencias que se seguirán de ser cierta la hipótesis. Aquella hipótesis que no tiene la concreción de las hipótesis de investigación (estadísticas o hipótesis de trabajo). Dentro de las hipótesis abstractas, cabe todo enunciado teórico, esté o no contrastado con la realidad. Si lo está, porque pueden construirse nuevas hipótesis de investigación en relación a poblaciones y tiempos no investigados. Si no está contrastado ese enunciado teórico, con mayor razón, dada la necesidad de una validación empírica que pueda transformarse algún día en verificación.
HIPÓTESIS ABSTRACTA.
Simbolizada por H1, establece otro valor o conjunto de valores para el parámetro desconocido distintos de los propugnados por H0 (hipótesis de nulidad). También llamada hipótesis de investigación, de diferencia, o hipótesis experimental, es la aseveración operacional de la hipótesis de investigación del experimentador. Admite contraste bilateral (bidireccional o de dos colas) mediante pruebas bilaterales (véase), o contraste unilateral (unidireccional o de una cola) mediante pruebas unilaterales (véase). Ejemplos: HIPÓTESIS ALTERNATIVA.
H1: µA ≠ µB (hipótesis bilateral) H1: µA > µB (hipótesis unilateral derecha) H1: µA < µB (hipótesis unilateral izquierda) HIPÓTESIS BILATERAL. La que preconiza contraste bidireccional (bilateral, bicaudal o de dos colas) mediante pruebas bilaterales (véase).
Suposición formulada en términos científicos expresando relación o dependencia entre las variables, con definición expresa de las mismas. Su valoración exige la realización de algún experimento. Se identifica, para algunos autores, con la hipótesis sustantiva (véase), según su forma de expresión cuantitativa. La hipótesis científica es el final de un largo camino que no guarda relación con la estadística. Normalmente las hipótesis estadísticas surgen de las hipótesis científicas. En todo caso, la hipótesis de nulidad (H0) es un instrumento en manos del investigador para probar experimentalmente hipótesis científicas.
HIPÓTESIS CIENTÍFICA.
Aquella hipótesis que, considerando su nivel de aproximación a la realidad, persigue establecer generalizaciones de maHIPÓTESIS CONCEPTUAL.
183
HIPÓTESIS ESTADÍSTICA
yor aplicación en el futuro. Es la llamada «macrohipótesis», que enmarca de forma genérica el campo objeto de investigación. Denominación que algunos autores asignan a las hipótesis descriptivas (véase) con dos o más variables y relación de aseveración. HIPÓTESIS CORRELACIONALES.
Según el número de variables y sus relaciones, las hipótesis descriptivas pueden ser: a) Hipótesis descriptiva de una sola variable. Es la que postula la existencia de determinadas características, uniformidades o regularidades empíricas en una población o universo. Se trata de afirmaciones que sólo pretenden probar si en los sujetos seleccionados —representativos de la población— se manifiesta una determinada característica. b) Hipótesis descriptiva, con dos o más variables y relación de aseveración. Es la que establece una relación simple de asociación o covariación entre tales variables; es decir, de cambio en una variable acompañado de un cambio correlativo en la otra, del mismo o de distinto signo, sin que se precise si una variable influye en el cambio de la otra. O sea, sólo busca constatar los niveles de asociación y el grado en que se produce esa asociación entre las variables. En este tipo se encuadran todas aquellas hipótesis que implican relación entre variables que no sea de causalidad en el sentido de influencia. c) Hipótesis descriptiva, con dos o más variables y relación de dependencia. La que busca la explicación y la predicción de los fenómenos. Es el campo de las hipótesis causales, dado que pretenden explicar o conocer las razones o motivos de los fenómenos en estudio. Estas hipótesis son las más interesantes, por tanto, desde el punto de vista científico. HIPÓTESIS DESCRIPTIVAS.
HIPÓTESIS DE DIFERENCIA.
(Véase: Hipótesis alternativa e hipótesis sus-
tantiva). HIPÓTESIS ESTADÍSTICA. Es la aseveración referida a funciones matemáticas (media, correlación, varianza, etc.) definidas sobre la población, que rechazaremos o no sobre la base del cálculo de probabilidades, asumiendo «a priori» cierta probabilidad de equivocarnos (coeficiente de riesgo o nivel de significación: α). Es, por tanto, toda proposición acerca de la distribución de probabilidad de una o varias variables aleatorias. Puede decirse que la hipótesis estadística es la proposición conjetural o predicción expresada o definida en términos de relaciones estadísticas deducidas de las relaciones de una hipótesis sustantiva o científica
184
HIPÓTESIS EXISTENCIALES
(véase). Establece una relación entre los parámetros poblacionales, que debe ser comprobada empíricamente. En otras palabras, la hipótesis estadística intenta predecir cuál será el resultado cuantitativo (global, sin especificarlo con precisión y exactitud matemática) de los estadísticos utilizados en el análisis de datos de un problema de investigación. Pero debe ser sometida a prueba comparándola con otra proposición llamada «hipótesis de nulidad» (H0), que declara no existir relación entre las variables del problema expresadas en la hipótesis estadística. (Kerlinger, 1975, 143). Fox matiza que la hipótesis estadística es la hipótesis de investigación con formulación de no diferencia que se contrasta, sea cual fuere el método inferencial que elijamos. Es decir, los estadísticos inferenciales sólo pueden contrastar hipótesis estadísticas de no diferencia o hipótesis de nulidad (véase), H0. En el cuadro adjunto se reproduce la interacción de: «hipótesis de investigación», «resultado inferencial», «decisión con respecto a la hipótesis estadística» y «decisión con respecto a la hipótesis de investigación» (Fox, 1981, 293-294).
Resultado inferencial
Decisión con respecto a la Hipótesis estadística
Decisión con respecto a la Hipótesis de investigación
No diferencia
No hay diferencia Diferencia
Se acepta Se rechaza
Se acepta Se rechaza
Diferencia
No hay diferencia Diferencia
Se acepta Se rechaza
Se acepta Se rechaza
Hipótesis de investigación
En otros manuales, sin embargo, se afirma que las hipótesis estadísticas que deben ser comprobadas empíricamente, pueden enunciarse en forma de hipótesis nula (H0) y de hipótesis alternativa (H1) o sólo en la forma alternativa, dando por supuesta la hipótesis nula, que postula la no existencia de diferencia o relaciones (estadísticamente significativas) entre los grupos. La H1 establece, por el contrario, la relación entre las variables, bien de forma genérica (bidireccional o bilateral), bien decantándose por una de las opciones (direccional o unilateral). Algunos autores recomiendan no omitir la formulación de H0, por humildad científica. Las que —según posibilidad y nivel de generalización— establecen una relación entre dos o más variables para, al menos, un caso. (Ej.: los alumnos de segundo curso de Secundaria del centro X HIPÓTESIS EXISTENCIALES.
185
HIPÓTESIS METAFÍSICA
que utilizan el método Y para el aprendizaje del Álgebra, lograrán mejores resultados académicos que aquellos que no lo empleen). Es la hipótesis alternativa o hipótesis de investigación (véanse), de diferencia.
HIPÓTESIS EXPERIMENTAL (de investigación).
Explicación tentativa y comprobable sobre las relaciones entre dos variables que constituye una posible solución a un problema de investigación. Las hipótesis de investigación o experimentales suelen formularse en la forma de antecedente y consecuente: «si…, entonces…». «Es la predicción que se deriva de la teoría que se está probando» (Siegel, 1982, 26). «Predicción que hace el investigador de una conclusión concreta» (Fox, 1981, 293). En ciertos casos, una hipótesis de investigación puede afirmar que no se espera encontrar ninguna diferencia, lo que ocurre cuando el investigador espera que no haya diferencias, aparte de las producidas por azar, y entonces expresa la hipótesis en la forma nula, hipótesis de no diferencia (H0). En otros casos el investigador espera encontrar alguna diferencia, y esto se reflejará en su hipótesis de investigación (H1). Pero, aunque para las hipótesis de investigación podemos elegir entre las formulaciones de «no diferencia» y de «diferencia», los estadísticos inferenciales sólo pueden contrastar hipótesis de no diferencia. Dicho de otro modo, sea cual fuere el método inferencial que elijamos, sólo podemos contrastar una hipótesis estadística de «no diferencia». (Fox, 1981, 293). HIPÓTESIS DE INVESTIGACIÓN.
Resultado inferencial
Decisión con respecto a la Hipótesis estadística
Decisión con respecto a la Hipótesis de investigación
No diferencia
No hay diferencia Diferencia
Se acepta Se rechaza
Se acepta Se rechaza
Diferencia
No hay diferencia Diferencia
Se acepta Se rechaza
Se acepta Se rechaza
Hipótesis de investigación
(Fox, 1981, 294). HIPÓTESIS METAFÍSICA. Es la hipótesis que, por su naturaleza, puede expresar: bien las conjeturas cosmológicas (esencia del universo y estructura) o suposiciones generales sobre la realidad (ej.: «el universo está escrito en lenguaje matemático»), o bien las que se refieren a enunciados que trascienden la experiencia científica («metafísica» indica «más allá o después de la física»). Ej.: el alma es inmaterial.
HIPÓTESIS DE NULIDAD
186
HIPÓTESIS DE NULIDAD o nula. Hipótesis que es aceptada provisionalmente como verdadera y que es sometida a comprobación experimental. A la vista de los resultados experimentales, la seguiremos aceptando como verdadera o la rechazaremos. En otros términos: hipótesis que supone que los resultados obtenidos se deben al azar, con referencia a la afirmación relativa a uno o más parámetros, sometida a una prueba estadística. Se simboliza así: H0. Es la hipótesis estadística de no diferencia, única que pueden contrastar los estadísticos inferenciales. Esta hipótesis es la que se acepta o rechaza por medio de los datos obtenidos en el experimento, después de cotejar estos últimos con los valores que podrían esperarse por casualidad pura y simple, es decir, por azar. La aceptación de la hipótesis de nulidad (H0) no implica su confirmación. Significa sólo que, basándose en los datos disponibles, no se puede rechazar, lo que es distinto de que se haya aceptado. La hipótesis de diferencias nulas (H0) es formulada por lo común con la intención expresa de ser rechazada. Si se rechaza, puede aceptarse entonces la hipótesis alterna (H1). Se formula así, tratándose de medias:
H0 : µA = µB o que µA - µ B= 0 Supone que una estimación observada refleja las fluctuaciones del proceso de muestreo al azar o las variaciones del azar. Pone en duda el efecto de una variable experimental hasta que se determina el efecto como una diferencia significativa y no como resultado del azar. En el ejemplo de un experimento en clase, la H0 afirmaría que las diferencias entre las ganancias medias de los alumnos resultarían del azar. Para probar que la diferencia era significativa estadísticamente, habría que rechazar la H0. Sólo si ésta fuera rechazada con éxito, podría afirmarse la superioridad posible de uno de los métodos de enseñanza o de las variables experimentales. La palabra «posible» es importante aquí, porque el rechazo de H0 no probaría necesariamente la superioridad de una variable experimental. Solamente excluiría la posibilidad de que variaciones del muestreo explicaran las diferencias obtenidas. (Fox, 1981; Gonzalvo, 1978; Rodrigues, 1980; Siegel, 1982). Tipo de hipótesis que, por su nivel de aproximación a la realidad, implica que las variables relacionadas vengan expresadas en términos observables. En las investigaciones de amplio alcance, las hipótesis operacionales son las subhipótesis dependientes de las grandes hipótesis generales.
HIPÓTESIS OPERACIONAL.
Hipótesis que —según posibilidad y nivel de generalización— tratan de establecer una gradación en el término «universaHIPÓTESIS PROBABLES.
187
HIPÓTESIS, VALIDACIÓN DE
lidad» para determinados casos. En la formulación de este tipo de hipótesis, el investigador es consciente de que sus afirmaciones pueden quedar validadas sólo en términos de probabilidad, nunca de certeza. HIPÓTESIS DE SENTIDO COMÚN. Hipótesis que, por su naturaleza, expresa suposiciones sobre hechos y sucesos de la vida que todo el mundo puede verificar. (Ej.: cuando hiela, el termómetro desciende a cero grados centígrados o por debajo de 0º).
Conjetura de la relación entre dos o más variables que, para ser sometida a prueba, debe traducirse a términos operacionales y experimentales. La forma útil de someter a prueba la hipótesis sustantiva es por medio de una hipótesis estadística (véase). (Kerlinger, 1975). Esta hipótesis, también denominada científica, pero con matices, por su forma de expresión cuantitativa, se refiere a la relación o dependencia entre las variables, con definición expresa de las mismas. Puede venir derivada de la observación y la experiencia (inductiva), al partir de la realidad para de ahí elevarse a la teoría. En cambio, cuando se deriva de la teoría (deductiva) el proceso es a la inversa, de arriba hacia abajo; sirve para comprobar el funcionamiento de las teorías. Comúnmente se la denomina hipótesis alternativa (véase) o hipótesis del investigador.
HIPÓTESIS SUSTANTIVA.
HIPÓTESIS DE TRABAJO. Hipótesis que algunos autores identifican con la hipótesis de investigación (véase), dentro del criterio del nivel de generalización. Son las hipótesis específicas de una determinada investigación. En su formulación se concretan —con referencia a esa investigación— un tiempo, un lugar, una población definida, etc. HIPÓTESIS UNILATERAL. Hipótesis que preconiza contraste unilateral (unidireccional, unicaudal o de una sola cola) mediante pruebas unilaterales (véase). HIPÓTESIS UNIVERSALES. Aquellas hipótesis que —atendiendo a la posibilidad y nivel de generalización— son válidas en todos los casos. En las Ciencias Sociales (y en concreto en el campo educativo) resulta prácticamente imposible llegar a establecer estas hipótesis, pues es comprensible que, en circunstancias similares, los resultados puedan llegar a ser comparables, pero difícilmente idénticos en todos los sujetos.
En la metodología científico-experimental, etapa del diseño de investigación, tras la formulación de hipótesis, para someter ésta a contrastación. Comprende, al menos, los siguientes pasos: 1. Determinación de las variables independientes, dependientes y extrañas a controlar (definición operativa). HIPÓTESIS, validación de.
HISTOGRAMA
188
2. 3. 4. 5. 6.
Población y muestra. Instrumentos de medición: selección y/o elaboración. Recogida y tabulación de datos. Análisis de datos: prueba estadística. Decisión estadística: aceptación o rechazo de hipótesis e interpretación de resultados. La expresión validación de hipótesis no puede interpretarse como verificación (véase) en el sentido absoluto de este término. Por tanto, es más adecuado hablar de validación de hipótesis (dado su carácter de provisionalidad) en el sentido de «contrastación» o «confirmación» de la misma, lo que nos permite clasificarla como probable o improbable, a tenor de los datos empíricos manejados. Por tanto, sería arriesgado e incorrecto hablar de «verificación» de las hipótesis (Arnau, 1978, 164; McGuigan, 1977, 364), puesto que tal verificación nos llevaría a determinar, de un modo absoluto, la verdad o falsedad de una hipótesis, sobre la base de una sola prueba de evidencia. Representación gráfica de datos mediante barras o rectángulos de altura proporcional a su magnitud (diagrama de barras —véase—). Cada una de las barras o rectángulos tiene como base un intervalo de clase, y como altura el número de casos en el intervalo específico que representa. La escala horizontal se mide en intervalos y la vertical en frecuencias. Se suele utilizar con caracteres o valores de tipo continuo y, por tanto, agrupados en clases, aunque es preferible para este caso el polígono de frecuencias (véase). Pero, sobre todo, el histograma es idealmente adecuado para variables cuantitativas discretas.
HISTOGRAMA.
Factor o variable extraña que afecta a la validez interna del diseño de investigación, cuando no se controla el influjo de los acontecimientos ocurridos entre la primera y la segunda medición, además de la actuación de la variable independiente. Cuando dichos acontecimientos son conocidos por los sujetos, pueden producir cambios en éstos, que se añaden a los causados por la variable experimental. Se trata de diferentes eventos específicos, al margen del tratamiento experimental, que ocurren entre la causa y el efecto, o entre el pretest y el postest, dándonos explicaciones alternas de efectos. Por ejemplo, durante el tiempo transcurrido en el proceso de investigación, podrían ser fuentes de sesgo: el propio experimentador, al no poder actuar simultáneamente con los grupos, el día de la semana, la hora del día, los acontecimientos escolares y extraescolares (introducción de cierta tecnología en uno de los grupos, por ejemplo el vídeo, un programa o serie de Televisión…). El control del efecto «historia» resulta más difícil a medida que aumenta la duración del experimento y el tiempo dedicado a la medición.
HISTORIA.
189
HOMOSCEDASTICIDAD
HOLISMO. Doctrina filosófica que propugna la concepción de cada realidad como un todo distinto de la suma de las partes que lo componen. Como corriente doctrinal, el holismo es uno de los pilares de la metodología cualitativa, ligada al paradigma cualitativo-interpretativo (véase).
Perspectiva que considera los elementos de un sistema de forma global, interactiva y dinámica. (Véase: Holismo).
HOLISTA.
HOMOCEDASTICIDAD.
Término empleado como equivalente a homosce-
dasticidad (véase). HOMOGENEIDAD DE VARIANZAS. Es uno de los requisitos para aplicar contrastes con «pruebas paramétricas»: las varianzas de los grupos deben ser estadísticamente iguales (es decir, las diferencias que normalmente encontramos deben quedar dentro de los límites esperables como efecto de la extracción aleatoria de las muestras). Lo que quiere decir que los grupos en estudio proceden de una misma población o de poblaciones con igual varianza (homoscedasticidad, véase). La violación de este requisito puede ser grave, ya que en el análisis de varianza se supone que las varianzas dentro de los grupos son estadísticamente las mismas. Es decir, se supone que de un grupo a otro las varianzas son homogéneas dentro de los límites de la variación aleatoria. Las pruebas más sencillas para comprobar este supuesto de homogeneidad son las de Hartley y Cochran, mientras la de Bartlett es la más compleja.
Vocablo equivalente a homocedasticidad. Ambos términos se usan indistintamente, aunque homoscedasticidad se ajusta más en el prefijo a su origen del griego: «homós-hómoios» (igual, semejante, parecido), significando todo el vocablo, literalmente, «igual dispersión». Suposición de que dos poblaciones tienen igual varianza o varianzas homogéneas, o sea, igual dispersión de sus valores. O bien, condición o característica de una distribución de datos en que «las desviaciones típicas (o las varianzas) de las ordenaciones (filas y columnas) tienden a ser iguales». (Downie-Heath, 19816, 104). Condición de igualdad de varianza en Y, para cualquier valor de X. La homoscedasticidad es una propiedad aplicable a grandes conjuntos de datos bivariados. Cuando los n datos son pequeños, del orden de 100 ó menos, no debe esperarse igualdad de varianzas para dos valores cualesquiera de X. «Evidentemente, el tamaño de los errores cometidos al predecir Y a partir de X, indica la precisión de la estimación. Para los datos obtenidos, es decir, para los n pares de puntuaciones X e Y, las diferencias entre la puntuación real Y y la estimada, indican medidas de los errores cometi-
HOMOSCEDASTICIDAD.
HOMOSCEDASTICIDAD
190
dos, caso de emplear X para la estimación de Y. Tales errores se denominan errores de estimación». (Glass-Stanley, 1974, 140-141). La heteroscedasticidad es observada a menudo en datos en los que, por ejemplo, las variaciones en las alturas de árboles podrían disminuir con aumentos en las edades de los árboles, o donde las variaciones en el gasto para consumo son mayores al aumentar el nivel de ingresos.
I
IDIOGRÁFICA, metodología.
(Véase: Metodología idiográfica).
IDIOGRÁFICO. Término que se aplica a lo que se fundamenta en la descripción de acontecimientos o hechos particulares. Pretende el estudio de particularidades, generalmente no para alcanzar leyes generales, sino para la comprensión de comportamientos individuales. (Véase: Metodología idiográfica).
Un ítem presenta impacto, cuando la probabilidad de ser contestado correctamente sea mayor para un grupo que para otro, reflejando una diferencia real entre ambos grupos en la variable medida por el ítem.
IMPACTO de un ítem.
INCIDENCIA CRÍTICA, grupo de.
(Véase: Grupo de incidencia crítica).
INDICADOR. El término indicador se emplea como señal o guía de algo que se traduce en todo aquello que puede ser cuantificado (datos). Como medida estadística, permite analizar una realidad social desde un punto de vista diacrónico para reflejar su evolución y su desarrollo. El uso de indicadores es muy recomendable en alguno de los momentos del proceso evaluador en que se aspira a alcanzar la máxima objetividad de los datos. Para algunos autores son especialmente útiles en el seguimiento, control y evaluación operativa de las intervenciones educativas. Los requisitos exigibles a los indicadores son: independencia, verificabilidad, validez y accesibilidad. Se distinguen los indicadores descriptivos (recolección de datos sin buscar relaciones entre los elementos) de los evaluativos o normativos (reflejan las relaciones producidas en el pasado e intentan predecir si éstas se producirán en el futuro). Naturalmente, en el campo de la investigación evaluativa son más utilizados los segundos, por constituir una herramienta básica en el análisis de necesidades, ser el medio para comprobar el nivel de cumplimiento de los objetivos del programa, y también el instrumento de estimación de los efectos finales producidos en los sujetos.
192
INDICADOR DESCRIPTIVO INDICADOR DESCRIPTIVO.
(Véase: Indicador).
INDICADOR EVALUATIVO O NORMATIVO.
(Véase: Indicador).
Entre los varios significados de este término, es destacable el referido a la investigación. El número índice (o simbólicamente «índice») es una medida estadística utilizada para medir cambios en grupos de datos o recoger los cambios ocurridos en una variable o grupo de variables en el tiempo o en el espacio. Su expresión numérica refleja la relación entre cantidades y se presenta en forma de porcentaje (índice de inflación, índice de crecimiento económico, etc.). Resulta de la comparación por cociente entre los valores absolutos de la variable o conjunto de variables y otro valor fijo que se toma como base de comparación o de referencia (valor del 100%) para determinar con respecto a él el movimiento porcentual de la serie o series en estudio. Una definición útil para la investigación sería: índice es un número compuesto de dos o más cifras diferentes que resume todas las medidas de las observaciones realizadas, de forma sucinta. Con esta definición todas las sumas y promedios son índices. Los índices tienen gran importancia en el análisis científico, ya que simplifican las comparaciones. ÍNDICE.
ÍNDICE DE COHESIÓN DEL GRUPO.
(Véase: Índices sociométricos).
ÍNDICE D (de discriminación). Índice que mide el poder discriminativo de un ítem. Es el valor numérico, expresado en tanto por ciento o en tanto por uno, que se refiere a la diferenciación o contraste de resultados de un ítem en un test o una prueba. Se basa en la información proporcionada al comparar la actuación en el ítem de los grupos extremos de puntuación en la prueba. Esos grupos extremos se forman, generalmente, con el 27 por 100 de los sujetos con más baja puntuación y con el 27 por 100 de más alta puntuación. (Véase: Discriminación de un ítem). ÍNDICE DE HOMOGENEIDAD. Índice basado en la correlación ítem-test, sin incluir al ítem bajo estudio. ÍNDICE DE INTEGRACIÓN.
(Véase: Índices sociométricos).
ÍNDICE, número. Medida estadística cuya finalidad es mostrar los cambios sufridos por una variable o por un grupo de variables a través del tiempo (series temporales) o de alguna otra característica, como la edad, el nivel educativo, la profesión, la distribución del alumnado, etc. Los índices denominados de Laspeyres, Paasche, y Fisher se utilizan a menudo en Economía. El de Laspeyres se calcula mediante la media aritmética; el de Paasche utilizando la media armónica; y el de Fisher, es la media geométrica de un índice de Laspeyres y un índice de Paasche.
193
INDUCCIÓN
ÍNDICE p de dificultad. El índice de dificultad (o índice de facilidad, según se considere) es el valor numérico que expresa la proporción de sujetos que responden correctamente a un test. (Véase: Dificultad de un test). La dificultad se expresa numéricamente por el número de sujetos que resuelven cada elemento, siendo tanto más difíciles cuanto menos sujetos lo logran. El cociente entre los sujetos que resuelven satisfactoriamente el elemento (los que aciertan, A) y los que lo intentan (n), se denomina índice de dificultad:
I.D. = A / n El valor máximo del I.D. será 1. Indicaría que todos los que han intentado la solución lo han logrado (elemento muy fácil). Los elementos, de acuerdo con los valores I.D., suelen clasificarse: Muy difíciles: I.D. < 0,25 Difíciles: I.D. entre 0,25 y 0,44 Normales: I.D. entre 0,45 y 0,54 Fáciles: I.D. entre 0,55 y 0,74 Muy fáciles: I.D. 0,75 ÍNDICE DE POPULARIDAD.
(Véase: Índices sociométricos).
Entendidos como razones (cocientes) entre varias puntuaciones, los índices sociométricos pueden ser individuales (p. ej., «estatus» sociométrico de un sujeto determinado), donde caben los cocientes entre las elecciones recíprocas en que interviene el sujeto y las que emite o las que recibe; o entre las elecciones que recibe y las posibles, etc. Además de los índices individuales (p. ej., el de «popularidad») también los índices pueden ser globales de grupos, entre los que se encuentran el de «cohesión» y el de «integración» del grupo. Principales índices utilizados:
ÍNDICES SOCIOMÉTRICOS.
Índice de popularidad =
núm.elecc.recibidas n( total) − 1
Índice de cohesión del grupo = Índice de integración =
núm.elecc.recíprocas núm.elecc.rests.
1 núm.alum.aislados *
* Alumnos aislados: los que ni efectúan ni reciben elecciones. NOTA. En los tres casos se contempla la primera elección. INDUCCIÓN. Proceso metodológico de la ciencia para enunciar o establecer determinadas leyes en que se pasa de lo particular a lo universal o, al menos, más general. Es decir, va de las partes al todo, de los hechos y fenómenos a las leyes, de los efectos a las causas.
INFERENCIA
194
En este proceder, o se estudian todas las particularidades (casos particulares posibles y coincidentes) para llegar al universal —sería la inducción completa o perfecta— o sólo se estudia un cierto número, aunque suficiente, de todos los casos y, sobre esta premisa, se llega a una conclusión general, lo que comporta un riesgo: es la inducción incompleta o imperfecta, en que no existe certeza en las conclusiones; únicamente se les atribuye un mayor o menor grado de seguridad o, más exactamente, mayor o menor probabilidad. En síntesis, la inducción es el proceso por el que se pasa de hechos conocidos o de conocimientos particulares a teorías o leyes generales (generalizaciones), a partir de un número suficiente y representativo de casos u observaciones individuales. INFERENCIA. Acción y efecto de inferir, es decir, de extraer una consecuencia o deducir una cosa de otra; también, llevar consigo, ocasionar, conducir a un resultado. El término inferencia es más amplio que el de inducción (véase), ya que se refiere a extraer una consecuencia, por lo que contiene no sólo la «inducción», sino también la deducción (véase). Y así se habla de inferencia inductiva e inferencia deductiva (véanse).
Deducción o extracción de consecuencias a partir de una hipótesis (posible explicación de una dificultad o solución a un problema) que, de ser cierta, deberían producirse. Confirmadas tales consecuencias, inducimos que la hipótesis ha quedado validada, aunque no verificada.
INFERENCIA DEDUCTIVA.
INFERENCIA ESTADÍSTICA. En la investigación social, inducción de características de un grupo reducido (muestra) a toda la población de la que procede dicha muestra, lo que permite extraer generalizaciones del proceso de muestreo. Esta inferencia inductiva (véase) se efectúa en términos de probabilidad. En las Ciencias Sociales las inferencias estadísticas que suelen interesar más frecuentemente son de tres clases: estimación puntual (véase), estimación por intervalo o estimación de intervalos (véase) y evaluación de la probabilidad de obtener determinados resultados muestrales, cuando se cumplen ciertas condiciones en la población.
Paso de un enunciado particular a otro universal o, al menos, más general; o, en la investigación social, inducción de características de un grupo reducido (muestra) a toda la población, lo que permite extraer generalizaciones del proceso de muestreo.
INFERENCIA INDUCTIVA.
Efecto que produce variación sobre la variable dependiente atribuido a la presencia de la persona que da las instrucciones y recoge los datos.
INFLUENCIA DEL EXPERIMENTADOR.
195
INTENSIDAD
En la investigación etnográfica (véase), personas que poseen los datos más relevantes sobre las actividades desarrolladas por la comunidad de sujetos investigados (comunidad educativa o de otro tipo), que tienen experiencia en el campo estudiado, la adecuada preparación y la voluntad de cooperar con el investigador.
INFORMANTES-CLAVE.
INFORME DE INVESTIGACIÓN. Descripción escrita de las características de una determinada investigación, así como de las aportaciones más reseñables que los responsables del proyecto estiman deben ser conocidas por otras personas. Su finalidad principal es informar al público interesado en un determinado problema desde una triple perspectiva (Fox, 1981): a) Comunicar la naturaleza del trabajo con el mayor rigor; b) Comunicar las características de los resultados con el máximo detalle, para que de su lectura se puedan derivar las conclusiones principales; c) Comunicar la interpretación que el investigador hace de los datos: principales conclusiones y recomendaciones. En síntesis, la función principal del informe de investigación es comunicar los resultados de ésta a la comunidad científica y al público interesado, con la máxima objetividad en sus planteamientos. Sobre la importancia, utilidad, niveles y difusión, así como los aspectos a contemplar en el informe de investigación, pueden verse —entre otros autores— en García Llamas (2003). INSTRUCCIÓN, cociente de.
(Véase: Cociente de instrucción).
Factor o variable extraña que afecta a la validez interna del diseño de investigación. Ocurre cuando no se controlan los cambios en los instrumentos de medición, o de estimulación, o cambios en los observadores o calificadores participantes, ya que pueden producir variaciones en las medidas que se obtengan, si pasan inadvertidos al experimentador. Por ejemplo, si un proyector funcionó correctamente el 100% de las veces en la primera situación experimental y sólo el 75% de las veces durante la segunda: entre las dos sesiones habrá una diferencia al medir las respuestas de los sujetos; lo mismo podríamos concluir si se cambian los observadores. Este efecto perturbador es más difícil de controlar en los experimentos que utilizan en el pretest instrumentos que exigen entrenamientos laboriosos y/o medidas repetidas de un mismo sujeto. Es fácil de controlar en aquellos que utilizan una sesión única con un solo experimentador y con un instrumento de medida fiable y fácil de interpretar.
INSTRUMENTACIÓN.
Tipo de medida, utilizado en la observación, que informa del grado en que un elemento se hace presente dentro de un fenómeno determinado.
INTENSIDAD.
196
INTERACCIÓN
INTERACCIÓN. Acción conjunta de dos o más variables independientes (V.I.) sobre una variable dependiente (V.D.). Dada la complejidad del objeto de investigación en las ciencias sociales (el ser humano en sus circunstancias) puede ocurrir que los efectos de las diferentes V.I. no sean independientes entre sí, sino que estén en mutua interdependencia (interacción). El caso más sencillo es la interacción entre dos V.I., que ocurre cuando el valor alcanzado por la V.D., como consecuencia de las modificaciones de una de las dos V.I., depende de los logrados por la otra V.I. (No habrá interacción si los efectos de cada V.I. no tienen relación entre sí). Pero la interacción no siempre es debida a la «verdadera» de tratamientos experimentales. Además de ésta (efecto mutuo sobre la V.D.), son posibles otras dos causas de interacción: la del «error» y la de algún «efecto extraño», indeseable y no controlado, que actúa en un nivel del experimento, pero no en otro (Kerlinger, 1975, 190-191). La representación gráfica puede ofrecer una visión intuitiva de la interacción. (Véase: Interacción, expresión gráfica). En este efecto añadido en la variable dependiente como consecuencia de la presencia simultánea de dos o más variables independientes (V.I.) se pueden mencionar dos tipos: a) La interacción es ordinal cuando la ordenación de los resultados respecto a los niveles de una V.I. se mantiene igual cuando varían los niveles de la otra V.I. b) Será no ordinal cuando la ordenación de los resultados respecto a los niveles de una V.I. no se mantiene cuando varían los niveles de la otra V.I.
Representación gráfica en que se sitúan, en el eje de abscisas, los niveles de una variable independiente, y en el de ordenadas los valores de la variable dependiente. Para cada uno de los niveles de aquélla se representan los valores medidos en la dependiente para los niveles de la otra independiente: cuando las líneas que unen los diferentes niveles se cruzan, la interacción es evidente. Pero a veces se aprecia una tendencia a cruzarse que no se materializa, probablemente por el efecto del suelo y/o techo de la prueba utilizada en la medición o por los niveles seleccionados.
INTERACCIÓN, expresión gráfica.
INTERACCIÓN NO ORDINAL. INTERACCIÓN ORDINAL.
(Véase: Interacción).
(Véase: Interacción).
INTERACCIÓN DE LAS PRUEBAS.
(Véase: Efecto reactivo de pruebas).
Factor o variable extraña que afecta a la validez interna de una investigación cuando los efectos de la selección de los sujetos (véase) y la maduración (véase) actúan de modo conjunto y producen interacciones de distinto orden.
INTERACCIÓN SELECCIÓN-MADURACIÓN.
197
INTERACCIONISMO SIMBÓLICO
Además de esta interacción, también habría que considerar otras interacciones de factores (véase). INTERACCIÓN SELECCIÓN-VARIABLE EXPERIMENTAL. Factor de invalidez externa de un diseño de investigación consistente en posibles sesgos en la selección de los sujetos y sus repercusiones en la representatividad de la/s muestra/s utilizada/s. De una parte, hay que obtener muestras que representen fielmente las características de la población de referencia; de otra, es necesario que la constitución de los grupos a partir de tales muestras no sea sesgada por una selección diferencial, consciente o inconsciente; o, no habiéndolo sido al formarse los grupos, no llegue a serlo por mortalidad experimental. La utilización del azar (muestreo aleatorio) contribuye a la obtención de muestras representativas de la población estudiada y evita alguno de los factores de selección que contribuyen a minar la validez externa de un diseño, como: utilizar «muestras disponibles» o trabajar con «voluntarios» ante la negativa de sujetos y centros a participar en investigaciones.
Efectos que se refieren a que, en una investigación o experimento, es posible que dos o más efectos de invalidez interna, producidos sobre la variable dependiente (V.D.) por factores o variables extrañas, actúen de modo conjunto y produzcan interacciones de distinto orden. Estos factores o variables extrañas que pueden interactuar entre sí son (véanse): — Administración de tests — Historia — Instrumentación — Maduración — Mortalidad experimental — Regresión estadística — Selección de los sujetos Las interacciones entre estos factores pueden darse en algunos de los distintos diseños cuasiexperimentales de grupo múltiple, donde los efectos producidos por esta combinación de factores podrían confundirse con el efecto producido por la variable experimental (V.I.). Una forma de controlar estas posibles interacciones es recurrir a los grupos de control, aunque la solución se halla en el marco de la investigación multivariable, cuyos modelos, más complejos, pretenden reproducir con mayor fidelidad la complejidad de las situaciones que se investigan.
INTERACCIONES DE FACTORES (validez interna).
Corriente doctrinal basada en la conjunción individuo-sociedad y los significados que identifican a las distintas so-
INTERACCIONISMO SIMBÓLICO.
198
IINTERCENTIL
ciedades humanas. (Conviene señalar a Bogdan y Taylor, Becker, Blumer, Glasser y Strauss). Esta corriente constituye una de las bases conceptuales y metodológicas de la investigación cualitativa (véase) y del paradigma cualitativo-interpretativo (véase). INTERCENTIL.
Comprendido entre centiles (véase).
INTERCORRELACIÓN. Relación o correlación más o menos estrecha entre unas variables y otras, lo que origina una compleja red de relaciones que pueden presentarse en una matriz de interrelaciones. Para explicar un fenómeno que afecte al ser humano —tremendamente complejo— hay que servirse de aquellas variables que mantengan las correlaciones más elevadas con dicho fenómeno (aquellas que añadan más a lo ya explicado por otras variables previamente seleccionadas) y las más bajas con los demás. El análisis factorial utiliza la intercorrelación para descubrir unidades o factores comunes que expliquen la estructura de un fenómeno. INTERCUARTIL. INTERDECIL.
Comprendido entre cuartiles (véase).
Comprendido entre deciles (véase).
INTERFERENCIA DE TRATAMIENTOS. Factor de invalidez externa de una investigación que puede producirse cuando se aplican tratamientos múltiples a un mismo grupo de sujetos, ya que suelen persistir los efectos de tratamientos anteriores. Esta interferencia se explica así: al aplicar el segundo tratamiento puede no ser fácil eliminar los efectos del primero; al aplicar el tercero pueden persistir los efectos del primero o del segundo, o de los dos anteriores, etc. Como se trata de un problema específico de los diseños de un solo grupo o de un único sujeto (N = 1), la solución es evitarlos y estudiar más de un tratamiento experimental (dos o más grupos) o recurrir a diseños más complejos, como los factoriales. INTERPOLACIÓN. Cálculo del valor aproximado de una magnitud en un intervalo cuando se conocen algunos de los valores que toma a uno y otro lado de dicho intervalo.
Interpolación (véase) que se emplea cuando el intervalo y la diferencia tabular son constantes. INTERPOLACIÓN LINEAL.
INTERPRETACIÓN CRITERIAL. Comparación de la actuación del sujeto en el test con un criterio que puede ser, bien un punto de corte en la escala (que sirve para adscribir al sujeto a una categoría u otra previamente establecidas), bien un dominio de conducta o de contenido perfectamente definido —que sirve para describir la actuación del sujeto en términos de lo que éste sabe o no sabe hacer—. (Véase: Criterio). (Navas, 2001).
199
INTERVALO DE CLASE
INTERPRETACIÓN DE DATOS CUALITATIVOS. En la investigación cualitativa, valoración, por el investigador, del sentido de la información proporcionada por los datos. Hay dos niveles de interpretación: a) Interpretación aproximativa, de naturaleza eminentemente descriptiva, que trata de analizar los datos tal y como se han recogido, bien de forma aislada, o bien conforme a su comportamiento en el grupo. b) Interpretación significativa. Añade a la anterior la significación estadística de los valores alcanzados por los diferentes estadísticos, lo que puede permitir afirmar, con determinado grado de probabilidad de acierto, que los cambios producidos no son explicables por efecto del azar, sino porque existen diferencias reales entre los sujetos y grupos contemplados en el estudio. INTERPRETACIÓN NORMATIVA. Comparación de la actuación del sujeto en el test o prueba con la actuación en esa prueba o test de un grupo de referencia del sujeto (grupo normativo —véase—), utilizando para ello puntuaciones normativas o tipificadas: cronológicas, centiles (percentiles) o típicas. INTERVALO, amplitud del.
(Véase: Amplitud de un intervalo de clase e in-
tervalo de clase). Cada una de las partes en que se ha dividido el campo de variación de una variable, tratándose de variables continuas, o sea, clase compuesta de infinitas modalidades o, mejor, compuesta de los infinitos números atribuibles a dichas modalidades y situados entre dos valores numéricos que llamaremos límites exactos. Llamaremos amplitud del intervalo a la diferencia entre esos dos límites exactos. Y punto medio (del intervalo), a la semisuma de dichos límites. (Amón, 1984, 1, 61). Dicho de otra forma: en una serie de observaciones, mediciones, datos, puntuaciones, etc., de carácter continuo (variables continuas), distancia de la observación, medición, dato o puntuación inferior a la superior de cada bloque, grupo o clase en que se ha dividido la serie. Es decir, distancia del límite o frontera inferior al límite o frontera superior de cada clase o bloque. Se simboliza con la letra I. Un intervalo es elemental, si su amplitud es la unidad de medida utilizada, y diremos que es compuesto si su amplitud es mayor que dicha unidad. (Amón, 19846, 1, 61).
INTERVALO DE CLASE.
• Límites de intervalo: se mencionan como límites exactos, fronteras de clase, valores finales o límites reales. Esto es aplicable a variables continuas, no a variables discretas. • Tamaño de intervalos (h): Número de frecuencias de cada intervalo.
200
INTERVALO COMPUESTO
• Marcas (en plural): denominación que en algunos autores (GlassStanley, 1974, p. ej.) reciben las señales o trazos que representan las frecuencias de cada intervalo de clase (= frecuencia de clase). • Marca de clase es el punto medio de un intervalo de clase. • Frecuencia de clase: número de observaciones contenidas dentro de ella. • Proporción de una clase: cociente entre la frecuencia de una clase y el número total de observaciones. • Porcentaje de una clase: proporción de la misma multiplicada por 100. INTERVALO COMPUESTO. Intervalo de clase (véase) cuya amplitud es mayor que la unidad de medida utilizada. INTERVALO DE CONFIANZA (o confidencial). También denominado intervalo de probabilidad, es el conjunto de valores o rango de valores entre los cuales se espera debe encontrarse el valor del parámetro en estudio. En este intervalo teórico de valores se conoce la probabilidad de que incluya dentro de sus límites el valor del parámetro, con un determinado nivel de confianza. El coeficiente confidencial o nivel de confianza es la probabilidad de que un intervalo escogido al azar, de entre los múltiples intervalos de la distribución, capte el valor del parámetro, probabilidad que debe emplearse para identificar dicho intervalo (Glass-Stanley, 1974, 259). La probabilidad aludida será tanto más elevada cuanto mayor sea la amplitud del intervalo creado alrededor del estimador. Y cuanto menor es la amplitud del intervalo confidencial, menor es la probabilidad de que el parámetro quede dentro del mismo. Por tanto, el intervalo de confianza es el «intervalo de estimaciones probables» o intervalo de valores como probables estimaciones del parámetro de que se trate.
Intervalo de clase (véase) cuya amplitud es la unidad de medida utilizada.
INTERVALO ELEMENTAL.
Distancia numérica entre los elementos que se seleccionan mediante un muestreo sistemático. Dicha distancia se define en función de la razón de muestreo.
INTERVALO DE MUESTREO.
INTERVALO DE PROBABILIDAD. INTERVALO DE SELECCIÓN.
Intervalo de confianza (véase).
Intervalo de muestreo (véase).
Son los límites exactos, también denominados límites o fronteras de clase, valores finales o límites reales. Es aplicable a variables continuas, no a variables discretas. (Véase: Intervalo de clase).
INTERVALOS, límites de.
201
INVESTIGACIÓN-ACCIÓN
Aplicación de un tratamiento que se considera como un nivel de una determinada variable independiente.
INTERVENCIÓN.
Tratamiento que supone una aplicación de distintos niveles, según se van alcanzando objetivos parciales.
INTERVENCIÓN GRADUAL.
Tipo de intervención en que sólo se produce una aplicación del tratamiento en el tiempo.
INTERVENCIÓN PUNTUAL.
INTERVENCIÓN UNIFORME. Tipo de intervención cuyo tratamiento es aplicado de la misma manera y que precisa repetirse a lo largo de un cierto periodo de tiempo. Puede decirse que hay una aplicación repetida del mismo nivel de la variable independiente. INTRAGRUPO.
Grupo al que un sujeto pertenece y con el que se identifica.
Conocimiento inmediato de algo sin razonamientos. En el sentido clásico, es la percepción clara, directa, completa e instantánea de una idea o una realidad, tal como si se tuviera a la vista, sin elementos mediadores para la comprensión de dicha idea o realidad. Pueden distinguirse dos tipos de intuición: la sensible, referida a datos y procesos, cosas u objetos, es la visión directa de algo real (percepción por los sentidos); y la intelectual (inteligible) o espiritual que percibe esencias y relaciones ideales, y se relaciona con la intuición de los universales (esencias) y con las entidades metafísicas (existencias). Tradicionalmente la intuición ha sido contrapuesta al conocimiento discursivo, al concepto y a la deducción. Sin embargo, hay corrientes de «intuicionismo» que admiten, junto al conocimiento intuitivo, el discursivo-racional.
INTUICIÓN.
INTUICIÓN EIDÉTICA. Tipo de intuición cuya estrategia pretende conocer lo «esencial» del objeto de la investigación, lo que es y significa.
Vocablo con que se designan los sistemas filosóficos que dan importancia capital a la intuición (véase). El intuicionismo moderno admite un conocimiento intuitivo junto al discursivo-racional.
INTUICIONISMO.
Acción y efecto de investigar (véase). Frecuentemente se usa el término estudio para referirse a una investigación concreta en el campo de las Ciencias Sociales.
INVESTIGACIÓN.
Es la «Action research», denominación inglesa de la investigación-acción o nivel de investigación que tiene como finalidad la mejora de la práctica social o educativa. La investigación-acción guarda una estrecha relación con los fundamentos epistemológicos del paradigma cualitativo (véase) o interpretativo, aunque también recoge
INVESTIGACIÓN-ACCIÓN.
INVESTIGACIÓN ACTIVA
202
peculiaridades del paradigma para el cambio (véase), dado que a través de los estudios realizados bajo esta denominación se intentan conseguir mejoras sobre la propia actividad objeto de análisis. La investigación-acción ha recibido diferentes denominaciones a lo largo de su desarrollo histórico: investigación activa, investigación participativa, investigación colaborativa, investigación en el aula e investigación cooperativa. INVESTIGACIÓN ACTIVA. Denominación, entre otras, que, en algún momento de su desarrollo histórico, ha recibido la investigación-acción (véase). La investigación activa, también denominada operativa, pretende constituir un proceso sistemático de perfeccionamiento de una actividad mediante la propia acción controlada («action research» o investigaciónacción). Es decir, pretende mejorar una situación real y concreta en un determinado lugar y tiempo, mediante el examen y estudio sistemático de la propia situación. Se centra en producir cambios en la realidad, mejorar situaciones habituales y concretas en un contexto determinado (por ejemplo, las educativas). Trata de vincular la investigación con la práctica (v. gr., educativa), ocupándose más del perfeccionamiento personal y profesional de los sujetos implicados que de aumentar el nivel de conocimientos. INVESTIGACIÓN-APLICACIÓN. La investigación orientada a la aplicación tiene como finalidad primordial dar respuesta a problemas concretos y prácticos en contextos determinados. En el marco de la intervención educativa, se orienta a la «toma de decisiones» —investigación evaluativa— y al «cambio o mejora» de la práctica educativa: investigación en el aula, investigación-acción. (Véase: Investigación aplicada). Mantiene conexiones con la investigación activa (véase) u operativa y con la investigación formativa (véase), ya que los resultados derivados de las mismas se transfieren directamente al campo práctico u operativo. Es, pues, una de las propuestas de investigación más interesantes por su utilidad en la solución de problemas que afectan directamente al comportamiento de los sujetos en su entorno educativo.
La que persigue fines utilitarios inmediatos, apoyándose, por lo general, en los resultados de la investigación básica. Su meta es mejorar la eficacia de dominio del hombre sobre la realidad (control, reforma y transformación). Toda actividad científica, con fines prácticos más o menos inmediatos pertenecería al ámbito de la investigación aplicada. Busca, por tanto, la resolución de problemas prácticos en contextos determinados y con soluciones de aplicación inmediata.
INVESTIGACIÓN APLICADA.
203
INVESTIGACIÓN DE CAMPO
INVESTIGACIÓN EN EL AULA. Denominación, entre otras, que, en algún momento de su desarrollo histórico, ha recibido la investigación-acción (véase).
También denominada pura, es la investigación cuya finalidad persigue aumentar y profundizar el ámbito del saber, del conocimiento humano sobre la realidad, sin un fin práctico e inmediato. Trata de resolver problemas amplios de validez más o menos general. En definitiva, pretende mejorar el conocimiento y comprensión de los fenómenos (personales, sociales, educativos, etc.), que permitan explicar su estructura y funcionamiento. Su propósito es el desarrollo de teorías científicas probando su verosimilitud y, por tanto, sus correspondientes hipótesis científicas. En el campo específico de la educación, se dirige a descubrir leyes y generalizaciones que permitan al investigador formular predicciones y controlar los hechos que se producen en las situaciones educativas. (Kerlinger, 1975 y 1985). Se llama básica porque es el fundamento de toda otra investigación. Cuando el investigador analiza problemas de amplia validez, siente la curiosidad de buscar una comprensión y explicación profunda de la ocurrencia de unos determinados fenómenos y poder establecer una causalidad entre los mismos. (Véase: Investigación fundamental).
INVESTIGACIÓN BÁSICA.
Investigación que consiste en la revisión de la documentación existente sobre el tema objeto de investigación para conocer lo más profundamente posible el problema en cuestión y los resultados que, en relación con el mismo, se han alcanzado. Es el análisis del estado de la cuestión, que en muchas de las propuestas de investigación se orienta hacia el análisis y la fundamentación del problema objeto de estudio. Puede servir de punto de arranque no sólo para formular hipótesis de trabajo, sino también para resolver interrogantes planteados en la investigación. La investigación bibliográfica también puede representar una finalidad en sí misma, especialmente ante una propuesta de investigación histórica y de tipo descriptivo en que la documentación básica se encuentra en la bibliografía, ya sea escrita o recogida a través de los multimedia. Los estudios bibliográficos ofrecen una serie de pautas o tendencias de pasado y presente (a veces también prospectivas de futuro) en los trabajos que han abordado un determinado tema.
INVESTIGACIÓN BIBLIOGRÁFICA.
INVESTIGACIÓN DE CAMPO. Investigación realizada «sobre el terreno», en contextos reales (psicológicos, educativos…) y que se desarrolla observando el grupo o fenómeno estudiado en su ambiente natural, lo que permite una generalización de resultados a situaciones afines. Se consideran de este tipo las investigaciones en el aula, por ejemplo. Sin embargo, es
INVESTIGACIÓN CIENTÍFICA
204
evidente que no puede existir el riguroso control de la investigación de laboratorio. En la investigación de campo tienen cabida tanto el experimento de campo como la investigación ex-post-facto (ambas de tipo cuantitativo). Además engloba la investigación-acción, los estudios etnográficos, estudios de casos, etc. (perspectiva cualitativa). Investigación que actúa poniendo en práctica el método científico al servicio de la solución de problemas teóricos, prácticos o teórico-prácticos. Se trata de una actividad encaminada a la consecución de metas científicas, ajustándose a las características que definen el conocimiento científico, por lo que dicha actividad debe ser sistemática, organizada, disciplinada y rigurosa. Como proceso de resolución de problemas científicos, utiliza una determinada metodología, una forma de proceder que los científicos entienden garantiza en mayor grado que las respuestas dadas a las preguntas que desencadenan la investigación, respondan a la realidad, esto es, sean ciertas y se ganen la aceptación, el acuerdo de la comunidad científica (Pérez Juste, 1985b, 29). Kerlinger (1975, 7) la define así: «La investigación científica es una investigación sistemática, controlada, empírica y crítica, de proposiciones hipotéticas sobre las supuestas relaciones que existen entre los fenómenos naturales». La investigación científica en las ciencias sociales podría definirse como el proceso de aplicación del método y técnicas científicas a situaciones y problemas concretos de la realidad social en busca de respuesta y de nuevos conocimientos (Sierra, 19885, 27). Tiene unas peculiaridades que se señalan sucintamente: a) Carácter cualitativo de muchos de los fenómenos y aspectos de la realidad social (problemas de observación, cuantificación y medida). b) Multiplicidad de factores o de variables que intervienen en los fenómenos sociales, generalmente en interacción mutua. c) Gran variabilidad de los fenómenos sociales en el espacio y en el tiempo. d) Ausencia, hasta ahora, de instrumentos de observación potentes y precisos. e) Influencia de los resultados de la investigación social en el mismo objeto de observación: la sociedad. f) Cuestionamiento de la independencia y neutralidad del investigador social, al formar parte de la sociedad que investiga.
INVESTIGACIÓN CIENTÍFICA.
Proceso de aplicación del método y técnicas científicas a situaciones y problemas concretos de la realidad social en busca de respuesta y de nuevos conocimientos.
INVESTIGACIÓN CIÉNTIFICO-SOCIAL.
205
INVESTIGACIÓN CORRELACIONAL
INVESTIGACIÓN COLABORATIVA. Denominación, entre otras, que ha recibido la investigación-acción (véase) en su desarrollo histórico. También se la denomina investigación cooperativa (véase), debido a la forma particular de participación de los miembros en los proyectos de investigación. INVESTIGACIÓN COMPARADA. Investigación comparativa que estudia principalmente dos vertientes: o bien se ocupa de contrastar o comparar los fenómenos del pasado (históricos), ya entre sí o ya con los del presente; o bien realiza este contraste o comparación entre estudios del presente (por ejemplo, entre unos países y otros). Es decir, analiza los hechos o fenómenos en un momento determinado y la tendencia de los mismos. Realmente es una variante de la investigación histórica (véase), pues su objeto de estudio se ubica en un determinado momento del proceso histórico-social en que se produce el hecho o fenómeno que se investiga. Permite contrastar opiniones de fuentes diversas. Suele seguir las fases de: descripción, interpretación, yuxtaposición, valoración y recomendaciones. INVESTIGACIÓN-COMPROBACIÓN. Es la investigación orientada a la comprobación. Trata de contrastar teorías, de explicar y predecir los fenómenos. Utiliza principalmente la metodología empírico-analítica: métodos experimentales, cuasiexperimentales, ex-post-facto. Emplea técnicas de análisis cuantitativas y presta gran importancia al contexto de justificación y verificación. (Véase: Investigación cuantitativa). Puesto que le preocupa probar las hipótesis generales desde la teoría, se relaciona directamente con la investigación básica. Los datos recogidos (realidad presente) validarán o no dichas hipótesis, y sobre esta decisión se podrán explicar y predecir los comportamientos del futuro. INVESTIGACIÓN COOPERATIVA. Denominación, entre otras, que ha recibido la investigación-acción (véase) en su desarrollo histórico. Actualmente se define como el tipo de investigación-acción que se manifiesta cuando alguno de los miembros del personal de dos o más instituciones (una de ellas orientada a la producción de investigación o a la formación de profesionales, siendo la otra una escuela o centro de trabajo de estos profesionales) deciden agruparse para resolver una serie de problemas relacionados con la práctica profesional de estos últimos. Su finalidad es lograr el cambio social y educativo a través de la investigación en colaboración.
Modalidad de investigación que intenta determinar la existencia de variaciones concomitantes (covariación o covarianza) entre dos o más variables, sin manipulación previa de las mismas. Por tratarse de un método observacional, no permite establecer relaciones causales, aunque sí cierto grado de predicción.
INVESTIGACIÓN CORRELACIONAL.
LINVESTIGACIÓN CUALITATIVA
206
Este tipo de investigación no manifiesta un control directo sobre las variables independientes, pues los fenómenos ya han acontecido o no son intrínsecamente manipulables. Se establecen inferencias sobre las relaciones entre variables antecedentes y las consecuentes o bien, en el caso de estudios de tipo predictivo, entre la predicción y el criterio (Kerlinger, 1985). La investigación correlacional recoge los datos sobre hechos o fenómenos tal y como se han producido, con el fin de intentar descifrar y analizar las relaciones subyacentes entre los mismos; es decir, el investigador tratará de probar cuál o cuáles son las verdaderas variables independientes que han actuado para que se produzcan esos resultados. El objetivo de la investigación correlacional es descubrir el conjunto de relaciones que se manifiestan entre las variables que intervienen en un determinado fenómeno, es decir, el grado de correlación o variación conjunta (covariación) de dos o más series de datos. Entre las modalidades más comunes en el enfoque correlacional, destacan por su utilidad los estudios de relaciones, los estudios predictivos, los estudios factoriales y los modelos causales. Investigación que se orienta a descubrir el sentido y significado de las acciones o fenómenos humanos (significado humanístico). Se acerca de forma directa y abierta a los discursos de los sujetos, tratando de aproximarse y de dar respuesta a las motivaciones que están detrás del comportamiento de los sujetos. Utiliza la metodología interpretativa (etnografía, fenomenología, interaccionismo, etc.). Se ajusta al paradigma cualitativo-interpretativo (véase). En los diversos estudios que abordan el marco de la investigación cualitativa, no existe una referencia expresa al proceso común de esta metodología. Al contrario, se plantean métodos diversos, cada uno de los cuales sigue un proceso diferenciado en algunos aspectos, pero con unos puntos en común que deben ser tenidos en cuenta en la elaboración de una propuesta coherente, que dé cabida a la amplia diversidad de métodos aplicables en el marco de la metodología cualitativa. Es reseñable que las fases (a diferencia de la metodología cuantitativa) no se manifiestan de forma lineal, sino que actúan de modo interactivo. Es decir, en cualquier momento de su desarrollo se manifiesta una estrecha relación entre la recogida de datos, las hipótesis, el muestreo y la elaboración de teorías, lo que puede generar transformaciones en las hipótesis directivas u objetivos que marcan la investigación, así como en otras fases del proceso investigador.
INVESTIGACIÓN CUALITATIVA.
Investigación que fundamentalmente se centra en los aspectos observables y susceptibles de cuantificación de los fenómenos humanos (psico-socio-educativos). Utiliza la metodología em-
INVESTIGACIÓN CUANTITATIVA.
207
INVESTIGACIÓN DESCRIPTIVA
pírico-analítica y se sirve de pruebas estadísticas para el análisis de datos. Tiene estrecha relación con el paradigma cuantitativo (véase). INVESTIGACIÓN CUASI-EXPERIMENTAL. Tipo de investigación que se caracteriza por no alcanzar un control tan exhaustivo como la experimental, ya que algunos procesos y, sobre todo, algunas variables extrañas no son suficientemente controladas. Pretende establecer relaciones de causalidad entre la variable independiente (V.I.) y la dependiente (V.D.), si bien las condiciones de experimentalidad son menos rigurosas que en la investigación experimental. (Véase: Diseño cuasi-experimental).
Esta expresión puede definirse desde varios enfoques. Desde el enfoque educativo, es el tipo de investigación ordenada hacia la innovación educativa. El primer término de la expresión sugiere la preocupación por la generación de nuevos conocimientos; el segundo apela al carácter útil de sus hallazgos. Relacionada con la investigación operativa y con la activa, participa de la investigación básica y de la aplicada. La Investigación y Desarrollo constituye un tipo de indagación sistemática que persigue, al mismo tiempo, la elaboración y evaluación de productos finales y el establecimiento de criterios para la adopción de decisiones a lo largo de todo el proceso innovador. (Vázquez, G., 1985, 137-138). INVESTIGACIÓN Y DESARROLLO.
INVESTIGACIÓN DESCRIPTIVA. La investigación descriptiva puede ser definida desde varias perspectivas: a) Según la profundidad y objetivo, la investigación descriptiva pretende la descripción de los fenómenos. Diríase que es el primer nivel del conocimiento científico y el segundo nivel en el estudio de los fenómenos (educativos, por ejemplo), ya que va más allá de la fase exploratoria que le precede. Utiliza la observación, los estudios correlacionales, etc. Tradicionalmente viene teniendo como objeto central la «medición precisa de una o más variables dependientes, en una población definida o en una muestra de una población» (Hyman, 1971, 102). b) Según la dimensión temporal, la investigación descriptiva, en su dimensión sincrónica, estudia los fenómenos tal como aparecen en el «presente», en el momento de realizarse el estudio. Estudia la realidad presente sin plantearse en sí misma ningún juicio de valor. Se propone el estudio de problemas actuales, del presente, para servir de base a su solución apropiada. Es el primer nivel del conocimiento descriptivo. c) Según nivel de manipulación de variables, la investigación descriptiva no contempla la intervención ni manipulación del investigador sobre las variables intervinientes. Es decir, el investigador observa
INVESTIGACIÓN-DESCUBRIMIENTO
208
y describe los fenómenos sin actuar sobre ellos. A través de una exhaustiva recogida de información y de datos, permite el descubrimiento de posibles relaciones entre variables presentes en el estudio. Esto puede conducir a la formulación de hipótesis de trabajo que, en la estrategia correlacional y experimental, podrán ser contrastadas empíricamente. En realidad, la investigación descriptiva es, por lo general, una primera etapa en el conocimiento de la realidad. Sin embargo, conviene resaltar su importancia para la estrictamente experimental, porque la insuficiencia de la descriptiva puede originar fallos en aquélla. En esta categoría caben la investigación histórica, los estudios de casos, las encuestas, los estudios de series temporales, etc. En su proceso de desarrollo puede utilizar metodologías de tipo cuantitativo y cualitativo, ya por separado, ya conjuntamente, para alcanzar mejor los objetivos del estudio. La investigación orientada al descubrimiento pretende generar o crear conocimiento desde una perspectiva inductiva. Su objetivo es interpretar y comprender los fenómenos mediante una metodología cualitativo-interpretativa (técnicas y procedimientos diversos: etnográficos, fenomenológicos, interactivos, etc.) enfatizando el contexto de descubrimiento. (Véase: Investigación cualitativa). Concede importancia al descubrimiento de campos de actuación futura que sean de interés, sobre los que poder actuar con cualquier otra modalidad de investigación más rigurosa. Este tipo de investigación, mediante el estudio de una serie de casos particulares, puede llegar a validar y comprobar la existencia de relaciones o diferencias entre las variables objeto de estudio. En realidad, sus aportaciones principales van orientadas al descubrimiento de campos de actuación de más amplio interés, según se ha indicado. INVESTIGACIÓN-DESCUBRIMIENTO.
INVESTIGACIÓN DIACRÓNICA.
(Véase: Investigación longitudinal).
Investigación que, en principio, trabaja con fenómenos y hechos de experiencia directa no manipulados. Sin embargo, hay autores que también amplían su ámbito a los estudios experimentales. Desde esta propuesta, se basa en la observación y la experimentación. Supone la recogida y análisis de dados, ya sean cuantitativos, ya cualitativos, expresados en forma numérica o en forma textual. Tendrían cabida en esta propuesta desde los estudios descriptivos (los que se limitan a recoger información sobre la realidad sin intervenir en ella) y la investigación ex-post-facto, hasta la investigación propiamente experimental, con los estudios más complejos: los que provocan los fenómenos para analizar los resultados que producen en los sujetos.
INVESTIGACIÓN EMPÍRICA.
209
INVESTIGACIÓN EXPERIMENTAL
Tipo de investigación ligado al paradigma cualitativo (véase) que tiene como preocupación fundamental el estudio de la cultura en sí misma. Y ello, porque la etnografía (véase) es un método que se dirige al estudio en profundidad de una unidad social determinada (clase, escuela, familia, equipo de profesores, grupo de trabajo) en sus manifestaciones y comportamientos culturales y educativos, formas de vida y estructuras sociales subyacentes. Es decir, se ocupa de la descripción de grupos humanos. Para Goetz y LeCompte (1988), el objetivo básico de la etnografía educativa consiste en aportar datos valiosos de naturaleza descriptiva sobre los contextos, las actividades y las creencias de los participantes en los escenarios educativos.
INVESTIGACIÓN ETNOGRÁFICA.
Investigación aplicada, centrada en la práctica, que, a través de un proceso sistemático y selectivo de recogida y análisis de información fiable y válida, sobre un determinado problema del contexto educativo (un programa, un currículo, un equipo docente, una actividad de aula, etc.), facilita la toma de decisiones de mejora del problema estudiado. INVESTIGACIÓN EVALUATIVA.
INVESTIGACIÓN EXPERIMENTAL. Investigación que permite establecer con garantías relaciones causales entre los fenómenos utilizando la metodología experimental. Tiene como principios la manipulación de la/s variable/s independiente/s y el control sistemático de las variables extrañas. Es decir, el investigador introduce cambios deliberados en la/s variable/s independiente/s (tratamiento experimental), con el fin de observar los efectos que producen en la/s variable/s dependiente/s (resultado). Se aplica a los fenómenos y áreas temáticas susceptibles de medición. Según la dimensión temporal, se considera orientada al «futuro», por la predicción de lo que probablemente ocurrirá en el futuro si se introdujeran determinadas modificaciones en el presente, ya que media un tiempo entre los cambios introducidos y los efectos observados. Si la investigación descriptiva es, por lo general, una primera fase o etapa en el conocimiento y dominio de la realidad, con la experimental la meta trasciende la mera «descripción» y se sitúa en la predicción y el control de dicha realidad. Es, pues, el nivel máximo de intervención del investigador, siempre con las limitaciones que son inherentes al campo social y al objeto de investigación: el ser humano. En consecuencia y a modo de síntesis: «El objeto fundamental de la investigación experimental consiste en la comprobación empírica de hipótesis de causalidad previamente establecidas, con una triple finalidad: aumentar el nivel de los conocimientos sobre determinados campos (exploratoria), descubrir las explicaciones correctas sobre los fenómenos
INVESTIGACIÓN EXPLICATIVA
210
(crucial) y confirmar la validez de una determinada teoría (confirmatoria). En suma, la experimentación nos permite estudiar hechos, establecer leyes y comprobar hipótesis» (García Llamas, en Río Sadornil, 2003, 319-320). INVESTIGACIÓN EXPLICATIVA. Investigación que tiene como objetivo la explicación de los fenómenos y el estudio de sus relaciones, para conocer su estructura y los factores que intervienen en la dinámica de aquéllos. Pretende descubrir las causas que provocan los fenómenos (explicación de los mismos), así como sus relaciones para llegar a establecer generalizaciones más allá de los sujetos y datos analizados. Busca, por tanto, matizar la relación causa-efecto, de suerte que cuando se presenta un determinado fenómeno (socio-psico-educativo) podamos identificar la causa que lo ha producido, con argumentos válidos. Mediante esta propuesta de investigación, se puede llegar a establecer relaciones de causalidad entre los fenómenos objeto de estudio, con los datos disponibles por el investigador y mediante una metodología eminentemente cuantitativa.
Investigación que tiene el carácter de provisional, por suponer una primera aproximación al conocimiento de un fenómeno o problema para obtener una información superficial sobre los mismos o sobre la situación donde se proyecta realizar una investigación posterior más rigurosa (que podrá ser de carácter descriptivo o bien explicativo, o de ambos a la vez). Las informaciones y los datos presentados de forma global (porcentajes, representaciones gráficas, etc.) sirven de referencia general para conocer la situación concreta del campo de estudio. INVESTIGACIÓN EXPLORATORIA.
INVESTIGACIÓN «EX-POST-FACTO». Investigación que no manipula, es decir, no manifiesta un control directo sobre la variable independiente (V.I.), sino que, a través del estudio y la observación de una variable dependiente (V.D. o resultado) imagina o supone una V.I., presunta causa del resultado observado. Es el tipo de investigación en que el investigador se plantea la prueba de su hipótesis cuando los fenómenos a que se refieren han ocurrido ya (de ahí el título del epígrafe), esto es, actúa hacia atrás. Por tanto, no se ejerce un control directo sobre la V.I., diferencia principal entre este tipo de investigación y la auténticamente experimental. Las modalidades (variadas en alcance, objetivos y rigor) de mayor uso y trascendencia son:
a) La encuesta. b) Estudios de campo y los correlacionales.
211
INVESTIGACIÓN HISTÓRICA
c) Estudios transversales y longitudinales. d) Estudios de casos. (Véase: Ex-post-facto, diseño). Tipo de investigación consistente en plantear propuestas de investigación que sirvan de base para la formación de futuros profesionales de las ciencias sociales (sociólogos, psicólogos, psicopedagogos, etc.). Su objetivo podría sintetizarse en la frase: «aprender a investigar investigando». Se trata, por consiguiente, de la investigación que se realiza para formar al personal investigador, es decir, para formar científica y profesionalmente a los futuros profesionales ya mencionados.
INVESTIGACIÓN FORMATIVA.
Investigación que pretende llegar a leyes de la mayor generalización posible (leyes generales), dado que busca la resolución de problemas amplios, los cuales analiza y estudia con una suficiente base empírica y doctrinal. En este sentido, la investigación fundamental es equivalente a la básica o pura, precisamente por su carácter nomotético, ya que trata de encontrar relaciones universales y no particulares. Sobre la base de muestras, extrapola los resultados a la población de la que proceden dichas muestras (véase: Investigación básica). Tal vez el problema principal a resolver sea el establecimiento de los límites a los que puede extenderse la generalización. Ésta se podría aceptar, según norma comúnmente admitida, en los siguientes términos: En unas determinadas ocasiones, en que concurran una serie de condiciones, para unos sujetos debidamente identificados, es posible que ocurra una determinada consecuencia, con unos determinados niveles de probabilidad.
INVESTIGACIÓN FUNDAMENTAL.
INVESTIGACIÓN HISTÓRICA. Investigación que se ocupa de estudiar los fenómenos y acontecimientos del pasado en su nacimiento, desarrollo y conclusión, si la hubo: los describe, analiza e interpreta, ya por su valor en sí mismos, ya por su aplicación de cara a su solución hoy. Para ello utiliza el método histórico, sirviéndose de todo tipo de documentos orales y escritos, con los que reconstruye dichos fenómenos y acontecimientos para explicar su desarrollo y fundamentar su significado en el contexto del que surgieron. Aplica la crítica histórica al conjunto de la documentación recogida al efecto. La investigación histórica pasa por tres fases: 1.a) se busca la información acudiendo a las fuentes en que está recogida; 2.a) se organiza esa información, según criterios previamente establecidos; 3.a) se interpreta, teniendo en cuenta el contexto de la misma, porque los significados de los textos pueden diferir según la época y las circunstancias en que fueron escritos.
INVESTIGACIÓN IDIOGRÁFICA
212
INVESTIGACIÓN IDIOGRÁFICA. Investigación que no pretende alcanzar leyes generales, ni ampliar el conocimiento teórico, sino que se centra en lo particular e individual para comprender el comportamiento del individuo. Se basa en la descripción de acontecimientos, hechos o fenómenos particulares. Se ocupa, por consiguiente, de estudios (estudios de casos, por ejemplo) basados en la singularidad de los fenómenos.
Investigación que se realiza en un marco ideal de condiciones de investigación, marco o ambiente artificial creado intencionalmente para garantizar el máximo control sobre el proceso. Tiene evidentes ventajas: es ideal para la investigación básica y fundamental, por la consiguiente identificación de variables relevantes para el estudio en cuestión y el control de las extrañas, lo que conduce a establecer generalizaciones de sólida base que deriven hacia el enunciado de leyes y teorías científicas. Pero tiene un gran inconveniente: las pocas posibilidades de generalización de resultados a las situaciones naturales y reales. Resulta difícil que en la realidad educativa se den esas situaciones ideales planteadas en el laboratorio.
INVESTIGACIÓN DE LABORATORIO.
También denominada diacrónica, es la investigación que, mediante un corte transversal, estudia la evolución de un fenómeno en un período dado (por ejemplo, el desarrollo de los sujetos en sucesivos momentos o tiempos —t1, t2, etc.—) mediante observaciones repetidas: O1, O2, etc. La investigación longitudinal puede ser «retrospectiva», si los momentos estudiados se refieren al pasado; «prospectiva», si se refiere al presente y futuro; de «panel», si en las sucesivas investigaciones se observan siempre los mismos sujetos; y de «tendencia», si son diferentes. INVESTIGACIÓN LONGITUDINAL.
«Es la indagación controlada de aspectos teóricos y aplicados de medición, matemáticas y estadística; además es una forma de obtener y analizar datos. Sin ella, la experimentación conductual moderna estaría aún en fase embrionaria» (Kerlinger, 1975, 494495). Se centra en el análisis de los aspectos teóricos y prácticos de componente metodológico como: la medida, la elaboración de instrumentos de medición para la recogida de datos (garantizando su validez y fiabilidad), el análisis estadístico y la creación de métodos para obtener datos y efectuar sus análisis (p. ej., entrevistas, programas de entrevistas, cuestionarios, escalas, anecdotarios; análisis de contenido, métodos de obtención de muestras, técnicas de observación sistemática, etc.). En síntesis, la preocupación principal del investigador se orienta hacia la resolución de problemas teóricos y prácticos vinculados a las variables presentes en la investigación, a lograr la mayor precisión en la medida de
INVESTIGACIÓN METODOLÓGICA.
213
INVESTIGACIÓN SINCRÓNICA
las mismas y a que el tratamiento estadístico de los datos resultantes sea el más riguroso posible. Investigación que trata de encontrar relaciones universales y no particularidades. Pretende establecer, por consiguiente, leyes generales por las que se rigen los fenómenos sociales (psicológicos, sociológicos, educativos, etc.). Utilizando la metodología empírico-analítica —apoyada básicamente en la experimentación—, persigue las explicaciones generales.
INVESTIGACIÓN NOMOTÉTICA.
Investigación activa (véase).
INVESTIGACIÓN OPERATIVA.
INVESTIGACIÓN PARTICIPANTE O PARTICIPATIVA. Proceso llevado a cabo en un marco contextual determinado, con el fin de conocer en profundidad sus problemas cotidianos y tratar de buscar soluciones satisfactorias para todos los participantes implicados. Dicho de otro modo: proceso sistemático que lleva a cabo una determinada comunidad con el fin de alcanzar un conocimiento más profundo de sus problemas e intentar solucionarlos, implicando en la tarea a toda la comunidad. Una de las aportaciones fundamentales de la investigación participativa radica en permitir el avance simultáneo de la ciencia y la práctica. No sólo existe comunicación permanente entre los investigadores y los prácticos, sino que se posibilitan determinadas mejoras y cambios sustanciales en las concepciones sobre la práctica y la investigación, de tal suerte que se integran en su propuesta: teoría, acción y reflexión. INVESTIGACIÓN PARTICIPATIVA. Denominación, entre otras, que, en algún momento de su desarrollo histórico, ha recibido la investigación-acción (véase). Expresión sinónima de investigación participante. INVESTIGACIÓN PRECIENTÍFICA.
Investigación pre-experimental (véase).
Investigación con un solo grupo (por tanto, sin grupo de control) que no genera comparaciones formales al no existir un grupo de sujetos diferente, pero con características similares, a aquél que recibe el tratamiento experimental. Al tratarse de una investigación que, además, sólo tiene una única medición, no alcanza el rango de experimental. Por eso se denomina «precientífica» además de pre-experimental. (Véase: Diseño pre-experimental). INVESTIGACIÓN PRE-EXPERIMENTAL.
INVESTIGACIÓN PURA.
Denominación que algunos aplican a la investiga-
ción básica (véase). INVESTIGACIÓN SECCIONAL.
(Véase: Investigación transversal).
INVESTIGACIÓN SINCRÓNICA.
(Véase: Investigación transversal).
INVESTIGACIÓN TRANSVERSAL
214
También llamada seccional o sincrónica, es aquella que se basa en las observaciones recogidas de una muestra específica en un único período determinado en el tiempo. En ella se hace un corte perpendicular, por así decirlo, de una situación en un momento dado y se estudia su estructura (por ejemplo, el desarrollo de los sujetos observado en un único momento o en un único período determinado en el tiempo).
INVESTIGACIÓN TRANSVERSAL.
Realizar actividades intelectuales y/o experimentales de modo sistemático con el propósito de aumentar los conocimientos sobre una determinada materia (D.R.A.E.).
INVESTIGAR.
Dos conjuntos se consideran isomórficos cuando tienen la misma forma, o sea, en ellos existe correspondencia entre todos y cada uno de los elementos de uno y otro conjunto y cuando poseen entre sí ciertas estructuras semejantes.
ISOMÓRFICOS, conjuntos.
Cualidad de isomorfo, o sea, con la misma forma. En Matemáticas, correspondencia biunívoca entre dos estructuras algebraicas que conserva las operaciones.
ISOMORFISMO.
ÍTEM. En general, ítem (término de origen inglés) significa cada una de las partes, elementos, miembros, puntos o apartados de un conjunto. En Psicología y Pedagogía, cada una de las partes o unidades de que se compone una prueba, un test, un cuestionario. Es decir, cada una de las cuestiones —generalmente breves, además de claras y precisas— que se someten a juicio y valoración en un test o en una prueba objetiva. En este sentido, ítem equivale a pregunta o actividad concreta que deben efectuar los sujetos sometidos al test, prueba o cuestionario. ÍTEM DE CONSTRUCCIÓN. Ítem o cuestión que requiere que el sujeto construya o elabore la respuesta. ÍTEM, dificultad de un.
(Véanse: Dificultad de un ítem e Índice p de difi-
cultad). ÍTEM, dificultad relativa. Expresión cuantitativa de la dificultad relativa (en realidad expresa la facilidad relativa) del ítem, que se materializa de dos formas: a) Porcentaje de sujetos que lo aciertan. b) Expresando la zi, que deja por debajo de sí un número de sujetos igual al que ha superado la prueba.
Ítem o cuestión que pide al sujeto que seleccione una (o varias) opción(es) de entre las propuestas.
ÍTEM DE ELECCIÓN.
ÍTEM DE ELECCIÓN BINARIA.
tivas de respuesta.
Ítem o cuestión de elección entre dos alterna-
215
ÍTEM DE VALORACIÓN DE LA ACTUACIÓN
ÍTEM DE ELECCIÓN MÚLTIPLE. Ítem o cuestión que pide la elección entre tres o más alternativas de respuesta.
Ítem o cuestión en que el sujeto debe relacionar lo que aparece en una primera columna con lo que aparece en una segunda columna. ÍTEM DE EMPAREJAMIENTO.
Esta expresión hace referencia a que en todo ítem es preciso considerar, al menos, tres factores diferenciados: 1. Dificultad del mismo (véase: Dificultad de un ítem), sólo en el caso de que se pueda hablar de error o acierto. El grado de dificultad (o índice de facilidad) de un ítem se determina con la fórmula: ÍTEM, factores diferenciados.
If = 1 – (núm. aciertos / núm. sujetos que lo intentaron) El ítem que más discrimina es el que es superado por el 50% de los sujetos que lo intentan. La dificultad de los ítems en un test de aprendizaje debe ser, en general: 10% de ítems muy fáciles. 20% de ítems fáciles. 40% de ítems de dificultad media. 20% de ítems difíciles. 10% de ítems muy difíciles. 2. Homogeneidad: factor que pretende que todos los ítems intenten medir lo mismo, por lo que deben ser suficientemente homogéneos para que midan lo mismo, pero a la vez lo suficientemente heterogéneos para que midan los diferentes tipos que presenta la característica a medir. La homogeneidad-heterogeneidad de un ítem se halla obteniendo los coeficientes de correlación entre cada dos: a mayor correlación, mayor homogeneidad. 3. Validez: un ítem es válido cuando realmente mide lo que pretende medir, es decir, cuando es capaz de discriminar entre los sujetos superiores e inferiores en la característica que quiere medir. La validez de un ítem se obtiene mediante la relación entre éste y el total de test. Cuanto mayor sea la correlación, más válido será el ítem. Si un ítem discrimina a un 27% superior de sujetos del grupo, de un 27% inferior del mismo grupo, se dice que es válido. (Gonzalvo, 1978). ÍTEM, homogeneidad de un. ÍTEM, validez de un.
(Véase: Item, factores diferenciados).
(Véase: Item, factores diferenciados).
ÍTEM DE VALORACIÓN DE LA ACTUACIÓN. Ítem o cuestión que trata de simular o emular el contexto o las condiciones en las que se han de aplicar realmente los conocimientos o las habilidades que se desea evaluar.
J
JERÁRQUICO, diseño.
(Véase: Diseño jerárquico).
Prueba estadística no paramétrica, o de distribución libre, que tiene múltiples aplicaciones en estadística inferencial. Se puede utilizar con datos nominales o de otro nivel de medida, siempre que estén expresados en categorías mutuamente excluyentes y exhaustivas (datos u observaciones independientes). Asimismo puede emplearse con uno, dos o más grupos independientes. Sus funciones o usos fundamentales son dos: a) Como prueba de bondad de ajuste (compatibilidad con un modelo: distribución igual o proporcional por categorías, el de la curva normal de probabilidades, el de la distribución binomial, el de Poisson, o cualquier otro modelo); b) Para decidir si existe asociación, o bien independencia, de variables. Es decir, por un lado, como prueba de «homogeneidad», se usa para decidir si dos o más muestras independientes proceden de la misma población o de poblaciones diferentes. Por otro lado, como prueba de «independencia», dirime si un atributo es independiente de otro, dentro de una sola muestra tomada de una población; o sea, estudia conjuntamente dos variables para apreciar si los resultados medidos se distribuyen aleatoriamente por las celdillas o si están asociadas, discrepando más allá del azar. En su esencia, χ2 es una prueba que valora estadísticamente discrepancias entre frecuencias empíricamente obtenidas —o frecuencias observadas (fo)— y las teóricas o esperadas (ft o fe), de acuerdo con algún principio o con algún modelo teórico. Su potencia-eficiencia, según Cochran (citado por Siegel, 1982) tiende a 1 cuando el valor de N es grande. c2 (JI CUADRADO).
JUEGOS EXPERIMENTALES. Técnica, entre otras, para la creación de modelos de simulación (véase). Consiste en una simulación mediante el juego, donde la acción de los seres humanos constituye una parte del proceso en curso de simulación (Gil Pascual, 2003, 81).
K
Prueba de adecuación de la muestra. (Véase: Medida de adecuación de la muestra —MSA— y KMO).
KAISER-MEYER-OLKIN (KMO).
Medida del acuerdo entre jueces, observadores o calificadores, que tiene en cuenta los acuerdos que pueden obedecer al azar (aleatorios). Se define como el cociente entre la proporción de acuerdos, eliminando los acuerdos aleatorios, y el complemento a la unidad de los acuerdos aleatorios.
KAPPA.
KEMMIS, modelo de.
(Véase: Modelo de Kemmis).
KENDALL, coeficiente t.
(Véase: Coeficiente de correlación entre rangos, t,
de Kendall). KENDALL, coeficiente de concordancia (W), de Kendall.
(Véase: Coeficiente de
concordancia (W), de Kendall). Coeficiente de correlación ordinal o entre rangos, utilizable en todos los casos en que se aplique el coeficiente ρs (rho) de Spearman. Sobre éste tiene ciertas ventajas, aunque es más laborioso de calcular. Se diferencia de ρs en que τ no se basa en el de Pearson, ya que considera el orden de n objetos en una variable y su orden en otra e intenta medir el grado de correspondencia entre estos dos órdenes. Supongamos n sujetos y dos variables, X e Y. Elijamos dos sujetos, G y H. Si G es superior a H en X e inferior a H en Y, o inferior a H en X y superior a H en Y diremos que se da una inversión. Si, por el contrario, G es superior a H en X y en Y, o inferior a H en X y en Y, diremos que no se da inversión alguna o que se da una no-inversión. «En la práctica, según Kendall, encontramos frecuentemente que, cuando ninguno de los dos coeficientes (rxy, de Pearson y rs, de Spearman) se acercan a la unidad, rs es aproximadamente un 50% mayor que τ en valor absoluto, pero esta regla no es invariable». Es decir rs ≈ (3/2) τ, advirtiendo que esta regla no es invariable. (Amón, 1984, t.1). KENDALL, coeficiente de correlación (t).
KMO
220
KMO. El KMO (Kaiser-Meyer-Olkin) es un indicador de la relación entre los coeficientes de correlación de Pearson y los coeficientes de correlación parcial entre las variables. Un valor próximo a uno denota pertinencia de las variables para el análisis factorial. Así, para Kaiser (en Visauta, 1999) los valores de: a) 1 ≥ KMO > 0,9 son excelentes. b) 0,9 ≥ KMO > 0,8 son buenos. c) 0,8 ≥ KMO > 0,7 son aceptables. d) 0,7 ≥ KMO > 0, 6 son regulares. e) 0,6 ≥ KMO > 0,5 son malos. f) KMO ≤ 0,5 son inaceptables. KOLMOGOROV-SMIRNOV, prueba de. 1. Como prueba estadística no paramétrica de «bondad de ajuste» para una muestra, requiere que esa muestra sea aleatoria y los datos sean del nivel de medida ordinal, como mínimo. Se interesa por el grado de acuerdo entre la distribución de un conjunto de valores de la muestra (fo) y una distribución teórica específica. Trabaja con las frecuencias acumuladas. Compara la distribución de frecuencias acumuladas obtenidas (empíricas) con la distribución de frecuencias acumuladas teóricas, determinando el punto en que ambas distribuciones muestran la mayor divergencia: D (máxima desviación o diferencia). Esta D indica si una diferencia como la obtenida puede aparecer por azar (H0: hipótesis nula) o no (H1: hipótesis alternativa). 2. Como prueba estadística no paramétrica para dos muestras independientes y aleatorias, puede confirmar que esas dos muestras provienen de la misma población o de poblaciones con la misma distribución. Requiere datos medidos a nivel ordinal un tanto perfecto, capaz de permitir con los datos el establecimiento de intervalos o categorías lo más finos posible, con objeto de no desperdiciar información y así evitar el riesgo de no rechazar H0 rechazables. Al igual que la prueba de una muestra, ésta de dos muestras se interesa por los puntos de acuerdo entre dos distribuciones acumulativas empíricas. Un alejamiento excesivo de las distribuciones acumulativas de las dos muestras sugiere que provienen de poblaciones diferentes: se rechazaría H0.
Prueba estadística no paramétrica para K muestras independientes, cuya finalidad es decidir si esas K muestras proceden de poblaciones diferentes. Muy útil para examinar la H0 (hipótesis nula) que supone que las K muestras han sido extraídas de la misma población o de poblaciones idénticas. Exige que la variable en estudio tenga una distribución continua y su medición sea en escala ordinal. Al utilizar las puntuaciones o datos directos, traducidos a rangos, aumenta su sensibilidad, por lo que, entre las pruebas no paramétricas, posiblemente sea la más eficaz. KRUSKAL-WALLIS, prueba de.
221
KURTOSIS O CURTOSIS
KUDER, prueba de. Prueba de medición de intereses. Se trata de un inventario que identifica grupos de interés vocacional de carácter científico, musical, mecánico. Se vale de actividades supuestamente conexas con las distintas áreas de interés. Las respuestas del sujeto revelan sus intereses generales. Esta prueba tiene una validez respetable y una fiabilidad elevada.
Procedimiento para averiguar la equivalencia racional o consistencia interna de un test mediante un coeficiente de correlación (rxx o rtt). (Véase: Método de equivalencia racional).
KUDER-RICHARDSON, método de.
KURT LEWIN, modelo de.
(Véase: Modelo de Kurt Lewin).
Grado de apuntamiento de una curva mayor o menor que el de la curva normal o campana de Gauss. Se simboliza por ku o Cu y se expresa mediante un índice, cuya fórmula es:
KURTOSIS O CURTOSIS.
Cu = Ku =
Q P75 − P25 Q − Q1 , siendo Q = 3 y P = percentil = 2 ( P90 − P10 ) 2( P90 − P10 )
Valor de referencia para ku o Cu = 0,263 Si Ku = 0,263, curva normal (mesokúrtica) Si Ku < 0,263, curva «aplastada» o platikúrtica (altura inferior a la de la curva normal: diferencia poco a los sujetos o datos). Una Ku < 0,4 es casi inadmisible. Si Ku > 0,263, curva «apuntada» o leptokúrtica (altura superior a la curva normal: diferencia bien a los sujetos o datos; está nutrida de casos, sujetos o datos medios y existen diferencias significativas entre los datos). Otra fórmula distinta, cuyo índice (basado en el momento de cuarto orden) es 0 para la curva normal, es la siguiente (Amón, 19846, 1, 131): a4 =
Σ( X i − X ) 4 / n − 3, de donde se infiere que : s x4
a4 > 0 para las curvas leptocúrticas; a4 = 0 para la curva normal; a4 < 0 para las curvas platicúrticas.
L
LAGUNA.
Carencia de datos que se subsana por analogía o por interpola-
ción. LAMBDA (L) DE WILKS. En el análisis discriminante, y más concretamente en la extracción de las funciones discriminantes, el valor de la lambda (Λ) de Wilks representa, para cada función, la proporción de varianza total de las puntuaciones discriminantes que no ha sido explicada por las diferencias entre grupos. En el análisis discriminante, la hipótesis nula (H0), de no existencia de diferencias significativas entre las medias de las puntuaciones discriminantes en los grupos, se contrasta mediante una prueba que consiste en una transformación de la lambda de Wilks, cuya distribución es aproximadamente la de una «ji cuadrado» (χ2). Si el p-valor asociado al valor observado para el estadístico χ2 es menor que α, se rechazará la hipótesis nula al nivel de significación α. (Gil Pascual, 2003, 307). LATENCIA. Tiempo transcurrido entre la aparición de un estímulo y la aparición de la respuesta por él provocada. LEWIN, modelo de Kurt.
(Véase: Modelo de Kurt Lewin).
Debida a Bernouilli, viene a decir que, cuanto mayor es el número de observaciones, menor es la probabilidad de que un valor observado se aleje significativamente de su valor verdadero. En otras palabras, la Ciencia Estadística permite al investigador asignar probabilidades a los valores obtenidos en las muestras para decidir, con cierto grado de seguridad —seguridad probabilística— sobre los verdaderos valores o parámetros. Por tanto, al ir creciendo el tamaño de la muestra, va tendiendo a uno la probabilidad de que la media de la – muestra (X ) llegue a coincidir con la media (µ) de la población.
LEY DE LOS GRANDES NÚMEROS.
LEYES ESTOCÁSTICAS.
(Véase: Estocásticas, leyes).
224
LIBRO DE CÓDIGOS
LIBRO DE CÓDIGOS. Documento en el que se registra la situación de las distintas variables en un fichero de datos y el significado de los códigos utilizados para representar los diferentes valores de dichas variables, con objeto de facilitar el procesamiento y análisis de los datos. LIGAS.
Puntuaciones ligadas (véase).
LÍMITE CENTRAL, teorema del. La distribución muestral de medias se acerca más a la forma normal a medida que aumenta el tamaño muestral, a pesar de que se desvíe de la normalidad en la distribución de la población. Dicho de otro modo: «si de una población infinita, cuya media es µ y cuya varianza es σ2, se extraen al azar muestras grandes de tamaño n, las medias de la distribución muestral de medias tenderán a estar normalmente distribuidas, independientemente de la forma de distribución que adopte la población». LÍMITE DE CONFIANZA.
(Véase: Intervalo de confianza).
LÍMITES CONFIDENCIALES (del intervalo de confianza).
Los dos valores extremos
del intervalo de confianza (véase). LÍNEA BASE.
Serie de registros sin intervención.
En el modelo paramétrico teórico, condición o supuesto exigible para el Análisis de Varianza (ANAVA) o prueba F, no para la prueba t. Se refiere a la condición de aditividad de los efectos. Consiste en la necesidad de que las «medias de estas poblaciones normales y homoscedásticas (nótese que normalidad y homoscedasticidad son otras dos condiciones precisas para aplicar cualquier prueba paramétrica) deberán ser combinaciones lineales de los efectos debidos a las columnas y a los renglones o líneas o de ambos. Por tanto, los efectos deben ser aditivos», según Siegel (19827, 39). En el modelo de regresión lineal, condición, entre otras, de que esté bien especificado (bien diseñado) con referencia a que la relación entre las variables independientes (V.I.) y la dependiente (V.D.) sea «lineal» y «aditiva». La linealidad, respecto a los residuos y la definición del modelo, se cumplirá si cada V.I. tiene una relación lineal con la V.D. (valores de sujetos superiores a 2, 2,5 ó 3 desviaciones típicas serán indicadores de casos perturbadores, influyentes o extraños). O de otra forma, para cada V.I. la linealidad indica que el coeficiente de regresión es constante a lo largo de los valores de la V.I. (regresión lineal simple). (Gil Pascual, 2003). LINEALIDAD.
LISTA DE COMPROBACIÓN.
Lista de control (véase).
LISTA DE CONTROL. Instrumento para la recogida de información a través de la observación directa de la realidad. Se trata de una lista de palabras,
225
LOGIT
frases u oraciones que expresan conductas positivas o negativas, secuencias de acciones, etc., ante las cuales el observador o examinador señalará su ausencia o su presencia, como resultado de su atenta observación. Se emplea frecuentemente en aquellas tareas o procesos que pueden reducirse a acciones muy específicas o para verificar la existencia o no de determinadas conductas prescritas en ciertas normas de la acción escolar. También se emplea para evaluar productos donde se deberán apreciar qué características deseables están presentes o no. LISTA DE COTEJO.
Lista de control (véase).
Entre las diferentes formas de registro de la observación, de mayor uso y utilidad en el campo educativo, se encuentra la lista de operaciones, empleada para constatar la presencia o ausencia de determinados rasgos en un momento puntual.
LISTA DE OPERACIONES.
Escala de valoración que consiste en un conjunto o lista de términos, frases o afirmaciones relativas a un objeto (sujeto, hecho, idea), donde el sujeto debe marcar con una cruz los elementos de la lista que, en su opinión, sean aplicables al objeto que se está valorando.
LISTADO.
Logaritmo neperiano del cociente entre la probabilidad de un suceso (por ejemplo, responder correctamente a un ítem o cuestión de un test o prueba) y del suceso contrario (responder incorrectamente).
LOGIT.
M
MACROHIPÓTESIS.
(Véase: Hipótesis conceptual).
MADURACIÓN. Cambios producidos en el organismo del sujeto (procesos biológicos y/o psicológicos) que varían de modo más o menos sistemático como consecuencia del paso del tiempo, independientemente de ciertos acontecimientos externos. El aumento de la estatura, edad, fatiga y similares son ejemplos de los efectos de la maduración, sobre todo si el período de tiempo transcurrido en el experimento es demasiado largo. Estos cambios pueden afectar a la validez interna de los diseños (véase) de investigación, ya que pueden mediatizar el efecto que la variable independiente tiene sobre la dependiente. De no controlarse estos factores o variables extrañas, sus efectos no deseados amenazarían seriamente la «validez interna», validez mínima imprescindible, de todo diseño de investigación. MANIPULACIÓN DE LA VARIABLE INDEPENDIENTE. Acción que ejerce el investigador sobre la variable independiente (V.I.) para crear las condiciones que produzcan determinados niveles en dicha V.I., los cuales serán aplicados a los sujetos antes de medir la variable dependiente (V.D.).
Acrónimo que, en español, indica «Análisis multivariado de la varianza».
MANAVA.
MANOVA. Acrónimo, en inglés, para indicar el «Análisis multivariado de la varianza». MANTEL-HAENSZEL, procedimiento de. Método utilizado frecuentemente para detectar el posible funcionamiento diferencial del ítem. Este sencillo método se basa en la construcción de tablas bidimensionales para grupos de habilidad homogénea. (Navas, 2001). MAPAS CONCEPTUALES. En el análisis cualitativo de contenido y textual, técnica utilizada para la presentación de la información de manera siste-
228
MARCA DE CLASE
mática y para facilitar una visión rápida y completa de los datos recogidos y procesados para su posterior interpretación. Los mapas conceptuales presentan una forma de expresión gráfica de los datos para poner de manifiesto la relación existente entre los diferentes conceptos empleados en el análisis. Son de gran utilidad en los procesos de tipo explicativo y causal. Pueden ser presentadas las denominadas «redes causales», que identifican variables independientes y dependientes, además de las relaciones entre ellas. MARCA DE CLASE.
Punto medio exacto de un intervalo de clase (véase).
• Marcas de clase (en plural): denominación que dan algunos autores (p. ej., Glass-Stanley, 1974, 31-32) a las señales o trazos que representan las frecuencias de cada intervalo de clase (= Frecuencia de clase). Ejemplo:
Intervalos 110-114 105-109 100-104 etc.
Marcas I II IIII
Frecuencias (f) 1 2 4
Listado completo (real) de los sujetos o fenómenos que componen la población, a partir del cual se selecciona la muestra.
MARCO MUESTRAL.
Conjunto de principios teóricos que guían la investigación, mediante los cuales se pueden establecer las unidades de análisis relevantes para cada problema de investigación.
MARCO TEÓRICO.
MATRIZ. Conjunto de números reales o símbolos algebraicos colocados en líneas horizontales (filas) y verticales (columnas) y dispuestos en forma de rectángulo. Los números o símbolos algebraicos se llaman elementos de la matriz. Como símbolo de la matriz se usan las letras mayúsculas en negritas: A, X, Y, etc. Un elemento de la matriz se simboliza entonces por la letra minúscula correspondiente (a o x o y, etc.), el número de la fila primero y el de la columna después del elemento: xij. Si la matriz tiene n filas y m columnas se llama matriz de orden n × m, diferente de la matriz de orden m × n que tiene m filas y n columnas. Una matriz de orden n × 1 (n filas y 1 columna) se llama un vector, un «vector columna». Por el contrario, una matriz de orden 1 × m (1 fila y m columnas) es un «vector fila». MATRIZ DE COVARIANZAS.
(Véase: Matriz de varianzas-covarianzas).
229
MATRIZ INVERSA
MATRIZ CUADRADA. Matriz en que coincide el orden de fila al de columna, es decir, de orden n × n (mismo número de filas por columnas).
4 5 A= 2 3
Disposición de los datos de forma que puedan ser tratados y analizados, generalmente con los paquetes informáticos disponibles en el mercado. Cuando se toman datos de un conjunto de p variables de N sujetos, se puede representar la información mediante una matriz, X, con N filas y p columnas, llamada matriz de datos.
MATRIZ DE DATOS.
MATRIZ DIAGONAL. Matriz cuadrada cuyos elementos de la diagonal principal (xii = 1, 2,…n) son distintos de cero y el resto de los elementos (xij con i ≠ j) son cero.
Si A es una matriz y p un simple número, la operación p · A, o multiplicación escalar, significa que cada elemento de A es multiplicado por p. La matriz resultante se denomina matriz escalar de A, y p es el factor escalar o «escalar» a secas. Ejemplo:
MATRIZ ESCALAR.
3 5 12 20 4 −2 6 = −8 24 0 7 0 28
Matriz diagonal cuyos elementos son números unos y el resto de los elementos de la matriz son nulos. Se denota por I y adopta la forma: MATRIZ IDENTIDAD.
1 0 … 0
0 1 … 0
… … … …
0 0 … 1
Con xii = 1 para todo i, xij = 0 para todo i,j con i ≠ j . Se cumple X.I = IX = X. Una matriz cuadrada X tiene inversa X-1, si y sólo si se cumple X . X = X . X-1 = I. Para que una matriz X tenga inversa es preciso que sea «no singular», es decir, que | X | ≠ 0. Por ejemplo, si: MATRIZ INVERSA. -1
1 2 3 −1 4 −1 1 −1 X = 4 1 1 , su inversa será la X = −2 −5 11 13 2 2 1 6 2 7
MATRIZ MULTIMÉTODO-MULTIRRASGO
230
Una de las principales aplicaciones de la matriz inversa es la resolución de sistemas lineales de ecuaciones. (Gil Pascual, 2003, 49-50). Matriz que contiene las correlaciones entre las medidas de un constructo obtenidas con distintas pruebas y las medidas de diferentes constructos (relacionados con el anterior) obtenidas también con pruebas distintas. Por este procedimiento es posible determinar si dos o más mediciones de un mismo rasgo o constructo con diferentes pruebas correlacionan más entre sí —validez convergente (véase)— que dos o más medidas de rasgos diferentes con el mismo método de medida: validez discriminante (véase) o discriminadora. En este último caso, también podría ser entre medidas de distintos rasgos o constructos utilizando diferentes procedimientos de medida. (Véanse: Coeficientes monométodo-heterorrasgo y heterométodo-heterorrasgo).
MATRIZ MULTIMÉTODO-MULTIRRASGO.
MATRIZ NULA.
Matriz formada únicamente por ceros.
Una matriz Z es ortogonal si su traspuesta coincide con su inversa (véanse), es decir, si ZZ′ = I.
MATRIZ ORTOGONAL.
Si A es una matriz m × n, se llama pseudoinversa de A o g-inversa a la matriz A+ que cumple: a) AA+A = A b) A+AA+ = A+ c) (AA+)′ = AA+ d) (A+A)′ = A+A En general, para ser g-inversa sólo necesita cumplir al condición a); no obstante, si cumple las cuatro condiciones existe y es única. MATRIZ PSEUDOINVERSA.
MATRIZ SIMÉTRICA.
Matriz cuadrada que coincide con su traspuesta: X = X′.
Por ejemplo: 5 4 3 4 2 6 3 6 8
Para toda matriz cuadrada X se cumple la siguiente propiedad: X′X y XX′ son matrices simétricas. Las matrices simétricas tienen especial relevancia en el análisis multivariante, al ser las matrices de covarianzas y correlación de esta tipología. MATRIZ SINGULAR. Matriz en la que una fila o columna es múltiplo de otra (o sea, es combinación lineal). En consecuencia, el determinante de
231
MATRIZ DE VARIANZAS-COVARIANZAS
esta matriz es igual a cero. Dicho de otro modo: una matriz X, de orden n × n, se dice que es singular si |X| = 0; en caso contrario, se denomina no singular. Tipo de análisis sociométrico que consiste en un cuadro de doble entrada, donde se vuelcan los resultados del test sociométrico: expresan las posibles selecciones de los miembros de cualquier grupo. Permite establecer la expansividad de los sujetos, su grado de popularidad, liderazgo, aislamiento o rechazo; también, el tipo de elecciones (en 1.o, 2.o ó 3.er grado), el grado de cohesión, etc. Los datos de la matriz se trasladan a una representación gráfica denominada sociograma (véase).
MATRIZ SOCIOMÉTRICA.
MATRIZ TRASPUESTA. Matriz obtenida cambiando filas por columnas. Si A es una matriz de orden n × m, entonces A′ se llama la traspuesta de A y es de orden m × n.
5 4 5 1 A= Su traspuesta es A′ = 1 3 4 3
Es decir, A′ es la matriz m × n que se obtiene si se intercambian las filas de A por sus columnas, es decir, filas de A son columnas en A′. MATRIZ TRIANGULAR. Matriz que tiene todos los elementos de un lado de la diagonal principal igual a cero.
Es la matriz identidad (véase) o matriz diagonal que sólo tiene números unos en su diagonal. Su símbolo es I. Cualquier matriz multiplicada por esta matriz unidad da como producto la misma matriz.
MATRIZ UNIDAD.
Matriz cuadrada y simétrica formada por varianzas en la diagonal principal y covarianzas en simetría respecto a las primeras. Es una matriz semidefinida positiva, por lo que la traza, el determinante y los valores propios de la misma son no negativos, dado que la varianza es siempre positiva. Esta propiedad facilitará su descomposición como producto de matrices y su reducción de dimensión (Gil Pascual, 2003). Como es sabido, para obtener un estimador insesgado de la matriz de covarianzas poblacional, al calcular las varianzas o covarianzas será preciso dividir por n – 1 en lugar de n. Como en el caso univariante, esta operación será relevante sólo cuando el tamaño muestral sea reducido (generalmente, cuando n < 30). NOTA. Aunque realmente esta matriz se llama de «varianzas-covarianzas», la mayoría de los autores la nombran como «matriz de covarianzas» y sólo dejan la denominación de varianzas para
MATRIZ DE VARIANZAS-COVARIANZAS.
232
MCKERNAN
σ 12 0 0 2 0 σ2 0 0 0 σ2 n MCKERNAN, modelo de.
(Véase: Modelo de McKernan).
MCNEMAR, prueba de. Prueba estadística no paramétrica que se utiliza en aquellos diseños en los que el mismo sujeto o grupo de sujetos es medido dos veces: una, antes de introducir la variable independiente (V.I.) — pretest— y otra, después de aplicarla —postest— para evaluar el grado de significación del cambio observado. Con dos muestras relacionadas la comparación se efectuaría entre las medidas «postest», pues a un grupo se le aplicaría la V.I. experimental y a otro no, o se le aplicaría una cantidad distinta de la V.I. Al diseño pretest-postest (diseño antes-después) de grupo único se le pueden aplicar las mismas pruebas estadísticas que a los diseños de grupos relacionados (emparejados), ya que, cuando cada sujeto es usado como su propio control, no es posible un par más preciso que el logrado por identidad. El nivel de medida es nominal u ordinal burda. MCNIFF, modelo de.
(Véase: Modelo de McNiff).
En términos estadísticos, medida de tendencia central que permite resumir en un único valor la información contenida en los valores que adopta una variable. Se define como la suma de todos esos valores dividida por el número de ellos. Su notación es: µ = media de población o universo (parámetro) – X = media de muestra (estadístico o estadígrafo) En algunos manuales, también la simbolizan: M, m o a (de «average», en inglés). Obviamente, nos referimos a la media aritmética (véase) o valor promedio de un conjunto de valores (datos o puntuaciones). Su obtención, como se ha indicado, es fácil: basta dividir la suma de todos los valores (datos o puntuaciones) por el número de ellos. Puede calcularse aun cuando los valores no estuvieran ordenados. En la media influyen todos los valores de la serie en proporción a la magnitud de cada uno de ellos, por lo que es de una gran precisión. También su estabilidad es mayor que la de otras medidas de tendencia central, como la mediana o la moda. Sin embargo, su inconveniente es nivelar todos los casos, con lo que suprime, en la expresión del fenómeno, toda originalidad. En efecto, la media es el punto de la distribución en MEDIA.
233
MEDIA PONDERADA
que por encima y por debajo del cual hay un número exactamente igual de unidades de desviación. Valor promedio equivalente al cociente de dividir la suma de varias cantidades por el número de ellas. Es decir, la suma de n valores dividida por n. Es una medida de tendencia central de una serie de valores o datos cuantitativos. La media se considera como el valor más representativo de la variable o factor medidos. (Véase: Media).
MEDIA ARITMÉTICA.
MEDIA ARITMÉTICA PONDERADA.
Media ponderada (véase).
– MEDIA ARMÓNICA (X a).
Valor cuyo recíproco es igual a la media aritmética de los valores recíprocos de los datos. Es decir, la media armónica de n valores es el recíproco de la media aritmética de los recíprocos de esos n valores. Ejemplo: Datos: 2, 4, 6. Recíprocos:1/2, 1/4, 1/6. — Suma de recíprocos: 11/12 Media de recíprocos: 11/12 : 3 = 11/36. Recíproco = 36/11 = 3,27 Se utiliza poco. Resulta aconsejable para promediar velocidades. Cuando las series tienen valores grandes, su cálculo es complicado. – MEDIA CUADRÁTICA (X c).
Dadas las fluctuaciones n de una magnitud, se llama media cuadrática la raíz cuadrada de la media aritmética o cociente de dividir la suma de los cuadrados de las n fluctuaciones de una magnitud por el número, n, de las mismas (D.R.A.E.). Es decir, valor cuyo cuadrado es igual a la media aritmética de los cuadrados de todos – los valores o datos (X 2c).
MEDIA, error típico de la.
(Véase: Error típico de la media).
MEDIA GENERAL. Valor más común de la media entre todos los aparecidos al aplicarse sucesivamente la misma prueba o reactivo en muestras análogas. Lo normal será un resultado prácticamente idéntico en las medias correspondientes. Cuanto mayores diferencias arrojen éstas respecto de la primera, menor será su probabilidad. – MEDIA GEOMÉTRICA (X G).
Raíz enésima del producto de n números. Así, la media geométrica de dos números (por ejemplo: 16 y 9) será la raíz cuadrada de su producto: 16 × 9 = 12; la de tres números, la raíz cúbica de su producto, etc. O sea, tomados los valores de una serie como factores de un producto, la media geométrica es la raíz de grado igual al número de factores de dicho producto. – MEDIA PONDERADA (X p).
Es la media de varias medias aritméticas en que cada una de ellas tiene distinto peso específico. O, de otro modo: resultado de multiplicar cada uno de los números de un conjunto por un valor
MEDIA PROPORCIONAL
234
particular (peso), sumar las cantidades así obtenidas y dividir esa suma por la suma de todos los pesos (D.R.A.E.). Cuando se obtiene la media aritmética con pesos iguales, debe llamársele «media aritmética simple» o media aritmética no ponderada o «igualmente ponderada». Pero cuando las muestras o series de datos son de tamaño ni distinto, la media total —media ponderada— es igual a la suma de los productos de cada media por su peso correspondiente (por su ni, en el caso de muestras de diferente tamaño) dividido por el N total o suma de todos los ni datos de todas las muestras. Ej.: – (8 ⋅ 7) + (5 ⋅ 8) • Muestra A = nA = 8; X = 7 Xp = = 7, 38 – • Muestra B = nB = 5; X = 8 8+5 En síntesis: al promediar una serie de promedios, hay que ponderar cada promedio por el número de casos usados para calcular dicho promedio específico. MEDIA PROPORCIONAL.
Media geométrica (véase) de dos números (D.R.A.E.).
MEDIA VERDADERA. Valor que se obtendría si, en lugar de utilizar una muestra, se empleara un gran número de casos (teóricamente infinitos) o todos los casos incluidos en la categoría o variable estudiada. Es decir: sería el parámetro (µ) o valor de la población o universo investigado.
Característica de la interacción, especialmente en la experiencia de aprendizaje y en la transmisión cultural, que se produce en un clima de empatía y mutua aceptación entre los sujetos protagonistas. Es un amplificador de la calidad de los estímulos: potencia las capacidades del sujeto receptor de esa mediación, despierta su competencia, regula la conducta, controla la impulsividad, enseña estrategias, busca significados, transforma los estímulos, provoca el análisis metacognitivo de todo el proceso de aprendizaje para crear la plena autonomía del sujeto. La mediación se centra en las peculiaridades de la persona del educando y se realiza a partir de los criterios de intencionalidad-reciprocidad, significación, trascendencia, etc. (Tébar, 2003, 385).
MEDIACIÓN.
Es toda persona (padre, educador, etc.) que ordena y estructura los estímulos y aprendizajes para ayudar al educando a construir su propio conocimiento. El mediador actúa como guía y orientador del proceso de desarrollo, facilitando experiencias de aprendizaje y ayudando a establecer metas, a organizar los estímulos y a interpretar la cultura. Se caracteriza por su intención de transmitir significados, despertar reciprocidad y transferir todo conocimiento a las diversas situaciones de la vida. El mediador se interpone entre el estímulo y el sujeto adaptando a las necesidades de éste los procesos de enseñanza-aprendizaje. (Tébar, 2003). MEDIADOR.
235
MEDICIÓN
MEDIANA (Md o Me). Valor mediano o central. Es el valor, dato o puntuación (aunque no necesariamente una puntuación real) que ocupa el punto situado en el centro de una distribución o serie ordenada de valores, datos o puntuaciones. Es, por tanto, una medida de posición (tendencia central) que deja por encima de ella la mitad (50%) de los valores o datos y por debajo la otra mitad (50%). Como tal medida de posición —más que de magnitud—, no se halla afectada por los valores extremos de la serie, que no influyen en ella más que por el lugar que ocupan. Se emplea para describir todos los casos de la distribución, dado que la representa en forma razonablemente típica como medida de posición o de tendencia central. Por eso, en ciertos tipos de análisis, la Mediana puede reflejar la posición de la tendencia central con más exactitud que cualquier otra medida.
Prueba estadística no paramétrica que trata de probar si dos grupos independientes difieren en sus tendencias centrales. Más exactamente, informa acerca de la probabilidad de que dos grupos independientes (no necesariamente del mismo tamaño) provengan de poblaciones con la misma mediana (véase). Trata, pues, de poner a prueba la hipótesis de que dos grupos pertenecen a una misma población o a dos poblaciones de idéntica mediana. Sus exigencias teóricas se concretan en: independencia de las observaciones y que éstas sean medidas a un nivel ordinal, aunque esta medición es tan «burda» que considera únicamente si los valores medidos son «mayores» o «menores» que el valor mediano (Md) del conjunto de datos de ambos grupos ordenados según su cuantía.
MEDIANA, prueba de la.
El término «medición», equivalente a «medida», puede definirse desde diversos puntos de vista o en términos que no coinciden, pero lo esencial de la acepción es que por medición se entiende la asignación de números a objetos según determinadas reglas (según Stevens). «Estas reglas se resumen en la siguiente: aceptar sólo como válidas entre los números aquellas relaciones que sean verificables empíricamente entre las correspondientes modalidades». (Amón, t.1, p.35). La estatura de alguien se mide asignándole un número a la distancia entre la coronilla y las plantas de los pies, y de igual modo el cociente intelectual (C.I.) de un niño se calcula asignándole un número al patrón de respuestas emitido ante una serie de problemas típicos. En general, la medición es definida como el proceso por medio del cual se asigna un número a un objeto o sujeto en virtud del grado en el que éste presenta o manifiesta la variable, característica o constructo que se desea medir o apreciar con un determinado instrumento de medida (Navas, 2001). La medición o medida es la nota o característica distintiva de la metodología experimental, que valora cuantitativamente los experimentos,
MEDICIÓN.
MEDICIÓN
236
requiriendo medidas objetivas de la V.D. (variable dependiente) y, en ocasiones (como medio de igualar —emparejamiento o bloqueo— y así controlar diferencias iniciales mediante pre-test) también de la V.I. (variable independiente). La medición requiere técnicas adecuadas, eficaces, fiables y válidas, no sólo para su cuantificación, sino también para su registro. MEDICIÓN, error de. En una distribución de puntuaciones o datos, o en su estadística derivada, el error de medición es la variabilidad atribuible a la falibilidad del instrumento de medida o a errores en la observación. El error de medición suele referirse a conjuntos de datos, mientras que la expresión error de medida (véase) suele reservarse para casos individuales.
Referido al error típico de medida de un instrumento de medición, suele identificarse con el error típico de medida (véase).
MEDICIÓN, error típico de.
MEDIDA.
Medición (véase).
La medición de las actitudes se realiza fundamentalmente mediante: escalas de clasificaciones sumadas, escalas de intervalo constante (o de intervalos aparentemente iguales) y escalas acumulativas (véanse), además de la técnica del diferencial semántico (véase).
MEDIDA DE ACTITUDES.
MEDIDA DE ADECUACIÓN DE LA MUESTRA (MSA). Índice que compara las magnitudes de los coeficientes de correlación observados y las magnitudes de los coeficientes de la correlación parcial (véase). Además hay una prueba de adecuación de la muestra —conocida como Kaiser-Meyer-Olkin (KMO)— donde valores pequeños en este índice (cercanos a cero) indican que no es recomendable usar el análisis factorial, siendo que las correlaciones entre pares de variables no son explicadas por las otras variables. (Gil Pascual, 2003).
Esta expresión tiene dos connotaciones: a) En los diseños experimentales de investigación social, la medida del cambio se refiere a la diferencia entre las mediciones antes del tratamiento (pre-test) y las de después del tratamiento (post-test). Esta diferencia, expresada cuantitativamente, se suele denominar «ganancia». b) Según la dimensión temporal, se refiere al análisis cuantitativo (medida) de los cambios experimentados por una variable a lo largo del tiempo, que pueden ser concretados en un número índice (véase).
MEDIDA DEL CAMBIO.
Medida de la variabilidad de un fenómeno, entendida ésta como el grado de concentración de las diversas puntuaciones
MEDIDA DE DISPERSIÓN.
237
MEDIDA ORDINAL
alrededor de su promedio: cuanto más próximos entre sí se encuentren los diversos valores de la serie (mayor concentración) menor será su variabilidad o dispersión. Por tanto, las medidas de variabilidad o dispersión nos dicen si los valores extremos se alejan mucho del centro y si son muy numerosos o no. Sirven para determinar la concentración o dispersión de los valores de una serie en torno al valor central, con lo que también dan una idea de su representatividad. Principales medidas: a) Rango, amplitud total o recorrido; b) Rango o amplitud semi-intercuartil (Q); c) Desviación media (DM); d) Varianza (s2); e) Desviación típica (s); f) coeficiente de variación (CV). MEDIDA DE DISTANCIA O DISIMILITUD.
(Véase: Medida de proximidad).
MEDIDA DE INTERESES. Los intereses en las áreas «vocacional» y «profesional-ocupacional» han sido objeto de medida para obtener datos sobre su grado y dirección hacia diferentes tipos de actividades u ocupaciones. Pero esta medida comporta las mismas limitaciones que la medida de cualquier aspecto de la personalidad. No obstante, la medición de intereses es relativamente fácil mediante «inventarios». Las pruebas de Strong y Kuder son dos ejemplos destacados en este campo. La primera sigue un modelo de «construcción empírica» en su Cuestionario de intereses profesionales, por lo que acredita una buena validez predictiva. También de fundamentación empírica es el Reactivo de preferencias profesionales, de Secadas. De enfoque «racional» (orientación teórica) es el Registro de preferencias, de Kuder, que recoge escalas de intereses en diversas parcelas ocupacionales. El Cuestionario de intereses profesionales, de Thurstone, es útil por su duración: 10 minutos. MEDIDA DE INTERVALO. Aquella en que existe unidad constante de medida, lo que permite a los sujetos no sólo poder ser ordenados, sino también asignados a números reales. Permite comprobar cuántas veces queda contenida una unidad empírica, elegida arbitrariamente, dentro de la diferencia entre dos modalidades. El punto cero de esta escala de medida es arbitrario, ya que no indica ausencia del atributo. (Véase: Escala de intervalo). MEDIDA NOMINAL. Aquella en que sólo es verificable empíricamente la igualdad-desigualdad. En esta escala de medida los números y símbolos se utilizan para distinguir entre sí los grupos a que pertenecen varios sujetos u objetos. Se clasifican los objetos o sujetos y las clases se numeran. (Véase: Escala nominal). MEDIDA ORDINAL. Aquella en la que son verificables empíricamente igualdad-desigualdad y orden. En ella los elementos están colocados por orden
MEDIDA DE POSICIÓN
238
de tamaño, pero sin unidades iguales ni cero verdadero o absoluto. (Véase: Escala ordinal). MEDIDA DE POSICIÓN. Índice numérico que describe la tendencia general de una serie de datos. Como las medidas de posición suelen corresponderse con los valores centrales, se denominan también medidas de tendencia central o promedios, por representar un valor medio entre los integrantes de la serie. Las principales medidas de posición son: Media aritmética – (X ), Mediana (Md), Moda o modo (Mo). (Véanse). MEDIDA DE LA POSICIÓN RELATIVA. Medida que indica plenamente la significación de un dato o puntuación al expresarse en relación con la medida del grupo o conjunto a que pertenece el dato o puntuación. Para ello se dispone de los cuantiles (véase), que dividen la serie de valores o datos en partes iguales.
En numerosos métodos estadísticos, y más concretamente en el análisis de conglomerados (cluster), aparecen medidas de proximidad entre variables o individuos. La proximidad expresa el grado de semejanza o similitud que existe entre variables o individuos, es decir, el grado de similaridad (asociación) o el grado de disimilaridad (distancia) entre aquéllos. La similaridad (sij) entre dos individuos Ai y Aj es una medida del grado de semejanza o similaridad entre ambos. La mayoría de los coeficientes de similaridad oscilan de 0 a 1. Sin embargo, existen algunos coeficientes de similaridad que expresan dependencia estocástica entre Ai y Aj y varían de – 1 a 1, indicando máxima similaridad para el valor de 1 y mínima para – 1. El valor 0 significaría independencia estocástica. Es muy conocida la clasificación de Sneath-Sokal (1973, cit. por Gil Pascual, 2003, 159) de los coeficientes de similaridad: MEDIDA DE PROXIMIDAD.
a) Coeficiente de correlación para medir la proporcionalidad o independencia estocástica entre los vectores de variables o individuos. b) Medidas de distancia o disimilitud, como medida de proximidad entre individuos. La más utilizada es la distancia euclídea (véase). c) Los coeficientes de asociación: sobre todo utilizados para datos cualitativos, como medida de concordancia entre dos columnas de datos. d) Medidas de similaridad probabilística. Los «coeficientes de similitud probabilística» se utilizan como una medida del buen ajuste de una distribución estadística. Los coeficientes construidos son aditivos y se distribuyen como una «ji cuadrado», por lo que se puede efectuar inferencia sobre los mismos. (Gil Pascual, 2003).
239
MÉTODO
También denominada de proporción o de cociente, tiene todas las características de la escala o «medida de intervalo» y cuenta además con un punto cero real (absoluto), que indica ausencia del atributo medido. Con ella es posible comprobar cuántas veces una modalidad cualquiera contiene la unidad empírica elegida arbitrariamente. (Véase: Escala de razón).
MEDIDA DE RAZÓN.
MEDIDA DE TENDENCIA CENTRAL.
Medida de posición (véase).
Medición basada en informaciones muy diversas (testimonio personal, elección de objetos o acciones, análisis de contenido del material verbal, observación de recompensas y castigos), dado que los valores son, en parte, fruto del ambiente cultural y denotan preferencia por ideas, personas, cosas, instituciones y conductas. Dicho de otro modo, los valores expresan lo «bueno» y «lo malo», los «imperativos» de la conducta humana. Una escala conocida de medición de valores es la Escala para el estudio de los valores, de Allport-Vernon y Lindzey, basada en las Formas de Vida, de Spranger. El Test de reacción valorativa, de García Hoz, pretende dar contenido a la orientación personal. Otros autores de instrumentos: Morris (Tipos de vida), Rokeach (que distingue dos tipos de valores: los instrumentales y los terminales; además establece relación entre valores y actitudes organizados como un sistema), Simmons (desarrolla un test de valores personales), Scott (Cuestionario de valores) y Bartolomé (1982) que ha utilizado la metodología Q (véase) para el estudio de los valores.
MEDIDA DE VALORES.
MEDIDAS PARALELAS. Medidas con idéntica varianza de error e idéntica puntuación verdadera para todos los sujetos de la muestra o de la población.
Medio físico, biológico, cultural y psicosocial en que se desarrollan y establecen los sistemas sociales y ecológicos.
MEDIO AMBIENTE.
En una curva de aprendizaje, dícese del periodo en que no hay ganancia (mejora), precedido y seguido por otros con ella.
MESETA.
Conjunto de procedimientos empleados para combinar los resultados de diversos estudios o investigaciones, una vez que hayan sido reducidos a una métrica común.
META-ANÁLISIS.
MÉTODO. Etimológicamente procede del griego y significa camino, procedimiento hacia algo. Procedimiento que se sigue en las ciencias para hallar la verdad o enseñarla (D.R.A.E.). Por tanto, el vocablo método hace referencia a un modo de decir o hacer con orden una cosa, camino para alcanzar un objetivo. En cualquier definición de método, pues, se alude a dos características: «procedimiento», por un lado, y «meta a alcanzar mediante él», por otro.
240
MÉTODO ANDERSON-RUBIN MÉTODO ANDERSON-RUBIN.
(Véase: Anderson-Rubin, método).
MÉTODO DE ANTICIPACIÓN.
(Véase: Anticipación, método de).
Procedimiento de actuación general que se sigue en el conocimiento científico, es decir, forma de actuar mediante operaciones ordenadas que orientan la investigación hacia los fines de la ciencia, a través de una serie de fases o etapas interdependientes entre sí. Es, por tanto, el método utilizado en la resolución de problemas científicos para llegar al conocimiento científico, o metodología (forma de proceder) que garantiza —a juicio de los científicos— el que las respuestas dadas a las preguntas que desencadenan la investigación, respondan a la realidad. El método científico es, por consiguiente, una vía para llegar a descubrir la verdad. El método científico opera a través de tres fases o momentos principales: el planteamiento del problema, la construcción de un modelo que permita aproximarse al objeto de estudio y, por último, la verificación de tal modelo. Finalmente, lo que caracteriza al método científico es: 1º) La ordenación y disposición conjunta de una serie de características propias. 2º) Tener un campo único de acción: la realidad observable. 3º) Admitir, en último término, como fuente de información y de prueba sobre esa realidad observable exclusivamente la experiencia.
MÉTODO CIENTÍFICO.
MÉTODO CLÍNICO.
Método centrado en el estudio de casos (véase).
Es el método más utilizado para encontrar la matriz factorial. Tiene como objetivo extraer la máxima varianza de las variables observadas. Intenta condensar la mayor parte posible de la varianza de la matriz de puntuaciones originales en unos pocos factores o componentes incorrelacionados entre sí, que son combinaciones lineales de las variables primitivas. El método consiste en una extracción iterativa de los factores que maximizan la proporción explicada de la varianza de la matriz residual que resulta de parcializar la contribución de cada componente a la varianza total (Hotelling, 1933). Se pueden extraer tantos factores como variables, en cuyo caso la muestra quedaría totalmente explicada y no sería necesario el factor único, pero no se habría reducido la dimensión del problema (m = n). Por ello, a partir de los n factores inicialmente extraídos, se conservarán únicamente los m primeros. El método de componentes principales exige que los factores se extraigan uno a uno. Al primer factor se le impone la condición de tener la máxima varianza posible de la matriz R. Obtenido este primer factor, se resta de la matriz R la contribución de este factor a la varianza de la mis-
MÉTODO DE COMPONENTES PRINCIPALES.
241
MÉTODO ECOLÓGICO
ma. Luego se calcula sobre la matriz resultante un segundo factor. Y así sucesivamente hasta obtener m factores, de forma que la matriz resultante sea igual a una matriz 0 (cero) o nula. En definitiva, se pretende conseguir una combinación lineal de las variables, de modo que el primer componente principal sea el que explique la mayor proporción de varianza de los datos; el siguiente componente será el que le siga en explicación de varianza, estando a su vez incorrelacionado con el primero; y así sucesivamente. (Gil Pascual, 2003, 107; Prieto Adánez, 1985, 21). MÉTODO CUANTITATIVO.
(Véase: Metodología cuantitativa).
MÉTODO DEDUCTIVO. Método caracterizado por partir de un enunciado o premisa general para, mediante la lógica, extraer conclusiones e implicaciones que puedan ser contrastadas en la realidad. Es decir, procede de lo general a lo particular. Son de gran importancia las teorías, las explicaciones, los modelos de abstracción. Importa la construcción de alguna explicación teórica, no la recogida de datos empíricos. El proceso de actuación se orienta —en líneas generales— hacia la construcción de modelos teóricos, abstractos, frente al trabajo con los datos obtenidos de forma empírica. Son básicos los conocimientos, la intuición y la experiencia. En este sentido se insiste en que la presencia de gran cantidad de conocimientos y experiencias sobre un determinado campo o área de estudio no garantiza una idea completa sobre dicho campo, hasta que no se haya construido una teoría general sobre el mismo.
Modalidad de investigación que permite no sólo la descripción de los fenómenos, sino la relación existente, la comparación respecto de un modelo, o la identificación de valores óptimos aún desconocidos. La información puede referirse a un problema específico, o también a unidades problematizadas. La aproximación descriptiva trata de identificar qué hay en un conjunto específico de hechos o fenómenos en un momento dado, tratando de verificar, incluso, los valores o categorías óptimos que se dan en las variables objeto de estudio. (Véase: Investigación descriptiva).
MÉTODO DESCRIPTIVO.
MÉTODO DE DIVISIÓN DEL TEST EN DOS MITADES.
(Véase: Técnica de mi-
tades). Modalidad de investigación que considera la importancia del contexto como variable independiente y supone una posición decidida por alcanzar una explicación fenomenológica del aprendizaje y la formación de los individuos adultos.
MÉTODO ECOLÓGICO.
MÉTODO EMPÍRICO
242
Considera el carácter dinámico de los ecosistemas y el carácter auxiliar que el trabajo humano ha de tener en ellos. El medio ecológico es un conjunto de estructuras físicas, psíquicas, espirituales y sociales que caracterizan los modos y procedimientos de las relaciones e intercambios de las personas con la naturaleza, la creación, los objetos artificiales y los organismos que cohabitan dicho entorno. Es imposible comprender el comportamiento humano sólo desde las propiedades objetivas del contexto, sin referencia a los significados que los individuos les confieren. Método cuya fuente de información y de respuesta a los problemas que se plantea es la experiencia, lo que significa que la ciencia, a efectos de la prueba en que consiste, toma sus datos y basa sus conclusiones en la observación ordenada y sistemática de la realidad. MÉTODO EMPÍRICO.
Procedimiento debido a Kuder-Richardson que detecta, mediante un coeficiente de correlación (rxx o rtt), la consistencia interna de un test. Se realiza sin dividir el test y se apoya en el número de aciertos y no-aciertos de cada item o pregunta. Dispone de ecuaciones para ítems dicotómicos, para elementos de la misma o similar dificultad y para elementos no dicotómicos o no dicotomizados (varios grados de perfección en la respuesta). MÉTODO DE EQUIVALENCIA RACIONAL.
Técnica estadística utilizada en el análisis textual consistente en seleccionar los elementos característicos de un determinado texto, cuando se realiza un estudio comparativo de diversos textos. Así, la especificidad de una palabra o de un segmento repetido se determina a través de la comparación con un grupo más amplio de textos que sirve de referencia. Por tanto, se trata de detectar aquellas palabras o segmentos que son relevantes para el estudio en cuestión y que destacan por su reiterada aparición o por su ausencia. Entre las aproximaciones estadísticas utilizadas en el estudio de las especificidades, destacan las distribuciones de «ji cuadrado», la de normalidad y la de Poisson. Su cálculo se basa en la comparación de la frecuencia de las unidades del texto y la frecuencia de las mismas en el corpus general tomado como referencia.
MÉTODO DE LAS ESPECIFICIDADES.
Modalidad de investigación ligada al paradigma cualitativo (véase) que estudia las formas de vida de los grupos o comunidades humanas desde la perspectiva propia de estas sociedades. (Véase: Investigación etnográfica).
MÉTODO ETNOGRÁFICO.
Modalidad de investigación caracterizada por el control que se ejerce sobre los fenómenos investigados, principalmente
MÉTODO EXPERIMENTAL.
243
MÉTODO HEURÍSTICO
por el control sobre las variables extrañas. El control de estas variables mediacionales (para que no desvirtúen la consistencia de las relaciones que se estudian) exige, en primer lugar, la identificación de las mismas y, en segundo lugar, la utilización de una técnica de control adecuada en cada caso. (Véase: Investigación experimental). MÉTODO DE FACTOR COMÚN. Método que representa la perspectiva originaria del análisis factorial y que se ocupa de extraer un número de factores que permita reproducir la matriz de correlaciones entre las variables. O sea, permite extraer un número de factores que explique la varianza común de las variables, dejando al margen el componente de especificidad por carecer de interés. La matriz de correlaciones entre las variables incluye dos elementos fundamentales: a) los valores de la diagonal principal expresan la varianza total de cada variable; b) el resto de los elementos son índices de la varianza común entre cada par de variables. El concepto clave de modelo de factor común es el de comunalidad (véase), o parte de la varianza de cada variable debida a la contribución de los factores subyacentes. La ecuación fundamental es: R = AA′ Dada una matriz de correlaciones R, se trataría de encontrar otra matriz A (matriz factorial) que permita reproducir las correlaciones. Las columnas de la matriz A son los factores, y los valores denominados «saturaciones» son las correlaciones entre los factores y las variables. En consecuencia, la suma de los valores al cuadrado de cada fila es un índice de la comunalidad (véase) de cada variable y la suma de cuadrados de las columnas cuantifica la parte de la varianza de la matriz R explicada por cada factor. (Prieto Adánez, 1985).
Modalidad de investigación que trata de encontrar el verdadero significado de un comportamiento más allá de su apariencia problemática. Su objeto de investigación es el «fenómeno», entendido como aquello que se muestra tal como es ante nosotros, no como ficción, ilusión, apariencia, ni proceso que se observa de forma sensible. El rasgo característico del método fenomenológico es la «reducción» de lo aparente, lo subjetivo, para encontrar el significado objetivo. La investigación debe orientarse «hacia el objeto, excluyendo lo subjetivo (sentimientos, deseos, inclinaciones, etc.) y manteniendo una actitud contemplativa (cómo es) sin referencias prácticas» (Bochenski, 1981).
MÉTODO FENOMENOLÓGICO.
Procedimiento no riguroso para descubrir la solución correcta de un problema, mediante aproximaciones a la respuesta adecuada. Utiliza analogías y otros procedimientos de investigación, pero sin ahondar en la exploración de todas las posibilidades. MÉTODO HEURÍSTICO.
MÉTODO HIPOTÉTICO-DEDUCTIVO
244
Método que combina la inducción y la deducción en distintos momentos del proceso. A partir de casos particulares, plantea un problema y, a través de la inducción, remite a una teoría. Desde este marco teórico, de forma deductiva, formula la hipótesis que será validada posteriormente. El investigador arranca de un conjunto de observaciones diversas, según los casos particulares. Teniendo en cuenta las características comunes y desechando los aspectos menos importantes, agrupa las observaciones. Por inducción, elabora un resumen de los hechos observados (teoría), al que sigue otro proceso de deducción, que debe tratar de generalizar las descripciones y explicaciones inducidas por el investigador a situaciones no observadas; lo que supone predicciones o soluciones tentativas, o sea, hipótesis que deben someterse a comprobación empírica. Las hipótesis podrán ser validadas, rechazadas o alteradas, tomando como referencia las observaciones empíricas que realiza el investigador (recogida de información y de datos). Con las hipótesis validadas se persigue la formación de teorías que, a su vez, se tendrán que probar con nuevas observaciones empíricas que permitirán confirmar, rechazar o modificar dichas teorías. MÉTODO HIPOTÉTICO-DEDUCTIVO.
MÉTODO HIPOTÉTICO-DEDUCTIVO-EXPERIMENTAL. Método así denominado por Dewey atendiendo a las etapas fundamentales que lo integran. Inicialmente, el método comienza por la percepción de un «problema» sobre el que el científico reflexiona para delimitarlo y definirlo con precisión. 1) Entonces, como fruto de su capacidad mental, de su reflexión, de su experiencia y de la información de lo alcanzado por otros, aventura una hipótesis, o una conjetura, como tentativa de solución (fase hipotética). 2) Dado que la hipótesis no es una improvisación ni una repentización, sino fruto de la racionalidad, de ser cierta se derivarían determinadas consecuencias que el investigador deducirá (fase deductiva) y cuyo cumplimiento probará que la hipótesis ha sido correcta, por lo que podrá quedar establecida, aunque provisionalmente. 3) Las consecuencias derivadas de la hipótesis deberán ser contrastadas por vía experimental, experiencial (fase experimental). Y aquí el método científico exige que el contraste de hipótesis sea riguroso, controlado e imparcial. MÉTODO HOLÍSTICO-INDUCTIVO. Método que analiza la realidad psico-socio-educativa en su globalidad siguiendo la vía inductiva. Trata de comprender en su totalidad el fenómeno objeto de estudio, no como una
245
MÉTODO DE MONTECARLO
suma de partes aisladas y descontextualizadas. Por ello presta especial atención a la interacción entre las variables en su contexto natural. Lo que supone que las categorías, explicaciones e interpretaciones de los fenómenos se generan a partir de los datos y no de las teorías subyacentes, además de prestar más atención al sujeto que a la consecución de generalizaciones. Método que consiste en el análisis de casos particulares para alcanzar conclusiones de tipo general. Procede de lo particular a lo general. Sobre la base de observaciones de la realidad, descubre las características comunes que aparecen constantes y, sobre este nexo común, enuncia leyes y teorías (generalizaciones). Por tanto, su procedimiento de trabajo es la observación y la experimentación, mediante la obtención y análisis de datos recogidos en un determinado contexto de trabajo. La diferencia con el método deductivo es que, mientras éste se mueve en teorizaciones abstractas, el inductivo trata de recoger una gran cantidad de datos (datos válidos y fiables) para dar respuestas a las preguntas de los problemas planteados. Utiliza técnicas experimentales rigurosas de observación de la realidad que garanticen el máximo control de los procesos y la posibilidad de establecer relaciones de causalidad entre las variables presentes en la investigación. MÉTODO INDUCTIVO.
MÉTODO DE K-MEDIAS. En el análisis de conglomerados (cluster) es un método «no jerárquico» (véase: Métodos jerárquicos y no jerárquicos) que se basa en la conformación aglomerativa de casos, aunque no permite la agrupación de variables. Se parte de k-casos más distantes (previamente hay que definir el número de «cluster» a formar) y luego se van leyendo todos los datos asignándolos al centro (centroide) más próximo. El valor del centroide se recalcula conforme se añaden los datos. Cuando se han incluido todos los datos, el procedimiento k-medias calcula los centroides finales. Utiliza siempre como medida de distancia la euclídea (véase: Distancia euclídea) y sirve tanto para variables cuantitativas continuas como para ordinales. Pero en ambas esta distancia se ve afectada por la variabilidad de las variables y, por tanto, si tienen distinto rango será aconsejable la transformación de las mismas antes del análisis. Transformación mediante tipificación a z de media 0 y desviación típica 1 (Gil Pascual, 2003). MÉTODO LÓGICO.
(Véase: Método reflexivo).
Técnica, entre otras, para la creación de modelos de simulación (véase). Consiste en asignar a la variable el valor que le
MÉTODO DE MONTECARLO.
246
MÉTODO PDCA
corresponde al intervalo de la función de distribución de probabilidades que incluye el número de elementos seleccionado. (El nombre de «Montecarlo» se debe a la población del principado de Mónaco, célebre por su casa de juego mediante la ruleta, uno de los aparatos mecánicos más sencillos que permite obtener variables aleatorias). La idea de simulación (véase) por el llamado Método de Montecarlo se debe a John Von Newmann y Stanislaw Ulam. Shannon, en 1975, la expresó así: «simulación es el proceso de diseñar un modelo de un sistema real y llevar a cabo experiencias con él, con la finalidad de aprender el comportamiento del sistema o de evaluar diversas estrategias para el funcionamiento del mismo» (véase: Sistema). Los métodos de Montecarlo representan una de las más antiguas utilizaciones de la simulación, porque tratan procesos complejos de cálculos de probabilidades. Estas técnicas están adaptadas al uso de muestras aleatorias para la exploración de las probabilidades de modelos probabilistas. Propuesta de evaluación de centros centrada en la gestión de la calidad total. El método PDCA (planificar - hacer - comprobar - actuar) adopta el denominado ciclo Deming para configurar la implantación de esa calidad total en los centros. Peralta (en Pérez Juste. et al., 2000) señala las siguientes fases: a) Fase Plan (evaluación y planificación); Fase hacer (momento de la acción); c) Fase verificar (evaluación procesual); d) Fase actuar (normalización). Esta propuesta es muy útil en los procesos de evaluación de centros, ya que, por un lado, permite conocer el grado de consecución de los objetivos planteados, y por otro, facilita los procesos de retroalimentación sobre el propio proceso evaluado, retroalimentación orientada a la mejora continua.
MÉTODO PDCA.
MÉTODO PROMAX.
(Véase: PROMAX, método).
Modalidad de investigación que permite la identificación de conceptos y esencialidades que se integran, o están ausentes, en las formas de vida de los grupos sociales o étnicos. Los valores esenciales de las formas de vida saludables de los grupos humanos han de identificarse por esta vía reflexiva.
MÉTODO REFLEXIVO O LÓGICO.
Modalidad de investigación que trata de indagar el sentido de la comunicación, de la significación e intencionalidad del lenguaje, y la realización práctica en contextos específicos y diferenciados. En este modelo pueden realizarse: análisis de contenido, bibliométricos, diferenciales semánticos, estudios de catalogación, etc. MÉTODO SEMIÓTICO.
247 MÉTODO WHERRY-DOOLITTLE.
METODOLOGÍA EXPERIMENTAL
(Véase: Correlación múltiple).
Etimológicamente significa «ciencia del método». Conjunto de métodos que se siguen en una investigación científica o en una exposición doctrinal; o también, método científico general adaptado a las peculiaridades del objeto propio de estudio de una disciplina científica en particular. METODOLOGÍA.
METODOLOGÍA CUALITATIVA. Metodología de investigación que engloba un conjunto de técnicas interpretativas que tratan de describir, decodificar y traducir un fenómeno que ocurre de forma más o menos natural en el mundo social. Las técnicas de esta metodología están más orientadas hacia el significado del fenómeno en cuestión que hacia su frecuencia o cuantificación. La metodología cualitativa se acerca directa y abiertamente a los discursos de los sujetos, por lo que trata de aproximarse, de dar respuesta, a las motivaciones, a las determinaciones sociales que están tras el comportamiento de los individuos, y no a cómo se distribuye en la sociedad un determinado fenómeno. (Véase: Paradigma cualitativo-interpretativo). METODOLOGÍA CUANTITATIVA. Metodología de investigación, predominantemente inductiva, que busca determinar las características externas generales de una población sobre la base de muchos casos individuales extraídos de la misma (muestra). Esta metodología se engloba en el paradigma cuantitativo (véase).
Metodología de investigación que comparte con la metodología experimental el mismo objetivo (establecimiento de relaciones causales entre los fenómenos objeto de estudio), pero lo consigue en menor medida por el deficiente control de las variables extrañas, al no existir generalmente asignación aleatoria de las unidades experimentales a los niveles de la variable independiente (V.I.).
METODOLOGÍA CUASI-EXPERIMENTAL.
METODOLOGÍA DE ENCUESTAS.
(Véase: Encuesta).
METODOLOGÍA EXPERIMENTAL. Metodología de investigación que permite establecer con garantías relaciones causales entre los fenómenos objeto de estudio. Para ello tiene como principios constitutivos la manipulación de la/s variable/s independiente/s y el estricto control de las variables extrañas. Se caracteriza, en consecuencia, por la manipulación activa, por parte del investigador, de la/s variable/s independiente/s (causa o tratamiento) y el control de las variables extrañas. Control ejercido mediante la selección aleatoria de los sujetos y asignación también aleatoria de los
METODOLOGÍA IDIOGRÁFICA
248
mismos (ya como grupos independientes o ya como grupos relacionados) a los tratamientos definidos por los distintos niveles de las variables independientes. Esta metodología es la adecuada para poner a prueba hipótesis de relaciones causales. (Véase: Paradigma cuantitativo). METODOLOGÍA IDIOGRÁFICA. Metodología que no pretende alcanzar leyes generales, sino que trata de comprender el comportamiento del individuo. Pretende el estudio de particularidades, que puede abordarse desde el estudio de casos hasta la elaboración de una teoría científica y, desde ésta, solucionar de forma comprensiva un caso determinado. Autores, como Galtung (matemático y sociólogo noruego), consideran que no sólo las ciencias nomotéticas, sino también las idiográficas desarrollan proposiciones y las estructuran sistemáticamente en teorías, a través de relaciones e implicaciones que intentan la explicación y descripción de los fenómenos que estudian. METODOLOGÍA N = 1. Es el paradigma de investigación que se aplica al estudio de casos individuales que incluye algunas descripciones relativamente detalladas de personas singulares, hechos, instituciones o comunidades (dice Sax, 1979, 76), tratando de comprender su comportamiento, sin pretender generalizar a las zonas de otros discentes o grupos. Existen dos formas básicas en esta metodología: a) Investigaciones en las que se aplica la metodología nomotética (que trata de encontrar relaciones universales y no particulares). b) Estudio de un solo caso o estudiante sin pretensiones de generalización (Castro, 1977, 63-64). Es un diseño adecuado a: educación especial, diagnóstico, fracaso personal, inadaptación, etc. Tiene la doble utilidad de aprender a tomar decisiones y de modelo de investigación. METODOLOGÍA NO EXPERIMENTAL. Metodología de investigación que se utiliza para describir algunas características de una determinada población o bien para realizar un estudio comprensivo y global de un fenómeno. En el primer caso, se utiliza la metodología de encuestas y en el segundo básicamente la metodología observacional y cualitativa.
Aquella que trata de encontrar relaciones universales (leyes generales) y no particularidades.
METODOLOGÍA NOMOTÉTICA.
METODOLOGÍA OBSERVACIONAL. Metodología de investigación en que la fuente principal y directa de los datos la constituyen las situaciones naturales, siendo el investigador su principal instrumento de recogida. Mediante el registro sistemático y objetivo de la conducta que se genera espontáneamente, permite la contrastación de hipótesis, la replicabilidad de
249
MÉTODOS DE INVESTIGACIÓN EN EDUCACIÓN
sus resultados y contribuye al desarrollo teórico al proporcionar resultados válidos en un ámbito específico de conocimiento.. Técnica de atribución de valores a la realidad estudiada, basada en la ordenación de frases o enunciados, llevada a cabo por sujetos de la investigación. Su creador fue Stephenson (1953), quien con este término designó un conjunto de ideas filosóficas, psicológicas, estadísticas y psicométricas orientadas a la investigación sobre el individuo. La metodología o técnica Q se centra básicamente en distribuciones de pilas de tarjetas denominadas «clasificaciones Q», y en las correlaciones entre las respuestas de diferentes individuos a este tipo de clasificaciones. La técnica Q es una forma refinada de ordenar objetos por rangos (preguntas, reactivos, estímulos, etc.) para asignar después numerales a los subconjuntos de objetos con fines estadísticos. El método consiste en dar a una persona un conjunto de objetos (por ejemplo, afirmaciones verbales, palabras, frases, imágenes o composiciones musicales aisladas) para que los clasifique en conjuntos de «pilas», sobre la base de algún criterio. En esencia, la técnica supone los siguientes pasos: a) formulación o/y recogida de una serie de enunciados que reflejen el aspecto, rasgo o característica, en un sentido más amplio, que se desea medir; b) clasificación por los sujetos de estos enunciados en un conjunto de categorías, que va a lo largo de un continuo, de mínimo a máximo acuerdo, aprobación o adecuación a la propia realidad; por lo general se le dan a los sujetos 9 u 11 categorías; c) valoración de la clasificación realizada por los sujetos a los diferentes enunciados; d) análisis estadístico de los valores mediante determinadas técnicas estadísticas (Kerlinger, 1975). La técnica Q se fundamenta en dos ideas importantes: correlaciones entre personas y grupos de personas, o factores.
METODOLOGÍA «Q».
MÉTODOS CRÍTICO-REFLEXIVOS Y EVALUATIVOS. En la investigación-acción (véase), métodos y procedimientos adecuados para la recogida de datos. McKernan (1999) incluye en este apartado los siguientes: triangulación, revisión colegial, retroalimentación de la clase o aula, evaluación del discurso, ensayos críticos. MÉTODOS EVALUATIVOS.
(Véase: Métodos crítico-reflexivos y evaluativos).
Como debatible aproximación conceptual, García Llamas (2001, 81) propone la siguiente definición: «Estudio profundo de los diferentes métodos y metodologías de análisis de la realidad, de las técnicas y los procedimientos apropiados a los hechos educativos, con el fin de ofrecer una explicación y comprensión científica de los mismos que contribuyan a mejorar la realidad educativa».
MÉTODOS DE INVESTIGACIÓN EN EDUCACIÓN.
MÉTODOS JERÁRQUICOS Y NO JERÁRQUICOS
250
MÉTODOS JERÁRQUICOS Y NO JERÁRQUICOS. En el análisis de conglomerados (cluster), después de elegidas las variables, su distancia o su similitud, se debe seleccionar el algoritmo de clasificación. Estos algoritmos se pueden clasificar en «métodos jerárquicos» y «no jerárquicos». Los jerárquicos no examinan muestras muy grandes, por limitaciones de cálculo y de interpretación (200 casos como máximo). Los métodos jerárquicos para la formación de conglomerados se basan en la construcción de un árbol de clasificación. Estos métodos de clasificación se pueden dividir en métodos aglomerativos y métodos disociativos o divisivos. Los métodos no jerárquicos suplen las limitaciones de los jerárquicos en cuanto al número de casos a tratar (valores superiores a 200), para lo que es aconsejable el procedimiento de K-medias que, por supuesto, necesita que las variables sean de intervalo u ordinales y que estén dadas en la misma escala de medida, aunque este último inconveniente se soluciona transformando la escala, por ejemplo mediante tipificación de la misma. Así mismo, estos métodos no jerárquicos, se ven menos afectados que los jerárquicos por: los casos atípicos, la medida de distancia utilizada y la inclusión de variables irrelevantes. Pero son vulnerables a la elección del punto de origen para el comienzo del cálculo. Realizan una partición de los individuos en K grupos. El investigador fija «a priori» el número de grupos a formar. La asignación de los individuos a los grupos se hace mediante algún proceso que optimice el criterio de clasificación. De este tipo de métodos no jerárquicos se pueden citar, entre otros muchos, el método de K-medias, el método de quick cluster y el método de Forgy. Es interesante la combinación de métodos jerárquicos y no jerárquicos. Partiendo de una muestra y utilizando los primeros, esta unión ayuda al cálculo del número de conglomerados, los puntos de comienzo o semilla, e identifica puntos atípicos. Después se hará el tratamiento de todo el colectivo con los métodos no jerárquicos. (Gil Pascual, 2003). MÉTODOS NARRATIVOS.
(Véase: Métodos observacionales y narrativos).
MÉTODOS NO JERÁRQUICOS.
(Véase: Métodos jerárquicos y no jerár-
quicos). MÉTODOS NO PARAMÉTRICOS.
(Véase: Pruebas no paramétricas).
En la investigación-acción (véase), métodos y procedimientos para la recogida de datos. Son muy ricos y variados. McKernan (1999) cita en este apartado: observación participante (véase), memorandos analíticos, registro de casos, registros anecdóticos, grabaciones en audio o vídeo, diarios, protocolos de análisis. MÉTODOS OBSERVACIONALES Y NARRATIVOS.
251
MÉTODOS S Y T
MÉTODOS PROYECTIVOS. Conjunto amplio y variado de técnicas utilizadas fundamentalmente en el diagnóstico de la personalidad y en la investigación sobre su estructura. Se basan en la percepción personal de los estímulos por parte de los sujetos y la consiguiente respuesta dada por éstos. Los valores, actitudes, necesidades, intereses, emociones, así como los impulsos y motivos pueden ser estudiados si se consigue que los sujetos «proyecten» esos estados internos sobre objetos y conductas externas al individuo (estímulos). El principio característico de estas técnicas es que cuanto más inestructurado y ambiguo sea el estímulo, tanto más se logrará que el sujeto proyecte sus valores, emociones, actitudes, necesidades e intereses. Clasificación propuesta por Lindzey (según tipos de respuestas): asociación, construcción, completación, elección u ordenación y expresión. Y así, se citan: los «tests de asociación libre de palabras»; el de Rorschach (el más famoso de todos los tests proyectivos); los de completar frases iniciadas o dar respuestas a preguntas que ilustran situaciones vitales expresadas en viñetas (el test de Rosenzweig); los que ofrecen varias alternativas entre las que elegir lo atractivo y rechazar lo que desagrada (test de Szondi); aquellos en los que se deben construir escenas o historias a partir de los estímulos (T.A.T. = Test de apercepción temática); y aquellos en que el estímulo es una orden que da el aplicador para realizar determinada tarea: test de dibujo (árboles —Buck, Koch—, figuras humanas, ya personas separadas —Goodenough, Machover— o en familia: prueba de Corman). MÉTODOS PARA LA RESOLUCIÓN DE PROBLEMAS.
(Véase: Análisis del dis-
curso). En el análisis de varianza, técnicas o procedimientos estadísticos «post hoc» o a posteriori de contraste de diferencias para comparaciones múltiples entre grupos. Fueron desarrollados por Tukey (T) y Scheffé (S), para saber qué diferencia o grupos de diferencias son significativas. El método S es más general, al no exigir que los n (número de valores, datos, observaciones o sujetos) sean iguales en todos los grupos, además de presentar una gran sensibilidad. Permite hacer, simultáneamente, todas las posibles comparaciones entre las medias de los tratamientos. Permite, también calcular los intervalos de confianza para cualquier comparación. Admite contrastes complejos. El método T, también de comparación múltiple entre medias, detecta mejor las diferencias significativas, y señala unos intervalos de confianza menores que los del método S. Exige que los grupos que se comparan tengan igual n (mismo número de valores, datos, observaciones o sujetos).
MÉTODOS S Y T.
MÉTODOS SOCIOMÉTRICOS
252
En conclusión, se utilizará el método T cuando solamente se exija el contraste entre las diferencias de medias, con n iguales en los grupos. Y el método S, para realizar contrastes más complejos y/o no aparezcan los grupos con n iguales. MÉTODOS SOCIOMÉTRICOS. En general, conjunto de técnicas y procedimientos para la recogida y análisis de datos referidos a las relaciones sociales entre individuos en grupos de tamaño adecuado que permita la relación y el mutuo conocimiento. En sentido restringido, los métodos sociométricos estudian las relaciones de preferencia expresadas por los sujetos. En sentido más amplio, incluye no sólo elecciones (afinidades) sino rechazos o aversiones, es decir, engloba las relaciones interpersonales de todo tipo. La recogida de datos se efectúa mediante un test sociométrico. En él se solicita de los sujetos que relacionen a compañeros para fines concretos (liderazgo, popularidad, etc.) a veces por orden de preferencia, con arreglo a criterios claros. Hay tres tipos de análisis sociométricos: matriz sociométrica, sociograma, e índices sociométricos (véanse). MITO. Explicación literaria de la realidad. Fábula, ficción alegórica, especialmente en materia religiosa. En los mitos, según su temática, cabe distinguir: los mitos teogónicos, que intentan establecer el origen de los dioses y su jerarquización; los cosmogónicos, que describen la génesis del mundo; los esotéricos o de iniciación misteriosa y oculta, y los escatológicos o relativos al más allá.
Medida de tendencia central que representa el valor o dato más repetido (el que alcanza la frecuencia más alta) entre todos los que constituyen una serie de valores o datos. Si se trata de valores o datos medidos a nivel de intervalo o de razón, punto medio del intervalo al que corresponde la frecuencia máxima; con datos a nivel ordinal, categoría ordinal a la que corresponde frecuencia máxima; con datos a nivel nominal, categoría nominal a la que corresponde frecuencia máxima. Se llama también modo, valor dominante, valor normal y valor cuspidal. La moda tiene la ventaja de ser un valor real, el más real de la serie o conjunto de datos, puesto que es el que con más frecuencia se da. Su inconveniente, sin embargo, es su falta de precisión, ya que puede haber más de una moda. Si en la distribución o serie de valores hay una sola moda, se habla de distribución unimodal; si dos, bimodal. MODA (MO).
MODELO. El término «modelo» procede etimológicamente del latín «modulus», molde, y directamente del vocablo italiano «modello». El Diccionario de la R.A.E., recoge, entre otras acepciones: Ejemplar o forma que
253
MODELO CAUSAL
uno se propone y sigue en la ejecución de una obra artística o de otra cosa; y también, representación en pequeño de una cosa. Representación simplificada de una realidad o representación descriptiva de hechos observados. En general, y aplicado a la Estadística, el término modelo significa esquema teórico, generalmente en forma matemática, de un sistema o de una realidad compleja (p.ej., la evolución socio-económica de un país) que se elabora para facilitar su comprensión y el estudio de su comportamiento. Concretando más, el modelo es una aproximación teórica a lo real, por lo que las definiciones de Bunge (19765) y Arnau (1982) recogen esta idea: Modelo es un sistema conceptual que intenta representar aspectos interrelacionados de sistemas reales. O intento de sistematización y descripción de lo real en función de presupuestos teóricos. En la investigación cuantitativa existen modelos matemáticos y modelos empíricos (véanse). En la investigación cualitativo-evaluativa hay otro tipo de modelos con matices diferenciadores. Propuesta de evaluación de centros que se concreta fundamentalmente en un enfoque empresarial de la evaluación, además de un marcado componente pedagógico que favorece su aplicación al ámbito escolar. Sobre la base de un concepto amplio de «auditoría», así como de los objetivos básicos de la eficacia y la eficiencia de la misma, destaca su concepto de «auditoría integral» que contempla aspectos administrativos, de cumplimiento legal, así como la eficacia y eficiencia del centro. Martínez Aragón (en Pérez Juste, et al., 1995) configura el modelo de «auditoría integral» en tres grandes apartados: a) Valoración de recursos; b) Valoración de la eficiencia y del cumplimiento legal; c) Valoración de la eficacia o resultados. Esta propuesta evaluadora es de aplicación en la planificación, ejecución y conclusión, que son las tres etapas básicas de todo proceso de línea empresarial.
MODELO DE AUDITORÍA.
El referido a los «experimentos» aleatorios en que el fenómeno investigado presenta dos alternativas (ej.: acierto-error, verdadero-falso, presente-ausente, sí-no, hombre-mujer,...) Una variable aleatoria es binomial cuando sólo puede tomar dos valores cuyas probabilidades son p y (1 – p), o sea, p y q. De ahí que la distribución binomial sea la distribución muestral de las proporciones observadas en muestras tomadas al azar de una población de dos clases. (Véase: Binomio, desarrollo del).
MODELO BINOMIAL.
Los modelos causales, o modelos de ecuaciones estructurales, constituyen una modalidad de los estudios correlacionales. Tie-
MODELO CAUSAL.
MODELO CIENTÍFICO
254
nen como objetivo describir posibles relaciones causales entre las variables con vistas a la explicación de un determinado fenómeno. Las variables incluidas en el modelo se consideran como factores que de una u otra forma —directa, indirectamente o de ambas— contribuyen a la producción de unos determinados resultados. El modelo está compuesto por un sistema de ecuaciones estructurales que se especifican en función de la teoría subyacente. La teoría aquí la entendemos simplemente como «explicaciones desarrolladas para justificar la covarianza observada entre los fenómenos» (Fuentes, 1986, 37-38). Hay diversidad de modelos causales. Pueden tratar sólo con variables manifiestas (medidas) o con variables latentes (no medidas); pueden postular que las relaciones de causación son unidireccionales (modelos recursivos, en términos de Pedhazur —1982— o modelos jerárquicos, según Kenny, 1979) o pueden ser más complejos y plantear que la(s) relación(es) entre la(s) variable(s) es (son) recíproca(s) —modelos no recursivos o modelos no jerárquicos—. Esta propuesta lleva consigo un componente estadístico muy laborioso, en cuanto a la comprobación de la posible relación causal entre las variables predictoras y las predichas, es decir, entre los antecedentes y los consecuentes. Como su nombre indica, se trata del modelo más próximo, en cuanto a objetivos, a la investigación de tipo experimental, si bien carece de intervención sobre la(s) variable(s) independiente(s). Los modelos causales han tenido un gran desarrollo a raíz del uso de la informática en el análisis de datos (LISREL). MODELO CIENTÍFICO. El término «modelo» procede etimológicamente del latín «modulus», molde, y directamente del vocablo italiano «modello». El Diccionario de la R.A.E., recoge, entre otras acepciones: ejemplar o forma que uno se propone y sigue en la ejecución de una obra artística o de otra cosa; y también, representación en pequeño de una cosa. El «modelo científico» es, por consiguiente, una estructura simplificada o conocida que se emplea para investigar la naturaleza de los fenómenos que los científicos desean explicar. Respecto de la permanencia o validez del modelo, es de señalar que éste es un sistema coherente de hipótesis que ha de entenderse, en principio, como necesitado de verificación.
Propuesta de actuación en la investigación-acción (véase) dentro de la visión práctico-deliberativa, centrada en la interpretación humana, la comunicación, la deliberación y la negociación. Ebbutt, vinculado a Elliot en alguno de los proyectos realizados, defiende un proceso de investigación-acción, donde los diferentes ciclos proporcionen una retroalimentación entre ellos y en uno mismo. Discrepa en la idea de
MODELO DE EBBUTT.
255
MODELO DE GIBBS
que la espiral sea el modo más adecuado de describir el proceso de acción y de reflexión. Por tanto, su proceso es más lineal, aunque con interacciones constantes entre los distintos ciclos contemplados. Propuesta de evaluación de centros elaborada por el European Council of International Schools (ECIS) consistente en una guía para la evaluación y acreditación. Los criterios que sirven de referencia están determinados previamente y se constatan mediante visitas. En su formulación se recogen aspectos curriculares y organizativos del centro escolar.
MODELO ECIS.
MODELO DE ELLIOT. Propuesta de actuación en la investigación-acción (véase) que ofrece una actuación práctico-deliberativa centrando sus cometidos en la interpretación humana, la comunicación, la deliberación y la negociación. Discípulo de Sthenhouse, y perteneciente a la corriente anglosajona, colaboró con Adelman en diversos trabajos con profesores para que éstos pudieran tener un mayor protagonismo en la solución de los problemas diarios de la clase. Aunque, en líneas generales, también coincide con el modelo de Kemmis (véase), no obstante añade una mayor clarificación al proceso de investigación-acción. Destaca especialmente la inclusión de la exploración al comienzo de cada uno de los ciclos, además de exigir el establecimiento de un flujo informativo abierto y fecundo entre el investigador y los sujetos que participan en el estudio. MODELO ESTADÍSTICO. Modelo es la representación descriptiva de hechos observados, o mejor, un «intento de sistematización y descripción de lo real, en función de presupuestos teóricos» (Arnau, 1982, 32). Modelo estadístico es una analogía en la que un conjunto de datos representa a otro conjunto por ser isomórficos (o sea, con la misma forma). Dos conjuntos son isomórficos cuando en ellos existe correspondencia entre todos y cada uno de los elementos de uno y otro conjunto y cuando poseen entre sí ciertas estructuras semejantes (García Hoz, 19684, 98). Establecemos un modelo estadístico cuando afirmamos la naturaleza de la población y el método de muestreo. Cualquier prueba estadística implica un modelo, y será válida en ciertas condiciones que especifican el modelo y el requisito de medida. El tratamiento estadístico de los datos tiene que ver con los modelos de distribución teórica de datos. Estos modelos se caracterizan por ciertas notas y/o exigencias que, de cumplirse en los datos empíricos, permiten o justifican la aplicación a éstos de sus propiedades y, en consecuencia, la asignación de valores de probabilidad. Desde este punto de vista, hay dos grandes modelos teóricos: paramétrico y no paramétrico. MODELO DE GIBBS. Propuesta de actuación en la investigación-acción (véase) que, sobre la base de las aportaciones de Lewin (véase: Modelo de
MODELO GUBA Y LINCOLN
256
Lewin), se centra en las actividades encaminadas a mejorar la práctica profesional. Distingue cuatro etapas principales: a) Planificación del desarrollo de una estrategia de acción para mejorar los hechos que acontecen en el aula. b) Actuación operativa para poner en práctica el plan. c) Observación de los efectos producidos. d) Reflexión sobre esos efectos, de manera que sirvan de base a futuros planes de acción. MODELO GUBA Y LINCOLN de evaluación.
(Véase: Evaluación: modelo de
Guba y Lincoln). MODELO HIPERGEOMÉTRICO. El modelo de probabilidad hipergeométrico se aplica al muestreo sin reposición de una población finita cuyos elementos pueden ser clasificados en dos categorías (por ejemplo: k, éxitos y n — k, fracasos). Si se efectúan n elecciones al azar, sin reposición, entre la población, se podría hallar la probabilidad de obtener exactamente x unidades del tipo k (o éxitos) en una muestra al azar de tamaño n. El número de éxitos en esta situación se llama variable hipergeométrica y es generada con tres números fijos: N (elementos o unidades totales de la población), n (elementos o unidades de la muestra) y k (aciertos, en este caso). Cuando n (tamaño de la muestra) es grande, comparado con N (tamaño de la población) y el muestreo es sin reposición, partiendo de una población finita, el modelo hipergeométrico debe sustituir al modelo binomial. (Ya-Lun Chou, 19772, 159-161). MODELO INDUCTIVO DE LA CIENCIA. Estrategia o modalidad que representa un nivel de aproximación en la búsqueda sistemática de una explicación de los fenómenos observables y permite llegar a generalizaciones empíricas. Establece regularidades y relaciones entre los datos observados. Integra la investigación descriptiva y la investigación correlacional (véanse). MODELO DE KEMMIS. Propuesta de actuación en la investigación-acción (véase) que encaja en la visión de la investigación-acción como crítica emancipadora. Se basa en las categorías interpretativas de los profesionales en ejercicio. Como discípulo de Sthenhouse, propone un modelo espiral en torno a dos grandes ejes: uno del tipo «estratégico» (donde intervienen la acción y la reflexión) y otro de tipo «organizativo» (centrado en la planificación y la observación). Todas estas tareas se encuentran en continua interacción, lo que permite que el segundo ciclo, que se inicia con la revisión y el replanteamiento del plan, vuelva a repetir las actividades relativas a la ac-
257
MODELO DE McNIFF
tuación, la observación y la reflexión, y así sucesivamente cuantas veces sea necesario en el análisis de la realidad educativa. Kemmis, junto con Carr (1988 y 1996) y McTaggart (Kemmis, 1988) forman la denominada «corriente australiana», centrada fundamentalmente en la crítica social. El objetivo es la comprensión de las prácticas sociales y la situación contextual donde se producen. Propuesta de actuación en la investigación-acción (véase) que encaja en la visión técnico-científica de la resolución de problemas. Lewin, junto con Dewey, Corey y Lay configuran la denominada «corriente americana». El modelo de Lewin es un modelo espiral, actualizado por diferentes autores (Elliot, 1990 y 1993, entre otros) que ha tenido gran influencia y aplicación en el ámbito educativo. Contempla las siguientes acciones secuenciadas: a) planificar o clarificar y diagnosticar una situación problemática para la práctica educativa; b) actuar, formulando estrategias de acción para resolver el problema; c) observar: poner en práctica y evaluar las estrategias de acción; d) reflexionar sobre el resultado, lo que nos puede conducir a nuevas clarificaciones y diagnosis de la situación analizada inicialmente. MODELO DE KURT LEWIN.
Modelo loglineal (véase) con una función de distribución logística y en el que se distingue entre variable dependiente e independiente(s). (Navas, 2001).
MODELO LOGIT.
MODELO LOGLINEAL. Modelo que analiza las relaciones entre un conjunto de variables categóricas, mediante la descomposición lineal de los logaritmos naturales de las frecuencias esperadas (teóricas) de cada celdilla de las correspondientes tablas de contingencia.
Representación de un sistema real mediante operaciones lógico-matemáticas.
MODELO MATEMÁTICO.
MODELO DE McKERNAN. Propuesta de actuación en la investigación-acción (véase). Se define como un modelo de proceso temporal, con dos ciclos básicos de actuación (y otros posteriores que podrían incorporarse): el primero se centra en el desarrollo del plan de acción, cuyas decisiones conducirán al segundo ciclo de acción, donde se revisará el plan inicial en sus diversos componentes y se adoptarán una serie de decisiones que podrán llevar hacia nuevos ciclos o la clarificación del problema y la adopción de las soluciones pertinentes. McKernan, vinculado a Elliot, participa de la visión práctico-deliberativa para la resolución de problemas. MODELO DE McNIFF. Propuesta de actuación que preconiza un esquema de investigación-acción (véase) con capacidad autogenerativa. Ello implica
258
MODELO NO PARAMÉTRICO
que las espirales de autorreflexión deben preocuparse simultáneamente de varios problemas, mientras desarrollan otras espirales de giro propio, de igual forma que un determinado problema mantiene unas connotaciones directas con otros problemas subyacentes. Y así, en la columna eje se ubica el problema que sigue la espiral (acción-reflexión de Kemmis y Elliot), añadiendo un nuevo ciclo de acción-reflexión para afrontar, desde nuevas dimensiones, el problema principal. Modelo estadístico (véase) al cual se ajustan las pruebas no paramétricas (véase).
MODELO NO PARAMÉTRICO.
Modelo matemático teórico, al que tienden los valores de determinadas variables continuas de conformidad con el azar o la casualidad. Su representación gráfica es en forma de campana, simétrica, y que obedece a una distribución normal de datos. (Véase: Curva normal). MODELO NORMAL.
Modelo estadístico (véase) al cual se ajustan las pruebas paramétricas (véase).
MODELO PARAMÉTRICO.
MODELO PÉREZ JUSTE de evaluación.
(Véase: Evaluación: modelo de Pérez
Juste). MODELO DE POISSON. Modelo de distribución también denominado de los «fenómenos raros». Al igual que el binomial (véase: Modelo binomial), el modelo de Poisson es una distribución para variables discretas. En realidad es el límite de la distribución binomial cuando N es grande y p es pequeño, por lo que los valores de p y q son extremos. Para ciertos autores esta distribución es adecuada cuando N ≥ 100, p ≤ 0,05 y q ≥ 0,95, mientras que para otros es aplicable cuando N ≥ 50 y p ≤ 0,10. Se puede reconocer este modelo —además de por las características reseñadas— cuando se observa que las frecuencias mayores se acumulan en un extremo para ir decreciendo conforme nos acercamos al otro. MODELO PROBIT. Modelo loglineal (véase) con una función de distribución normal y en el que se distingue entre variable dependiente e independiente(s). MODELO ROSSI de evaluación.
(Véase: Evaluación: modelo de Rossi).
MODELO SCRIVEN de evaluación. MODELO STAKE de evaluación.
(Véase: Evaluación: modelo de Scriven).
(Véase: Evaluación: modelo de Stake).
En la investigación-acción (véase), propuesta de actuación que encaja en la visión práctico-deliberativa, al enfocar sus
MODELO DE STHENHOUSE.
259
MODELOS ESTRUCTURALES CAUSALES
cometidos en la interpretación humana, la comunicación, la deliberación y la negociación. Se centra fundamentalmente en la figura del profesor-investigador de su propia tarea. La propuesta de Sthenhouse pertenece a la «corriente anglosajona» y se dirige a implicar a los docentes en los procesos de innovación didáctica sobre su propia tarea profesional; de alguna manera trata de vincular la práctica con la investigación y ambas confluyen en la figura del profesor. Sus aportaciones han influido en España y en la Europa Comunitaria. MODELO STUFFLEBEAM de evaluación.
(Véase: Evaluación: modelo de Stuf-
flebeam). MODELO TYLER de evaluación.
(Véase: Evaluación: modelo de Tyler).
MODELO DE WHITEHEAD. Propuesta de reformulación del ciclo de la investigación-acción (véase) para mejorar la relación entre la teoría educativa y el ejercicio profesional del docente, al considerar que otras propuestas están muy alejadas de la propia realidad educativa. Como alternativa completa, propone las siguientes frases, que se repetirán en cada uno de los ciclos propuestos por el investigador: — El profesor vive y siente el problema como propio. — Imagina la posible solución. — Pone en práctica la solución imaginada. — Evalúa los resultados de las distintas acciones ejecutadas. — Reformula el problema, a tenor de los resultados de la evaluación.
Aproximaciones teóricas a lo real o intentos de descripción y sistematización de fenómenos reales partiendo de la observación de los mismos. Por su carácter descriptivo, posibilitan al investigador la elaboración de esquemas representativos de la realidad, a fin de que los datos observados (que se regulan por las leyes de los fenómenos reales) se estructuren coherentemente en un marco teórico más amplio.
MODELOS EMPÍRICOS.
Técnicas que, a pesar de estar basadas en las de regresión, permiten realizar inferencias causales a partir de datos no experimentales. Tienen sus antecedentes en el análisis factorial de Spearman, en la correlación parcial de Yule, en el «path analysis» (análisis de sendas) de Wright y en las ecuaciones estructurales de los económetras de los años cuarenta del siglo XX, pero hasta más tarde no se logró su formalización y difusión. Es muy importante matizar que los modelos estructurales no están pensados para que se usen como un método que explora las posibles relaciones causales entre las variables a partir del análisis de datos no ex-
MODELOS ESTRUCTURALES CAUSALES.
260
MODELOS FUNCIONALES
perimentales. El proceso que sigue es justamente el contrario, y así su correcta utilización exige el tener «a priori» una concepción clara, precisa y explícita de la red de relaciones causales entre las variables, relación que pueda posteriormente ser expresada como un sistema de ecuaciones. Combina la conceptualización teórica acerca del fenómeno a estudiar y el cálculo matemático, y es justamente a la luz de la teoría como se establecerá el isomorfismo adecuado entre las relaciones de covarianza o correlación de las variables y las relaciones de causa-efecto. El análisis de los modelos estructurales servirá para comprobar una teoría, no para generarla. (Mateo Andrés y otro, 1984, 123). (Véase: Análisis causal). MODELOS FUNCIONALES.
Modelos uniecuacionales (véase).
En el contexto del análisis multivariante, modelos multinivel, base del programa Mlvin (Goldstein, 1998), utilizados en el análisis de curvas de desarrollo y en aplicaciones en investigación educativa donde claramente exista una jerarquización: centro educativo, curso, grupo clase.
MODELOS LINEALES JERÁRQUICOS.
Conjunto de símbolos y reglas matemáticas que facilitan la inferencia de una serie de teoremas o consecuencias contrastables sobre la base de unas suposiciones o postulados. Su utilidad depende de la confirmación empírica de las predicciones que resulten de la manipulación lógica de sus supuestos.
MODELOS MATEMÁTICOS.
MODELOS MULTIECUACIONALES CAUSALES. Modelos que, como su nombre indica, comprenden más de una ecuación para así aproximarse más a la realidad y reflejarla mejor. Permiten construir sistemas de ecuaciones o funciones que de alguna forma representan los complejos sistemas de relaciones causales y no causales entre variables que se dan en el mundo real. De ahí que se califique a este tipo como modelos «causales». También se suelen considerar estos modelos como «estructurales», en cuanto estudian las relaciones de influencia entre las variables de un sistema y pretenden determinar la estructura de dichas relaciones. Son, asimismo, «estáticos», porque estudian la estructura en cuestión en un momento temporal prescindiendo de su cambio o evolución a lo largo del tiempo. MODELOS MULTINIVEL.
Modelos lineales jerárquicos (véase).
Modelos que están asociados a la realización de experimentos aleatorios, entendiendo por experimento aleatorio aquel del cual se conocen de antemano los resultados posibles, pero no se sabe con certeza cuál de ellos se va a presentar, aunque sí su probabilidad.
MODELOS PROBABILÍSTICOS.
261
MORTALIDAD ESTADÍSTICA
MODELOS DE REGRESIÓN. Son aquellos que asumen que los efectos de cada una de las variables independientes (predictores) sobre la dependiente (criterio) son lineales y aditivos. (En Mateo Andrés-Rodríguez Espinar, 1984, ver ampliación sobre linealidad y aditividad del modelo de regresión). (Véase: Linealidad).
Modelos que reproducen fielmente una estructura (por ejemplo, la educativa), sus relaciones con elementos externos y la forma de reaccionar ante ciertos estímulos o «inputs» (véase: Simulación). Existen distintas técnicas para la creación de modelos de simulación: a) Método de Montecarlo (véase). b) Programación heurística (véase). c) Juegos experimentales (véase).
MODELOS DE SIMULACIÓN.
MODELOS UNIECUACIONALES. Modelos en los que sólo existe una ecuación y la relación que une a las variables de esta ecuación es de tipo determinista, en cuanto que a cada valor de X (variable independiente) sólo corresponde un valor único y determinado de Y (variable dependiente). Son los modelos más simples que pueden darse. Se pueden caracterizar como funcionales, lo mismo desde un punto de vista matemático que ontológico: matemáticamente, porque la ecuación que los define es siempre la expresión de una función matemática que relaciona entre sí las variables del modelo, tal como Y = f(x), cuando existe una sola variable independiente, e Y = f(x, z …) cuando son dos o más. Conforme a este carácter matemático funcional, estos modelos, ontológicamente, no implican necesariamente causalidad, sino en todo caso variación o cambio, que se puede llamar funcional, de la variable dependiente, en simple correspondencia con el cambio de la variable o variables independientes. MODO.
Sinónimo de moda (véase).
MODO BRUTO. En datos agrupados por intervalos, es la moda (véase) representada por el punto medio del intervalo de clase que tiene mayor frecuencia. MONTECARLO, método.
(Véase: Método de Montecarlo).
En el ámbito de las encuestas dícese de la pérdida de sujetos cuando se hacen diseños de panel. (Nota: El término mortandad, utilizado por algunos autores, significa «gran cantidad de muertes causadas por epidemia, cataclismo, peste o guerra», según el D.R.A.E., por lo que resulta inadecuado). MORTALIDAD ESTADÍSTICA.
MORTALIDAD EXPERIMENTAL
262
MORTALIDAD EXPERIMENTAL. Factor o variable extraña que afecta a la validez interna de un diseño de investigación en el que hay pérdida o deserción de participantes en los grupos de comparación. La pérdida aumenta a medida que se prolonga la duración del experimento o el grado de compromiso de los tratamientos experimentales. En los estudios longitudinales el efecto del abandono puede llegar a ser demoledor y sesgar los resultados. Suele ser mayor en las investigaciones en que se trabaja con personas voluntarias. Si la «mortalidad» es extrema, entonces se pueden producir datos anormalmente extremos o anormalmente semejantes. Cuando la pérdida de sujetos afecta diferencialmente a los grupos (por ejemplo, si de un grupo se pierden sujetos superiores y de otro medios o inferiores) debe tomarse en consideración al influir así en los resultados medidos en la variable dependiente. Se acepta generalmente que la «mortalidad» o abandono no se produce de modo aleatorio, sino que los que permanecen suelen tener una motivación distinta que aquellos que desertan. Para controlar los indeseables efectos de la mortalidad experimental, se suele recurrir a la inclusión en el experimento de sujetos de reserva asignados aleatoriamente a los diferentes grupos y que siguen el proceso experimental normal. Los datos obtenidos con estos sujetos se utilizarán en los análisis sólo en caso de que se haya producido la indeseada «mortalidad». MOSES, prueba de. La prueba de Moses, o de reacciones extremas, es una prueba no paramétrica para dos muestras independientes, concebida para usarse con datos de nivel ordinal, al menos, organizados para examinar las diferencias en la dirección de conductas extremas de algunos sujetos ante una determinada condición experimental. Se utilizará esta prueba cuando se espera que la condición experimental afecte a algunos sujetos de cierto modo y a otros del modo contrario. «En estudios de la defensa perceptual, por ejemplo, se espera que los sujetos control manifiesten respuestas ‘medias’ o ‘normales’, pero que los sujetos experimentales den respuestas ‘vigilantes’ o ‘represivas’; así se obtienen puntuaciones altas o bajas en comparación con las de los controles» (Siegel, 1982, 174). Esta prueba de Moses es de valor sin igual cuando existe, «a priori», una razón para creer que la condición experimental provocará puntuaciones extremas en cualquier dirección. MSA.
(Véase: Medida de adecuación a la muestra).
Parte o subconjunto de elementos de una población, que normalmente se selecciona para poner de manifiesto o representar las pro-
MUESTRA.
263
MUESTRA ALEATORIA SIMPLE
piedades o características de dicha población. Su característica más importante es la representatividad, es decir, que sea una parte típica de la población en la o las características que son relevantes para cada investigación. Menos importante es su tamaño, aunque, en igualdad de condiciones, los estadísticos calculados con muestras grandes son más precisos que los calculados con muestras pequeñas; pero una muestra representativa de 100 elementos es preferible a otra no representativa de 200. No existe, por tanto, un «tamaño ideal» de muestra. Varía de una investigación a otra. Cuanto más homogénea es una población en la(s) característica(s) a estudiar, menor tamaño es preciso en la muestra para su representatividad. En Ciencias Sociales (y, por tanto, en psicología y pedagogía) se suele fijar arbitrariamente el tamaño de la muestra, seleccionando el 10-25% de la población, según el «error» que es probable cometer al calcular diversos estadísticos partiendo de muestras de diferente tamaño. En rigor, el tamaño muestral se determinaría en función de: 1) Valor aproximado del parámetro que se trata de estimar. 2) Precisión con que quiere estimarse. 3) Riesgo de cometer errores de tipo I o de tipo II. 4) Hipótesis alternativa. Existen tres procedimientos para determinar el tamaño adecuado de la muestra: curvas, fórmulas y tablas. Se evitan, así, muestras innecesariamente grandes, y se ahorran costos y esfuerzos. El poder de contraste de H0 (hipótesis nula o de no diferencias) aumenta proporcionalmente al tamaño de n, manteniendo constantes los demás factores. Y es que la exactitud de un estadístico muestral depende del tamaño de n, suponiendo siempre la selección aleatoria para garantizar la representatividad. MUESTRA ACCIDENTAL. Muestra obtenida por un muestreo no probabilístico (no aleatorio) y en la que las unidades son incluidas por la ocurrencia de una circunstancia particular. Es la muestra más débil y sesgada, por cuanto el investigador utiliza las unidades muestrales que tiene a su alcance (por proximidad, facilidad de acceso, etc.) sin introducir selección ni modificación alguna.
Es la parte de la muestra invitada que acepta participar activamente en la investigación.
MUESTRA ACEPTANTE.
MUESTRA ALEATORIA.
Muestra elegida al azar o muestra probabilística
(véase). MUESTRA ALEATORIA SIMPLE.
(Véase: Muestreo aleatorio simple).
MUESTRA DE CONVENIENCIA
264
Muestra no probabilística (es decir, que no usa el muestreo aleatorio o al azar) en la que sus elementos se eligen por la facilidad de acceso a los mismos. (Véase: Muestreo accidental o incidental).
MUESTRA DE CONVENIENCIA.
Muestra no probabilística en la que los elementos se seleccionan sobre la base de un conjunto de características prefijadas, de forma que la muestra contenga dichas características que se asumen en la población.
MUESTRA POR CUOTAS.
Muestra que el investigador utiliza en última instancia para su investigación, tras la posible deserción o abandono de sujetos de la muestra seleccionada en principio para dicha investigación. Dícese también de la muestra no probabilística (no aleatoria) o muestra accidental (véase) o incidental.
MUESTRA DISPONIBLE.
MUESTRA ESTRATIFICADA. MUESTRA INCIDENTAL.
(Véase: Muestreo estratificado)
Muestra accidental (véase).
Muestra compuesta por los sujetos a quienes se invita a participar en la investigación. MUESTRA INVITADA.
Muestra no probabilística en la que se eligen los elementos sobre la base de un juicio, a veces del experimentador o de expertos, sobre qué elementos de una población son más representativos o útiles.
MUESTRA DE JUICIO.
Aquella que no utiliza el muestreo al azar, sino que se obtiene atendiendo al criterio o criterios del investigador, o bien, por razones de economía, comodidad, etc. En ella, por tanto, no se tiene en cuenta la probabilidad de selección de cada uno de los elementos de la población. Tiene menos fortaleza que la probabilística. Pertenecen a este tipo: el muestreo intencional o deliberado (el investigador selecciona directamente los elementos de la muestra, por lo que ésta resultará probablemente sesgada); el muestreo accidental o incidental (el investigador utiliza las muestras que tiene a su alcance, por proximidad, facilidad de acceso, etc., sin introducir selección o modificación alguna, por lo que son las más débiles).
MUESTRA NO PROBABILÍSTICA.
Muestra seleccionada conociéndose y teniendo en cuenta la probabilidad de selección de cada uno de los elementos de la población. Es aquélla en que, para su selección, se ha utilizado el muestreo al azar (aleatorio), basado en que todos los elementos de la población tienen la misma probabilidad (equiprobabilidad) de ser elegidos para la muestra. Es el proceso de extraer una parte de la población
MUESTRA PROBABILÍSTICA.
265
MUESTRA, TAMAÑO
—muestra— de modo que todas las muestras posibles del mismo tamaño tengan igual probabilidad de ser escogidas. Debido a esta selección aleatoria o al azar, puede calcularse de antemano la probabilidad de obtener cada una de las muestras posibles. A pesar del muestreo al azar, nunca hay seguridad total de la representatividad de la muestra. En cambio, sí puede afirmarse que las no elegidas aleatoriamente son muestras sesgadas. Los más conocidos tipos de muestreo aleatorio son: 1) Muestreo aleatorio simple. 2) Muestreo sistemático. 3) Muestreo estratificado. 4) Muestreo por conglomerados. 5) Muestreo por etapas. Es la parte de la muestra aceptante que realmente proporciona datos para el análisis. MUESTRA PRODUCTORA DE DATOS.
Muestra (véase) cuyo grupo de elementos extraídos de una población tenga la misma configuración que ésta en relación a las variables que la definen. Supone que la distribución de los elementos (sujetos, datos…) en la muestra es casi paralela a la de la población. Expresado de otra forma: una muestra es representativa con relación a una característica X, si el porcentaje de elementos de la población total que posee dicha característica coincide con el porcentaje de elementos que tienen esa característica en la muestra.
MUESTRA REPRESENTATIVA.
MUESTRA SESGADA. Tipo de muestra en la que, por incorrección del procedimiento de muestreo, existe una causa de error. Es, por tanto, no representativa. MUESTRA SISTEMÁTICA.
(Véase: Muestreo sistemático).
Expresión que se refiere al número suficiente de sujetos de una muestra para ser considerada representativa de la población de donde procede. ¿Qué número asegura que se den en la muestra todos los casos posibles de la población? 1.o) Puede afirmarse que, en igualdad de condiciones de selección (siempre partiendo de selección aleatoria), los cálculos efectuados sobre muestras de mayor tamaño son más precisos que los obtenidos de muestras pequeñas. 2.o) Sobre el tamaño concreto no hay respuesta exacta, salvo decir que «debe ser suficientemente grande la muestra como para conseguir la representatividad». El número que se necesita para ello variará de un estudio a otro. Se mencionan tres procedimientos para determinar el tamaño: curvas, fórmulas y tablas.
MUESTRA, tamaño.
MUESTREO
266
3.o) Algunos autores fijan las siguientes cifras con sus probabilidades (Gonzalvo, 1978, 112-113): 93 sujetos: 95% de probabilidad de que se dé en la muestra el 95% de los casos posibles en la población. 130 sujetos: 99% de probabilidad de que se dé en la muestra el 95% de los casos posibles en la población. 473 sujetos: 95% de probabilidad de que se dé en la muestra el 99% de los casos posibles en la población. 661 sujetos: 99% de probabilidad de que se dé en la muestra el 99% de los casos posibles en la población. (93 · 1,3978 = 130); (473 · 1,3978 = 661) Cuanto mayor sea el número de sujetos o casos, tanto mayor será la desviación típica de la muestra y tanto más representará ésta a la población. La amplitud cubierta por muestras de distintas magnitudes de una población será aproximadamente la siguiente: N = 10 ................... Amplitud + 2σ N = 50 ................... « + 2,5σ N = 200 ................. « + 3σ N = 1000 ............... « + 3,5σ A partir de una amplitud de + 3,5σ, respecto de la media, se incluyen 9.995 casos de 10.000 en una población normalmente distribuida (sólo 5 casos se hallarían fuera de esa amplitud). MUESTREO. Proceso seguido en la extracción de la(s) muestra(s), a partir de una población definida. Este proceso —según Fox (1981)— tendría cinco etapas: 1) Definición y selección del universo o población: especificación de los posibles sujetos o elementos de un cierto tipo. 2) Determinación de la población o parte de la población a la que el investigador tiene acceso. 3) Selección de la muestra invitada (conjunto de elementos de la población a los que se pide participar en la investigación). 4) Muestra aceptante (parte de la muestra invitada que acepta participar). 5) Muestra productora de datos (parte de la muestra anterior que realmente produce los datos). Una vez decidido el tamaño de la muestra, se procede a la selección de sus elementos mediante un proceso que persigue la representatividad, según diversos tipos de muestreo: a) Probabilístico, que utiliza el muestreo al azar (aleatorio) y cuya ventaja es permitir hacer estimaciones de la cuantía de los errores de muestreo que posibilitarán las inferencias sobre los valores de
267
MUESTREO ALEATORIO SIMPLE
la población a partir de los medidos en la muestra; (Véase: Muestra probabilística). b) No probabilístico, o no aleatorio, que no usa el muestreo al azar, y se utiliza por razones de economía, facilidad de acceso, utilidad, economía de tiempo, etc. (Véase: Muestra no probabilística). Aunque este muestreo no es representativo, dadas sus evidentes limitaciones, conviene manifestar que «la acumulación de resultados coherentes en diferentes investigaciones realizadas con este tipo de muestreo, puede llegar a ofrecer una confianza similar a los alcanzados de una sola vez por un muestreo aleatorio bien concebido» (Pérez Juste, 1985a, 176). También llamado incidental, es aquel muestreo no probabilístico en que el investigador utiliza las muestras que tiene a su alcance —por proximidad, facilidad de acceso, etc.— sin introducir selección o modificación alguna. Estas muestras no probabilísticas (no elegidas al azar) son las más débiles en cuanto a representatividad. (Véase: Muestra accidental).
MUESTREO ACCIDENTAL.
Técnica de muestreo que asegura que los estratos de la población mantienen una determinada representación en la muestra. Es muestreo probabilístico (selección de sujetos al azar) que permite garantizar la presencia de diferentes grupos (estratos) en la muestra, sobre todo cuando se trata de poblaciones no homogéneas, de tal suerte que los aspectos más significativos de la población estén representados.
MUESTREO ALEATORIO ESTRATIFICADO.
Tipo de muestreo probabilístico en el que siendo N el tamaño de la población finita (véase: Población), cada vez que se extrae al azar un elemento de entre los N, se le vuelve a reponer en la población antes de extraer el siguiente; y así hasta extraer un enésimo de entre los N, concluyendo de esta forma la constitución de la muestra de tamaño n. Por tanto, en cualquiera de las n ocasiones la población consta de N elementos y todos ellos tienen la misma oportunidad de ser elegidos (probabilidad de uno cualquiera = 1 / N).
MUESTREO ALEATORIO CON REPOSICIÓN.
MUESTREO ALEATORIO SIMPLE. Tipo de muestreo probabilístico (o muestreo al azar) en el que la selección de la muestra (n) garantiza el que cada elemento o sujeto de la población (N) tiene la misma probabilidad de ser elegido, en virtud del azar, para la muestra. Cada selección será independiente de cualquier otra. Ello exige la previa numeración de todos los elementos componentes de la población, si se efectúa el muestreo con rigor. Este muestreo exige ya población infinita, ya población finita, pero con reposición de elementos.
MUESTREO ALEATORIO SIN REPOSICIÓN
268
MUESTREO ALEATORIO SIN REPOSICIÓN. Tipo de muestreo probabilístico o al azar en el que, siendo N el tamaño de la población finita, se extrae al azar un primer elemento de entre los N, un segundo de entre los N-1 restantes, un tercero de entre los N-2 restantes…, un enésimo sin haber repuesto los n-1 primeros. Este tipo de muestreo es aleatorio porque ofrece la misma oportunidad de ser incluidos en la muestra a todos los elementos de que consta la población en cada momento.
Tipo de muestreo probabilístico (o muestreo al azar, aunque algunos autores no lo consideran tal, al no existir la «equiprobabilidad» de elección de todos los elementos) que trata de aproximarse a una muestra aleatoria mediante la selección sistemática de los elementos componentes de la muestra. Consiste en seleccionar cada elemento o sujeto enésimo de un listado de la población, tras la elección al azar del primero. Para ello, se divide N (total de elementos de la población) por n (número de elementos que tendrá la muestra) y el resultado, K, indicará que deberán seleccionarse los elementos de k en k (k es el coeficiente de elevación utilizado a partir de un elemento cualquiera, decidido al azar y no superior a dicho coeficiente). (Véase: Muestreo sistemático). MUESTREO ALEATORIO SISTEMÁTICO.
MUESTREO, área de.
Muestreo que se lleva a cabo en un sector o zona.
MUESTREO DE BARRIDO.
(Véase: Muestreo multifocal).
Tipo de muestreo probabilístico (o muestreo aleatorio, es decir, al azar), también denominado por racimos, en que las unidades de la muestra no son las de la población, sino agrupaciones o conjuntos de ésta (conglomerados). En este tipo de muestreo se seleccionan, por tanto, unidades formadas por grupos de unidades elementales. Para este tipo de muestreo, la población se divide previamente en grupos o conglomerados que contienen diversos elementos y, a continuación, se selecciona aleatoriamente un número de conglomerados y se trabaja con el total de elementos pertenecientes a los conglomerados elegidos. (Ejemplos de conglomerados: distritos escolares, centros, clases, etc.). La unidad muestral es el conglomerado y el proceso de selección aleatoria se aplica a la selección de éstos y no a los elementos menores que componen los conglomerados. MUESTREO POR CONGLOMERADOS.
MUESTREO DELIBERADO.
Muestreo intencional (véase).
MUESTREO ESTRATIFICADO. Procedimiento de selección de muestra probabilística (véase) por el procedimiento de dividir a la población en subgrupos homogéneos (subpoblaciones) o estratos mutuamente exclusivos y exhaustivos, con arreglo a la o las características que se consideren, y así
269
MUESTREO FOCAL
elegir dichas muestras de modo que estén representados los diferentes estratos. De cada estrato se extrae una muestra aleatoria simple. La estratificación permite asegurar que los aspectos significativos de una característica están representados en la muestra, ya que garantiza la presencia de diferentes grupos en la misma, sobre todo cuando se trata de poblaciones no homogéneas. Pretende homogeneizar los elementos de cada estrato con respecto a la característica que se estudia. Generalmente se habla de: 1) Muestreo estratificado constante, cuando de cada estrato se elige al azar un número constante de elementos, con independencia del tamaño y variabilidad de los mismos dentro de la población. 2) Muestreo estratificado proporcional, cuando se selecciona al azar de cada estrato un número de elementos proporcional a su tamaño en el conjunto de la población. Dentro del muestreo probabilístico, o al azar (muestreo aleatorio), el muestreo estratificado constante o simple es aquel en el que se elige un número constante o igual de elementos para cada estrato, con independencia del tamaño de los estratos en la población. También se denomina afijación simple (véase).
MUESTREO ESTRATIFICADO CONSTANTE.
Dentro del muestreo probabilístico, o al azar, el muestreo estratificado proporcional es el que selecciona de cada estrato un número de elementos proporcional a su tamaño en el conjunto de la población. También se denomina afijación proporcional (véase).
MUESTREO ESTRATIFICADO PROPORCIONAL.
También llamado polietápico, es un tipo de muestreo probabilístico (o muestreo aleatorio, es decir, al azar) muy relacionado con el muestreo por conglomerados (véase) y cuyo proceso es el siguiente: se divide la población en varios conglomerados y se selecciona un número de ellos al azar, que constituyen las unidades muestrales primarias. En una segunda etapa se obtiene una submuestra a partir de las anteriores unidades muestrales primarias (serían ya unidades muestrales secundarias), y así sucesivamente, sin olvidar que en cada una de las etapas se utiliza el muestreo aleatorio. (Ejemplo: 1.a etapa, se seleccionan 15 colegios (conglomerados) al azar; 2.a etapa, se pueden tomar al azar tres cursos en cada colegio; 3.a etapa, uno de los grupos de cada curso; 4.a etapa, 12 sujetos de cada grupo). MUESTREO POR ETAPAS.
MUESTREO FOCAL. Muestreo intrasesional en el que la atención del observador se mantiene focalizada en un solo sujeto durante un período de tiempo grande, que en muchas investigaciones llega a ser toda la sesión.
270
MUESTREO INCIDENTAL MUESTREO INCIDENTAL.
Muestro accidental (véase).
MUESTREO INTENCIONAL. También llamado deliberado, es aquel muestreo no probabilístico en el que el investigador selecciona de forma directa los elementos o sujetos de la muestra, por lo que ésta resultará probablemente sesgada al no existir aleatoriedad en su selección. De ahí que sea preciso especificar con claridad el criterio de selección utilizado.
Muestreo de las sesiones de observación. En él se puede utilizar un criterio de selección fija o aleatoria.
MUESTREO INTERSESIONAL.
MUESTREO DE INTERVALOS.
(Véase: Registro activado por unidades de
tiempo, RAUT). MUESTREO INTRASESIONAL. Muestreo de sujetos dentro de una sesión de observación. En este tipo de muestreo se puede optar por un muestreo focal, de barrido o multifocal (véanse) o por la combinación de ambos. MUESTREO LOCAL. Tipo de muestreo utilizado para estudiar actitudes y opiniones, en el que el criterio de selección de los sujetos obedece al lugar de residencia. Este método de muestreo es considerado probabilístico, pues la selección es aleatoria.
Muestreo intrasesional (o sea, realizado dentro de una sesión de observación) en el que la atención del observador va pasando de un sujeto a otro, en un orden establecido y que se repite varias veces en la sesión; esto es, el observador «focaliza» a cada uno de los individuos en períodos muy breves de tiempo. MUESTREO MULTIFOCAL.
MUESTREO NO PROBABILÍSTICO. MUESTREO POLIETÁPICO.
(Véase: Muestra no probabilística).
Muestreo por etapas (véase).
MUESTREO PROBABILÍSTICO.
(Véase: Muestra probabilística).
MUESTREO PROBABILÍSTICO PROPORCIONAL. Muestreo aleatorio en el que los elementos muestrales se seleccionan en función de su proporción en relación al tamaño de la población. (Véase: Muestreo estratificado).
Muestreo no probabilístico en el que las unidades muestrales son incluidas no al azar, sino según el criterio del investigador o de un experto. (Véase: Muestreo intencional y deliberado).
MUESTREO A PROPÓSITO.
Muestreo instantáneo. (Véase: Registro activado por unidades de tiempo, RAUT).
MUESTREO PUNTUAL.
MUESTREO POR RACIMOS.
Muestreo por conglomerados (véase).
271
MULTICOLINEALIDAD
MUESTREO POR RUTAS. Tipo de muestreo no probabilístico cuyo procedimiento de obtención de muestras consiste en seleccionar a los encuestados siguiendo «rutas aleatorias», es decir, al azar. (Por ejemplo: se instruye al encuestador sobre un plano para que camine «x» metros hacia el norte y entre en la primera casa a la izquierda, si hay varios pisos, que vaya al tercero y, si hay varias viviendas, que seleccione la segunda desde la izquierda). MUESTREO SISTEMÁTICO. Tipo de muestreo probabilístico (algunos autores no lo consideran tal) consistente en la extracción de muestras mediante un criterio racional, no estrictamente aleatorio. Trata de aproximarse a una muestra aleatoria (o al azar) mediante la selección sistemática de los elementos componentes de la muestra, una vez que éstos se han numerado secuencialmente para ser seleccionados sistemáticamente a partir de un determinado número aleatorio y con un intervalo de muestreo definido en función de la razón de muestreo. Consiste, por tanto, en seleccionar cada término o elemento enésimo de un listado de la población, tras la elección aleatoria del primero. Para ello, se divide N (total de elementos de la población) por n (número de elementos que tendrá la muestra) y el resultado, k, nos indicará que hemos de seleccionar los elementos de k en k. (k es el coeficiente de elevación utilizado a partir de un elemento cualquiera, decidido al azar y no superior a dicho coeficiente). Ej.: si la población está ordenada alfabéticamente, con N = 1500 elementos y la muestra n = 300, el resultado de dividir N/n = k, o 1500/300 = 5 nos indica que para elegir los 300 elementos, una vez elegido el primero al azar (p. ej., el 4) los restantes serán: 9, 14, 19, etc. Basta, pues, ir aplicando el coeficiente de elevación (k = 5) a partir del primer elemento elegido al azar, no superior a dicho coeficiente (si fuese superior, habría que recomenzar la serie al llegar a 1.500 hasta encontrarse con el punto de arranque). MUESTREO DE TIEMPO. Extracción de muestras de una población cuando dicha extracción está compuesta o se realiza por intervalos de tiempo. MUESTREO, unidades de. Partes en que se divide la población antes de seleccionar la muestra. Estas unidades, además de cubrir la totalidad del universo o población, deben caracterizarse por que todo elemento de la población pertenezca a una y solamente a una unidad. La construcción de esta lista de unidades de muestreo, llamada marco, es uno de los problemas prácticos. MULTICOLINEALIDAD. En el modelo de regresión lineal, situación que se da cuando un gran número de variables independientes están altamente interrelacionadas, es decir, son una combinación lineal de otras. Estas va-
MULTICOLINEALIDAD
272
riables independientes así interrelacionadas se denominan multicolineales. Si una variable es combinación lineal perfecta de otras variables independientes, la matriz de correlaciones será singular (véase) y no existirá una única solución mínimo-cuadrática insesgada de cálculo de sus coeficientes. Una matriz de correlaciones con coeficientes muy altos es un indicio de probable multicolinealidad. No obstante, puede existir multicolinealidad aunque los coeficientes sean relativamente bajos. Un procedimiento frecuentemente utilizado para detectar la independencia entre variables es el criterio de la tolerancia (véase). Para solucionar los problemas de multicolinealidad se puede: a) aumentar el tamaño muestral; b) a partir de las variables relacionadas, construir otra como combinación lineal de las anteriores; y c) utilizar un procedimiento jerárquico para introducir las variables y controlar la tolerancia de las mismas (Gil Pascual, 2003).
N
NATIVO.
Miembro natural de un grupo social.
NATIVO, efecto.
(Véase: Efecto nativo).
Corriente filosófica que tiende a explicar las cosas únicamente por leyes naturales. Ciencia descriptiva y explicativa de carácter positivista que estudia a los seres vivos en su medio natural. Se opone al idealismo al atribuir todas las cosas a la naturaleza como primer principio.
NATURALISMO.
NEGOCIACIÓN. En la investigación cualitativa, procedimiento de validez denominada «respondente». Pretende validar los resultados de la investigación mediante el contraste con los aportados por otros colegas, informadores, observadores y personas implicadas en el estudio.
Medida de una cantidad con referencia a una escala determinada, la cual puede admitir un número más o menos amplio de modalidades o niveles. Cada variable independiente o factor (p. ej., en el diseño factorial) puede admitir varios niveles o modalidades. En la investigación cualitativa, el término nivel es entendido como grado, modalidad o tipo de manifestación que se detecta en el análisis de contenido de textos o mensajes (ejemplos: nivel latente y nivel manifiesto —véanse—).
NIVEL.
NIVEL DE COCIENTE.
(Véanse: Escala de razón, Escala de medida y Ni-
veles de medida). Diferencia que, desde el nivel de significación (α) o coeficiente de riesgo, va hasta la unidad (suceso probabilísticamente seguro). La relación entre nivel de confianza y coeficiente de riesgo es complementaria. N.C. = 1 – α Si α = Coeficiente de riesgo y N.C.= Nivel confianza tendremos: α = 1 – N.C. 1 = α + N.C. NIVEL DE CONFIANZA.
NIVEL DE INTERVALOS
274
Por tanto, el nivel de confianza es la probabilidad (1 – α) de aceptar una hipótesis nula (H0) cierta. Los niveles de confianza suelen fijarse en 0,95 (95%), 0,99 (99%), 0,995 (995o/oo) y 0,999 (1o/oo). El nivel de confianza tiene que ver con el intervalo de confianza (véase), al indicar la «probabilidad» de que el parámetro caiga dentro del intervalo cuyos límites están definidos por el valor del estadístico en cuestión más/menos el error máximo de estimación. NIVEL DE INTERVALOS. (Véanse: Escala de intervalos, Escala de medida y Niveles de medida). NIVEL LATENTE (análisis de contenido). En el análisis de contenido, es lo que subyace o puede leerse «entre líneas» para llegar más lejos de lo reflejado en el nivel manifiesto (véase). El nivel latente trata de deducir lo que quiso decir o dar a entender el sujeto que emitió el mensaje, por lo que se interesa en codificar el significado de esa respuesta o la motivación que subyace a la misma y que mejor puede explicar la conducta descrita. Así se podrá llevar a cabo una interpretación, en otra clave, de los resultados obtenidos. En nuestra sociedad de la información y de la comunicación es preciso comprender no sólo lo que los textos transmiten de forma objetiva, sino también lo que quieren transmitir de manera latente y con una cierta intención. Es decir, saber descifrar los mensajes subliminales de los textos y expresiones que nos transmiten los medios de comunicación social, y así saber sobre las intenciones y motivaciones del sujeto que emite el mensaje. Y ello, para avanzar más allá de la mera descripción literal de lo que el texto recoge, tomando como referencia el mensaje, y así deducir (recurriendo a la inferencia) lo que el emisor quiso decir o dar a entender.
En el análisis de contenido, es aquello que se refleja o se detecta de forma manifiesta en una primera aproximación al análisis de los textos objeto de estudio. Consiste en el análisis de lo que el sujeto ha dicho, centrándose exclusivamente en la respuesta que éste ofrece. Por lo tanto, consiste en una transcripción de la respuesta en función de un código determinado. (Fox, 1981). En sus comienzos, el análisis de contenido se limitaba a lo manifiesto, como única forma de dar validez a las suposiciones o intenciones de los investigadores. Este modelo, basado en el positivismo lógico, sólo pretendía reflejar lo que está presente en el texto analizado. La opinión más extendida entre los investigadores es que este nivel manifiesto debe ser una vía de tránsito hacia una mayor profundización en los estudios y trabajos de investigación, más allá de la mera descripción literal de lo que el texto recoge. NIVEL MANIFIESTO (análisis de contenido).
275
NIVELES DE MEDIDA
Según Fox (1981), hay muchas pruebas de que el nivel manifiesto puede realizarse con fiabilidad y validez, características técnicas cuestionables para el nivel latente (véase). NIVEL NOMINAL.
(Véanse: Escala nominal, Escala de medida y Niveles
de medida). NIVEL ORDINAL.
(Véanse: Escala ordinal, Escala de medida y Niveles de
medida). NIVEL DE PROPORCIÓN.
(Véanse: Escala de razón, Escala de medida y Ni-
veles de medida). NIVEL DE RAZÓN. Nivel de cociente o de proporción. (Véanse: Escala de razón, Escala de medida y Niveles de medida). NIVEL DE SIGNIFICACIÓN. Coeficiente de riesgo o de significancia. Es la probabilidad de rechazar la hipótesis de nulidad (H0) cuando es verdadera. Indica el margen de error aceptado al rechazar la hipótesis de nulidad. Científicamente esa probabilidad de error o nivel de riesgo no suele admitirse que sea superior al 5% (5 casos de cada 100). Se denomina α . Este nivel de significación o de significancia se debe establecer antes del experimento. Sus niveles suelen fijarse en 0,05 (5%), 0,01 (1%), 0,005 (5o/oo) y 0.001 (1o/oo). En el lenguaje de la Estadística, «significante» quiere decir «significar una característica de la población de la que se obtuvo la muestra, independientemente de si la característica propiamente dicha es o no importante». (Rodrigues, 1980, 77). NIVELES DE MEDIDA. Dentro de la teoría de la medición, existen diferentes niveles de medida que comportan distintos tipos de relaciones y, en consecuencia, distintas operaciones de los datos. Los más conocidos son:
nominal ordinal de intervalo de razón (Véanse: Escala nominal, ordinal, de intervalo y de razón). La medida surge de una comparación por medio de un criterio. El criterio de comparación puede ser de diversos tipos. Los más frecuentemente utilizados en la medida experimental son: 1) Criterio de similitud. Establece una relación de igualdad, o equivalencia. Esta equivalencia puede tener carácter cualitativo o cuantitativo. Cuando la similitud es cualitativa, la escala adopta el tipo de «escala apreciativa». Es la graduación teñida de subjetividad (p. ej., bien-regularNiveles o escalas de medida
276
NO DIFERENCIA
mal). Este primer criterio nos proporciona las escalas nominales. En ellas se opera mediante la relación de equivalencia. Sus estadísticos son la frecuencia, el modo y el coeficiente de contingencia. 2) Criterio de ordenación. En la faceta subjetiva puede servir de ejemplo la clásica ordenación de los alumnos en clase, según el concepto que de cada uno tiene su profesor (desde el alumno «primero» en la clase, hasta el «último»). Cuantitativamente, mediante la ordenación jerárquica de las puntuaciones obtenidas en un test o en una prueba objetiva (ordenación del rango o amplitud total). Puede hacerse de mayor a menor, o de menor a mayor. Este segundo criterio nos eleva a las escalas ordinales, jerarquizadas generalmente en orden descendiente. Sus estadísticos son: mediana, percentiles y correlación ordinal. 3) Criterio de agrupación. Cuando los datos de una distribución son numerosos, lo que dificultaría las operaciones, se agrupan en intervalos. En cada uno de ellos existe una determinada frecuencia de puntuaciones. A este tipo corresponden las escalas de graduación (termómetro, por ejemplo). Este tercer criterio nos lleva a las escalas de intervalos, cuya unidad se basa en una igualdad de diferencia y nos lleva, por ejemplo, a las puntuaciones típicas. 4) Criterio de relación. Establece una distribución por equivalencia relativa (con una unidad: m, cm, minuto, segundo, por ejemplo), o entre dos datos (razón o cociente de los mismos). Este cuarto criterio produce las escalas de razones, de cociente o de proporción (Gonzalvo, 1978). NO DIFERENCIA, hipótesis de.
Es la hipótesis nula o de nulidad (véase).
NO PARAMÉTRICAS, pruebas.
(Véase: Pruebas no paramétricas).
NOMOTÉTICA, metodología. NOMOTÉTICO. NORMA.
(Véase: Metodología nomotética).
Dícese de lo que se basa en la búsqueda de leyes generales.
(Véase: Puntuaciones normativas).
NORMAL, modelo.
(Véase: Modelo normal).
Condición o supuesto requerido para la aplicación de pruebas paramétricas. Se refiere a la normalidad de la distribución de los valores en la población; es decir, que las observaciones deben efectuarse en poblaciones distribuidas normalmente (o, en caso contrario, que se conozca la naturaleza de su distribución). Esta condición no se verifica en la mayor parte de los experimentos, sino que se asume que los datos de las variables observadas obedecen a una distribución normal. La suposición de normalidad puede ser evaluada con el contraste «Ji-cuadrado» (χ2) o el de Kolmogorov-Smirnov, con n suficientemente grande. NORMALIDAD.
277 NORMAS.
NÚMEROS ALEATORIOS
Puntuaciones normativas (véase).
NORMATIVO, grupo.
Grupo normativo (véase).
Perfil que manifiesta de forma sintética e intuitiva las diferencias inter e intraindividuales en conocimientos.
NOSOGRAMA.
Se denomina n factorial (o factorial de n) el producto de los n primeros números naturales. Se designa por n!. Por ejemplo, 4! = (1) (2) (3) (4) = 24.
NOTACIÓN FACTORIAL.
Forma de registro de la observación sistemática —entre las de mayor uso y utilidad— consistente en anotaciones o apuntes escritos de datos y comentarios recogidos en el escenario de la observación y que deben ser recordados. Las notas de campo pueden ser de tipo personal, descriptivo, inferencial, y estar basadas en criterios teóricos o criterios metodológicos.
NOTAS DE CAMPO.
NÚMERO ÍNDICE.
(Véase: Índice, número).
Número de combinaciones posibles de los elementos de una población con un tamaño igual al de la muestra en cuestión.
NÚMERO DE MUESTRAS POSIBLES.
NÚMEROS ALEATORIOS. Aquellos números que se eligen al azar para efectuar un muestreo sistemático (véase) al objeto de realizar una determinada investigación y su correspondiente prueba experimental. Hay varios procedimientos como, por ejemplo, la tabla de números aleatorios (véase).
O
OBJETIVIDAD. La objetividad, en general, es la cualidad de objetivo (es decir, perteneciente o relativo al objeto en sí mismo, con independencia de la propia manera de sentir o de pensar). La objetividad, referida a las características de los instrumentos de medida, se entiende como el grado en que los datos obtenidos son función de lo que se mide (Fox, 1981, 432). Y referida a la interpretación de los resultados, es el logro de la máxima concordancia entre los observadores o investigadores, ya que la objetividad de un enunciado científico —según Popper— se basa en el hecho de que pueda contrastarse intersubjetivamente. OBLIMIN, método. En el análisis factorial, método de rotación oblicua de factores (véase: Rotación de factores). El método oblimin no conserva los ejes perpendiculares, sino oblicuos y se obtienen factores que están relacionados entre sí.
Acción y efecto de observar. Examinar atentamente algo, aplicar los sentidos para detectar una realidad y tener un mejor conocimiento de la misma. Las cualidades de una buena observación son las siguientes: intencionada, planificada, metódica, sistemática, objetiva, discriminadora, ratificada y registrada. En la metodología observacional (véase), recogida y registro sistemático y objetivo de datos relativos a conductas generadas espontáneamente en situaciones naturales, que permitan la contrastación de hipótesis, la replicabilidad de resultados y contribuyan al desarrollo teórico, al proporcionar resultados válidos en un ámbito específico de conocimiento. (Navas, 2001).
OBSERVACIÓN.
Plan no sistemático de recogida de datos mediante observación en el que las categorías no están definidas con claridad. (Suele utilizarse en las primeras fases de elaboración de un código arbitrario).
OBSERVACIÓN ASISTEMÁTICA.
280
OBSERVACIÓN CIENTÍFICA
Plan de recogida de datos en que el investigador registra mediante un código, más o menos estructurado, el desarrollo de los fenómenos de su interés. La situación en la que esto se desarrolla puede ser natural o artificial (estructurada o construida por el investigador). (Véanse: Observación estructurada y semiestructurada).
OBSERVACIÓN CIENTÍFICA.
Observación en que la conducta a observar no se genera espontáneamente sino que puede ser un efecto de la intervención del investigador. Éste interviene de forma sistemática o realiza modificaciones sustanciales en la situación de observación.
OBSERVACIÓN ESTRUCTURADA.
OBSERVACIÓN NATURAL. Plan de recogida de datos mediante observación realizada en el contexto natural en que se produce el fenómeno bajo observación y en el que el investigador no interviene.
Observación que se realiza en el entorno o contexto habitual en el que ocurre el comportamiento de los sujetos objeto de estudio, sin ningún tipo de modificación por parte del investigador.
OBSERVACIÓN NATURALISTA.
OBSERVACIÓN NO PARTICIPANTE. Es la observación que se caracteriza por el hecho de que el observador no se integra en la situación que está siendo observada. OBSERVACIÓN PARTICIPANTE. Observación caracterizada por el hecho de que el observador forma parte de la propia situación de observación, al participar en las actividades que están siendo estudiadas. Entendida como proceso sistemático de recogida de información relevante sobre un determinado problema y actuando dentro del campo en que se lleva a cabo el estudio, exige una delimitación de los roles de las personas implicadas. La observación participante, cuando se practica de forma adecuada, permite una entrada fácil en la situación social, al reducir la resistencia de los miembros del grupo; disminuye también la potencial perturbación que el investigador introduce en la situación «natural», y le permite observar y experimentar normas, valores, rutinas, formas de trabajo, creencias, conflictos y presiones del grupo, que en un período prolongado no pueden permanecer ocultos a quien desempeña un papel destacado en la interacción social del grupo. OBSERVACIÓN SEMIESTRUCTURADA. Observación en la que el observador introduce algún tipo de modificación en la situación de observación, para poder garantizar la manifestación de las conductas de interés o elementos constantes que permitan realizar comparaciones posteriores. OBSERVACIÓN SISTEMÁTICA.
(Véase: Observación sistematizada).
281
OJIVA DE PORCENTAJES ACUMULADOS
Proceso planificado y organizado para el registro y la codificación de comportamientos o fenómenos que constituyen el objeto de investigación. La observación sistematizada o sistemática contempla la realidad sin actuar sobre ella, registra hechos o fenómenos —tal como se están produciendo en un momento determinado— y, a diferencia de la observación casual, se planea de forma sistemática, se registra sistemáticamente, se relaciona con proposiciones más generales y se somete a comprobaciones y controles sobre su validez y fiabilidad. La observación se convierte en técnica científica cuando sirve a un objetivo de investigación previamente formulado y sigue el proceso planificado y organizado ya aludido; proceso que requiere atención voluntaria e inteligencia. La fiabilidad constituye condición «sine qua non» de la metodología observacional. Se identifica con el grado de acuerdo producido entre los observadores independientes (observaciones sin errores) y se ocupa de la reducción de sesgos que se pueden producir. Para su cuantificación y expresión se recurre a los coeficientes de correlación y porcentajes de acuerdo. La validez es referida al grado en que se ha registrado aquello que se pretendía observar.
OBSERVACIÓN SISTEMATIZADA.
Dícese de la persona que recoge los datos de observación sin conocer las implicaciones teóricas de los mismos. Este tipo de observador se suele utilizar cuando existe el riesgo de sesgo en los datos debido a las expectativas del observador-investigador.
OBSERVADOR CIEGO.
OCURRENCIA. Tipo de medida que se utiliza en la observación y que pone de manifiesto si determinado elemento ha aparecido o no en el fenómeno observado. OJIVA DE DISTRIBUCIÓN.
Es la ojiva de porcentajes acumulados (véase).
Representación gráfica de los resultados de una medición, mediante una curva de porcentajes acumulados que reúne las frecuencias acumuladas convertidas en porcentajes también acumulados. Calculados los Pa (porcentajes acumulados) correspondientes a los límites superiores exactos de los intervalos, podemos representar gráficamente los resultados, llevando sobre el eje de abscisas dichos límites superiores y sobre el de ordenadas los Pa. Uniendo para cada caso los valores correspondientes, tendremos la curva u ojiva de porcentajes acumulados, que nos servirá con posterioridad para: a) Dada una Xi (puntuación directa) cualquiera, encontrar el rango percentil que le corresponde. OJIVA DE PORCENTAJES ACUMULADOS.
282
OPERACIONALIZAR
b) Dado un percentil cualquiera, ver a qué Xi le corresponde. El valor principal de la ojiva se halla en el hecho de que pueden leerse directamente los porcentajes. Operación de definir con claridad conceptos teóricos en términos concretos que posibiliten su observación empírica. Así, las variables se describen, se operacionalizan a través de las operaciones necesarias para su producción o medida.
OPERACIONALIZAR.
ORDENADA.
Eje vertical de las coordenadas.
Forma de codificar o cifrar los datos para su tratamiento experimental, en que los vectores codificados son ortogonales, o sea, sin correlación o independientes. (También se le ha llamado «de contrastes», pero algunas codificaciones de este tipo no son ortogonales). Por medio de la codificación ortogonal pueden obtenerse los contrastes deseados cuando el interés del investigador se limita a los contrastes entre medias y no a la prueba F (ANAVA) global. La codificación ortogonal adquiere particular importancia en el análisis factorial de la varianza. La codificación ortogonal deja de serlo cuando los números de casos en las diferentes celdillas no son iguales; entonces surgen problemas estadísticos.
ORTOGONAL, codificación.
Ejemplo de codificación ortogonal: X1
X2
0 0 –1 –1 1 1
2 2 –1 –1 –1 –1
r12 = 0,00 Cada uno de los vectores da por resultado 0, y la suma de sus productos también es 0. (0 × 2) + (0 × 2) + (–1) (–1) + (–1) (–1) + (1) (–1) + (1) (–1) = 0. También r12 = 0,00. (Kerlinger, 1975, 450). ORTOGONAL, rotación. En el análisis factorial, la rotación ortogonal es el procedimiento en que los ejes representativos se colocan con un ángulo de 90º. Para guiar al analista factorial en sus técnicas de rotación, Thurstone elaboró cinco principios aplicables a las rotaciones ortogonal y oblicua:
283
ORTOGONALES, COEFICIENTES
1.o) Cada renglón o línea de la matriz factorial debe tener cuando menos carga cercana a cero. 2.o) En cada columna de la matriz factorial debe haber, al menos, las mismas variables con cargas cero o cercanas a cero, que el número de factores. o 3. ) Cada par de factores (columnas) ha de tener algunas variables con cargas en un factor (columna), pero no en el otro. 4.o) Cuando hay cuatro o más factores, una gran proporción de las variables debe tener cargas insignificantes (cercanas a cero), en cualquier par de factores. 5.o) Cualquier par de factores (columnas) de la matriz factorial debe tener sólo un número pequeño de variables con cargas importantes (distintas de cero) en ambas columnas. Estos criterios exigen variables «puras» en la medida de lo posible, esto es, cada variable cargada en el menor número posible de factores, y la mayor cantidad de ceros posible en la matriz factorial girada. Así puede lograrse la interpretación más sencilla de los factores. En otras palabras, la rotación para lograr la estructura simple es un procedimiento bastante objetivo para alcanzar la sencillez de las variables o disminuir la complejidad de las mismas. (Kerlinger, 1975, 470-471). ORTOGONALES, coeficientes. Pesos que se atribuyen a las medias en las comparaciones planeadas en el Análisis de Varianza. En otras palabras, los coeficientes especifican las comparaciones que, para ser ortogonales, han de cumplir dos condiciones: a) La suma de cada conjunto de pesos debe ser igual a cero (0); b) La suma de los productos de cualquiera de los dos conjuntos de pesos también debe ser igual a cero (0). – – – – Ejemplo: Supongamos que X 1 = 1/2, X 2 = 1/2, X 3 = –1/2 y X 4 = –1/2.
X1 + X2 X3 + X 4 – – > . En H2 : C2 = X 1 > X 2 ; siendo C1= 1.a 2 2 comparación y C2= 2.a comparación, y ambas hipótesis unilaterales derechas.
En H1 : C1 =
Coeficientes o pesos para H1: 1/2 1/2 –1/2 –1/2 Coeficientes o pesos para H2: 1 –1 0 0 Los conjuntos suman 0, como asimismo los productos: 1/2 + 1/2 + (–1/2) + (–1/2) = 0 (1/2) (1) + (1/2) (–1) + (–1/2) (0) + (–1/2) (0) = 0 El uso de codificadores (pesos) es muy útil en el análisis de regresión múltiple. (Kerlinger, 1975, 168-169).
ORTOGONALES, EJES
284
Denominación que se aplica a dos ejes perpendiculares entre sí, utilizados para representar la relación entre una variable independiente X (p.ej., inteligencia) y una variable dependiente Y (p.ej., rendimiento escolar), siendo X la abscisa e Y la ordenada.
ORTOGONALES, ejes.
Aquellos factores en los que sus ejes representativos son perpendiculares entre sí.
ORTOGONALES, factores.
P
El vocablo paradigma (etimológicamente, del griego «paradeigma» y del latín «paradigma») significa ejemplo, modelo, esquema formal ejemplar, aunque admite una pluralidad de resultados. En la investigación de ciencias sociales, paradigma hace referencia al conjunto de actitudes y creencias, como una visión del mundo compartida por un grupo de científicos que implica, específicamente, una metodología determinada. El paradigma es un esquema teórico o una vía de percepción y comprensión del mundo que un grupo de científicos ha aceptado. Se identifica, por tanto, con las realizaciones científicas universalmente reconocidas que, durante un cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica. Cuando esa comunidad científica se replantea su paradigma, entra en crisis provocando una revolución científica y un cambio de paradigma. En conclusión, referido al campo científico, podría definirse el paradigma como esquema o modelo teórico adoptado por un grupo de científicos que comparten una percepción y comprensión de la realidad y que actúan teniendo en cuenta una serie de pautas y normas de comportamiento de acuerdo con una escala de valores y creencias.
PARADIGMA.
PARADIGMA PARA EL CAMBIO. Paradigma orientado a la decisión y al cambio, aunque parece arriesgado presentarlo como enfoque alternativo a los otros paradigmas consolidados (positivista, cualitativo y socio-crítico). Pretende la búsqueda de la comprensión de los problemas para mejorarlos o resolverlos, para dar respuestas razonadas y coherentes a los problemas sociales y educativos. La diferencia más evidente con los otros tres paradigmas radica en los objetivos, más que en una elección temática o metodológica. Su finalidad última es poder llegar a tomar decisiones y formular recomendaciones de cara a la acción, aunque dentro de un contexto de actuación específico. Precisamente la introducción del «contexto de aplicación» es lo que genera esta nueva versión paradigmática: no sólo pretende
286
PARADIGMA CONSTRUCTIVISTA
explicar conductas y fenómenos, sino también introducir cambios en la práctica educativa. Su finalidad es transformar la realidad. PARADIGMA CONSTRUCTIVISTA.
(Véase: Paradigma cualitativo-interpre-
tativo). PARADIGMA CRÍTICO.
(Véase: Paradigma sociocrítico).
También denominado idealista, naturalista, humanista, fenomenológico, constructivista, inductivo y etnográfico, engloba un conjunto de corrientes humanístico-interpretativas, cuyo denominador común es su oposición al positivismo. Su interés se centra en el estudio de los significados de las acciones humanas y de la vida social; o sea, su finalidad es la comprensión, en situaciones particulares, del significado de las acciones y efectos educativos para las personas implicadas en la educación; comprensión de la conducta humana desde el propio marco de referencia de quien actúa. De ahí que a este tipo de investigación educativa también se le denomine «comprensiva». Naturalmente esa finalidad aludida recibe matices desde los distintos enfoques: etnometodología, interaccionismo simbólico, etnografía. Abandonando la obsesión por lo observable y mensurable, busca la «objetividad» en el ámbito del significado intersubjetivo (acuerdo intersubjetivo). Enfatiza la comprensión e interpretación de la realidad educativa según los significados de los sujetos implicados en los contextos socioeducativos. Penetra en el mundo personal de los sujetos y estudia sus creencias, intenciones, motivaciones y otras características del proceso educativo no observables directamente ni susceptibles de experimentación. Por tanto, se centra en la descripción y comprensión de los comportamientos individuales de los sujetos, desde un análisis de la realidad contemplada en su totalidad —visión holística— matizada por la visión personal de los individuos implicados. Pretende, pues, sustituir las nociones de explicación, predicción y control del paradigma positivista, por las nociones de «comprensión», «significado» y «acción». Todo canalizado al desarrollo de conceptos y teorías que conecten con los datos del contexto social, sin pretender generalizaciones y leyes, porque persigue el desarrollo del conocimiento idiográfico, o sea, de lo particular, de lo peculiar. El papel que desempeñan los participantes es el de «informantes», mientras el del investigador es de «intérprete», la persona que ayuda, aunque puede combinarlo con el de participante. PARADIGMA CUALITATIVO-INTERPRETATIVO.
PARADIGMA CUANTITATIVO. Es el paradigma positivista/postpositivista, racionalista, empírico-analítico, realista; tradicionalmente dominante en la
287
PARADIGMA EMPÍRICO-ANALÍTICO
investigación en psicopedagogía y ciencias de la educación (Ciencias Sociales, en general), trata de adaptar el modelo de las Ciencias Experimentales (físico-naturales) a las Ciencias Sociales. Se basa en la unidad de la Ciencia, por lo que la metodología también será única (método científico de las Ciencias Físico-Naturales). Aspira a descubrir leyes sobre los fenómenos psicopedagógicos y educativos y a elaborar teorías científicas que guíen la acción educativa. El propósito de la investigación se encamina a la explicación, el control, la comprobación y la predicción de los fenómenos educativos. Actúa sobre el marco natural y externo al propio investigador. A éste lo que realmente le interesa es el producto final: el conocimiento observable, objetivo y cuantificable, con posibilidades de generalización. En su aspiración de poder «explicar» las relaciones entre variables, trata de establecer proposiciones de causa-efecto que, de alguna forma, nos permitan realizar «predicciones» de futuro. Tiende a fomentar la universalidad de las leyes y de las teorías, es decir, la generalización, tras el estudio de casos múltiples. Se caracteriza este paradigma por la no intervención de los valores en las concepciones científicas, lo que supone neutralidad, es decir, objetividad, a la que contribuye también la independencia entre el objeto de investigación y los sujetos, instituciones educativas, etc., y hasta el propio investigador. Éste permanece al margen de los fenómenos estudiados y de los datos (perspectiva desde «fuera»); es decir, no se producen mutuas influencias. Este paradigma positivista sigue un proceso muy estructurado para someter a prueba la teoría, a través de la verificación y la contrastación de las hipótesis formuladas, hipótesis que son guía del proceso investigador. Proceso que se ajusta a un modelo teórico, donde el diseño de investigación es «empírico-experimental» y se ensambla dentro del modelo hipotético-deductivo-experimental de la ciencia. En él es de resaltar el control de las variables extrañas, la actuación de variables independientes y la aleatorización en la selección de las muestras, así como la asignación también aleatoria de éstas a los tratamientos. Tipo de investigación que se centra en las relaciones mutuas entre demandas del medio y respuestas humanas en el medio natural del aula. Pretende aclarar el fenómeno de los efectos instructivos. Los tres núcleos fundamentales de este paradigma son: a) la importancia de la experiencia continua de la vida de aula como medio para aprender claves de aprendizaje; b) el estudio de las relaciones entre variables instructivas; y c) la influencia de los docentes en el rendimiento. PARADIGMA ECOLÓGICO DE AULA.
PARADIGMA EMPÍRICO-ANALÍTICO.
(Véase: Paradigma cuantitativo).
PARADIGMA ETNOGRÁFICO
288
PARADIGMA ETNOGRÁFICO.
(Véase: Paradigma cualitativo-interpretativo).
PARADIGMA FENOMENOLÓGICO.
(Véase: Paradigma cualitativo-interpre-
tativo). PARADIGMA HUMANISTA.
(Véase: Paradigma cualitativo-interpretativo).
(Véase: Paradigma cualitativo-interpretativo).
PARADIGMA IDEALISTA. PARADIGMA INDUCTIVO.
(Véase: Paradigma cualitativo-interpretativo).
PARADIGMA INTERPRETATIVO.
(Véase: Paradigma cualitativo-interpreta-
tivo). PARADIGMA MEDIACIONAL. Modelo de investigación centrado en las relaciones entre los estímulos instructivo-educacionales y las variables de respuesta de los estudiantes, medidas en términos de salidas de aprendizaje, cuyas variaciones están en función de las actividades «mediadoras» utilizadas por el estudiante durante el proceso de aprendizaje (p. ej., la atención activa). Así, el estudiante desempeña un papel fundamental como elemento mediador al no permanecer pasivo entre las variables proceso-producto. Pero también este paradigma mediacional incluye la mediación (véase) del profesor mediador (véase) que ordena y estructura los estímulos y procesos de aprendizaje para ayudar al educando a construir su propio conocimiento. PARADIGMA NATURALISTA.
(Véase: Paradigma cualitativo-interpretativo).
PARADIGMA ORIENTADO A LA DECISIÓN.
Paradigma para el cambio (véase).
PARADIGMA POSITIVISTA/POSTPOSITIVISTA.
(Véase: Paradigma cuantitativo).
Modelo de investigación según el cual la eficacia se formula en términos de las relaciones entre medidas de la conducta del docente en el aula (procesos) y medidas de las salidas de aprendizaje del o de los sujeto/s discente/s (productos). PARADIGMA PROCESO-PRODUCTO.
PARADIGMA RACIONALISTA. PARADIGMA REALISTA.
(Véase: Paradigma cuantitativo).
(Véase: Paradigma cuantitativo).
Este paradigma recibe denominaciones, junto a la de crítico, como las de «racionalidad emancipadora» y de «tradición reconstructivista». Pretende superar el reduccionismo del paradigma positivista-cuantitativo y el conservadurismo del paradigma cualitativo-interpretativo, para admitir la posibilidad de una ciencia social que no sea ni puramente empírica ni sólo interpretativa.
PARADIGMA SOCIOCRÍTICO.
289
PARÁMETRO
Representado por los neomarxistas Horkheimer, Adorno, Marcuse, de la escuela alemana de Frankfurt, se basa asimismo en la teoría social de Habermas y en los trabajos de Carr y Kemmis. Introduce la ideología de forma explícita y la autorreflexión crítica en los procesos del conocimiento. Parte de la idea de que la educación no es neutral (viene matizada por la «ideología»); por tanto, la investigación social tampoco puede ser neutral, no valorativa de los fenómenos que estudia. Intenta forzar la vinculación entre teoría y práctica educativa, entre conocimiento, acción y valores en el contexto del momento histórico que vivimos. Todo para lograr una serie de transformaciones sociales, además de ofrecer una respuesta adecuada a determinados problemas derivados de las mismas. Trata de promover movimientos de tipo político en la educación para analizar y «transformar» las organizaciones y procesos educativos, desmitificando así las instituciones y prácticas educativas ante una conciencia colectiva más lúcida, y transformarlas en instrumento de «emancipación individual y social». El grupo (mediante un «proceso negociador») asume la responsabilidad de la investigación y propicia la reflexión y crítica de los intereses, interrelaciones y prácticas educativas. Al versar sobre la praxis social, se ocupa de su puesta en práctica, lo que exige del investigador su implicación y participación en la acción social. En este enfoque paradigmático es destacable, según se ha apuntado, la flexibilidad metodológica, lo que permite adoptar diferentes niveles de rigor y control, y donde caben desde la experimentación de campo al estudio de casos. El aludido proceso negociador decidirá la elección del procedimiento. Finalmente, en las dimensiones conceptual y metodológica se pueden observar similitudes con el paradigma cualitativo-interpretativo (naturalista). Pero la diferencia fundamental la encontramos en el componente ideológico: pretende transformar la realidad, además de describirla y comprenderla, a lo que se une la implicación directa de los participantes, incluido el propio investigador. PARALELAS, medidas.
Medidas paralelas (véase).
PARAMÉTRICAS, PRUEBAS.
(Véase: Pruebas paramétricas).
PARÁMETRO. Valor de cualquier característica medible de la población o universo, por lo que puede decirse que es «toda función definida sobre los valores numéricos de una población» (Amón, 19846, 1, 40). Suele ser estimado habitualmente mediante un estadístico calculado en una o más muestras representativas extraídas de dicha población. El parámetro (valor fijo) es el correlato en la población del estadístico en la muestra
PARÁMETRO a
290
(valor éste normalmente cambiante de muestra a muestra). Los parámetros, por consiguiente, describen poblaciones y se representan con letras griegas. La diferencia entre estadístico y parámetro estriba en que el primero, calculado sobre muestras diferentes que proceden de la misma población, cambia normalmente de muestra a muestra, mientras que el parámetro posee valores fijos y únicos. Si las muestras son grandes y elegidas aleatoriamente —representativas— cabe esperar diferencias menores que si son pequeñas y/o no aleatorias. En otros términos, a mayor representatividad de la/s muestra/s, mayor precisión y acercamiento de sus valores a los del parámetro. PARÁMETRO a. Parámetro de discriminación del ítem, en la teoría de respuesta al ítem, que es directamente proporcional a la pendiente de la curva característica del ítem en su punto de inflexión.
Parámetro de dificultad del ítem, en la teoría de respuesta al ítem, que se define como la coordenada en el eje de abscisas del punto de inflexión de la curva característica del ítem. PARÁMETRO b.
Parámetro de pseudoadivinación del ítem, en la teoría de respuesta al ítem, que se define como la probabilidad de que aquellos sujetos, con un nivel mínimo de habilidad, respondan correctamente al ítem (dando, por supuesto, que no conocen la respuesta correcta).
PARÁMETRO c.
Cifra o número que tiene por objeto agrupar o centralizar los datos correspondientes a toda la población, sobre una característica medible de la misma, en un solo valor numérico, representante del conjunto total. Resume o sintetiza los datos correspondientes a toda una población. Los principales parámetros centrales son: media aritmética, mediana y moda (véase).
PARÁMETRO CENTRAL.
Parámetro (véase) que tiene como objeto dar una idea o «medida» de la proximidad o lejanía que presentan los datos de la población respecto del valor «central» o representante del conjunto total de dicha población.
PARÁMETRO DE DISPERSIÓN.
Valor más repetido (el que alcanza frecuencia más alta) entre todos los que constituyen la serie de valores o datos correspondientes a una población, en una determinada característica de la misma. No es tan representativo como la media aritmética, pero útil en algunas ocasiones como cuando su frecuencia se destaca claramente de las del resto de la distribución. La moda se considera como un valor central, porque indica la mayor frecuencia, y es el único valor central que puede calcularse en las series nominales.
PARÁMETRO MODA.
291
PENTAS
«PATH ANALYSIS». Enfoque o corriente del análisis causal (véase) que, también con la denominación de análisis de sendas, es (según Wright, 1934, su creador) el «método que permite estudiar los efectos directos e indirectos de unas variables, tomadas como causas, sobre otras que se consideran como efectos». Este método supone —junto a otra serie de aplicaciones que también tiene— un enriquecimiento sobre lo que nos permite el análisis de regresión, ya que los coeficientes hallados en la regresión múltiple (los «path» coeficientes cuando estamos en el contexto del análisis causal y las variables están expresadas en puntuaciones típicas) sólo nos proporcionan el conocimiento de los efectos directos. El conocimiento de los efectos indirectos de las causas (ya variables exógenas, ya endógenas) sobre la variable dependiente que se quiere explicar, lo conseguimos mediante el análisis causal, no por el desarrollo de la ecuación de regresión. (Fuentes, 1986, 39-40). PDCA, método.
(Véase: Método PDCA).
(Véase: Coeficiente de correlación «producto-momento», de Pearson).
PEARSON, coeficiente de correlación (r).
PEDAGOGÍA EXPERIMENTAL. Según Meumann, es todo estudio pedagógico-empírico que tenga el carácter de investigación exacta, o sea, determinable numéricamente y capaz de ser comprobado en sus resultados. Para Pérez Juste (1983), es la modalidad de conocimiento científico fundado en la observación y experimentación científicas, cuyas notas son: medición, control y verificabilidad intersubjetiva (objetividad). Orden Hoz (1985) define la Pedagogía experimental como la «ciencia que tiene por objeto el estudio de los fenómenos, leyes y teorías educativas susceptibles de verificación mediante el uso de los diferentes procedimientos y técnicas de observación sistemática y experimentación que, en conjunto, constituyen la metodología científico-experimental y cuyos resultados, en consecuencia, puedan ser expresados y analizados en forma matemática».
Grado de inclinación de la recta equivalente al cociente entre la distancia vertical entre dos puntos cualesquiera de la recta y la distancia horizontal entre ellos.
PENDIENTE DE UNA RECTA.
Escala que divide la serie total de casos en cinco grandes unidades (cinco rangos), dando el valor 1 al rango inferior de la escala y el 5 al superior. Su media es 3 y su desviación típica 1. Para determinar el penta en que se encuentra un sujeto, se procede en forma semejante a la utilizada en las puntuaciones S, T o en la escala de eneatipos. La ecuación aplicable es:
PENTAS.
Pn = 3 + z
PERCENTIL
292
Valor de la distribución ordenada de datos que deja por debajo un determinado porcentaje de casos u observaciones. (P. ej.: el percentil o centil 80 —P80— corresponde a la puntuación del test por debajo de la cual se encuentra el 80% de los casos o puntuaciones de la distribución). O sea, es el valor que divide un conjunto ordenado de datos estadísticos de forma que un porcentaje de tales datos sea inferior a dicho valor. El percentil describe, por tanto, una puntuación en relación a la posición de otras puntuaciones ordenadas, y es el punto de la serie jerárquica por debajo del cual se encuentra un porcentaje dado de puntuaciones o casos. Cada percentil es la centésima parte de la serie total y se suele denominar con los símbolos P o C (C de centil, sinónimo de percentil) acompañado de un subíndice que indica el número del percentil, según se ha visto anteriormente. PERCENTIL.
Es distribuir una serie de casos en 100 intervalos, cada uno de los cuales incluye exactamente el 1% del número total de casos.
PERCENTILAR.
PÉRDIDA NO ALETORIA DE SUJETOS. Abandono de determinado número de sujetos en el proceso de la investigación, debido a causas distintas del azar y relacionadas con las variables bajo estudio.
Suceso en el que algunos de los sujetos que inician la investigación no la terminan.
PÉRDIDA DE SUJETOS.
PERFIL. Expresión gráfica de un conjunto de medidas diferentes de un sujeto o grupo, cada una de las cuales va expresada en la misma unidad de medición. Se utiliza para expresar la situación de los sujetos en baterías de aptitud múltiple y en el campo de la personalidad. El perfil de puntuaciones de un mismo sujeto en varias pruebas diferentes es idóneo para mostrar las diferencias intraindividuales. Si el perfil ofrece las puntuaciones de varios sujetos en las mismas pruebas, patentizará las diferencias interindividuales. Los principales tipos de perfiles son el ortogonal y el radial (véanse).
Expresión gráfica de un conjunto de medidas (con la misma unidad de medición) sobre un eje de coordenadas, donde las puntuaciones se sitúan en la ordenada (semirrecta vertical) y los diferentes rasgos o características medidas, en la abscisa (semirrecta horizontal). A veces se representan mediante barras.
PERFIL ORTOGONAL.
PERFIL RADIAL. Expresión gráfica de un conjunto de medidas (con la misma unidad de medición) en que a cada variable o rasgo medidos se le concede un radio sobre el que se marcan los diferentes valores de dichas variables o rasgos. El perfil quedará construido una vez marcada la posición del sujeto en cada variable y unidos los diferentes puntos mediante segmentos.
(PHI) φ
293
Disposición de un conjunto de objetos en un orden determinado. El número de permutaciones de un conjunto de n objetos, tomados todos a la vez, es igual a factorial de n, o sea: n!; siendo n! = producto de los n primeros números. (P.ej.: un conjunto de 6 alumnos podría ser ordenado de 720 formas; o sea: 6P6 = 1 × 2 × 3 × 4 × 5 × 6 = 720 formas). Caso sencillo de tres libros distintos, tomados todos a la vez. Su ordenación (3P3.= 1 × 2 × 3 = 6) admite seis formas: ABC – ACB – BAC – BCA – CAB – CBA. Generalizando, se puede formular: PERMUTACIÓN.
n
Pr =
n! ( n − r)!
El número de permutaciones de n objetos diferentes tomados de r en r, que se escribe nPr , es igual a factorial de n dividido por factorial (n – r). PERSONALIDAD. Diferencia individual que constituye a cada persona y la distingue de otra. Conjunto de cualidades que conforman a la persona o sujeto inteligente. Conjunto de características o cualidades originales que destacan en algunas personas.
Expresión griega que tiene tres acepciones: A) Coeficiente de correlación entre dos variables dicotómicas (datos estadísticos dicotómicos), con nivel de medición nominal (frecuencias). Es la aplicación a variables dicotómicas del coeficiente rxy de Pearson. Su valor no se puede interpretar como rxy. Será el de la correlación perfecta positiva (+1) y perfecta negativa (–1), cuando dichas variables se repartan por igual en las casillas de las diagonales positiva o negativa, es decir, cuando los totales marginales sean iguales. En los demás casos se determinará un valor máximo de φ para interpretar adecuadamente el valor empírico de este coeficiente. (PHI) φ.
f fp El φ máximo será: φ max = 1− m fm f1− p Donde: fm = frecuencia marginal mayor de las cuatro f1-m = frecuencia marginal complementaria de la misma variable fp y f1-p = valores de la otra variable
Cálculo de φ: X
Y
+
– A
+ B
–
C
D
PHI (φ), COEFICIENTE
φ=
294 CB − AD ( A + B) (C + D) ( A + C) ( B + D)
B) Medida del grado de «falsedad» de la H0. Se utiliza para averiguar el poder de contraste F, en el análisis de varianza (ANAVA). (Glass-Stanley, 1974, 376). C) Representación del suceso imposible. (Véase: Suceso). PHI (φ), COEFICIENTE. Coeficiente de correlación aplicable a variables dicotómicas (datos dicotómicos: varón-hembra, verdadero-falso,…). Es la aplicación a variables dicotómicas del coeficiente rxy de Pearson, aunque su valor no se puede interpretar como rxy, sino que hay que referirlo, para una valoración más concreta, al máximo valor posible de φ (phi) para las frecuencias marginales concretas de cada relación estudiada. (Véase: phi, φ).
Representación gráfica de datos mediante dibujos o figuras: hombres, árboles, coches, barcos, etc.
PICTOGRAFÍA.
Representación gráfica de datos, mediante dibujos o figuras (figura humana, coches, barcos, edificios, armas, etc.). Los pictogramas pueden ser de dos tipos: a) utilización de un dibujo para representar los datos o resultados de un estudio, variando su tamaño de acuerdo con la magnitud de dichos datos; b) empleo de una figura o dibujo unitarios (p. ej., la figura humana) que se repite un número de veces proporcional al valor observado. Es una representación útil para establecer comparaciones.
PICTOGRAMA.
PILOTO, aplicación.
(Véase: Aplicación piloto).
PLACEBO. Nivel nulo de la variable independiente con la apariencia de tratamiento real.
Propuesta de evaluación de centros no universitarios generada desde la propia Administración Educativa española a raíz de la aplicación de la LOGSE (Ley de Ordenamiento General del Sistema Educativo). Diseñado en el curso 1990-91, este Plan se aplicó durante varios cursos posteriores. Sus objetivos fundamentales son: a) Mejorar la calidad de la enseñanza a partir de la organización y el funcionamiento de los centros en sus diferentes esferas de actividad; b) Favorecer el estímulo y el apoyo a los procesos de evaluación interna; c) Facilitar la toma de decisiones de mejora por los responsables de la educación no universitaria. Las dimensiones objeto de evaluación son: 1. Contexto y alumnado; 2. Recursos; 3. Organización y planificación; 4. Funcionamiento; 5. Procesos didácticos; 6. Resultados.
PLAN EVA.
295
POBLACIÓN NORMAL BIVARIADA
POBLACIÓN. Sinónimo de universo (aunque hay autores que matizan el alcance de ambos términos) o conjunto de todos los elementos o casos posibles, cada uno de los cuales posee una o más características claramente definidas. Como sinónimo de universo, comprende todos los elementos o unidades correspondientes a un tipo homogéneo o, en caso contrario, agrupable por una o varias características definidas (atributos). Es decir, población es el conjunto de todos los casos posibles con unas determinadas características, de los cuales se elige una muestra. Teóricamente las poblaciones pueden ser infinitas (p. ej.: conjunto de todos los números positivos; todos los puntos de una línea), por lo que en este caso algunos autores hablan de universo (véase), y finitas (p. ej.: conjunto de los estudiantes españoles de Educación Secundaria). La mayoría de los procedimientos estadísticos se basan en el supuesto de la población infinita. Pero si la población tiene varios centenares de elementos y la muestra extraída de ella es sensiblemente menor, cabe hablar de población virtualmente infinita, entendiendo por esto que es muy grande, pero finita y, además, que para su estudio se emplearán técnicas estadísticas que suponen una población infinita.
Población o conjunto de individuos sobre los que se desea efectuar deducciones.
POBLACIÓN DIANA.
Población que se halla dividida en torno a dos opciones. (Por ejemplo: hombre/mujer; con hijos/sin hijos; con título/sin título; etc.). Hay, pues, una variable dicotómica y medida nominal. Todas las posibles observaciones de la población caerán en una u otra de las categorías u opciones. Al conocer la proporción de casos en una de las categorías, en π , por ejemplo, se conoce automáticamente la proporción en la otra, 1 – π, por ser complementarias. El valor de π puede ser diferente en distintas poblaciones, pero es un valor fijo en una población concreta. El parámetro π suele ser desconocido, pero aun en el caso de que se conozca, no es prudente esperar que una muestra al azar de esa población lo refleje exactamente. Las fluctuaciones muestrales impiden que la muestra reproduzca exactamente los parámetros». (Jiménez, et al., 1983, 1, 518).
POBLACIÓN DICOTÓMICA.
Población de la que procede el grupo o muestra que se ha elegido para la investigación.
POBLACIÓN DE ESTUDIO.
POBLACIÓN NORMAL BIVARIADA. Relación o no de dos variables en esa población. O correlación posible entre dos variables en esa población, que es normal o se ajusta a la normalidad en su distribución por separado en cada una de las dos variables contempladas, p. ej.: adaptación escolar (va-
296
POISSON
riable A) y estatura (variable B). Pero no se puede afirmar que haya realmente correlación entre ambas variables en dicha población. POISSON, distribución de. POISSON, modelo de.
(Véase: Modelo de Poisson).
(Véase: Modelo de Poisson).
POLÍGONO DE FRECUENCIAS. Representación gráfica de datos cuantitativos de carácter continuo, en que cada intervalo está representado por un punto situado en la intersección de la paralela al eje de ordenadas, elevada por la marca de clase (punto medio de un intervalo) y la paralela al eje de abscisas justamente a la altura correspondiente a su frecuencia. Los puntos de todos los intervalos se unen mediante segmentos. Para que resulte un polígono, será preciso extender la representación a un intervalo por abajo (comienzo) y otro por arriba (final); al tener ambos frecuencia nula, el segmento correspondiente a ambas extensiones cortará al eje de abscisas sin sobrepasarlo, con lo que quedará completado el polígono o línea originada por este conjunto de segmentos rectilíneos. El polígono de frecuencias se puede construir también a partir de un diagrama de barras (véase): bastará unir los puntos más altos de cada una de las barras del diagrama (puntos que vienen dados por las frecuencias correspondientes). Si partimos de un histograma (véase), el polígono de frecuencias se obtendrá uniendo los puntos medios de las bases superiores correspondientes a cada uno de los rectángulos del histograma. Sin embargo, la diferencia entre «polígono» e «histograma» nace de la existente entre datos originados por variables continuas y discretas, respectivamente. Los polígonos de frecuencias adquieren formas muy variables, según los datos estudiados. POLÍGONO DE FRECUENCIAS ACUMULADAS. También llamado polígono de sumas, es el polígono de frecuencias (véase) que se obtiene al unir los puntos más altos de las barras que representan las frecuencias acumuladas de los valores observados. POLÍGONO DE SUMAS. POLITÓMICO.
Polígono de frecuencias acumuladas (véase).
Con más de dos valores posibles.
POPPER y el criticismo racional. El criticismo racional o realismo crítico de Popper constituye una revisión de los planteamientos iniciales del racionalismo crítico (véase), al prestar especial atención a la problemática de las Ciencias Sociales. Aunque Popper parte de la corriente positivista, se muestra muy crítico con el empirismo lógico (neopositivismo del círculo de Viena), lo que aviva la polémica del debate positivismo/antipositivismo. La base de su racionalismo crítico o criticismo racional (realismo crítico) se asienta en las reglas para la obtención de las hipótesis y teorías
297
POTENCIA DE UNA PRUEBA
científicas. Sustituye la verificación empírica por la falsación. (Véase: Falsacionismo). PORCENTAJE DE CLASE. PORTFOLIO.
Proporción de clase (véase) multiplicada por 100.
Conjunto de tareas o trabajos recogidos a lo largo del tiempo.
POSICIÓN, medida de.
(Véase: Medida de posición).
POSICIÓN RELATIVA, medida de.
(Véase: Medida de posición relativa).
POSITIVISMO. Escuela filosófica que se consolida en el siglo XIX y se continúa en el XX con el positivismo lógico, que pretende atenerse a lo dado, negándose a admitir otra realidad que no sean los hechos y a investigar otra cosa que no sean las relaciones entre los hechos. Exige criterios y procedimientos de verificación empírica para establecer, al menos provisionalmente, la verdad o la falsedad de los hechos. Los postulados del positivismo se podrían resumir así: 1. Monismo metodológico: unidad de método y homogeneidad doctrinal. 2. Método positivo (modelo propio de las Ciencias Naturales) provisto de un canon-baremo, el utilizado en la ciencia físico-matemática, para marcar la cientificidad de las nuevas ciencias humanas o sociales. 3. Explicación causal: respuesta al «porqué» de los hechos (causas que los han generado). 4. Interés por controlar y dominar la naturaleza: afán cosificador que reduce todo a objeto, incluido el propio ser humano. Estos postulados buscan la relevancia de las leyes generales para la explicación científica y, asimismo, pretenden su aplicación a todas las ciencias, incluidas las humanas y sociales. (Véase Paradigma cuantitativo).
Postensayo o postprueba consistente en la medida de un grupo después de la manipulación experimental (después de introducir la variable independiente).
POSTEST.
POTENCIA DE UNA PRUEBA. Potencia de una prueba (o, quizá mejor, de la correspondiente región crítica) es la probabilidad que tiene dicha prueba de rechazar la hipótesis nula (H0) cuando es realmente falsa, por ser la hipótesis alternativa (H1) verdadera. Esto es, potencia es igual a la unidad menos la probabilidad de error tipo II (β), o sea, potencia = 1 – β. En otras palabras, es la probabilidad de rechazar una hipótesis nula falsa, o de aceptar una hipótesis alternativa verdadera. Puede decirse que una región crítica es la mejor o la más potente cuando, para una α dada, su potencia es mayor que la de cualquiera otra de las infinitas regiones críticas que llevan asociada esa misma probabilidad α (Amón, 1984).
POTENCIA-EFICIENCIA
298
En situaciones comparables, las pruebas paramétricas son más potentes que sus respectivas no paramétricas, pero necesitan datos medidos, al menos, en escala de intervalos. Estos datos pueden reducirse a una escala inferior, de orden, y emplear así una prueba no paramétrica. Pero observamos enseguida que se produce una pérdida de información, pues la escala ordinal considera sólo el orden de las observaciones, pero no la cuantía de su separación. Concepto que hace referencia al incremento de n necesario para hacer que la prueba estadística B sea tan poderosa como la A. Dada una potencia, compara el tamaño de la muestra necesario para una prueba, B, con el tamaño requerido por una segunda, A, que actúa como término de comparación. Ambas pruebas se aplicarán bajo las mismas condiciones. La potencia-eficiencia del estadístico de contraste B con respecto al A es: A/B, o, como escribe Siegel (1982): POTENCIA-EFICIENCIA.
Potencia-eficiencia de prueba B = na/nb por ciento donde: na = número de sujetos de A para una potencia dada. nb = número de sujetos de B necesarios para tener la misma potencia que A. Ej.: Si na = 25 y nb = 30, 25 × 100 = 83, 3%. 30 Lo que significa que son necesarios 100 casos de B por cada 83 de A, cuando la A es más poderosa, para que ambas lleguen a tener idéntica potencia.
la prueba B tiene una potencia-eficiencia =
Grado en que se obtienen resultados similares cuando se mide algo en más de una ocasión y en las mismas condiciones.
PRECISIÓN.
En Estadística, predicción equivale a regresión (véase). Si el término «predicción» es la acción y efecto de predecir, consiguientemente se relaciona con el futuro. La predicción educativa es una conjetura que se formula sobre lo que será capaz de realizar un sujeto habida cuenta de la relación existente entre algunas características evaluables de ese sujeto y las tareas que hipotéticamente puede realizar. Es decir, a partir de una variable independiente «predecimos» una variable dependiente; o sea, se «predice» la existencia o inexistencia de una relación. Corrientemente se mencionan tres tipos de predicción: intuitiva, causal y extrapolativa (véanse). El problema teórico de la predicción es sencillo utilizando la ecuación de regresión (véase), que une al predictor y al criterio (véanse). PREDICCIÓN.
299
PRETEST
Sin embargo, dado el escaso valor predictivo de un solo predictor, se acude a la regresión múltiple (véase), con varios predictores. Modalidad de predicción que anuncia (predice) los efectos por el conocimiento de sus causas. En teoría, es la única predicción segura, al exigir un conocimiento preciso y claro de la causa o causas y su relación con los efectos. Pero también es prácticamente imposible en el terreno educativo, donde las causas de los fenómenos son muy complejas y con frecuencia se enmascaran unas a otras.
PREDICCIÓN CAUSAL.
Predicción de carácter científico y a la vez práctico que se realiza extrapolando o prolongando al futuro hechos o fenómenos que en el pasado se dieron en determinadas condiciones y relaciones. Esta predicción técnica se apoya en el conocimiento previo de la correlación existente entre dos o más factores; uno de ellos se predice (criterio) basándose en el conocimiento de otro u otros (predictores). Se ofrece como ayuda técnica a los docentes en la predicción de rendimiento de los alumnos. PREDICCIÓN EXTRAPOLATIVA.
PREDICCIÓN INTUITIVA. Tipo de predicción (véase) que se basa en la apreciación individual de una situación o un sujeto. En el terreno educativo es una predicción fundada en el trato continuado profesor-alumno. Y así, en la medida en que un profesor conjetura el rendimiento que espera de los alumnos, está prediciendo.
Factor que se utiliza para predecir. En la predicción técnica, el factor o variable que se predice se denomina criterio (véase), variable directamente relacionada con el constructo (véase) o predictor (variable predictora). Ejemplo: si se desea predecir el rendimiento de un escolar, conociendo su inteligencia, el rendimiento será el «criterio» y la inteligencia el «predictor».
PREDICTOR.
PRE-EXPERIMENTAL.
(Véase: Diseño pre-experimental).
Pregunta a la que el sujeto puede contestar lo que le parezca o piense sobre el contenido de la misma.
PREGUNTA ABIERTA.
Pregunta a la que el sujeto sólo puede contestar eligiendo una de las opciones que se le ofrecen. PREGUNTA CERRADA.
Prueba, preensayo o medida de un grupo de sujetos antes de introducir la variable independiente (V.I). Se aplica también al proceso en el que se pone a prueba el cuestionario antes de realizar la encuesta.
PRETEST.
PRETEST DE UNA ENCUESTA
300
PRETEST DE UNA ENCUESTA. Proceso de prueba de una parte del conjunto de procedimientos e instrumentos de una encuesta, habitualmente las pruebas iniciales para la construcción de los cuestionarios.
Término súmamente complejo y difícil de definir. Bruno de Finetti llega a diferenciar las acepciones del concepto, agrupadas en dos grandes categorías: subjetiva y objetiva, a las que hay que añadir la teoría lógico-subjetiva.
PROBABILIDAD.
a) Enfoque objetivo: a.1. Teoría de Laplace o teoría apriorística: es la probabilidad teórica o ideal que atribuye probabilidades sobre la base de algún principio o supuesto (equiprobabilidad de los acontecimientos) que no se somete a prueba: probabilidad de que ocurra un evento calculada al dividir el número de casos favorables entre el número total de casos posibles (favorables más desfavorables). Es una probabilidad ya dada, sobre cuya base podemos determinar las probabilidades de los eventos antes de la investigación empírica. a.2. Probabilidad empírica o «a posteriori», o probabilidad real, o de frecuencia relativa, es la determinada de modo empírico mediante una serie real de pruebas. Consiste en la proporción o razón entre el número de veces que ocurre un evento y el número total de intentos o pruebas realizadas. Es la probabilidad estadística. b) Enfoque subjetivo o personalista: probabilidad como medida de la «confianza personal en una proposición particular». Es útil en planteamientos psicológicos, sociológicos, pedagógicos o en hechos a los que difícilmente se pueden asignar valores numéricos objetivamente. c) Teoría lógico-subjetiva de probabilidad (Popper, con Keynes como figura principal). Aquí la relación probabilitaria se considera como un tipo especial de relación lógica entre dos enunciados. (Véase: Probabilidad lógico-subjetiva). Axiomas del cálculo de probabilidades. (Resumimos y tomamos los ejemplos de Downie-Heath, 19816): 1. La probabilidad de que se presente uno cualquiera de dos (o más) sucesos, que se excluyen mutuamente, es igual a la suma de sus probabilidades respectivas. Ej.: La probabilidad en una baraja de 52 cartas, de extraer un as, un tres y un rey es la suma de las probabilidades por separado: 4/52 + 4/52 + 4/52 = 3/13 (si sólo se hace una extracción o prueba única). 2. La probabilidad de que dos o más sucesos independientes se presenten simultánea o sucesivamente es igual al producto de sus probabilidades respectivas. Ej.: la probabilidad de que el primero, el segundo y el tercer naipe extraídos sucesivamente sean ases, cuando se hace el reemplazamiento cada vez, es p = (4/52)(4/52)(4/52) = 1/2197.
301
PROBABILIDAD CONDICIONAL
• La probabilidad de un suceso X, suponiendo que ha ocurrido otro suceso Y, se llama probabilidad condicional y también es igual al producto de sus probabilidades respectivas. Ej.: La probabilidad de extraer un tres y luego un dos (sin reemplazamiento del primer naipe extraído) es: (4/52) (4/51) = 16/2652 = 4/663, que sería la probabilidad condicional del suceso X (extracción de un dos) habiendo ocurrido otro suceso Y (extracción de un tres). PROBABILIDAD «a posteriori».
Probabilidad estadística o probabilidad em-
pírica (véase). PROBABILIDAD «a priori».
Probabilidad apriorística (véase).
PROBABILIDAD APRIORÍSTICA. Es la probabilidad, conocida como de Laplace, de tipo teórico o constitutivo que atribuye probabilidades sobre la base de algún principio o supuesto, que no se somete a prueba. Este principio o supuesto es el de la equiprobabilidad de los acontecimientos, es decir, probabilidad de que ocurra un evento calculada al dividir el número de casos favorables entre el número total de casos igualmente posibles (favorables más desfavorables).
p = f / (f + µ) Siendo: p = probabilidad; f = número de casos favorables; µ = número de casos desfavorables. Por tanto, es una probabilidad ya dada, sobre cuya base podemos determinar las probabilidades de los eventos antes de la investigación empírica. Es el estudio de la relación entre casos reales y posibles. También se suele llamar a esta probabilidad, conocida como de Laplace, probabilidad matemática teórica o «a priori» o probabilidad ideal. Probabilidad de un suceso A, en el supuesto de que ha ocurrido otro suceso B. Se simboliza por PC (A | B) (probabilidad de A dado B), cuyo valor es:
PROBABILIDAD CONDICIONAL.
P ( A | B) =
P ( A ∩ B) P ( B)
Donde ∩ es el símbolo de intersección. Ej.: con los datos de los alumnos de un profesor por clases y sexo (tabla adjunta), averiguar la probabilidad de que, sacadas dos fichas, pertenezcan al sexo femenino (alumnas) de las clases X e Y.
302
PROBABILIDAD CONJUNTA
Sexo Masculino Clases
X Y Z
Femenino
40 26 47
36 69 72
76 95 119
113
177
290
La probabilidad sería: P = 36/290 + 69/290. Pero si se conoce que las fichas pertenecen a alumnas, las probabilidades de que formen parte de las clases X e Y serían ahora: P = 36/177 + 69/177 (donde 177 es el número total de alumnas, que sustituye a 290 ó número total de alumnos de ambos sexos). Luego, la probabilidad de un fenómeno A, dado otro B, es: P ( A | B) =
P ( A ∩ B) P ( B)
(donde el espacio muestral se ha reducido del fenómeno total al fenómeno dado, mientras el numerador es la intersección entre ambos fenómenos A y B). PROBABILIDAD CONJUNTA. Probabilidad de ocurrencia conjunta de dos fenómenos A y B, —A ∩ B— es igual a la probabilidad de uno de ellos (B) por la probabilidad condicional del otro (A), dado el primero (B):
P (A ∩ B) = P (B) P (A | B) (Siendo ∩ el símbolo de intersección). En el caso de sucesos independientes, la probabilidad conjunta de dos de ellos es igual al producto de sus respectivas probabilidades por separado: P (A ∩ B) = P (B) P (A) Con los datos del cuadro de doble entrada adjunto: Sexo Masculino Clases
X Y Z
Femenino
40 26 47
36 69 72
76 95 119
113
177
290
303
PROBABILIDAD MARGINAL
La probabilidad de sacar la ficha de un alumno cualquiera, alumno H, sería igual a 1/290; por tanto, la probabilidad de sacar la ficha de los alumnos H, I, J, sería: 1/290 × 1/290 × 1/290. Las probabilidades conjuntas se refieren, por supuesto, a las probabilidades correspondientes a dos sucesos a la vez. (Según los datos del cuadro, la probabilidad de extraer una ficha de un alumno —sexo masculino— y clase X es: 40/290. Pero en el caso de probabilidad condicional (véase), si la ficha es de un alumno, la probabilidad de que pertenezca a la clase X sería de 40/113, es decir, probabilidad del suceso A (estar en clase X) dado el B (ser varón). Es la probabilidad real determinada de modo empírico a través de un número suficientemente elevado de pruebas. Este enfoque objetivo del vocablo «probabilidad» se conoce como probabilidad «a posteriori» o de frecuencia relativa. Viene a indicar la proporción o razón entre las ocasiones en que el fenómeno se da y el número de pruebas realizadas. Es decir, indica que en una serie real de pruebas, la probabilidad es la proporción entre el número de veces en que ocurre un evento y el número total de intentos o pruebas. Es la probabilidad estadística.
PROBABILIDAD EMPÍRICA.
PROBABILIDAD ESTADÍSTICA.
Probabilidad empírica (véase).
PROBABILIDAD DE FRECUENCIA RELATIVA. PROBABILIDAD IDEAL.
Probabilidad empírica (véase).
Probabilidad apriorística (véase).
PROBABILIDAD LÓGICO-SUBJETIVA. Modalidad de probabilidad que Popper (19857, 139-149) denomina así —con Keynes como figura sobresaliente— como una variante de la interpretación subjetiva, ya que no interpreta los enunciados probabilitarios «psicológicamente», sino lógicamente: como aserciones acerca de lo que puede llamarse la «proximidad lógica de los enunciados». Éstos pueden encontrarse entre sí en variadas relaciones lógicas, como son las de deductibilidad, incompatibilidad o independencia mutua. La teoría lógico-subjetiva considera la «relación probabilitaria» como un tipo especial de relación lógica entre dos enunciados. Los dos casos extremos de esta relación de probabilidad son las de «deductibilidad» y la «contradicción». Entre estos extremos se sitúan las demás relaciones probabilitarias.
Es la suma de las probabilidades conjuntas que integran la frecuencia marginal. Ej.: si tenemos la distribución por clases y alumnos de un profesor (tabla adjunta), la probabilidad de extraer la ficha de un alumno (masculino o femenino) de la clase Z, será:
PROBABILIDAD MARGINAL.
304
PROBABILIDAD MATEMÁTICA TEÓRICA
Sexo Masculino Clases
X Y Z
Femenino
40 26 47
36 69 72
76 95 119
113
177
290
47/290 + 72/290 = 119/290 = 0,41 (es la probabilidad marginal, en este caso ser alumno de la clase Z). Si llamamos M al fenómeno «ser alumno masculino» y F «ser del sexo femenino», tendríamos que la probabilidad marginal aludida se expresaría: P (Z) = P (M ∩ Z ) + P (F ∩ Z), donde ∩ es el símbolo de intersección, 119/290 = 47/290 + 72/290 = 0,41 = 0,162 + 0,248 = 0,41. PROBABILIDAD MATEMÁTICA TEÓRICA.
(Véase: Probabilidad apriorística).
Método general de muestreo denominado muestreo probabilístico. (Véase: Muestra probabilística).
PROBABILIDAD, muestreo de.
PROBABILIDAD OBJETIVA. PROBABILIDAD REAL.
(Véase: Probabilidad).
Probabilidad empírica (véase).
PROBABILIDAD SUBJETIVA.
(Véase: Probabilidad).
PROBLEMA DE INVESTIGACIÓN. Ámbito de la investigación para el que la Ciencia todavía no tiene una solución satisfactoria. Es una dificultad o situación a la que no se ha encontrado solución o respuesta adecuada. Las características básicas de todo problema son: posibilidad de solución y que esté definido con claridad y precisión, además de que sea significativo (importante para la comunidad científica) y factible.
Descripción de la preparación y realización de la tarea experimental. Incluye un plan de actuación del investigador en aspectos como: recogida, tratamiento y análisis de datos, detalle de los aspectos relativos a instrumentos utilizados, unidades de observación, medidas empleadas, pasos seguidos, etc.
PROCEDIMIENTO.
En general, proyecto ordenado de actividades u operaciones para la consecución de algún fin. El programa, dentro del marco educativo, puede definirse como un plan sistemático de intervención, diseñado y elaborado intencionalmente para la consecución de unos objetivos de mejora. Esto supone que todo programa educativo debe estar incardinado en los proyectos educativos de los centros y contar con la colaboración
PROGRAMA.
305
PROPORCIÓN DE MUESTRA (p)
del equipo de profesores para posibilitar su proceso, mantenimiento o, incluso, su transferencia, según los casos. Propuesta de evaluación de centros que, englobada en los modelos centrados en la evaluación del cambio, carece de control externo y se apoya en el enfoque procesual de la investigación-acción y la autoevaluación en la escuela. El Programa GRIDS (Guidelines for Review and Internal Development in School), diseñado por Ron Abbot, establece cinco fases principales con una serie de actividades prácticas en cada una de ellas: a) Empezar; b) Inicio-revisión; c) Revisión específica; d) Acción para el desarrollo; y e) Revisión y nuevo comienzo.
PROGRAMA GRIDS.
Técnica, entre otras, para la creación de modelos de simulación (véase). Se aplica al desarrollo de «reglas de empirismo» o de heurística para solución de problemas que no son tratables por los métodos analíticos clásicos. De alguna forma, el modelo de simulación que crea esta técnica trata de reproducir las reglas de decisión que utilizan las personas que resuelven problemas (los expertos). (Gil Pascual, 2003). PROGRAMACIÓN HEURÍSTICA.
PROGRAMAS INFORMÁTICOS DE TRATAMIENTO DE DATOS.
(Véase: Tratamien-
to informatizado de datos). En el análisis factorial, método de rotación oblicua de factores. (Véase: Rotación de factores). El método PROMAX no conserva los ejes perpendiculares, sino oblicuos y se obtienen factores que están relacionados entre sí. Es rápido de calcular y aconsejable con grandes cantidades de datos.
PROMAX, método.
PROMEDIO. Valor representativo de una distribución de datos o frecuencias, alrededor del cual se sitúan otros valores (p.ej.: media, mediana, moda). PROPORCIÓN DE CLASE. Cociente entre la frecuencia de una clase y el número total de observaciones. (Véase: Intervalo de clase).
Si la proporción de población se define como π = k/N (donde k es el número de elementos que poseen cierto rasgo y N es el número total de unidades de la población), la proporción de muestra se define como p = x/n, donde x = número de unidades de la muestra que poseen cierto rasgo, y n = tamaño de la muestra. Así, una proporción de muestra puede considerarse como una proporción de éxitos, y se obtiene dividiendo el número de éxitos por el tamaño de la muestra, n. Debido a esto, vemos que si se obtiene una muestra al azar de n, con reposición, la distribución por muestreo de p obedece a la ley de probabilidad binomial, PROPORCIÓN DE MUESTRA (p).
PROPORCIÓN DE POBLACIÓN (π)
306
y se podría escribir su función de probabilidad acumulativa. (Ya-Lun Chou, 19772, 197). Proporción de población es el cociente entre el número de elementos, k, que presentan determinada característica o rasgo y el número total, N, de unidades de la población. O sea, π = k / N (donde k es el número de elementos que poseen cierto rasgo y N es el número total de unidades de la población). PROPORCIÓN DE POBLACIÓN (π).
PROYECTO ISIP. Propuesta de evaluación de centros que se gestó por la OCDE (1982), a través del CERI (Centro para la Investigación Educativa y la Innovación). El proyecto ISIP (International School Improvement Project) tiene por objeto fundamental la mejora de la escuela, atendiendo más eficazmente los objetivos señalados en la enseñanza. Destaca la importancia que se da a la autonomía del propio centro para resolver sus problemas específicos (inspección sistemática interna). Los objetivos y la planificación de los trabajos son cometido del profesorado, con la participación de padres, alumnos y autoridades académicas. PRUEBA. Instrumento de recogida de información sobre un sujeto y/o su entorno, compuesto por una serie o conjunto de preguntas o cuestiones (ítems), que permite obtener medidas de una variable psicológica o pedagógica (personalidad, intereses, actitud, inteligencia, rendimiento, etc.). PRUEBA DE ALEATORIEDAD. PRUEBA DE BARTLETT.
(Véase: Rachas, prueba de).
(Véase: Prueba de esfericidad, Bartlett).
PRUEBA BINOMIAL. Es una prueba no paramétrica de bondad de ajuste que indica si es o no probable que las proporciones (o frecuencias) observadas en la muestra (p) procedan de una población con un valor π (proporción de población) determinado. Si es muy probable, se acepta H0 (hipótesis nula), porque se supone que la desviación de la muestra respecto del valor de π se debe a las fluctuaciones del azar. Si es muy improbable el valor de p observado, se rechaza H0 y se acepta H1 (hipótesis alternativa de significación). El modelo binomial (véase) se refiere a experimentos en los que una variable aleatoria es dicotómica: solamente puede tomar dos valores, cuyas probabilidades son p y (1 – p), valores que son mutuamente excluyentes (p. ej.: hombre-mujer, sí-no, verdadero-falso).
Prueba utilizada para comprobar si la matriz de correlaciones es de identidad (matriz identidad, véase) o, de otra forma, que todos los elementos de la diagonal principal son igual a uno y el resto de elementos de la matriz de correlaciones son nulos. A mayor grado de significatividad, más pertinente será la matriz para el análisis factorial.
PRUEBA DE ESFERICIDAD (Bartlett).
307
PRUEBA OBJETIVA
PRUEBA F, DE SNEDECOR. PRUEBA DE FRIEDMAN.
(Véase: F, de Snedecor, prueba).
(Véase: Friedman, prueba de).
PRUEBA DE KOLMOGOROV-SMIRNOV. PRUEBA DE KRUSKAL-WALLIS. PRUEBA DE KUDER.
(Véase: Kolmogorov-Smirnov, prueba de).
(Véase: Kruskal-Wallis, prueba de).
(Véase: Kuder, prueba de).
Prueba que se presenta en formato impreso, en la que el sujeto debe registrar por escrito sus respuestas a las preguntas que se le formulan o señalar, en el cuadernillo del test o en una hoja de respuestas, la opción que considere oportuna.
PRUEBA DE LÁPIZ Y PAPEL.
PRUEBA DE McNEMAR.
(Véase: McNemar, prueba de).
PRUEBA DE LA MEDIANA. PRUEBA DE MOSES.
(Véase: Mediana, prueba de).
(Véase: Moses, prueba de).
PRUEBA OBJETIVA. Prueba elaborada «ad hoc» con la que se intenta comprobar y/o evaluar el aprovechamiento académico o el grado de consecución de los objetivos educativos. La prueba objetiva es un test elaborado para comprobar y evaluar determinadas actividades de aprendizaje en situaciones concretas y en vista del trabajo y las necesidades particulares de cada centro educativo, generalmente para comprobar el aprendizaje de los alumnos respecto de un programa desarrollado. Las pruebas objetivas surgieron frente a los tests de instrucción para evitar sus inconvenientes, por lo que se han denominado también «exámenes de nuevo tipo», «tests irregulares», «tests de sala de clase» y «tests no normalizados». Son exámenes escritos de aplicación colectiva y contestaciones breves y sin ambigüedades a numerosas preguntas. Se caracterizan por la objetividad en la atribución de valores, por lo que un mismo evaluador valorará a todos los sujetos con los mismos criterios. Además, también se caracterizan por: a) Simplicidad en la presentación de las preguntas; b) reducción de las respuestas a su mínima extensión (una o pocas y precisas palabras, un trazo, una elección); c) seguridad en la determinación de la respuesta exacta e inexacta; d) facilidad de construcción (con ligero adiestramiento se adquiere la aptitud para repentizar el contenido); e) sencillez de aplicación y corrección; f) variabilidad en profundidad y estructura; g) adaptación a los descubrimientos analíticos y diagnósticos; h) fácil puntuación global. Asimismo, sus ventajas se resumen así:
1. Seguridad en la calificación (los errores son puramente mecánicos y en pequeño porcentaje).
308
PRUEBA OBJETIVA
2. Amplitud del examen: permiten preguntar, en muy breve tiempo, sobre una gran área de conocimientos. 3. Fuente de motivación. 4. Rapidez y economía (permiten a personas desconocedoras de la materia, pero que dominan la clave, cooperar en la corrección de las pruebas). 5. Facilitar la diagnosis. 6. Favorecer el ajuste de los programas. 7. Habituar a la precisión y rapidez del juicio. 8. Fomentar la concentración de la atención. Inconvenientes de las pruebas objetivas: 1. No ofrecen garantía respecto de las aptitudes descubiertas en los sujetos. 2. Algunas de ellas están sometidas a un gran margen de error (tanto en la preparación como en la realización y corrección). 3. No descubren la originalidad, ni el sentido científico, aunque ponen en juego aptitudes combinatorias selectivas. 4. Simplifican en exceso las comprobaciones matemáticas y lingüísticas, si bien permiten expresar la trabazón lógica del razonamiento matemático. 5. Pueden convertirse en pruebas puramente mnemónicas (memorísticas) por la facilidad de la elaboración o lanzarse hacia lo adivinatorio. 6. Exageran el valor cuantitativo del total de respuestas como algo irrebatible. 7. Les acecha el riesgo de transformar el centro educativo en organismo dedicado sólo a las pruebas objetivas. (Fernández Huerta, 1964). Hay variedad de pruebas objetivas. Pueden clasificarse en dos grandes grupos: a) evocación de un recuerdo; b) reconocimiento de un recuerdo. Para corregir la influencia del azar, entre las diversas fórmulas, la siguiente es muy utilizada: P = R = A−
E n −1
donde: P = puntuación R = resultado A = aciertos E = errores n = número de alternativas de elección Sobre la construcción, mejora y elementos de las pruebas objetivas, pueden consultarse diversas fuentes y manuales.
309
PRUEBA Z
Por último, parece oportuno dejar claro que las pruebas objetivas no sólo son instrumentos de evaluación. Cuidadosamente diseñadas y construidas, pueden ser preparadas y utilizadas por cualquier investigador, como instrumento de medición, para poner a prueba hipótesis científicas en torno a la superioridad de métodos, técnicas, procedimientos, sistemas de organización o de disciplina, etc. (Véase: Pruebas objetivas, para completar ideas). PRUEBA PILOTO.
(Véase: Aplicación piloto).
PRUEBA Q, de Cochran.
(Véase: Q, de Cochran, prueba).
(Véase: Rachas, prueba de y también, Wald-Wolfowitz, prueba de rachas).
PRUEBA DE RACHAS.
PRUEBA S, de Scheffé.
(Véase: S, de Scheffé, prueba).
PRUEBA DE LOS SIGNOS. PRUEBA DE STRONG. PRUEBA t.
(Véase: Signos, prueba de los).
(Véase: Strong, prueba de).
(Véase: t de Student).
PRUEBA T, de Tukey.
(Véase: T, de Tukey, prueba).
PRUEBA T, de Wilcoxon.
(Véase: Wilcoxon, prueba T de).
Prueba que permite comprobar la existencia o no de diferencias estadísticamente significativas entre dos grupos respecto a un conjunto de variables dependientes consideradas asimismo conjuntamente. Esta prueba puede considerarse como una generalización de la t de Student para el caso de más de una variable dependiente. Incluso el estadístico T2 y el estadístico t tienen expresiones similares. Para su aplicación, la prueba T2 necesita que las observaciones sean independientes, las variables sigan una distribución normal multivariante en cada subpoblación y que las matrices de varianzas-covarianzas sean iguales. La T2 de Hotelling aventaja a la t de Student en que la primera utiliza toda la información disponible en la muestra, mientras la segunda no considera la covarianza entre las variables. Así podría ocurrir que con la T2 de Hotelling se rechazara la hipótesis nula (H0) y, sin embargo, al considerar la t de Student entre cada par de variables dependientes no se encontrara ninguna diferencia significativa. (Gil Pascual, 2003). PRUEBA T2, de Hotelling.
PRUEBA U, de Mann-Whitney. PRUEBA z.
(Véase: U, de Mann-Whitney, prueba).
(Véase: Razón crítica, z).
PRUEBA Zr, de Fisher.
(Véase: Zr, de Fisher).
310
PRUEBAS BICAUDALES PRUEBAS BICAUDALES.
Pruebas bilaterales (véase).
También llamadas no direccionales, («two-tailed tests», en inglés), bicaudales o de dos colas, y bidireccionales, son aquellas en que las regiones críticas (zonas de «no-azar» o de rechazo de la hipótesis nula, H0) se sitúan en ambos extremos del modelo, tanto al estimar parámetros, como al contrastar hipótesis. En cualquier hipótesis se contrasta H0, admitiéndola o rechazándola, según proceda, a tenor de los datos empíricos obtenidos; en caso de rechazo, se admite la H1 (hipótesis alternativa). La hipótesis bilateral es la que se suele contrastar habitualmente: H1 (hipótesis alternativa) bilateral propugna, en el caso de dos medias, que µa ≠ µb, por lo que admite que µa > µb o que µa < µb. Le interesa conocer la probabilidad de la diferencia observada con independencia del signo. Las pruebas bilaterales se deben aplicar cuando se adopta una «actitud explicativa» ante los fenómenos estudiados, actitud vinculada a la investigación básica o fundamental, en la que interesa primordialmente el descubrimiento de relaciones con independencia de su aplicación. Glass y Stanley (1974) prefieren las hipótesis bilaterales, pues temen que la «unilaterales» se empleen inadecuadamente. Arguyen que cuando H1 es direccional y los datos muestrales presentan una desviación considerable con respecto a H0, pero en la dirección opuesta a la sostenida por H1, es fácil concluir erróneamente. PRUEBAS BILATERALES.
PRUEBAS DE BONDAD DE AJUSTE. Las que pretenden comprobar la hipótesis de que la muestra extraída al azar proviene de una población con una distribución específica (binomial, normal, rectangular…, por ejemplo). O también, probar que las diferencias observadas entre las frecuencias de la muestra y las teóricamente esperadas (sobre la base de algún principio) son significativas. O, por último, si existe diferencia significativa de ubicación —tendencia central— entre la muestra y la población. En definitiva estas pruebas sirven para comprobar si los datos de la muestra son compatibles con la distribución de probabilidad propuesta por la hipótesis de nulidad (H0). (Véase: Bondad de ajuste).
Son los métodos estadísticos de contraste de hipótesis empleados cuando «no se presupone normalidad en la distribución matricial, o sea, en la distribución del universo (o población) del que procede la muestra considerada. Por esta razón, se les suele llamar métodos de distribución libre, puesto que no importa la forma de distribución del universo del que proceden la muestra o las muestras sometidas a la prueba estadística». (Rodrigues, 1980, 87). Se utilizan cuando no es conocida la naturaleza de la distribución de la población, o si los datos están expresados en medidas nominales o en
PRUEBAS NO PARAMÉTRICAS.
311
PRUEBAS OBJETIVAS
medición ordinal, es decir, en variables presentadas como valores discretos (clasificados en categorías y representados por recuentos de frecuencias) o en orden de rango, respectivamente. A causa de su naturaleza de representación menos precisa, las pruebas no paramétricas son menos potentes que las paramétricas y no tan aptas para rechazar una hipótesis nula cuando es realmente falsa. En consecuencia, hay mayor probabilidad de un error de tipo II (véase). Ventajas o puntos positivos a) Más fácil cálculo (más sencillas de aplicar), en general. b) Mínimos supuestos o exigencias de sus respectivos modelos, entre los que destaca su aplicabilidad con niveles de medida ordinal (datos expresados por rangos) y nominal. c) Utilizables cuando dos conjuntos de observaciones proceden de poblaciones distintas. d) Adecuadas a muestras pequeñas, en las que suelen ser tan potentes como las paramétricas, sin olvidar que en ocasiones no tienen alternativa entre éstas. e) Útiles en un nivel de significación determinado, cualquiera que sea la forma de la distribución de la cual proceden las muestras. Inconveniente: la gran limitación de estas pruebas es su menor potencia y su desarrollo estadístico inferior. Son tests elaborados «ad hoc» para comprobar y/o evaluar determinadas actividades de aprendizaje en situaciones concretas. Se elaboran en vista del trabajo y las necesidades particulares de cada centro educativo, generalmente para comprobar la instrucción de los alumnos respecto de un programa desarrollado. Surgieron frente a los tests de instrucción para evitar sus inconvenientes, por lo que se han denominado también exámenes de nuevo tipo, tests irregulares, tests de sala de clase y tests no normalizados. Se trata de exámenes escritos de aplicación colectiva y contestaciones breves y sin ambigüedades a numerosas preguntas. Pueden clasificarse en dos grandes grupos: 1) Pruebas de reconocimiento, que son las de mayor interés, porque dan pie a averiguar aptitudes de más elevada naturaleza: a) elección de mejor respuesta entre varias opciones; b) asociación o emparejamiento; c) ordenación o redistribución, etc. 2) Pruebas de recuerdo, con preguntas de memoria cuya contestación es una respuesta simple: a) completar textos a base de preguntas incompletas y respuestas sugeridas; b) elegir entre varias respuestas; c) distinguir las afirmaciones verdaderas de las falsas; d) textos mutilados cuyas lagunas hay que llenar, etc.
PRUEBAS OBJETIVAS.
312
PRUEBAS PARAMÉTRICAS
El resultado se ajusta a la fórmula que corrige el efecto del azar en las contestaciones: R = A−
E , de donde : n −1
R = resultado A = aciertos E = errores n = número de alternativas u opciones de contestación. (Véase: Prueba objetiva, como complemento de lo aquí expuesto). PRUEBAS PARAMÉTRICAS. Son los métodos estadísticos empleados cuando se presupone que la distribución de la población o universo de donde procede la muestra, o las muestras, es normal. Estas pruebas se basan en una serie de supuestos, muy concretos y restrictivos, acerca de los valores de la población o parámetros. Los supuestos del modelo teórico se refieren a: • independencia de las observaciones (la selección de un caso no depende de la selección de cualquier otro); • normalidad de la distribución de los valores en la población (o, en caso contrario, que se conozca la naturaleza de su distribución) de donde procede la muestra; • homogeneidad de las varianzas (homoscedasticidad) de los valores en la población (o que se conozca su razón de varianzas); • medición, al menos, a nivel de intervalo (escalas de intervalos). — Ventajas: a) Su mayor potencia para rechazar H0 (hipótesis nulas) falsas o, a igual potencia, el ahorro de sujetos en las muestras. b) Su desarrollo estadístico superior, más complejo y avanzado, que permite proseguir los análisis más allá que en el caso de las no paramétricas. c) Permiten hacer estimaciones de los parámetros indicando el margen de error que les afecta, lo que supone una mayor precisión y riqueza. — Inconvenientes: Supuestos sumamente restrictivos para su aplicación y que, en sentido estricto, limitan el uso de las pruebas a su cumplimiento. Son las pruebas más poderosas y debieran ser utilizadas siempre que se puedan cumplir sus supuestos básicos, que se fundamentan sobre la naturaleza de los valores de la población y el modo en que han sido seleccionadas las muestras. PRUEBAS DE SIGNIFICACIÓN. En la Estadística inferencial, pruebas que contrastan los datos empíricos con los esperables por azar, de manera que es
313
PSICOLOGÍA DIFERENCIAL
posible constatar si aquéllos van más allá que éstos, en cuyo caso serán significativos, reales o debidos a los efectos de la variable independiente (V.I.); o bien, en el caso de someter a prueba la hipótesis de existencia de relación entre variables, que se da en la realidad esa relación. Las pruebas de significación estadística, en su tarea de contraste, admiten dos modalidades fundamentales: a) Pruebas paramétricas (véase), que calculan el cociente entre el estadístico en estudio (uno o varios) y el error típico de este estadístico; b) Pruebas no paramétricas (véase), que comparan los valores empíricos encontrados con los teóricos (según tablas de probabilidades asociadas con tales valores) o, más sencillo, con los valores críticos a partir de los cuales, por encima o por debajo, puede atribuirse significación estadística a los valores empíricos. La significatividad de un estadístico o de la diferencia de estadísticos permite el rechazo de H0 (Hipótesis nula o de no diferencias). PRUEBAS UNICAUDALES.
Pruebas unilaterales (véase).
También llamadas pruebas direccionales o unidireccionales («one-tailed test», en inglés), unicaudales o de una cola, son aquellas que hacen referencia a contraste de hipótesis que tratan de averiguar si un parámetro es mayor o menor que el valor postulado por H0 (hipótesis nula). La región crítica o zona de rechazo de la H0 se sitúa a la derecha o a la izquierda del modelo y es dos veces mayor que la de una prueba bilateral, considerando sólo uno de los lados, a la derecha o a la izquierda de la media de la distribución. La decisión relativa a la unilateralidad o a la bilateralidad depende por completo del investigador, según convenga a su hipótesis alternativa (H1). Así, cuando: H1: µA ≠ µB se tiene contraste bilateral H1: µA > µB se tiene contraste de hipótesis unilateral derecha H1: µA < µB se tiene contraste de hipótesis unilateral izquierda Las pruebas unilaterales se relacionan con la actitud pragmática, vinculada a la investigación aplicada. Glass-Stanley (1974) prefieren las hipótesis bilaterales, pues temen que la «unilaterales» se empleen inadecuadamente. Arguyen que cuando H1 (hipótesis alternativa) es direccional y los datos muestrales presentan una desviación considerable con respecto a H0, pero en la dirección opuesta a la sostenida por H1, es fácil concluir erróneamente. PRUEBAS UNILATERALES.
PSICOGRAFÍA. Perfil de un rasgo. Representación gráfica de las puntuaciones de los rasgos de un sujeto en una escala común.
Rama de la Psicología que se ocupa de las diferencias individuales que se observan en la conducta de los seres humanos
PSICOLOGÍA DIFERENCIAL.
PSICOLOGÍA ECOLÓGICA
314
o de grupos de individuos que comparten entre sí características personales o de situación, pero diferentes de otros grupos. Trata de determinar la naturaleza y cuantía de semejantes diferencias, así como la organización de las mismas en estructuras o tipos, que luego son causalmente relacionados con factores genéticos de origen hereditario o factores ambientales. Observa cómo esas diferencias son afectadas por los procesos de maduración biológica y de aprendizaje social, y cómo se manifiestan en los principales grupos humanos: raciales, nacionales, sociales, etc. El método diferencial, tan frecuentemente utilizado por esta rama de la Psicología, no consiste en provocar experimentalmente los cambios en las variables objeto de estudio, sino en observar y registrar los que espontáneamente se producen en la vida real. Corriente psicológica que se centra en la descripción detallada y objetiva de los fenómenos, en sus manifestaciones naturales, para tratar de descubrir las leyes que rigen esos comportamientos. (Cultivadores: Herbert, Barker, Wright). Esta corriente constituye uno de los elementos básicos en la configuración de los conceptos fundamentales y metodológicos de la investigación cualitativa (véase) y del paradigma cualitativo-interpretativo (véase).
PSICOLOGÍA ECOLÓGICA.
Disciplina científica directamente implicada en la medición psicológica (medida de los fenómenos psíquicos) que se ocupa, por un lado, de la fundamentación teórica de la medida y, por otro, de la construcción, evaluación y aplicación de los instrumentos de medida para medir las características o constructos psicológicos de interés.
PSICOMETRÍA.
PUNTUACIÓN BRUTA. PUNTUACIÓN CEEB.
Puntuación directa (véase).
(Véase: Escala Ceeb).
PUNTUACIÓN CENTIL.
(Véase: Centil).
Puntuación basada en la experiencia obtenida con los tests utilizados para un propósito definido. La puntuación crítica es el nivel crítico, de modo que los sujetos que puntúan por debajo del mismo son rechazados. (Gonzalvo, 1978).
PUNTUACIÓN CRÍTICA.
Puntuación que indica la relación que guarda la puntuación en el test con la edad cronológica del sujeto que la ha obtenido.
PUNTUACIÓN CRONOLÓGICA.
PUNTUACIÓN CUANTIL.
(Véase: Cuantil).
Escala T (véase) o puntuación derivada (Z), según otros autores (Gonzalvo, 1978). Transformación de la puntuación z
PUNTUACIÓN DERIVADA (Z).
315
PUNTUACIÓN TÍPICA (z)
para evitar la posible confusión resultante de las puntuaciones negativas (por debajo de la media), y que también elimina los decimales. PUNTUACIÓN DIFERENCIAL. La equivalente a la diferencia entre una puntuación directa y la media de la serie a que dicha puntuación directa pertenece. Se representa por xi.
La atribuida directamente a cada elemento de un grupo. Es la puntuación (Xi) sin transformación alguna. Su interpretación sólo es posible por referencia a una norma o criterio. También se la denomina puntaje o puntuación bruta.
PUNTUACIÓN DIRECTA.
PUNTUACIÓN S.
(Véase: Escala S).
Puntuación tipificada cuando se adopta una media y una desviación típica convenidas. Se diferencia de la puntuación típica z, en que ésta va expresada en relación a la media real, es decir, media = 0 y desviación típica = 1. (Véase: Escala T).
PUNTUACIÓN T.
Estimación del valor escalar del sujeto, que se define como la suma ponderada de las puntuaciones obtenidas en los ítems del test.
PUNTUACIÓN DEL TEST.
PUNTUACIÓN TÍPICA (z). Es la puntuación diferencial de un valor (dato, sujeto) dividida por la desviación típica de la serie de datos o puntuaciones del grupo. Indica la desviación o distancia que separa a un valor (una puntuación, un dato, un sujeto, etc.) de la media del grupo normativo. Dicha puntuación diferencial va expresada tomando como unidad la desviación típica (sx) de la serie de datos o puntuaciones. Es decir, la puntuación típica expresa el número de unidades o desviaciones típicas que las puntuaciones directas se apartan del promedio o media aritmética. Fórmula:
Xi − X x X −X x = i (en muestras); zi = i = i (en población) σ σ s s – Siendo: Xi = puntuación directa; X = media muestral; s = desviación típica de la muestra o serie de datos; xi = puntuación diferencial; σ = desviación típica poblacional. Nos indica cuántas unidades s (en la muestra) o σ (en la población) se aparta de la media, por encima o por debajo, una puntuación directa o un sujeto. Esto es de gran utilidad, porque reduce las puntuaciones o datos de cualquier distribución a una unidad de medida comparable. En la escala z la media de los valores expresados en z es 0 (cero) y la desviación típica es igual a 1. zi =
PUNTUACIÓN TÍPICA DERIVADA
316
PUNTUACIÓN TÍPICA DERIVADA. Es la puntuación que se obtiene mediante una transformación lineal de las puntuaciones típicas.
Expresión que hace referencia a normas o puntuaciones normativas, que son las puntuaciones obtenidas en una prueba o test por el grupo normativo y que ayudan a expresar la posición relativa de un sujeto en el grupo normativo correspondiente. (Véase Grupo normativo).
PUNTUACIÓN TIPIFICADA.
PUNTUACIÓN VERDADERA. Nivel real en que el sujeto manifiesta la característica de interés medida con un test o una prueba en la teoría clásica de los tests. PUNTUACIONES LIGADAS. Valores iguales, ya sea entre parejas, o ya sean puntuaciones iguales (ligas). Cuando ocurren empates o ligas es preciso romperlos, asignándoles rangos: a semejantes casos ligados se les asigna el mismo rango, que será el promedio de los rangos que se habrían asignado si las diferencias hubieran discrepado ligeramente. Ejemplo:
5, 7, 9, 9, 9, 11, 11, 13, etc. Xi: Rangos: 1, 2, 4, 4, 4, 6,5 6,5 8, etc. Puntuaciones obtenidas en un test o una prueba por el grupo normativo (véase), que ayudan a expresar la posición relativa de un sujeto en el grupo normativo.
PUNTUACIONES NORMATIVAS.
Q
Q, DE COCHRAN, prueba. Prueba estadística no paramétrica para G muestras relacionadas, cuyo objeto es averiguar si tres o más conjuntos igualados —a tenor de sus respectivas frecuencias o proporciones— difieren significativamente entre sí. Esta prueba Q está especialmente indicada cuando los datos sobre características o atributos se presentan en escala nominal o cuando la información ordinal se ha dicotomizado. La prueba Q es considerada como una extensión de la prueba de McNemar para dos muestras relacionadas. Q (cuartil).
Cuartil (Q) (véase).
Q, metodología o técnica.
(Véase: Metodología Q).
QUAFE-80. Propuesta de evaluación de centros elaborada por Darder y Mestres bajo la denominación de Cuestionario para el análisis del funcionamiento de la escuela, desde dentro de la misma y que se realiza a través de la participación conjunta del profesorado. El QUAFE-80 consta de dos grandes factores: a) El Proyecto Educativo; b) La estructura y el funcionamiento. A su vez estos factores agrupan diferentes conceptos que se traducen en ítems dentro de cada uno de los apartados. QUARTIMAX, método.
(Véanse: Cuartimax y rotación de factores).
R
r y Zr, equivalencia de valores. En el contraste de hipótesis respecto de ρ (rho) o coeficiente de correlación de Pearson, mediante la Zr de Fisher, conversión de valores de rxy empírico y ρ de la población a Zr de Fisher y viceversa, mediante la tabla correspondiente. Los valores Zr gradualmente tienden a ser mayores que sus respectivos rxy. (Ej.: un rxy = 0,55 se transforma en Zr = 0,618 y viceversa). RACHAS, prueba de. Prueba estadística no paramétrica que permite comprobar que una muestra es aleatoria. Se basa en el orden o secuencia en que las puntuaciones u observaciones se suceden. Tiene en cuenta el número de rachas que la muestra exhibe, entendiendo por «racha» la sucesión de símbolos idénticos que pueden estar o no separados por otros símbolos. Por ejemplo, en la serie siguiente de símbolos «más» y «menos» tendríamos:
Serie de símbolos: (+)(+)(+) (–)(–) (+) (–)(–)(–) (+)(+)(+)(+) (–) Rachas:
1
2
3
4
5
6
Si r = rachas, en este caso r = 6. El número total de rachas de una muestra indica si la muestra es o no aleatoria, según unas tablas de distribución muestral de r. Para dos muestras independientes, la «prueba de las rachas, WaldWolfowitz» se utiliza para probar que las dos muestras pertenecen a la misma población o a dos poblaciones diferentes. (Véase: Wald-Wolfowitz, prueba de rachas). RACIONALIDAD EMANCIPADORA.
Expresión que alude al paradigma socio-
crítico (véase). Corriente filosófico-doctrinal que surge como reacción a la corriente positivista, aunque se basa en la perspectiva científica del neopositivismo. Se ajusta a estos tres principios:
RACIONALISMO CRÍTICO.
320
RANGO
1. Un enunciado será científico si se formula respetando la lógica matemática y la verificación empírica. 2. El lenguaje de la Ciencia debe ser universal, para diferenciarla de las pseudociencias. 3. Sólo es observable lo que es objetivo (observación directa y comprobación a través de la experimentación). Estos planteamientos iniciales serán revisados por Popper, quien prestará especial atención a la problemática de las Ciencias Sociales. (Véase: Popper y el criticismo racional ). RANGO. Es el recorrido o diferencia que, en un conjunto de datos o valores, existe entre el valor máximo y el valor mínimo, más una unidad, de todos los valores del conjunto considerado. Es decir:
rango = (Xmáx – X mín) + 1. El rango o recorrido ofrece una primera aproximación de la posible dispersión o desviación de los datos. En una matriz X(m × n), con un conjunto de n vectores columnas, se denomina rango de X —r (X)— al número de vectores columna linealmente independientes. Para que una matriz X(n × n) tenga rango n, es condición necesaria y suficiente que su determinante sea distinto de cero. Si su determinante es cero, su rango será n – 1 cuando exista una submatriz (n – 1) × (n – 1) cuyo determinante sea distinto de cero; y así sucesivamente. RANGO DE UNA MATRIZ.
Posición asignada a un dato (valor, calificación, puntuación…) dentro de una serie de datos ordenada desde el más alto al más bajo o viceversa. Está presente en buena parte de los procedimientos estadísticos: pruebas no paramétricas para contrastes de hipótesis.
RANGO DE LAS MEDIDAS.
RANGO SEMIINTERCUARTIL.
(Véase: Amplitud semiintercuartil).
Característica del individuo que se manifiesta por comportamientos que se repiten en situaciones distintas. Es una característica o dimensión persistente de la personalidad, según la cual pueden ser medidos o clasificados los sujetos. De acuerdo con la teoría del rasgo, la personalidad humana puede ser caracterizada por las puntuaciones que un sujeto alcanza en un cierto número de escalas, cada una de las cuales representa un rasgo (característica o dimensión) de la personalidad. RASGO.
RAT.
Registro activado por transiciones (véase).
321
RECTA DE AJUSTE
RATIO. Razón o cociente de los números. Las «ratios» son números índice de razones y relaciones. Ej.: el cociente intelectual (CI) es la ratio, relación o cociente entre la edad mental y la edad cronológica. RAUT.
Registro activado por unidades de tiempo (véase).
RAZÓN CRÍTICA (z). Prueba de significación estadística sobre la diferencia entre dos medias (una experimental y otra de control, o bien una muestral y otra poblacional) dividida dicha diferencia por su error típico. También puede referirse a la media, diferencia media o coeficiente de correlación divididos por su error típico. Tiene varias aplicaciones como prueba estadística en diseños de un solo grupo y de dos grupos.
Proporción de predicciones correctas del test en el grupo alto del criterio. RAZÓN DE EFICACIA.
Proporción de sujetos que habría que seleccionar atendiendo al criterio.
RAZÓN DE IDONEIDAD.
RAZÓN DE MUESTREO. Es la fracción muestral (véase) o razón (proporción) del tamaño de la muestra al de la población. RAZÓN DE SELECCIÓN.
Proporción de sujetos seleccionados con el test.
REACTIVIDAD. Cambios producidos, voluntaria o involuntariamente, en los sujetos por el simple hecho de sentirse observados o participantes en una investigación.
Cambio positivo del sujeto paciente como respuesta al hecho general de estar siendo tratado, con independencia del tipo de tratamiento.
REACTIVIDAD POSITIVA.
REALISMO CRÍTICO.
(Véase: Popper y el criticismo racional).
RECODIFICACIÓN. Cambio de los códigos o números asignados inicialmente a las categorías de respuesta de un ítem. Normalmente tiene por objeto que un mismo número signifique siempre igual (una opinión/actitud/sentimiento favorable o desfavorable hacia la cuestión examinada), al margen de que el enunciado del ítem denote una opinión/actitud/sentimiento favorable o desfavorable. RECORRIDO.
Rango o amplitud total (véanse).
RECORRIDO SEMIINTERCUARTIL (Q).
Rango o amplitud semiintercuartil
(véase). RECTA DE AJUSTE. Recta de regresión (véase; y también: Regresión y Análisis de regresión).
RECTA DE REGRESIÓN DE Y SOBRE X
322
Recta que permite hacer pronósticos en la variable Y a partir de las puntuaciones obtenidas en la variable X.
RECTA DE REGRESIÓN de Y sobre X.
En el análisis cualitativo de contenido y textual, técnica utilizada para la presentación de la información de manera sistemática y para facilitar una visión rápida y completa de los datos recogidos y procesados para su posterior interpretación. Las redes vienen configuradas en función de unos enlaces que se ajustan entre sí. Son de gran utilidad para describir los datos y facilitar la clasificación de la información analizada; además expresan una ordenación de categorías en distintos niveles de complejidad. Sus ventajas se cifran principalmente en la economía de datos, la visualización del conjunto y la comparación de sujetos sobre una estructura común.
REDES.
Supremacía del método sobre la realidad, al reducir lo real al mundo de lo visible o contrastable.
REDUCCIONISMO.
Técnica de control del efecto producido por el orden de presentación de los tratamientos experimentales. Consiste en efectuar una repetición de la secuencia de presentación de los mismos en orden inverso. La inversión del orden puede hacerse con los mismos sujetos o con distintos. REEQUILIBRADO.
Zona de no azar o de rechazo de la hipótesis nula (H0) cuando el valor generado por el estadístico o estimador en cuestión (resultado de la prueba estadística oportuna aplicada a los datos de una muestra concreta) cae dentro de esa zona de no azar o región crítica. Si cae fuera (es decir, dentro de la región no-crítica o zona de azar), se aceptará H0. Para determinar esa región crítica es preciso establecer un criterio de decisión que nos permita aceptar o rechazar H0, a la luz de los resultados empíricos de la muestra. Para ello, antes de realizar el experimento comprobatorio (fijado el nivel de significación, α, por el investigador), se divide en dos regiones —crítica y no crítica— el segmento rectilíneo cuyos puntos representan los valores posibles del estimador o estadístico en cuestión. El criterio decisorio es sencillo: rechazar H0 si en dicho experimento el valor empírico del estimador cae dentro de la región crítica (aceptando el valor alternativo de H1 o hipótesis alternativa), o aceptar H0 si cae fuera (o sea dentro de la región no crítica). REGIÓN CRÍTICA.
Serie de anotaciones que se realizan de la conducta o comportamiento observados, frecuentemente a través de códigos que representan a cada una de las categorías del sistema.
REGISTRO.
Registro de todas las ocurrencias de las conductas relevantes (registro de eventos) y con información de su duración (registro de estados).
REGISTRO ACTIVADO POR TRANSICIONES (RAT).
323
REGLAS DE ENUMERACIÓN
REGISTRO ACTIVADO POR UNIDADES DE TIEMPO (RAUT). Registro de las conductas indicadas por el registro de categorías siguiendo una pauta determinada por períodos de tiempo (intervalos). Sólo se produce el registro de las conductas que están ocurriendo en momentos temporales específicos de la sesión (muestreo puntual o instantáneo) o que han ocurrido en los períodos de tiempo establecido (muestreo de intervalos).
Registro en el que el investigador observa y recoge todo lo que ocurre durante la sesión completa. REGISTRO CONTINUO.
REGISTRO DE ESTADOS.
(Véase: Registro activado por transiciones, RAT).
REGISTRO DE EVENTOS.
(Véase: Registro activado por transiciones, RAT).
REGISTRO DE HECHOS SIGNIFICATIVOS.
Anecdotario (véase).
Modalidad de registro en que el investigador establece, e intercala, intervalos de observación e intervalos de registro.
REGISTRO POR INTERVALOS.
Modalidad de recogida de la información en la que el observador se limita a narrar lo acontecido durante la observación.
REGISTRO NARRATIVO.
REGLAS DE ENUMERACIÓN. En la investigación cualitativa para la realización del análisis de contenido, pautas que permiten al investigador realizar un cómputo más sencillo de las unidades de registro, entendiendo cada una de éstas como la sección más pequeña del texto analizado (sección en la que se tiene en cuenta la aparición de una referencia previa). Conforme a los objetivos establecidos previamente, se determinará el tipo de unidad (palabra, frase, párrafo, documento, personaje, trama). Entre las reglas de uso más extendido en el campo de la educación, Bardín (1986) cita las siguientes: a) Presencia o ausencia: aparición o no de un determinado elemento en el documento seleccionado. b) Frecuencia: número de veces que aparece un elemento en el texto seleccionado. c) Frecuencia ponderada: peso relativo de la unidad de análisis dentro del conjunto del texto analizado. d) Intensidad: grado en que aparece cada uno de los elementos objeto de análisis. e) Dirección: orientación hacia un extremo u otro: positivo/negativo, participativo/no participativo, obediente/desobediente, etc. f) Orden: secuencia en que aparecen los elementos seleccionados en los textos. g) Contingencia: aparición simultánea, o en el mismo momento, de dos o más elementos en un mismo contexto. Útil para el análisis de la distribución, la asociación, la oposición.
324
REGRESIÓN
En Estadística, equivale a predicción: predicción del valor de una variable, realizada a partir del valor conocido de otra(s) variable(s). Es la estimación de una variable, realizada partiendo de un valor conocido de otra, cuando entre ambas existe una correlación imperfecta. En una correlación de este tipo, no podemos determinar exactamente el valor de una variable partiendo del valor dado de la otra; pero tampoco podremos negar que el conocimiento de un valor X nos proporciona cierta información sobre el valor posible de Y: podremos fijar un intervalo en el cual está comprendido un valor de Y con una cierta probabilidad. Mediante la regresión se trata de hallar una función que ligue las dos variables observadas partiendo de los valores reales que ambas toman en la muestra. La función de regresión no será la misma cuando se trata de estimar los valores de Y, partiendo de los valores reales de X, que cuando queramos estimar los valores de X a partir de los de Y. Por eso, si se observan dos fenómenos pueden hallarse dos funciones de regresión. Generalmente, en problemas psicológicos y pedagógicos suele hacerse el ajuste de una función sencilla: la función lineal (recta de regresión); pero también puede convenir a veces el ajuste de una parábola de segundo o tercer grado (Gonzalvo, 1978). (Véase: Ecuación de regresión). Para remediar el escaso valor predictivo de un solo predictor, se acude a la predicción basada en la regresión múltiple (véase) que utiliza varios predictores, con lo que aumenta la precisión de la predicción. REGRESIÓN.
REGRESIÓN, ecuación de.
(Véase: Ecuación de regresión).
REGRESIÓN ESTADÍSTICA. Expresión abordable desde dos perspectivas: a) como fenómeno estadístico; b) como variable extraña que afecta a la validez interna de una investigación. a) Fenómeno estadístico que, básicamente, es un problema relacionado con una baja correlación (poca relación) entre dos variables; en este caso, dos mediciones sucesivas. Ocurre cuando, para un experimento, se seleccionan a los grupos sobre la base de sus puntuaciones extremas. Al no existir una relación perfecta, y dado que el coeficiente de correlación entre dichas dos variables suele ser pequeño (al igual que las calificaciones académicas respecto de las puntuaciones de los tests de capacidad mental), se presenta con frecuencia el efecto de regresión. Los individuos muy por encima o muy por debajo de la media para una variable, no suelen ser tan superiores o inferiores respecto de la otra variable; es decir, sus puntuaciones en la segunda variable no son tan extremas, porque tienden hacia la media en esa segunda variable. Cuanto más baja sea la correlación, más probable es que ocurra el efecto de la regresión estadística. Este efecto opera tanto en el extremo superior cuanto en el inferior de la variable dependiente (V.D.); es decir,
325
REGRESIÓN A LA MEDIDA
si se selecciona a un grupo de alumnos por sus puntuaciones sobresalientes, por ejemplo, en un test de rendimiento escolar (pretest), en una prueba posterior igual o similar a ella estos alumnos obtendrán en promedio resultados altos, pero más bajos que los anteriores. Por el contrario, los alumnos con bajo rendimiento en el pretest tenderán a un pro– medio más alto, más próximo a la media (X ) en una segunda aplicación de la prueba. La «regresión» hacia la media afecta a ambos grupos extremos, aunque, en el último caso, el efecto se puede considerar como de «progresión», ya que una puntuación baja en la variable dependiente, en la primera medición, se verá aumentada («progresando» hacia la media) en la segunda medición. (Castro, 1980; Downie-Heath, 19816). Galton observó que los hijos de padres altos tendían a ser altos, pero no tanto como los padres, y que los hijos de padres bajos tendían a ser bajos, aunque no tanto como sus padres. O sea, la descendencia, tanto de padres altos como bajos, tendía en el sentido de regresión hacia la media. Si la correlación entre las estaturas de los padres y los hijos fuera perfecta, no habría regresión: los puntos representativos de la estatura de los padres respecto de los hijos deberían pertenecer a una recta. b) Factor o variable extraña que afecta a la validez interna del diseño de investigación y opera allí donde se han seleccionado los grupos sobre la base de sus puntuaciones extremas. Por lo regular, al repetir la prueba «regresan» hacia la media las puntuaciones altas en la variable dependiente y «progresan» hacia la media las bajas. Esta regresión se considera debida a la correlación imperfecta existente entre las medidas del pretest y del postest. Estos efectos son el resultado de cierto comportamiento estadístico de los datos. En el pretest la casualidad hace que algunas puntuaciones elevadas sean mayores de lo que debieran ser. Lo mismo sucede con las bajas. En el postest es poco probable que se conserven las primeras, porque los factores que las hicieron elevadas fueron fortuitos y, en consecuencia, no estarán correlacionadas las del pretest con las del postest. De ahí que quien obtiene puntuaciones elevadas tienda a perder terreno en el postest o segunda medición. La «falacia de regresión» consiste en darles una interpretación apresurada, en la cual se pueden atribuir los «efectos» al tratamiento que aconteció entre ambas mediciones: «los brillantes parecen volverse lerdos y los lerdos más brillantes» (Campbell-Stanley, cit. por Castro, 19803, 41). REGRESIÓN LOGÍSTICA. Modelo de regresión con un logit (véase) como variable dependiente y variable(s) independiente(s) cualitativas y cuantitativas. REGRESIÓN A LA MEDIA.
(Véase: Regresión estadística).
326
REGRESIÓN MÚLTIPLE
Correlación de un factor o variable dependiente (Y) con un conjunto de factores o variables independientes (X1, X2, ... Xk). Se diferencia del análisis canónico (véase) en que en este último se estudia la relación entre dos conjuntos de factores o variables, mientras que la regresión múltiple correlaciona un solo factor o variable (criterio) con un conjunto de factores o predictores, cuyo aumento en número propicia también el aumento de la precisión de la predicción. Sin embargo, los nuevos predictores que se van incorporando a la predicción añaden progresivamente menos precisión, por lo que es criterio generalizado que no es rentable plantear un problema de predicción con más de cuatro o cinco predictores. Las ecuaciones de regresión múltiple de X1 sobre X2 y X3 nos permiten pronosticar las puntuaciones de X1 a partir de las puntuaciones obtenidas en X2 y X3. Hay ecuaciones para: a) supuestas puntuaciones directas; b) supuestas puntuaciones diferenciales; c) supuestas puntuaciones típicas. La regresión múltiple permite analizar tanto las contribuciones individuales, cuanto las colectivas de un conjunto de variables independientes (predictores), a la explicación de los cambios producidos en la variable dependiente (criterio). Permite analizar, de forma pormenorizada, la influencia de cada una de las variables explicativas a la variable objeto de estudio. La ecuación fundamental para la predicción es: REGRESIÓN MÚLTIPLE.
Y′ = a + b1X1 + … bk Xk Los símbolos tienen el mismo significado que los de la ecuación de regresión simple, excepto que hay variables independientes, k, y coeficientes de regresión, k. En alguna forma hay que calcular las a y las b a partir de lo que se sabe de las X e Y. También la interpretación de los coeficientes es similar al caso de la regresión simple: el coeficiente de cada variable independiente mide el efecto separado que esta variable tiene sobre la variable dependiente. (Kerlinger, 1975, 428 ss.). RELACIÓN. Etimológicamente (del latín, «relatio») significa conexión, correspondencia de algo con otra cosa, referencia de un objeto a otro. Locke define la relación así: «idea compleja que consiste en considerar y comparar una idea con otra». Las ciencias experimentales, mediante técnicas estadísticas, pretenden determinar relaciones entre fenómenos estudiados, entre variables, que se denominan coeficientes de correlación. (Véase: Correlación). RELACIÓN CAUSAL. Tipo de relación por la que se establece que la variable independiente (V.I.) es causa de la variable dependiente (V.D.), siempre y cuando la medición de la variable independiente preceda a la de la va-
327
REPLICACIÓN
riable dependiente, exista covariación entre las variables y se puedan descartar otras explicaciones alternativas de causación. Utilización de múltiples muestras para obtener la distribución muestral como base del modelo de inferencia. Hair et al. (19995, 14) apuntan como técnica emergente el tratamiento de muestras mediante métodos no paramétricos. En este sentido, hablan de la generalización de la metodología no paramétrica en el denominado remuestreo. Es decir, la distribución poblacional deja de tener importancia condicionante (normalidad) y nos centramos en la distribución muestral para calcular el intervalo de confianza; pero, además, esta metodología genera múltiples muestras a través de la muestra original. REMUESTREO.
RENDIMIENTO INTELECTUAL, cociente de.
(Véase: Cociente de rendimiento
intelectual). RENDIMIENTO SATISFACTORIO. Rendimiento adecuado a las capacidades reales del sujeto. Es el rendimiento considerado desde el punto de vista personal.
Rendimiento que alcanza un determinado nivel marcado con anterioridad. Es el rendimiento considerado desde el punto de vista social.
RENDIMIENTO SUFICIENTE.
RÉPLICA.
Replicación (véase).
Característica propia del método científico consistente en que los hallazgos de un investigador puedan ser obtenidos por cualquier otro colega que utilice el mismo método. REPLICABILIDAD.
REPLICACIÓN. Término equivalente a réplica o repetición de una investigación siguiendo el mismo procedimiento. Se trata de la reproducción de experimentos para comprobar sus resultados, averiguando si son compatibles y coherentes con los iniciales. Si la replicación se lleva a cabo con el mismo sujeto o con el mismo grupo, la concordancia de los resultados es, sobre todo, un síntoma de fiabilidad: los nuevos resultados prestan mayor fortaleza y solidez a los iniciales. Cuando se utilizan nuevos sujetos o grupos, se afianza la fiabilidad, a la vez que permite extender la generalización: resultados concordantes en varias muestras de la misma población dan mayor seguridad a la generalización, pues las probabilidades de resultados debidos al azar en tales casos son mínimas. La replicación sistemática es aquella en que las circunstancias, los niveles de las variables independientes (o cualquier otra considerada relevante) son variados y sometidos a contraste; la concordancia, ahora, de los resultados, favorece generalizaciones no sólo a sujetos sino a todas
328
REPRESENTACIÓN GRÁFICA ORTOGONAL
esas circunstancias, elevándose por encima y facilitando formulaciones de leyes de mayor alcance. REPRESENTACIÓN GRÁFICA ORTOGONAL. REPRESENTACIÓN GRÁFICA RADIAL.
(Véase: Perfil ortogonal).
(Véase: Perfil radial).
REPRESENTATIVIDAD. Propiedad por la que las características de una muestra tienen la misma distribución que las características de la población de la que forma parte dicha muestra, como subconjunto extraído de aquélla. La representatividad implica que las descripciones y explicaciones adecuadas para la muestra representan de modo fiable y son aplicables al conjunto de la población. El vocablo representatividad hace referencia, por consiguiente, a las condiciones necesarias para garantizar la validez de los resultados más allá de los casos estudiados en una investigación. En efecto, dado que la inducción suele ser imperfecta al no poderse estudiar todos los casos, el subconjunto de la población estudiado (muestra) debe ser representativo del conjunto total (población). Pero la representatividad absoluta de la muestra no suele lograrse, por lo que cabe hablar de estimaciones probabilistas referidas a los resultados. La representatividad debe exigirse no sólo a los sujetos observados, sino también a los elementos que integran el instrumento de medida utilizado y a las circunstancias de la investigación. De ahí que Fox (1981, 373) apunte tres condiciones para conseguir la representatividad: a) conocer las variables relacionadas con el problema que se estudia; b) capacidad para medir esas variables; c) poseer datos de la población sobre las variables para utilizarlos como base de comparación.
En la regresión lineal, diferencia entre los valores observados en la variable dependiente yi y sus correspondientes valores pronosticados yi*. No debe confundirse el residuo (ei = yi – yi*) con el error de predicción. El conocimiento de los residuos es necesario para ensayar o estudiar la mayoría de los supuestos del modelo de regresión lineal múltiple (linealidad, independencia, homoscedasticidad, normalidad y multicolinealidad) mediante el programa SPSS. En este paquete estadístico se emplean diferentes tipos de residuos: a) Residuos brutos: dependen de la unidad de medición de la variable dependiente (son los definidos anteriormente: ei = yi – yi*). b) Residuos estandarizados (ZRESID —en el programa SPSS—): tienen media = 0 y desviación típica = 1. Sus valores oscilan desde –3 a +3 aproximadamente. c) Residuos estudentizados (SRESID —en el programa SPSS—): se distribuyen según t de Student, con n – k – 1 grados de libertad.
RESIDUO.
329
ROTACIÓN DE FACTORES
d) Residuo eliminado estudentizado (SDRESID —en el programa SPSS—): similar al anterior tipo, sólo que en esta ocasión no se incluye el iésimo residuo (–i) al calcular la desviación típica estimada. Se distribuye según t de Student con n – k – 2 grados de libertad. Este tipo es muy interesante para detectar puntos de influencia (casos con gran peso en la ecuación de regresión). (Gil Pascual, 2003). RESPUESTA EXTREMA. Estilo de respuesta sesgada que consiste en responder sistemáticamente eligiendo las categorías de respuesta de los extremos, con independencia del contenido del ítem o cuestión. RESTRICCIÓN DEL RANGO. Disminución de la variabilidad observada en los valores mostrados por una variable en una muestra de sujetos.
Conjunto resumido de las mediciones hechas en la variable dependiente (V.D.) como consecuencia de la actuación (manipulación) de la variable independiente (V.I.).
RESULTADOS.
REUNIÓN DE GRUPO.
(Véase: Grupo de discusión).
ROTACIÓN DE FACTORES. Procedimiento utilizado en el análisis factorial (véase), cuyo objetivo es conseguir el llamado principio de estructura simple (véase). La rotación de factores pretende transformar la matriz inicial en una que sea más fácil de interpretar, lo cual es importante para identificar factores que sean sustancialmente importantes. El fin prioritario de la rotación es dar mayor interpretación científica a los factores; interpretación que vendrá marcada por el peso que aporte la variable al factor, por lo que tendrán mayor importancia las variables que aporten mayor peso. Se trata, pues, de lograr una matriz F que permita reproducir la matriz de datos o de correlaciones originales (iniciales) con la misma precisión que la matriz A. Es decir:
R = AA′ ≈ FF′ La rotación puede ser ortogonal y oblicua. a) La rotación ortogonal, con factores perpendiculares, es, desde la perspectiva matemática y desde la estructura simple, la más satisfactoria, por lo que los métodos ortogonales deben ser preferidos a los oblicuos. Son métodos de rotación ortogonal: a.1) Método Varimax (Kaiser, 1958): es el más común y eficaz. Trata de minimizar el número de variables que tienen alta carga en un factor, por lo que simplifica la interpretación de los factores. Maximiza la varianza de los factores. En cada columna de la matriz factorial rotada produce algunos pesos muy altos y otros próximos a cero.
330
RULÓN Y GUTTMAN
a.2) Método Quartimax (Carrol, 1953): enfatiza la interpretación simple de las variables. En su solución minimiza el número de factores necesarios para explicar cada variable. Procura que cada variable esté saturada significativamente sólo en un factor. a.3) Método Equamax: Es una combinación de los dos anteriores, ya que simplifica los factores (Varimax) y simplifica las variables (Quartimax). b) La rotación oblicua produce estructuras oblicuas (los factores no son perpendiculares), donde puede darse el caso de que los pesos de la matriz factorial sean mayores que 1. Los procedimientos oblicuos más conocidos son: oblimin directo y promax, este último el más rápido de calcular y, por tanto, más aconsejable con grandes volúmenes de datos. Las rotaciones oblicuas son recomendables cuando se sospecha que existe una relación entre los factores. Procedimiento para averiguar la consistencia interna de un test mediante un coeficiente de correlación (rxx) cuando las varianzas de ambas mitades del test arrojan diferencias significativas. Dividido el test en mitades equivalentes, se utilizan las siguientes fórmulas: RULÓN Y GUTTMAN, técnica de.
Rulón : rxx = 1 −
sd2 s12a + s22a ; Guttman : r = 2 1 − xx st2 st2
Donde: s2d, s2t, s21a, y s22a representan las varianzas de las diferencias, del total, de la primera y de la segunda mitad, respectivamente. A mayor varianza de las diferencias, menor coeficiente de fiabilidad. Camino, en el que interviene el azar, que debe seguir el entrevistador para localizar cada unidad muestral. RUTA ALEATORIA.
S
Curva sigmoide, típica de procesos psicobiológicos. Etimológicamente, «sigmoide» o «sigmoideo» son calificativos que se aplican a lo que, por su forma, se parece a la letra griega «sigma» (σ o ς), equivalente a la s en español. S, curva en.
S, puntuación.
(Véase: Escala S).
S, DE SCHEFFÉ, prueba. Método «post hoc» de comparaciones planeadas entre pares de medias para contrastar la significatividad de las diferencias, una vez que el ANAVA (prueba F) haya detectado significactividad, sin poder precisar entre qué grupos. El método S es más general que el T (véase: T, de Tukey, prueba) por lo que, en este aspecto, es una técnica superior (no exige que n sea igual en todos los grupos). Además presenta una gran sensibilidad y permite hacer todas las posibles comparaciones entre las medias de los tratamientos. Permite también calcular los intervalos de confianza para cualquier comparación. Admite contrastes complejos. «SAN GAUSS».
Dícese del culto excesivo a la Estadística.
SAS. Paquete informático-estadístico de tratamiento de datos. Utiliza un lenguaje propio que permite al ordenador identificar los cálculos que debe realizar. Los programas SAS se comunican por medio de sentencias de dos tipos: DATA y PROC. Todo programa SAS se compone de tres partes: 1.a) Deberán presentarse las sentencias DATA (recogen aspectos sobre los datos y las variables). a 2. ) Aparecerán los datos en sí mismos. 3.a) Termina con las sentencias PROC (procedure = proceder, procedimiento) que indican las diferentes clases de análisis estadísticos que se deben realizar con los datos (existe un procedimiento particular para cada tratamiento estadístico).
332
SATURACIÓN
En la investigación cualitativa, procedimiento de validez consistente en reunir un número suficiente de evidencias que garanticen la credibilidad de la investigación. Se alcanza revisando el proceso o bien replicando el estudio para comprobar si los resultados se mantienen de forma coherente.
SATURACIÓN.
SD.
«Standard desviation», en inglés. Desviación típica (véase).
SEGMENTACIÓN.
(Véase: Análisis de segmentación).
Selección de los elementos realizada al azar para conformar una muestra. Se lleva a cabo utilizando métodos probabilísticos, lo que supone conocer la probabilidad —que debe ser mayor que cero— de selección de cada uno de los elementos en la población.
SELECCIÓN ALEATORIA.
SELECCIÓN DE LOS SUJETOS. Como factor o variable extraña que puede afectar a la validez interna del diseño de investigación, se contemplaría la «selección de los sujetos» en el caso de que la selección muestral arrojase desigualdad de los grupos de comparación porque se hiciese una selección diferencial de participantes. Este tipo de selección sesgada se produce al elegir directamente a los sujetos que formarán los grupos de comparación. Esta fuente de sesgo se elimina asignando aleatoriamente los sujetos a los diferentes grupos experimentales y también aumentando el tamaño de los grupos. SEMÁNTICO, Diferencial.
Diferencial semántico (véase).
Propiedad de la variable dependiente (V.D.) que le permite detectar las manipulaciones realizadas por el investigador sobre la variable independiente (V.I), caso de estar aquélla (V.D.) relacionada con ésta (V.I.).
SENSIBILIDAD.
Ordenación de datos, puntuaciones o valores de mayor a menor, o viceversa.
SERIACIÓN.
Conjunto de puntuaciones o de datos que quedan registrados a lo largo de un periodo de tiempo.
SERIE.
SERIE ATEMPORAL. Serie estadística resultante de la observación de un fenómeno durante un único instante o periodo temporal. También se denomina de «corte transversal», para indicar la instantaneidad o falta de temporalidad. Engloba series de frecuencias (cuantitativas y cualitativas) y series espaciales. SERIE CRONOLÓGICA.
de tiempo).
Serie estadística temporal. (Véase: Serie temporal o
333
SESGO DE SELECCIÓN
SERIE ESTADÍSTICA. Colección de datos numéricos, consecuencia de un conjunto de observaciones clasificadas y ordenadas según un criterio determinado. Pueden citarse dos tipos: series temporales o cronológicas y series atemporales (véanse). SERIE TEMPORAL. Sucesión de observaciones tomadas de forma cronológica, por lo que también se la denomina serie cronológica o serie estadística consistente en la sucesión de observaciones de un fenómeno cuantificable ordenadas en el tiempo. SERIE DE TIEMPO.
Serie temporal (véase).
Tipo de representación gráfica útil para describir la evolución de un determinado valor observado durante un cierto periodo de tiempo. Describe gráficamente las sucesivas observaciones tomadas de forma cronológica. (Ejemplos: evolución del paro registrado a lo largo de un año; evolución de la tasa de natalidad en un determinado periodo de años, etc.).
SERIES TEMPORALES, representación gráfica.
SESGO. Característica de un sistema de medida que produce resultados que no representan adecuadamente lo que se pretende medir, al modificar los resultados en una dirección específica. Se trata de la tendencia sistemática a subestimar o sobreestimar el parámetro de interés, a causa de una deficiencia en el diseño de investigación o en la realización de un estudio. También se le denomina error sistemático.
Modificación de la información dada por el sujeto, debida a los intereses y valores del entrevistador.
SESGO DEL ENTREVISTADOR.
Errores ocasionados por una determinada parcialidad que introducimos en nuestro criterio.
SESGO, errores de.
Tipo de error que se origina y produce por la influencia del investigador y que consiste en que los resultados se desvían coincidiendo con sus expectativas.
SESGO DE LA EXPECTATIVA DEL EXPERIMENTADOR.
Sesgo potencial, en la evaluación de sujetos, en un diseño que conlleve amplios lapsos de tiempo entre las medidas de la variable dependiente (V.D.), debido a posibles cambios incontrolados en los instrumentos utilizados para hacer efectivas dichas medidas de la V.D.
SESGO DE INSTRUMENTACIÓN.
SESGO DE RESPUESTA. Tendencia sistemática de un sujeto a responder a los ítems de un test, prueba o cuestionario de una determinada manera, con independencia de cuál sea el contenido de los ítems o cuestiones.
Sesgo que se produce cuando el resultado obtenido puede explicarse, total o parcialmente, por el sistema de selección de los
SESGO DE SELECCIÓN.
334
SIGNIFICACIÓN CLÍNICA
sujetos participantes en el estudio. Este sesgo, que potencialmente puede afectar a los resultados de la investigación, es achacable a características de los sujetos no controladas por el investigador. SIGNIFICACIÓN CLÍNICA. Criterio establecido por el terapeuta, en función de su experiencia, para evaluar el cambio de conducta.
Confianza que merece una determinada medida estadística como reflejo de la realidad. Se expresa en términos de probabilidad. Es la significación referida tanto a los estadísticos aislados como a sus diferencias. Un estadístico o una diferencia son significativos si pueden considerarse representativos de un valor real; en caso contrario, debe entenderse que el valor obtenido es fruto de la casualidad o surgido por azar. El valor, en términos de probabilidad del área en que se sitúan los valores significativos, se conoce como nivel de significación (véase), representado por α (alfa). La significatividad estadística es referida a unos valores límites que decide «a priori» el investigador (antes de recoger los datos y operar con ellos y no después para analizar a qué nivel empiezan a ser significativos). Estos límites, llamados niveles de significación o coeficientes de riesgo, se representan por α y se suelen fijar en los niveles 0,05, 0,01, 0,005 y 0,001. Sus respectivos valores complementarios (0,95, 0,99, 0,995 y 0,999) se denominan niveles de confianza (véase), generalmente expresados en porcentajes y tantos por mil (95%, 99%, 995‰, 999‰).
SIGNIFICACIÓN ESTADÍSTICA.
SIGNIFICACIÓN, nivel de.
(Véase: Nivel de significación).
Criterio establecido para evaluar el cambio de conducta, en función de lo que se considera como comportamiento normal.
SIGNIFICACIÓN SOCIAL.
Criterio para evaluar el cambio de conducta y que se establece en función de las expectativas de la familia, amigos o entorno laboral del sujeto paciente.
SIGNIFICACIÓN SUBJETIVA.
Palabra o expresión que ocupa un lugar central en el discurso que construyen los sujetos en las diferentes técnicas de la metodología cualitativa. SIGNIFICANTE.
Esperanza adquirida de que a un estímulo (signo) seguirá otro (significado), suponiendo que se continúe una conducta habitual (Tolman).
SIGNOS, aprendizaje de.
SIGNOS, prueba de los. Prueba así denominada porque utiliza los signos más y menos (+ y –). Es aplicable al caso de dos muestras relacionadas, cuando el investigador desea establecer que ambas condiciones son diferentes, sin poder precisar diferencias dentro de cada uno de esos dos
335
SIMILARIDAD
grandes bloques. Sólo se puede afirmar que algo es mayor o menor que algo. Por tanto, utiliza información acerca de la dirección de las diferencias de las parejas. Y así, al comparar dos grupos emparejados, es posible contrastar para cada pareja los resultados de la variable dependiente (V.D.) afirmando que un miembro tiene más que el otro, o que es mejor, o que ha concluido una tarea antes o después. En tal situación se puede asignar el signo + cuando el primer miembro de la pareja tenga más de algo o lo haya hecho mejor o antes, y el signo – en caso contrario. Esta prueba es útil cuando la medida cuantitativa es imposible o no es práctica, pudiendo incluso existir cierto orden entre los miembros de cada pareja. Razonamiento deductivo que va de lo universal o general a lo particular, enlazando las premisas, mayor y menor, para llegar a la conclusión. Consta, pues, de tres proposiciones: las dos primeras se llaman premisas (mayor y menor) y la tercera, conclusión, que se deduce necesariamente de las dos premisas. Los dos términos que entran en las premisas y en la conclusión se llaman «extremos» («mayor» y «menor») y el que sólo entra en las premisas recibe el nombre de «medio». Cuando se habla de figuras del silogismo es para referirse a las distintas combinaciones en la colocación del término «medio», en relación con los «extremos». Son cuatro: 1) El término «medio» es sujeto en la premisa mayor y predicado en la menor, p. ej.: «Todo hombre es mortal; Juan es hombre; luego, Juan es mortal». 2) El término «medio» es predicado en las dos premisas, p. ej.: «Todo espíritu es inmortal; ningún hombre es inmortal; luego, ningún hombre es espíritu». 3) El término «medio» es sujeto en ambas premisas, p. ej.: «Todo hombre es animal; todo hombre es mortal; luego, algún mortal es animal». 4) El término «medio» es predicado en la mayor y sujeto en la menor, p. ej.: «Todo cuerpo es ser; todo ser es sustancia; luego, alguna sustancia es cuerpo». SILOGISMO.
Correspondencia exacta en la disposición regular de las partes o puntos de un cuerpo o figura con relación a un centro, un eje o un plano. En Estadística se habla de distribución simétrica y distribución asimétrica (véanse) de frecuencias.
SIMETRÍA.
SIMÉTRICA, distribución.
Distribución simétrica (véase).
SIMILARIDAD (asociación).
(Véase: Medida de proximidad).
336
SIMILARIDAD SIMILARIDAD, coeficiente de.
(Véase: Medida de proximidad).
SIMILITUD PROBABILÍSTICA, coeficiente de.
(Véase: Medida de proximidad).
Creación y utilización de un modelo que reproduce fielmente una estructura (por ejemplo, la educativa) y que intenta representar las variables principales de ese sistema con objeto de analizar su respuesta. La simulación es un procedimiento que se utiliza en no pocas actividades científicas, como formulación de «modelos» que simplifican y hacen operativa la realidad. De alguna forma, la simulación es una técnica que sirve para someter a análisis el comportamiento de un sistema (véase) conocido en unas determinadas circunstancias. Los modelos de simulación, una vez construidos, prueban su validez por su comportamiento, ya que no tienen solución en el sentido analítico del término, sino en el sentido funcional conforme a su aplicación a la realidad. Los modelos de simulación se pueden aplicar fundamentalmente a tres tipos de situaciones: análisis de sistemas, construcción de sistemas y como ayuda a la enseñanza. SIMULACIÓN.
En general, conjunto de reglas o principios sobre una materia, racionalmente ordenados y enlazados entre sí para lograr un objetivo. En Estadística, representación de un conjunto de objetos o ideas que están interrelacionadas entre sí, como una unidad, para la consecución de un fin. «Conjunto de partes relacionadas entre sí que operan entre ellas, en conjunto, hacia el logro de un objetivo común» (Forrester). El conjunto de relaciones que constituyen un sistema se define como «estructura del sistema»; de ahí que se suelan identificar como conceptos equivalentes «sistema» y «estructura», según autores y contextos en que se utilicen. Los sistemas se clasifican según criterios: a) Existencia (conceptuales y físico-reales); b) Complejidad (simples y complejos); c) Transformaciones (dinámicos y estáticos); d) Relación con otros sistemas (abiertos y cerrados); e) Capacidad de predicción de comportamientos (determinados y estocásticos); f) Permanencia (estables e inestables). Ejemplos típicos de sistemas en el contexto psicopedagógico serían el conductismo, el estructuralismo, etc.; en Matemáticas, el sistema de ecuaciones, el de numeración; en Informática, sistema experto, sistema operativo, etc. (Tejedor, 1985).
SISTEMA.
SISTEMA DE CATEGORÍAS. Definición de dos o más categorías para la observación y registro de un mismo fenómeno que cumple las condiciones de exhaustividad y mutua exclusión.
Técnica sociométrica de representación gráfica que permite conocer la estructura de relaciones en un grupo, a través de las elecciones SOCIOGRAMA.
337
SPEARMAN-BROWN
y rechazos emitidos por el grupo, es decir, qué sujetos son líderes o populares y cuáles rechazados. También refleja el grado de cohesión de dicho grupo. Para una mejor interpretación del sociograma, hay técnicas que, por ejemplo, sitúan a los sujetos en círculos concéntricos, ocupando las zonas centrales los más elegidos y las zonas periféricas los menos elegidos y los aislados. Estudio de las formas o tipos de interrelación existentes en un grupo de individuos, mediante métodos estadísticos. Sociometría es un término general que comprende varios métodos o técnicas para recabar y analizar datos sobre la selección, comunicación y patrones de interacción de los individuos como miembros de un grupo. Podría decirse que consiste en el estudio y la medición de la selección social o que es un medio de estudiar las afinidades y aversiones entre los integrantes de grupos (Kerlinger, 1975). Las técnicas sociométricas pretenden conocer el tipo de relaciones que se dan en los grupos, la forma en que se estructuran dichas relaciones y qué sujetos actúan con un cierto liderazgo o cuáles son rechazados.
SOCIOMETRÍA.
SOLOMON, diseño de.
(Véase: Diseño de Solomon).
SPAD. Paquete informático-estadístico de análisis de datos. De procedencia francesa, comenzó como un conjunto de procedimientos para analizar datos y, sobre todo, el análisis de correspondencias. Con la revisión de esta propuesta inicial surgieron el SPAD.N (numérico) y el SPAD.T (textual). El programa SPAD.N o numérico permite realizar un conjunto amplio de operaciones con los datos: estadísticos básicos univariados y bivariados, representaciones gráficas, clasificación automática, análisis de varianza, análisis de correspondencias simples y múltiples, análisis discriminante, análisis de componentes principales, regresión múltiple. El programa SPAD.T, de análisis textual, se centra en el análisis e interpretación de los textos escritos. Se suele emplear en los estudios lexicométricos y en el análisis de datos textuales. Permite la elaboración de glosarios, inventarios de segmentos repetidos, concordancias y tablas léxicas. Su utilización permite aplicar a estos análisis diferentes métodos estadísticos, como la clasificación jerárquica ascendente, la caracterización estadística de textos mediante selección de elementos específicos, el análisis de correspondencias. SPEARMAN-BROWN, técnica de. Procedimiento para averiguar la consistencia interna de un test dividido en dos mitades, cuando las varianzas de ambas son homogéneas o estadísticamente iguales. Se calcula rxx (Pearson: fia-
338
SPEARMAN, COEFICIENTE
bilidad empírica) para las mitades y se estima Rxx (fiabilidad) para el test completo. Fórmula para el caso de mitades: R xx =
2 rxx 1 + rxx
Índice que expresa la correlación entre dos variables ordinales, en que los datos son ordenados por rangos (datos ordenados según su magnitud). Viene a ser el coeficiente de correlación de Pearson entre las dos series de valores ordinales. Fórmula: SPEARMAN, coeficiente «rho» (rs) y (rs) de correlación.
ρs = 1 −
6 ΣD2 , siendo : n( n2 − 1)
Σ = sumatorio; D = diferencias entre los rangos asignados; n = número de sujetos o de pares de valores (datos). Se designa por la letra griega ρs (valor poblacional) o por rs (valor muestral) para distinguirlo de la correlación producto-momento, de Pearson (ρ y rxy respectivamente) de la que es una aproximación, aunque ésta se obtiene con medida de intervalo o de razón. Paquete informático-estadístico de análisis de datos. SPSS es la sigla inicial (Statistical Package for Social Sciences) a la que se añadió posteriormente la letra X, para diferenciar la nueva versión corregida en algunos puntos y ampliada con nuevas aportaciones. También existe la versión SPSS-PC para ordenadores compatibles, paquete informático-estadístico de análisis de datos que recoge los aspectos fundamentales del programa. En sus comienzos funcionaba sobre MS-DOS y en la actualidad puede trabajar en el entorno Windows. Se utiliza como apoyo en la investigación en Ciencias sociales, económicas y de la salud. Contiene programas capaces de realizar desde un simple análisis descriptivo, hasta diferentes tipos de análisis multivariante (como análisis discriminante, análisis de regresión, «cluster», análisis de varianza, covarianza, etc.). En su configuración interna presenta instrucciones precisas sobre los «input» y «output» (entrada de datos a tratar y salida de lo procesado). Nos indica la localización y ordenación de los datos, el tratamiento interno de la información, transformación de la misma, configuración del programa (codificar variables, denominaciones, categorías) y los procesos de análisis sobre diferentes cálculos estadísticos. Los módulos que conforman este paquete estadístico son: — Básico: estadística descriptiva, pruebas paramétricas y no paramétricas, correlación, regresión lineal, gráficos, análisis «cluster», SPSS-PC.
339
SUCESO
análisis «cluster» de K-medias, análisis discriminante, análisis factorial, análisis de escalamiento multidimensional, análisis de proximidades y análisis de fiabilidad. — Estadísticas avanzadas: regresión logística, modelos lineal-logarítmicos, análisis multivariante de varianza, regresión no lineal, modelos probit, Cox, Kaplan-Meier y análisis de tablas de supervivencia. — Tablas para tratamiento y presentación de datos en forma tabular. — Series Temporales (Trend): análisis de series temporales (métodos de medias móviles, suavizado, Box-Jenkin, etc.). — Categorías: análisis simple y múltiple de correspondencias y análisis de escala o escalamiento. Además de estos módulos, el paquete estadístico SPSS contiene una serie de programas que trabajan de forma independiente al mismo: • Análisis de segmentación- Answer Tree: segmenta la información en grupos significativos. • Análisis relacional-AMOS: Análisis factorial confirmatorio; análisis de ecuaciones estructurales lineales. • QI-Análisis: control de calidad (incluye estadísticos y gráficos de control interactivos para determinar las capacidades del proceso y detectar patrones de variación o tendencia de los datos). • Neural Connection: herramienta para mejorar los modelos de segmentación, factorial, conglomerados, regresión, series temporales, etc., con técnicas de redes neuronales. (NOTA: En Gil Pascual, 2003, entre otros manuales, puede consultarse: ventanas, menús, barra de herramientas y barra de estado, entrada y ejecución del SPSS y pasos básicos para realizar un análisis de datos con SPSS). STHENHOUSE, modelo de.
(Véase: Modelo de Sthenhouse).
STRONG, prueba de. Prueba para la medición de intereses, en la que el sujeto responde a preguntas sobre actividades que se suponen relacionadas con distintas vocaciones: artista, médico, músico, etc. Las respuestas se comparan con personas que han seguido diversas vocaciones. La fiabilidad de esta prueba es elevada y su validez, respetable.
Es cualquier subconjunto de un espacio muestral, E (véase). Se distinguen cuatro tipos de sucesos, según el número de elementos del espacio muestral (finito), E, de los que constan dichos sucesos: 1. Suceso simple o elemental: el que consta de un solo elemento de E. 2. Suceso compuesto: el que consta de dos o más. 3. Suceso seguro o cierto: el que consta de todos los elementos de E, es decir el mismo E. Por consiguiente, tendrá lugar E, ya que, al reaSUCESO.
SUCESO
340
lizar el experimento, se verificará segura o ciertamente uno de los resultados posibles o elementos de E. 4. Suceso imposible: El que no consta de elemento alguno de E. Es imposible, porque al realizar el experimento no hay posibilidad de que se verifique un suceso cuyos elementos no pertenecen a E. A dicho suceso lo representaremos por Φ. (Amón, 19846, 2, 23).
T
T, puntuación.
(Véase: Escala T).
Prueba estadística con aplicaciones varias: 1. Estadístico de significación para contrastar hipótesis respecto de ρ (coeficiente de correlación de Pearson) cuando el valor supuesto de ρxy (parámetro) en la hipótesis de nulidad (H0) es cero. La t de Student describe exactamente la distribución muestral de rxy cuando ρxy = 0. 2. Estadístico de significación para contraste de hipótesis del coeficiente de correlación biserial puntual (rbp). 3. Prueba estadística de significación para muestras pequeñas (n < 30), cuya tabla de valores teórico-críticos para rechazar una hipótesis nula (H0) es más exigente (valores más elevados) que la tabla de z de distribución normal utilizada con muestras grandes (n > 30). Según aumenta el tamaño de la muestra, los valores teóricos de t se aproximan a los valores z de la tabla de probabilidad normal. Aplicaciones: 3.1. Contraste de hipótesis respecto de la media de la población cuando es desconocida la varianza de la población. 3.2. En diseños de dos grupos o muestras independientes, cuando se desconocen las varianzas poblacionales, pero se suponen iguales entre sí y al parámetro. 3.3. En diseños de dos grupos o muestras relacionadas (emparejamiento), donde se dispone de una prueba general que tiene en cuenta el efecto de la correlación, y de otra ecuación para el caso de muestras pequeñas, con la que se llega al mismo resultado sin calcular rAB o correlación entre ambos grupos o muestras. t, de STUDENT.
T, de TUKEY, prueba. Método «post hoc» de comparaciones planeadas entre pares de medias para contrastar la significatividad de las diferencias, una vez que el ANAVA (prueba F) haya detectado significatividad, sin poder precisar entre qué grupos. El método T es aplicable sólo cuando el número de casos (datos u observaciones) es igual en todos los grupos. De-
342
T, de WILCOXON
tecta mejor las diferencias significativas y señala unos intervalos de confianza menores que los del método S (véase: S, de Scheffé, prueba), aunque este último es aplicable en todos los casos: n igual o desigual en los grupos. T, DE WILCOXON (prueba).
(Véase: Wilcoxon, prueba T de).
Sistema de presentación de datos estadísticos en columnas verticales e hileras horizontales, de acuerdo con alguna clasificación de sujetos o materias. El objeto de las tablas es facilitar la comprensión o interpretación rápida de masas de datos, así como captar relaciones y detalles de los mismos.
TABLA.
En el análisis de correspondencias (véase), es una generalización de las tablas de contingencia a un número cualquiera de variables.
TABLA DE BURT.
Tabla de doble entrada (filas y columnas) en la que en las filas se suelen indicar los valores o categorías de una variable y en las columnas los valores o categorías de otra variable, expresando cada celdilla de la tabla la frecuencia o número de casos en los que se observan simultáneamente un valor de una variable y otro de la otra. TABLA DE CONTINGENCIA.
En la prueba de «ji cuadrado» (χ2), aplicación de la misma a datos con f (filas) y c = k columnas iguales a dos:
TABLA DE CONTINGENCIA 2 × 2.
Tabla de contingencia 2 × 2 Grupo I
A
B
Grupo II
C
D
A+C
B+D
Total A+B C+D N
TABLA DE ESPECIFICACIÓN DEL TEST. Tabla de doble entrada (filas y columnas) que se utiliza para especificar el contenido del test. Las columnas indican distintas áreas de contenido que son relevantes para el constructo en cuestión. Las filas indican operaciones o procesos cognitivos implicados en la resolución de las tareas planteadas por los ítems o preguntas del test o prueba. TABLA DE NÚMEROS ALEATORIOS. Tabla formada por columnas de números de dos cifras. Si se desea buscar números superiores a dos, tres…cifras, se añaden números de las columnas siguientes. TABULACIÓN.
Organización de datos en tablas.
343
TÉCNICA CHAID
Acción o conjunto de acciones que en la investigación experimental ejecutan los sujetos, bajo el estímulo de la variable independiente, para provocar unos efectos o resultados medibles en la variable dependiente.
TAREA EXPERIMENTAL.
TASA DE RESPUESTA. Razón entre el número de sujetos que responden realmente a una encuesta y el número de sujetos que habían sido seleccionados en la muestra. Es decir, el número de elementos de los que se ha obtenido finalmente información en la encuesta dividido por el número de elementos muestrales de los que debería haberse obtenido información.
Medidas que no satisfacen la condición de paralelismo relativa a la igualdad de la varianza de error. Se habla de medidas «estrictamente tau-equivalentes», cuando se satisface la condición de igualdad de las puntuaciones verdaderas. Y se habla de medidas «esencialmente tau-equivalentes», si las puntuaciones verdaderas difieren en una constante aditiva.
TAU-EQUIVALENTES, medidas.
Taxonomía significa clasificación y acción de clasificar. Como ciencia, trata de los principios, métodos y fines de la clasificación (D.R.A.E.). Las técnicas numéricas de clasificación tienen como dificultad principal en origen la propia asignación numérica en la evaluación de las características o variables. Las taxonomías numéricas engloban muchas técnicas clasificatorias, según criterios como la «homogeneidad» o el «punto de partida». El primero conduce a conglomerados jerárquicos (el criterio ordenador es el de crecimiento de la homogeneidad) o a conglomerados no jerárquicos. El segundo criterio de «punto de partida» tiene en cuenta el elemento simple o el conjunto para obtener conglomerados aglomerativos o divisivos. La clasificación se obtiene por semejanza u homogeneidad entre los objetos, que se conocen por sus medidas en diversas variables. El nombre de los grupos se aplica a los distintos tipos de datos (nominales, ordinales, tipificados…). El estudio de las taxonomías numéricas puede efectuarse mediante el «análisis cluster» o análisis de conglomerados (véase). (Tejedor, 1985, 228).
TAXONOMÍAS NUMÉRICAS.
TÉCNICA DE BLOQUEO.
(Véase: Bloqueo).
TÉCNICA CHAID. CHAID es la sigla de «Chi-squared Automatic Interaction Detector» (detector automático de interacciones mediante «chi», o mejor, «ji» cuadrado). Es la técnica o procedimiento creado por Kass para ser utilizado fundamentalmente en la descripción o explotación de datos, aunque también proporciona ideas para interpretar los fenómenos causales. Es una técnica estadística para formar «árboles», centrada en la seg-
344
TÉCNICA DELPHI
mentación (formación de grupos homogéneos respecto a la variable criterio) con el estadístico «ji cuadrado». El procedimiento CHAID funciona con todo tipo de variables, continuas o categóricas, para la formación de los segmentos (véase: Análisis de segmentación). Modalidad de investigación evaluativa de enfoque cualitativo, que busca respuestas consensuadas de un grupo de expertos a una serie de cuestiones específicas. Se utiliza para determinar el alcance y la pertinencia del problema que origina el programa de intervención y se ocupa de las necesidades de los colectivos y de los objetivos que pretenden alcanzar. Los sujetos que participan en el proceso de trabajo, con ideas y aportaciones, no se comunican verbalmente entre sí. Por tanto, desconocen las opiniones expresadas por los demás, a excepción del investigador que coordina el grupo. El anonimato de las opiniones evita la influencia de las respuestas de unos sujetos sobre otros. La composición del grupo suele oscilar entre 10 y 30 sujetos. TÉCNICA DELPHI.
TÉCNICA DE MITADES (TEST). Método basado en la división del test en dos mitades como procedimiento de estimación empírica del coeficiente de fiabilidad. Consiste en dividir el test en dos mitades equivalentes y ver si la actuación del sujeto en las dos partes o mitades es congruente o consistente. TÉCNICA Q.
(Véase: Metodología Q).
TÉCNICAS DE AUTOINFORME. TÉCNICAS DE ENCUESTA.
(Véase: Técnicas no observacionales).
(Véase: Técnicas no observacionales).
TÉCNICAS NO OBSERVACIONALES. En la investigación-acción (véase), procedimientos para la recogida de datos. McKernan (1999) cita en este apartado las técnicas no observacionales, de encuesta y de autoinforme siguientes: escalas de actitudes, cuestionarios, entrevista, técnicas proyectivas, historias de vida. TENDENCIA. Patrón común que subyace a la evolución de los registros de una serie de tiempo. TENDENCIA CENTRAL, medida de.
(Véase: Medida de posición).
Enunciado cuya validez se somete a prueba. Proposición demostrable lógicamente partiendo de axiomas o de otros teoremas ya demostrados, mediante reglas de inferencia aceptadas.
TEOREMA.
TEOREMA del LÍMITE CENTRAL.
(Véase: Límite central, teorema del).
Etimológicamente (del griego «theoria»), significa conocimiento especulativo considerado con independencia de toda aplicación. Serie
TEORÍA.
345
TEORÍA DE LOS TESTS
de leyes que sirven para relacionar determinado orden de fenómenos. También, hipótesis cuyas consecuencias se aplican a toda una ciencia o a parte muy importante de ella. A las anteriores acepciones extraídas del Diccionario de la Real Academia Española, podríamos añadir, en síntesis, que teoría es la explicación de aquellos hechos o fenómenos y sus interacciones dinámicas que concurren en un saber particular. O sea, la explicación sistemática de un ámbito de conocimiento. TEORÍA CRÍTICA SOCIAL. La teoría crítica de la sociedad surge en Alemania, en el período que media entre las dos guerras mundiales (siglo XX). Sigue las líneas de pensamiento de Hegel y Marx, con Horkheimer, Adorno, Marcuse, Löventhal, Polloch, etc., y aportaciones de Freud. Se opone radicalmente al positivismo. Según esta teoría, el positivismo, obsesionado por la captación directa de lo empírico, no advierte que su ver y percibir está mediatizado por la sociedad en la que vive. Partiendo del análisis de la sociedad occidental capitalista, esta teoría crítica busca la denominada razón emancipadora que proporciona las orientaciones precisas para lograr una sociedad justa, racional y humana. Por tanto, la lógica de la ciencia no puede prescindir del contexto social, político y económico donde se asienta dicha ciencia, ya que los factores de tipo existencial y social influyen en la misma estructura del conocimiento. (Véase: Paradigma sociocrítico). TEORIA DE LA DECISIÓN. Expresión que hace referencia a una serie de modelos matemáticos que establecen la relación entre acciones posibles y resultados de las mismas en un proceso de decisión. Deben tomarse en consideración: 1) el conjunto de acciones posibles; 2) las circunstancias en que se realiza la acción; 3) la evaluación de las consecuencias de una acción, según un criterio establecido; 4) las características del modelo matemático que establece la relación entre acciones y estados. Tipos de decisión: a) Decisión tomada bajo certeza; b) Decisión tomada bajo riesgo; c) Decisión bajo conflicto. De las decisiones a) y c) se ocupan la Programación lineal y la Teoría de los juegos, respectivamente. De b) se ocupa la Teoría de la decisión estadística, aplicando el cálculo de probabilidades. (Martínez Arias, 1985, 231-232). TEORÍA DEL RASGO.
(Véase: Rasgo).
Teoría que se ocupa de determinar la relación que existe entre el nivel del sujeto en la variable —inobservable— que se desea medir y su puntuación —observada— en el test. Esta relación viene definida por una función matemática lineal (en la TCT) y por una logística (en la TRI).
TEORÍA DE LOS TESTS.
TERAPIA DE CONDUCTA
346
Aplicación clínica de los principios desarrollados por la «teoría del aprendizaje».
TERAPIA DE CONDUCTA.
Del latín «thesaurus», es la denominación dada a algunos diccionarios, catálogos, antologías, etc. que contienen un vocabulario controlado y dinámico de términos relacionados semántica y genéricamente, que cubre un dominio específico del conocimiento. Se presenta catalogado e indizado sobre la base de una lista de descriptores (palabras-clave) que facilitan la búsqueda de los documentos.
TESAURO.
Etimológicamente (del griego, y después del latín, «thesis») es la conclusión o proposición mantenida con razonamientos. Opinión de alguien sobre algo. También, disertación escrita que presenta a la Universidad el aspirante al título de doctor en una Facultad. En síntesis, podríamos definir este vocablo como acción de instituir o establecer una doctrina, un principio, una proposición.
TESIS.
TEST.
Prueba (véase).
TEST DE APTITUDES. Bajo la expresión tests de aptitudes, en plural, se engloban diferentes enfoques respecto de la medida de las aptitudes humanas: a) Teoría de Spearman: las conductas inteligentes se explican por un factor general —g— en el fondo de todas, y otro específico para cada una. Tests más conocidos: test de matrices progresivas, de Raven; test de dominó o D-48; escalas de Cattel. b) Teoría multifactorial, de Thurstone: hay factores más o menos amplios, entre los que destacan las aptitudes mentales primarias, siendo los factores siguientes los más conocidos: comprensión verbal (V), fluidez verbal (W), numérico (N), espacial (S), memoria asociativa (M), rapidez perceptiva (P) y razonamiento (R). Destacan las baterías de aptitud múltiple, como la P.M.A (Thurstone) y la DAT (Bennett, Seashore y Wesman) integrada por razonamiento: verbal, numérico, abstracto, espacial, mecánico y de rapidez y precisión perceptivas. c) Aportación de Burt y Vernon: estructura jerárquica de la inteligencia. d) Ideas de Guilford sobre la estructura del intelecto en tres dimensiones: «operaciones» (conocimiento, memoria, pensamiento convergente-divergente y evaluación), «productos» (implicaciones, transformaciones, sistemas, relaciones, clases y unidades) y «contenidos» (de figura, simbólico, semántico y de conducta). Sobre la medida de las aptitudes especiales, véase: Aptitudes especiales.
347
TEST PARAMÉTRICO - NO PARAMÉTRICO
Prueba que se aplica a varios sujetos a la vez, o de forma simultánea, por un solo examinador.
TEST COLECTIVO.
TEST ESTADÍSTICO PARAMÉTRICO.
(Véase: Pruebas paramétricas).
Test o prueba que se administra a los sujetos utilizando un ordenador, de modo que las preguntas del test se presentan de una en una a través de la pantalla del ordenador y el sujeto indica la opción que considera oportuna utilizando el teclado o el ratón. TEST INFORMATIZADO.
TEST DE INTELIGENCIA. Los tests de inteligencia son pruebas que abordan la medición de procesos mentales superiores. La esencia de los tests de inteligencia deriva de la consideración de ésta como una habilidad mental general que comprende funciones muy variadas y complejas. (Véase: Test de aptitudes, donde se resumen cuatro teorías al respecto). Ahora bien, las operaciones y procesos mentales superiores, por ser internos a la persona, son inaccesibles, hoy por hoy, a una medición directa. Todos los intentos de medida de la inteligencia se basan en una medición indirecta de la misma a través de sus manifestaciones externas observables. Los tipos de elementos (ítems) utilizados en las pruebas de inteligencia general han sido: a) Elementos verbales (fluidez, vocabulario, información, comprensión de refranes y situaciones vitales, absurdos, sinónimos y antónimos, clasificación de palabras, ordenación de letras, o sílabas, o palabras…); b) Memoria (de dígitos, de frases, de dibujos); c) Semejanzas o analogías; d) Cálculo; e) Series (gráficas, numéricas o verbales); f) Matrices; g) Elementos manipulativos (ordenar láminas para completar una historia, rompecabezas, completar figuras, ensamblaje de objetos, laberintos, etc.). Entre los principales tests, son reseñables: la «Escala de inteligencia» (Binet-Simon, 1905, 1908 y 1911), con las revisiones de Terman (Stanford-Binet, 1916), de Terman-Merill (1937-1960); Wechsler, con sus «Escalas Wechsler» (1939), escala WISC (1949), WPPSI y WAIS (1955). Tests colectivos de inteligencia: Alfa y Beta del Ejército (1917) y el A.G.C.T. Tests ejecutivos o manipulativos, como el de Pintner-Paterson (1917). En España los tests de inteligencia general más usados, además de los ya citados, son: «Matrices progresivas», de Raven; tests de dominó (TIG 1 y 2, D-48 y D-70); pruebas de Bonnardel (B-53 y BLS-10); el Ballard; el T.C.I., de García Hoz y las pruebas de García Yagüe (A.G.I. o la Batería de Aptitudes Generales). Para la primera y segunda infancia: pruebas de Gesell; la «Escala de desarrollo» de Griffiths y, entre los tests grafomotores, el de Goodenough de la «figura humana». TEST PARAMÉTRICO - NO PARAMÉTRICO. (Véanse: Pruebas paramétricas y pruebas no paramétricas, respectivamente).
TEST DE PERCEPCIÓN SOCIOMÉTRICA
348
Técnica basada en la idea de que cualquier comportamiento interpersonal no puede ser comprendido sin conocer el modo en que la relación es percibida por los sujetos implicados en él. Este test es muy similar al sociograma (véase) en la elaboración de la prueba, la aplicación y la representación gráfica. La peculiaridad reside en que es el propio sujeto el que traza, con sus respuestas, la posición que cree tener dentro del grupo.
TEST DE PERCEPCIÓN SOCIOMÉTRICA.
Bajo la expresión tests de personalidad suele incluirse todo un conjunto amplio y variado de pruebas que miden aspectos de la personalidad distintos —aunque no ajenos, según varios autores— a la inteligencia, las demás aptitudes y el rendimiento. Hay rasgos, en efecto, que están implicados en la personalidad: además de la inteligencia y las aptitudes, el rendimiento mismo también tiene que ver con la personalidad, si se toman en cuenta factores o rasgos que influyen en aquél (temperamento, intereses, fuerza de voluntad, etc.). El campo de la personalidad, por su compleja problemática, entraña evidentes dificultades para una medición fiable y válida (mayores que las existentes para las aptitudes o el rendimiento). Los tests de personalidad se ajustan a dos grandes enfoques: el holístico y el psicométrico. El holístico (consideración global, como un todo, de la personalidad) tiene su versión en los métodos proyectivos (véase). El psicométrico ha utilizado, en general, los inventarios (ítems redactados como enunciados, por lo general afirmativos), los cuestionarios (ítems redactados como preguntas) y los tests de carácter ejecutivo. Hay que citar los esfuerzos de Flanagan sobre el inventario de Bernreuter, el perfil temperamental de Guilford-Zimmerman (10 factores), el cuestionario «16 P.F.» (16 factores de personalidad) y el «E.P.I.» (Eysenck Personality Inventory). En la medición de intereses figuran Strong y Kuder; en la medición de valores, Allport, Vernon y Lindzey; en España, García Hoz con su «Test de Reacción valorativa». TEST DE PERSONALIDAD.
TEST PILOTO.
(Véase: Aplicación piloto).
TEST-RETEST, método. Procedimiento de estimación empírica del coeficiente de fiabilidad. Consiste en aplicar el test en dos ocasiones distintas a la misma muestra de sujetos. TEST, tipificación de un. Establecimiento de normas para la interpretación de puntuaciones de un test aplicándolo a una muestra representativa de la población estudiada, y averiguando su validez y fiabilidad.
Colección de pruebas cuyas puntuaciones conjuntas elaboradas sirven para constatar y apreciar las diferencias individuales.
TESTS, batería de.
349
TOLERANCIA
TESTS PARAMÉTRICOS - NO PARAMÉTRICOS. Pruebas paramétricas y Pruebas no paramétricas, respectivamente. (Véanse). TESTS PROYECTIVOS.
(Véase: Métodos proyectivos).
Tradicionalmente los tests de rendimiento se han entendido como pruebas para evaluar la eficacia de actuaciones específicas —académicas o profesionales— para la consecución de determinados objetivos: aprendizaje de lectura, escritura, cálculo y de otros conocimientos varios. Hoy se concede especial importancia al desarrollo de capacidades, hábitos, destrezas y habilidades: capacidad crítica, de reflexión, de resolución de problemas, etc. Y aquí es donde están muy implicadas las aptitudes generales y específicas. Las pruebas de rendimiento se utilizan para admisión, clasificación y orientación de los escolares, para la selección de éstos (becas) y de aspirantes a empleos de cierta especialización, para evaluar los niveles de rendimiento de los estudiantes, de los programas de enseñanza y de los centros (Diccionario de Ciencias de la Educación, 1985, 245). Entre otros problemas que afectan a estos tests, hay que citar el referido a su validez de contenido y validez de constructo; también el referido a las normas (de grado: valores medios logrados por los alumnos; de interpretación, etc.).
TESTS DE RENDIMIENTO.
TETRACÓRICO, coeficiente de correlación.
(Véase: Coeficiente de correlación
tetracórica). THESAURUS.
Tesauro (véase).
Tiempo que transcurre entre la presentación de un estímulo y la emisión de una respuesta a dicho estímulo.
TIEMPO DE REACCIÓN (TR).
TIPIFICACIÓN. Proceso que consiste en establecer normas que posibiliten la interpretación de los resultados del test en cuestión. Término equivalente a estandarización. (Véase: Test, tipificación de un).
Criterio o procedimiento comúnmente utilizado para detectar la interdependencia entre variables independientes (colinealidad y/o multicolinealidad, véanse). La tolerancia de una variable Xi con las restantes variables independientes se define como: TOLERANCIA, criterio de.
Toli = 1 – R2i Donde R2i es el cuadrado del coeficiente de correlación múltiple entre Xi y las variables X1, …Xi–1, Xi+1, ... Xk. — Si Toli = 0, la variable Xi es casi una combinación lineal de las restantes variables.
TRABAJO DE CAMPO
350
— Si Toli = 1, la variable Xi puede reducir la parte de variación de Y no explicada por las restantes variables. En el método de selección de variables por pasos, la variable seleccionada debe tener una tolerancia mínima con las variables incluidas en la ecuación para poder entrar en el siguiente paso. Por otra parte, al entrar la variable, ninguna variable en la ecuación debería superar esa mínima tolerancia con las restantes. (Gil Pascual, 2003). En las investigaciones y estudios, preferentemente sociológicos y psicológicos, parte del proceso de la encuesta en la que se lleva a cabo la localización de los elementos de la muestra, se realizan las preguntas y se registran las respuestas.
TRABAJO DE CAMPO.
Término utilizado a veces para referirse a la variable independiente (V.I.) en la metodología experimental y cuasi-experimental.
TRATAMIENTO.
TRATAMIENTO INFORMATIZADO DE DATOS. Es el tratamiento mecanizado de datos que permite la realización de operaciones matemáticas que, de llevarse a cabo manualmente con las calculadoras normales, resultarían costosas en tiempo y dedicación. Salvo en algunos casos de investigaciones de enfoque cualitativo, actualmente el tratamiento informatizado de los datos se ha impuesto con fuerza, sobre todo en las investigaciones de tipo empírico-cuantitativo. Los diferentes programas de paquetes estadísticos aplicados a la investigación facilitan dicho tratamiento mecanizado, sobre todo en los análisis de gran complejidad, que con los medios manuales serían casi imposibles de abordar. • Programas informáticos de tratamiento de datos. Entre los diferentes paquetes de tratamiento informatizado de datos existentes en el mercado, podemos destacar cuatro (que se exponen en su lugar correspondiente): SPSS (véase), BMDP (véase), SAS (véase), SPAD (véase). Se apunta seguidamente un resumen de ellos. 1. Paquete SPSS (Statistical Package for Social Sciences). En sus varias versiones presenta instrucciones precisas sobre los «input» (entradas) y «output» (salidas), la transformación de la información original, configuración del programa y los procesos de análisis sobre los diferentes cálculos estadísticos. 2. Paquete BMDP (Biomedical Computers Programs): ofrece distintas versiones de uso en la investigación social. 3. Paquete SAS. Los programas SAS se comunican por medio de sentencias de dos tipos: DATA (recogida de aspectos sobre datos y variables) y PROC («procedure» = proceder, procedimiento). 4. Paquete SPAD, con el SPAD.N (numérico) y SPAD.T (análisis textual).
351
TRATAMIENTO INFORMATIZADO DE DATOS
• Otros programas informáticos. Aunque de uso más restringido, se pueden apuntar los siguientes: PROGSTAD, SYSTAG, MINITAB. Otros van dirigidos hacia campos específicos, como: — INDSCAL: escalamiento multidimensional — CLUSTAN: análisis de conglomerados — LISREL: análisis causal — STATGRAPHIS para Windows: estadística gráfica. Etc. NOTA. Naturalmente las versiones de éstos y los anteriores programas van cambiando y evolucionando con vertiginosa rapidez, por lo que la precedente información se puede quedar desfasada en muy pocos años.
• Programas informáticos de tratamiento de datos cualitativos. Entre los programas de base eminentemente cualitativa en los análisis de textos, podrían citarse: — General Inquirir (Stone y colabs. 1966), pionero en la búsqueda y recuento de palabras y frases (análisis de textos). Los de Spence, Cofta, y el Texpack se fundan en los mismos principios y bases de actuación. — Tap (Text Analysis Program); Qualpro; Textbase Alpha, citados por Tesh (1990): todos parten de un esquema conceptual de categorías sobre el que se analizan y organizan los datos. — AQUAD (Huber, 1991) y NUDIST (QSR, 1994): tareas básicas y fundamentales para el análisis de datos cualitativos (reducción de datos, disposición y transformación, verificación de conclusiones). — SPAD.T (Lebart y otros, 1994). (Véase: SPAD). Finalmente, en Valles (1997) puede consultarse una síntesis de las propuestas de clasificación ofrecidas por Tesh (1990), Richards & Richards (1994) y Weitzman & Miles (1995). Sin embargo, debe emplearse la mayor cautela en su uso. A veces se abusa del tratamiento informático de datos por no ser precedido del obligado análisis previo sobre si es o no posible y adecuada la aplicación del tratamiento de datos que se ordena ejecutar al ordenador. Éste cumple órdenes (es una máquina) y no repara en cumplirlas por inadecuadas y hasta disparatadas que sean. Escudarse en su infalibilidad, sin reparar en las órdenes erróneas, que ejecuta ciegamente, no es de recibo ante resultados francamente inadecuados y hasta posiblemente disparatados. Para una correcta utilización del ordenador en el tratamiento informatizado de datos, es preciso tener en cuenta las siguientes indicaciones: — Conocer la naturaleza de los datos. — Confeccionar la «matriz de datos», donde se dispondrán éstos para ser tratados con los paquetes informáticos pertinentes.
TRAZA DE UNA MATRIZ
352
— Conocer las pruebas aplicables en cada caso particular (requisitos, ventajas, limitaciones). — El proceso implicado en su realización. — Las operaciones internas con los datos. — Interpretar correctamente las salidas de ordenador. — Una adecuada presentación en la redacción del informe final de investigación. La denominada «traza de una matriz» es la suma de los elementos de la diagonal principal.
TRAZA DE UNA MATRIZ.
TRIANGULACIÓN. Procedimiento para determinar la validez cualitativa de un conocimiento en la investigación identificada con el mismo calificativo. Exige, al menos, tres argumentos o datos obtenidos desde distintas personas o perspectivas epistemológicas. Supone reunir una gran variedad de datos y métodos referidos al mismo problema de estudio, recogidos desde puntos de vista diferentes; realizar comparaciones múltiples sobre un mismo fenómeno, referidas a un solo grupo, recurriendo a perspectivas diversas y a conocimientos múltiples. En suma, se trata de obtener la mayor riqueza posible de datos (recogidos a través de diversos instrumentos) sobre la situación objeto de estudio, para analizar su concordancia. Cabe hablar de diferentes modalidades de triangulación: triangulación de espacio (véase), triangulación en el tiempo (véase), triangulación de investigadores (véase), triangulación metodológica (véase), triangulación de datos (véase), triangulación disciplinar (véase), triangulación de teorías (véase). TRIANGULACIÓN DE DATOS. En la investigación cualitativa, dícese del recurso a gran variedad de fuentes de datos y a distintas técnicas de recogida de datos procedentes de las diferentes fuentes, para evitar, en lo posible, los sesgos y así aumentar la validez de las conclusiones.
En la investigación cualitativa, acción de recurrir a diversas disciplinas para el informe.
TRIANGULACIÓN DISCIPLINAR.
En la investigación cualitativa, dícese del recurso a técnicas culturales cruzadas.
TRIANGULACIÓN EN EL ESPACIO.
TRIANGULACIÓN DE INVESTIGADORES.
En la investigación cualitativa, parti-
cipación de más de un observador. En la investigación cualitativa, utilización conjunta de varios métodos que enriquezcan la aportación de información y datos. Puede ser el mismo método en diferentes ocasiones o métodos distintos sobre el mismo objeto. Se trata de la triangulación de mé-
TRIANGULACIÓN METODOLÓGICA.
353
TRIANGULACIÓN EN EL TIEMPO
todos, tanto en la recogida como en el análisis de datos, para evitar sesgos y visiones parciales y así aumentar la propia validez de los resultados. En definitiva, convergencia de métodos en la recogida de datos y en los análisis estadísticos. TRIANGULACIÓN DE TEORÍAS. En la investigación cualitativa, dícese del recurso a la utilización conjunta de teorías alternativas o competitivas, para enriquecer la aportación de información.
En la investigación cualitativa, dícese de los factores de cambio temporales.
TRIANGULACIÓN EN EL TIEMPO.
U
U, curva en.
(Véase: Curva en U).
U, de MANN-WHITNEY, prueba. Prueba estadística no paramétrica que puede utilizarse para comprobar si dos muestras o grupos independientes han sido tomados de la misma población. Es una prueba especialmente apta para contrastar diferencias en posición o tendencia central, como alternativa a la prueba de la mediana. Es, también, la más potente de las pruebas no paramétricas con sujetos independientes, salvo en los casos de N muy pequeña en que puede ser preferible Kolmogorov-Smirnov (véase). Como alternativa a la prueba de la mediana, el nivel de medida es ordinal, pero más fino (medición que permite establecer rangos de menor a mayor o viceversa) y la potencia es superior. La prueba U, de Mann-Whitney, es una alternativa excelente a la prueba t (prueba paramétrica más poderosa). Si la U se aplicase a los datos que pueden analizarse adecuadamente por t, su potencia-eficiencia se acercaría a 3/π = 95,5% cuando N aumenta, y se aproximaría al 95% para muestras de tamaño moderado (Siegel, 1982).
Dícese de la entidad de trabajo en el análisis estadístico utilizado en la respuesta a un problema de investigación. La unidad de análisis, en definitiva, es un índice que representa la medida de la variable. En un experimento puro, se denomina unidad de análisis a cada unidad de muestreo o cada elemento de la muestra que es medido en una variable independiente. Se trata de un muestreo de unidades o elementos individuales de una población definida. (Véase: Unidad experimental). En la investigación evaluativa, los índices de una variable —en el estudio de determinados problemas— son una ponderación o promedio de las puntuaciones de una clase de objetos o individuos, o una estimación de una característica grupal. En tales estudios, la «unidad muestral» puede ser un conjunto de individuos (clase, escuela, etc.) y no un indiviUNIDAD DE ANÁLISIS.
UNIDAD DE ANÁLISIS ESTADÍSTICO
356
duo o un objeto. En estos casos, la unidad de análisis es el índice que representa a la variable medida para cada unidad muestral. En meta-análisis (técnica de integración de datos de investigación), la unidad de análisis es cada índice utilizado para representar una determinada característica, variable, diferencia o relación encontrada en una investigación anterior (Dicc. CC. Educación, 1985, 254). En la investigación cualitativa, las unidades de análisis (véase), en plural, asumen otro significado y connotaciones distintas. Las unidades del análisis estadístico son los datos (números reales) que se consideran como resultado de las réplicas independientes de experimentos. O sea, son los números contados al enumerar los grados de libertad «intra» o «para réplicas» (Glass-Stanley, 1974, 503). UNIDAD DE ANÁLISIS ESTADÍSTICO.
UNIDAD ESTADÍSTICA.
Caso particular de un dato estadístico.
Cada una de las menores divisiones de la serie de sujetos experimentales asignados aleatoriamente a las diversas condiciones del experimento y que, mientras dura éste, responden independientemente (Glass-Stanley, 1974, 504). Es decir, unidad de análisis o unidad experimental es cada puntuación directa obtenida por un sujeto en un instrumento de medición que estima la cantidad en que un individuo posee un rasgo o variable. Por tanto, la unidad de análisis o unidad experimental no debe confundirse con cada individuo de la muestra, sino que es cada puntuación directa obtenida por cada individuo de la muestra. Porque puede ocurrir en algunos diseños (por ejemplo, en los diseños de medidas repetidas) que distintas unidades de análisis responden a un mismo individuo, que ha sido medido en varias ocasiones en una variable o bien ha sido medido en distintas variables (Dicc. CC. Educación, 1985, 254).
UNIDAD EXPERIMENTAL.
UNIDAD DE MEDIDA. En la asignación de números a los objetos, cualidades o conceptos, de acuerdo con reglas (medición), se requiere que la cuantificación se valga de unidades de medida. El concepto de unidad de medida —para los científicos del comportamiento— está relacionado con las escalas de medida (véase). La unidad de medida deberá cumplir, pues, el requisito de constancia, es decir, que siempre una unidad represente la misma magnitud de lo válidamente medido con arreglo a la escala de medida utilizada. Esto permitirá la comparación de lo que mide con la unidad. El resultado será el número (Véase: Escalas nominal, ordinal, de intervalo y de razón). UNIDAD MUESTRAL. En los estudios a través de encuesta, unidad muestral es el elemento base de dicha encuesta, que puede ser un individuo, o un grupo determinado.
357
UNIVERSO
En la investigación cualitativa —al realizar el análisis de contenido— núcleos que poseen significado propio y que serán objeto de estudio para su clasificación y recuento. Vienen a ser las unidades de observación sobre las que se estudiará la información recogida. Los autores que han desarrollado el análisis de contenido (véase) diferencian las siguientes unidades de análisis:
UNIDADES DE ANÁLISIS.
1. 2. 3. 4. 5. 6.
Análisis de las palabras o vocablos. Análisis de las frases. Análisis de los párrafos o temas. Análisis del documento Análisis de los personajes. Análisis de la trama.
UNILATERALES, pruebas.
(Véase: Pruebas unilaterales).
UNIMODAL, distribución.
Serie o distribución de datos que tiene una sola
moda (véase). UNIVERSIDAD: evaluación.
(Véase: Evaluación de Enseñanza Superior).
En Estadística, sinónimo de población (véase). Sin embargo, hay autores que matizan el alcance y ámbito de ambos términos, distinguiendo entre universo hipotético, prácticamente infinito, y universo o población, con N finito. (Mora y Araujo, 1973, 12; Sierra Bravo, 19885, 179).
UNIVERSO.
V
VALIDACIÓN DE HIPÓTESIS. En cualquier investigación, proceso científico de contrastación de hipótesis que tiene como resultado la acumulación gradual de evidencia que apoye la interpretación deseada de las puntuaciones o datos de un test. Al contrastar una hipótesis, ésta no queda verificada, si sale indemne, sino únicamente validada, pues el conocimiento adquirido mediante el método científico no tiene el carácter de verdadero o cierto. El proceder científico sólo acepta la «provisionalidad» de ese conocimiento a un determinado nivel de probabilidad (nivel de confianza).
Grado en que un instrumento aprecia o mide lo que dice medir y no otra cosa. Es la importancia predictiva de un test para los propósitos que se persiguen. La validez es mensurable por un coeficiente de correlación entre las puntuaciones del test y las que éste intenta predecir. Por eso, será necesario contrastar lo medido por el instrumento con algo que se considera representativo de lo que debe medir, y esto es lo representado por el criterio de validez. Criterio de validez será justamente aquello que el test pretenda medir. La determinación experimental de la validez de un test se realiza mediante la correlación entre el test y un criterio externo de validez, siempre que el criterio se haya formulado independientemente, y tanto el test como el criterio sean fiables.
VALIDEZ.
Si se ha conseguido que la información que puede recoger un instrumento sea acorde con la necesitada, esto es, que el instrumento incluya una definición de las variables conforme a nuestra propia concepción de las mismas, es necesario que el instrumento a seleccionar sea suficientemente válido. Ahora bien, no se trata de que sea válido en general, porque ningún test lo es, sino que debe serlo para el objetivo que se persigue y los sujetos a quienes se les aplicará. La validez lógica significa que el test mide en realidad el rasgo concreto para el que ha sido elaborado o se halla relacionado específicamente con dicho rasgo.
VALIDEZ APARENTE
360
Entre los tipos de validez, son destacables: validez de contenido, validez de construcción y validez predictiva (véanse). En la investigación cualitativa, la validez referida al análisis de contenido resulta más compleja de comprobación, al no poder establecer criterios comparativos. En este campo concreto, la validez supone que los resultados sean significativos para el problema que se estudia. Así como en el enfoque «cuantitativo» se parte de una hipótesis previa que condiciona el significado del mensaje, en el «cualitativo» existe mayor flexibilidad, ya que los contenidos de los nuevos mensajes pueden modificar la explicación inicial. Otra cosa es la validación de la hipótesis (véase) o validez de la misma, es decir, de si podemos aceptar los resultados, en la dirección que sea, o si no merecen confianza alguna. En la investigación cualitativa, validez en la que las respuestas correctas, en el instrumento de medición o de evaluación, se prefieren a las incorrectas, existiendo una competencia formal.
VALIDEZ APARENTE.
VALIDEZ, coeficiente de. Coeficiente de correlación entre las puntuaciones obtenidas en el test y en el criterio.
Propiedad de la investigación que da garantías de la correcta utilización de los datos muestrales para establecer relaciones entre las variables explicativas en la población.
VALIDEZ DE CONCLUSIÓN ESTADÍSTICA.
Como caso especial de la validez predictiva (véase) de un test o de una prueba, es aquella validez en que se puede predecir la situación del sujeto en una variable externa (criterio, véase) en un momento próximo al de utilización del test o prueba. Se averigua mediante el coeficiente rxy, que correlaciona las puntuaciones en el test o prueba y en el criterio obtenidas de forma prácticamente simultánea.
VALIDEZ CONCURRENTE.
Expresión equivalente a validez de constructo (véase) o validación de constructo. Se refiere al hecho de que las pruebas deben ajustarse a las condiciones y experiencias de los sujetos evaluados y, como consecuencia, las diferentes puntuaciones o resultados serán más reales, al estimar mejor la posición de los sujetos respecto a un criterio. Trata de determinar qué es lo que hay detrás de una prueba: factores, dimensiones o construcciones que explican la varianza de las puntuaciones de los sujetos. La validación de construcción viene a ser una investigación para poner a prueba una hipótesis. Para la validación de construcción se han utilizado fundamentalmente dos procedimientos: a) Análisis factorial (véase) para determinar los factores que explican la varianza de las puntuaciones; b) La matriz multirrasgo-multimétodo (véase), debida a D.T. Campbell. (Dicc. CC. Educación, 1985, 259). VALIDEZ DE CONSTRUCCIÓN.
361
VALIDEZ EXTERNA DE LOS DISEÑOS
Propiedad de la investigación que ofrece garantías de que los constructos (véase) objeto de estudio están adecuadamente operativizados, de forma que las relaciones que se encuentran entre las variables puedan ser extendidas a dichos constructos. La validez de constructo exige que los constructos teóricos estén bien delimitados, «conditio sine que non» para la elaboración de hipótesis conceptuales, que a su vez se hará extensivo a las hipótesis experimentales y las definiciones operacionales de las variables. Esta validez de constructo también puede verse afectada por los procedimientos de obtención de indicadores en las variables y por los sesgos de las medidas.
VALIDEZ DE CONSTRUCTO.
VALIDEZ DE CONTENIDO. Tipo de validez de un test o prueba consistente en la correspondencia entre lo que es el rasgo, característica o dimensión que se mide y lo que incluye la prueba. Es decir, que sus elementos —ítems— sean una muestra suficiente y representativa de la población que constituye la característica, rasgo o dimensión que se trata de medir. En síntesis: grado en que los elementos incluidos en un código de observación (test o prueba) son representativos de todo el fenómeno bajo observación. VALIDEZ CONVERGENTE. VALIDEZ DISCRIMINANTE.
(Véase: Coeficiente de validez convergente). (Véase: Coeficiente de validez discriminante).
VALIDEZ DISCRIMINANTE, coeficiente.
(Véase: Coeficiente de validez discri-
minante). Validez que defiende la posibilidad de extrapolar los resultados de la investigación a contextos naturales, lo que tiene gran importancia en los casos en que el objeto y contenido del estudio es el propio contexto natural. El contexto que sirve de referencia debe aparecer nítidamente definido en el proceso de investigación para que no se vea afectada esta validez, sobre todo en los aspectos concretos que tienen repercusión directa sobre la situación experimental.
VALIDEZ ECOLÓGICA.
Validez referida a la representatividad o generalización de los resultados obtenidos en una investigación a situaciones más amplias o distintas de las habidas en la situación experimental. Esta propiedad de la investigación experimental nos garantiza la posibilidad de que dichos resultados podrán transferirse a la población de la que se ha extraído la muestra. Pero al ser esto verdaderamente problemático en los diseños con conductas humanas en juego, tan complejas, las conclusiones son siempre probabilísticas, por lo que conllevan cierto grado de error. Los principales factores que amenazan la validez externa de los diseños son: VALIDEZ EXTERNA DE LOS DISEÑOS.
VALIDEZ INSTRUMENTAL
362
1) El efecto reactivo o interactivo de las pruebas. 2) La interacción entre la selección y la variable experimental. 3) Efectos reactivos de los dispositivos experimentales. 4) Interferencia de tratamientos múltiples. La validez externa no solamente se relaciona con la población a la cual el investigador espera generalizar sus resultados, sino que también incluye la posible generalización de sus datos hacia otras variables independientes interrelacionadas. En la investigación cualitativa, tipo de validez en la que las observaciones son debidas a procedimientos alternativos. Se aproxima a la validez concurrente y predictiva.
VALIDEZ INSTRUMENTAL.
VALIDEZ INTERNA. Grado en que los resultados de un estudio, están libres de sesgos, es decir, miden lo que se pretende.
Propiedad de la investigación experimental consistente en la concordancia de los resultados obtenidos en la investigación con la realidad investigada. Concretamente, nos indica que la relación entre la o las variables independientes (V.I.) y la o las variables dependientes (V.D.) nos permite aceptar o rechazar la(s) hipótesis en estudio con el máximo grado de probabilidad de acierto; es decir, que los cambios observados en la(s) V.D. se deben a la manipulación de la(s) V.I. y no a otras variables extrañas. Variables extrañas que han sido debidamente controladas por el diseño de investigación. Es la validez mínima imprescindible para dar credibilidad a los resultados obtenidos —y, desde luego, para poder generalizarlos—, derivada del control de múltiples factores o variables extrañas a la manipulación experimental planeada para que los cambios observados (efecto observado o V.D.) se deban sólo a la/s V.I. puestas en juego. Estos factores a controlar se pueden resumir en: VALIDEZ INTERNA DE LOS DISEÑOS.
1) Historia. 2) Maduración. 3) Administración de tests. 4) Instrumentación. 5) Regresión estadística. 6) Selección de sujetos. 7) Mortalidad experimental. 8) Interacción entre selección y maduración. De no existir cierta evidencia de una relación limpia entre variables (sin contaminación de factores extraños), la generalización (validez externa) carecería de fundamento científico.
363
VALIDEZ DE UN TEST
VALIDEZ DE LAS MEDIDAS. Validez de la medidas tomadas en un instrumento determinado es lo que comúnmente se entiende por validez (véase). Tipos:
a) b) c) d)
Validez de contenido (véase). Validez predictiva (véase). Validez concurrente (véase). Validez de construcción (véase).
VALIDEZ DE OBSERVACIÓN. Criterio para la valoración de un sistema de registro de datos que pone de manifiesto el grado en el que tal sistema consigue observar lo que pretendía. VALIDEZ ORIENTADA AL CRITERIO. Variante del concepto de validez (véase) que indica el grado en el que un código de observación es sensible a las variaciones del fenómeno observado. (León-Montero, 1993, 68). VALIDEZ PREDICTIVA. Es la validez de un test que permite predecir con éxito comportamientos futuros (o pasados) con independencia de cómo lo haga. Se trata de que las pruebas, además de medir lo que dicen medir, sirvan para predecir comportamientos futuros de los sujetos evaluados. La validez predictiva se obtiene correlacionando las puntuaciones logradas por los sujetos en el test o prueba en un momento determinado con las alcanzadas antes o después (por lo general, meses o años) en una variable externa denominada criterio (véase), esto es, lo que el test quiere medir. La correlación citada se obtiene mediante el coeficiente de validez, rxy. VALIDEZ RESPONDENTE.
Negociación (véase).
VALIDEZ TEÓRICA. Propiedad de la investigación que ofrece garantías de que el problema investigado y las hipótesis formuladas como solución del mismo son consistentes en relación con los conocimientos que, sobre ese campo de estudio, se tienen hasta la fecha. En la investigación cualitativa, validez que supone una evidencia sustancial, al corresponderse el paradigma teórico con las observaciones. VALIDEZ DE UN TEST. Criterio métrico de calidad que proporciona información sobre la adecuación de la interpretación de las puntuaciones de un test o prueba en términos del constructo psico-pedagógico que dice medir y de su utilización para el fin previsto. (Véase: Validez).
La validez de un test aumenta acrecentando la longitud del mismo. Alargar un test no sólo aumenta su fiabilidad, sino también su validez, haciendo del test una medida mejor de su criterio.
VALIDEZ DE UN TEST, aumento de la.
364
VALOR
En Estadística, empléase como dato o número asignado a un objeto o sujeto en virtud del grado en que presenta o manifiesta la variable, característica o «constructo» (véase) objeto de medida.
VALOR.
Valor denominado teórico de las tablas de distribución teórica o de significación del estadístico en cuestión. Comparado este valor con el valor empírico obtenido en la prueba estadística oportuna, si éste es igual o superior (en la mayoría de los contrastes o pruebas) o inferior (en algunas pruebas, p.ej., U de Mann-Whitney, T de Wilcoxon y tablas de probabilidad), se rechaza la hipótesis nula (H0) de no diferencias significativas, asumiendo un riesgo de error igual a α, prefijado por el investigador.
VALOR CRÍTICO.
VALOR CUSPIDAL.
Moda (véase).
VALOR DOMINANTE.
Moda (véase).
VALOR ESCALAR O DE ESCALA. VALOR NORMAL.
Moda (véase).
VALOR PRONÓSTICO. VALOR TEÓRICO.
(Véase: Medición o medida).
(Véase: Coeficiente de valor pronóstico).
Valor crítico (véase) de las tablas de distribución teórica.
Dispersión de los valores de una serie respecto al valor central. (Véase: Medida de dispersión).
VARIABILIDAD.
VARIABILIDAD COMÚN. Relación concomitante de variables, de modo que al variar una de ellas varía/n la/s otra/s relacionada/s con aquélla. La variabilidad común es total en una correlación perfecta. VARIABILIDAD, medida de.
(Véase: Medida de dispersión).
Independencia entre un fenómeno de una variable y otro de otra, estando ambas variables correlacionadas. La variabilidad no común es igual a la unidad menos el coeficiente de correlación al cuadrado:
VARIABILIDAD NO COMÚN.
Vnc = 1 – r2 Característica que varía o puede variar. Por oposición a «constante», admite dos o más valores observables o modalidades de manifestarse. Es el estímulo, respuesta, o característica que se estudian en una investigación o experimento. Puede ser característica cuantitativa o cualitativa. Esta última se denomina atributo (véase).
VARIABLE.
Variable que puede ser manipulada directa y deliberadamente por el investigador. Son siempre variables activas las variables
VARIABLE ACTIVA.
365
VARIABLE ALEATORIA DISCRETA
independientes (V.I.) en la investigación experimental y cuasi-experimental. Aquella función numérica que permite atribuir un único número real a cada uno de los hechos elementales de E (espacio muestral), es decir, toda función real definida sobre E. Las variables aleatorias se identifican con letras mayúsculas latinas, mientras que llevan letras minúsculas los valores que ellas atribuyen a los sucesos elementales de E. Según Amón (19846, 2, 68-69), «el término variable aleatoria no es, quizá, el más oportuno. En primer lugar, más que variable (en el sentido de variable independiente) es función (o variable dependiente). En segundo lugar, no es aleatoria, es decir, frente a un mismo suceso elemental de E, no le atribuye un valor numérico de modo aleatorio e imprevisible, sino de modo bien fijo y predeterminado. Lo que es aleatorio es el experimento sobre cuyo espacio muestral queda definida la variable aleatoria». Desconocemos, eso sí, cuál será el resultado de dicho experimento en su realización concreta; pero una vez conocido este resultado, la variable aleatoria le atribuye un valor numérico inequívoco y determinado de antemano. «Convendría distinguir —concluye Amón— entre variable aleatoria como ley o regla de atribución de números reales y variable aleatoria como conjunto de números reales atribuidos mediante dicha ley o regla». Comúnmente, las pruebas estadísticas utilizadas en la investigación experimental se basan en la idea de que las variables estudiadas son variables aleatorias, bien sean continuas, bien categóricas. Cualquier cantidad o propiedad que pueda mostrar valores posibles dentro de ciertos límites, donde se conocen las probabilidades de acaecimiento de cada valor, constituye una variable aleatoria. (Rodrigues, 1980). VARIABLE ALEATORIA.
VARIABLE ALEATORIA CONTINUA. «Aquella variable aleatoria que puede tomar un número infinito no numerable de valores». (Amón, 19846, 2, 69) Conforme a la naturaleza de la variable aleatoria, la continua puede asumir teóricamente cualquier valor de una serie de valores que se sitúan en una escala continua de medición. Ejemplos: la media de altura, la media de puntuaciones escolares, la cantidad de rendimiento en una prueba académica, etc.
Aquella variable aleatoria que sólo puede tomar un número finito o infinito numerable de valores.
VARIABLE ALEATORIA DISCRETA.
• Ejemplo: Sea el experimento aleatorio: lanzar una moneda al aire tres veces consecutivas y observar en cuántas de ellas sale cara o anverso (A). El espacio muestral consta de ocho resultados posibles: RRR, RRA, RAR, ARR, RAA, ARA, AAR, AAA
VARIABLE ASIGNADA
366
Donde: A = anverso o cara; B = reverso o cruz. Una regla o función posible es la siguiente: «atribuir a cada suceso elemental un número igual al de caras vueltas hacia arriba». Esta función o variable aleatoria X (que es discreta) atribuye a esos ocho sucesos elementales los siguientes valores numéricos: X(RRR) = 0, X(RRA) = X(RAR) = X(ARR) = 1, X(RAA) = X(ARA) = X(AAR) = 2, X(AAA) = 3 La variable aleatoria de categorías, o variable aleatoria discreta, sólo puede asumir valores determinados dentro de una amplitud finita de valores posibles. Ejemplos: las conocidas variables de categorías, como el sexo, los empleados y los desempleados, los estudiantes de uno u otro curso, las personas normales o las neuróticas, el número de respuestas afirmativas y negativas en un cuestionario, etc. (Amón, 19846, t. 2, 67-70) (Rodrigues, 1980, 38). Variable que no puede ser manipulada por el investigador, al estar en cierta medida determinada (por ejemplo: raza, género, edad, etc.). En la investigación ex-post-facto (véase) las variables independientes son siempre variables asignadas, ya que, a través del estudio y observación de un resultado (variable dependiente), se da por supuesta una variable independiente, presunta causa del resultado observado.
VARIABLE ASIGNADA.
Expresión utilizada para referirse a una variable categórica cuyo criterio para la agrupación de unidades distintas es el de «similitud». Es la característica que sólo puede ser considerada a nivel nominal. Admite dos o más clases o niveles (categorías) no susceptibles de ser ordenados (por ejemplo: el sexo —hombre o mujer—, el estado civil —casado, soltero, viudo, separado, divorciado—). Si sólo admite dos categorías (como en el primer ejemplo), se denomina dicotómica; si más de dos categorías (como en el segundo ejemplo), politómica. Las características o modalidades manifestadas se denominan, por tanto, atributos, y sólo admiten «clasificación» (a diferencia de las cuantitativas, que admiten «medición»). No son manipulables. VARIABLE ATRIBUTIVA.
En el diseño experimental con grupos equiparables (relacionados), es la variable utilizada para conseguir que los grupos sean similares. Es utilizada para formar «bloques» de sujetos con similares características y posteriormente asignarlos al azar, en igual número, a los grupos de tratamiento del experimento.
VARIABLE BLOQUEADA.
Variable que mantiene una relación sustancial, cuanto más elevada mejor, con la variable dependiente. Se utiliza como
VARIABLE DE BLOQUEO.
367
VARIABLE CUALITATIVA
criterio relevante en la técnica de bloqueo (véase), desde cuya perspectiva se constituyen los grupos (bloques) de la forma más homogénea posible. Cada bloque así constituido será más homogéneo respecto de tal variable que si se hubiese constituido al azar. Denominación que aplica Bunge (19796) a la variable que puede someterse a operaciones matemáticas, aunque con ciertas restricciones.
VARIABLE CARDINAL.
VARIABLE CATEGÓRICA.
Variable atributiva (véase) o atributo (véase).
Dícese del proceso deducido que surge entre estímulo y respuesta, explicando así la aparición de una respuesta determinada. La variable componente puede ser deducida sin más especificación, o atribuírsele propiedades concretas llegando a ser objeto de investigación. VARIABLE COMPONENTE.
VARIABLE CONTINUA. Variable cuantitativa que, entre dos valores dados cualesquiera, permite encontrar posiciones intermedias. Puede tomar cualquier valor. Ej.: altura de los individuos (1,69, 1,74, etc.), peso en kilogramos (58, 65, 77,5), cociente de inteligencia (95, 110, 140, etc.). Se puede medir en unidades enteras y en unidades fraccionarias. Como las medidas fraccionarias de las variables continuas se pueden hacer a distintos niveles de precisión, tienen un número infinito de valores posibles, dentro de un «continuum» infinito de valores potenciales de la característica que se mide. Así como con las variables discretas se pueden utilizar los procesos de clasificación y de medición, con las continuas, sólo el de medición. Las variables continuas tienen siempre un aspecto cuantitativo y, además, se pueden «conceptualizar», considerando que representan una progresión continua desde la menor hasta la mayor cantidad posible de la variable. (Fox, 1981). VARIABLE CONTROLADA. Variable conocida, y considerada como extraña a la investigación, que influye sobre la variable dependiente y cuyo efecto es anulado por la acción del investigador. VARIABLE CRITERIO. Variable que, en psicopedagogía y educación, representa un objetivo o resultado educativo deseable; en general, algún aspecto o producto de la conducta de los alumnos (actitudes positivas, rendimiento escolar, etc.). En la predicción técnica, factor o variable que se predice.
Variable que expresa la posesión de una determinada cualidad con una cierta intensidad. Se caracteriza por la carencia de precisión de medida del rasgo en cuestión, aunque se pueden establecer
VARIABLE CUALITATIVA.
368
VARIABLE CUANTITATIVA
rangos o posiciones en las medidas, sin la posibilidad de establecer diferencias numéricas precisas. Ejemplo: En los datos de tipo observacional de naturaleza cualitativa (actitud, interés, atención…de los alumnos en clase observados por su profesor) los rangos o posiciones pueden ser, p. ej.: excelente, muy bien, bien, regular, mal; incluso se podrían asignar guarismos a esos cinco rangos (4, 3, 2, 1, 0), sin que las diferencias numéricas signifiquen la precisión de una unidad aritmética de separación entre cada rango. VARIABLE CUANTITATIVA. Característica que se puede medir y expresar en valores numéricos referidos a una unidad de medida. Según su naturaleza, las variables cuantitativas se subdividen en variables discretas (véase) y variables continuas (véase). VARIABLE CUASI-CUANTITATIVA. Para algunos autores (Amón, 1984), variable que sólo puede ser considerada a nivel máximo ordinal, por lo que Bunge (19796) la denomina ordinal, cuando sus valores pueden ordenarse, pero ella misma no puede ser sometida a operaciones aritméticas.
Variable en que se aprecia el efecto producido por la variable independiente (V.I.) Es decir, los cambios en la variable dependiente (V.D.), una vez medidos, se atribuyen a los de la V.I., cuando ésta es aplicada, suprimida o modificada mediante manipulación directa y activa por parte del investigador. La V.D. es la variable sobre la que se hipotetiza que influirá la independiente.
VARIABLE DEPENDIENTE (V.D.).
Variable que, por su propia naturaleza, sólo puede manifestarse según dos modalidades: p.ej., estado vital (vivo-muerto).
VARIABLE DICOTÓMICA.
Aquella variable que, por su propia naturaleza, podría manifestarse según muchas modalidades (al menos tres), pero que, de hecho, sólo se le permite manifestarse según dos (p. ej.: resultado académico —apto o no apto—; altura —alto o bajo—). Se trata de una variable continua que se divide artificialmente en dos categorías. (Sería «politomizada», si la división fuera en tres o más categorías). VARIABLE DICOTOMIZADA.
VARIABLE DISCONTINUA.
Variable discreta (véase).
Variable cuantitativa discontinua que no admite valores intermedios entre dos valores consecutivos. Es decir, sólo se puede medir en unidades enteras; o sea, los números se presentan de un modo no continuo, lo que no permite pensar en valores intermedios y, por tanto, sólo se pueden tomar determinados valores. Ejemplos: número de años de un sujeto, número de enfermos de un hospital, número de alumnos de una clase, etc. VARIABLE DISCRETA.
369
VARIABLE EXTRAÑA
Con las variables discretas se pueden utilizar los procesos de clasificación y de medición, pero con las continuas sólo el de medición. El motivo es que las primeras revisten a veces un aspecto cuantitativo —como el número de alumnos que hay en una clase— y otras veces, no (como el sexo o el estado civil). Así como a las variables discretas cuantitativas se les puede aplicar el proceso de medición, a las atributivas se les aplica el de clasificación (Fox, 1981, 174). Determinadas variables discretas tienen, también, miles o incluso millones de valores posibles, como el número de habitantes de un país. Sin embargo, la mayoría de ellas tienen un número finito de respuestas posibles, como el sexo (con dos respuestas: varón y mujer), el estado civil (con cinco respuestas: soltero, casado, viudo, separado y divorciado). VARIABLE «DUMMY».
(Véase: Variable ficticia).
Variable no controlada que influye sobre la variable dependiente (V.D.) simultáneamente con los cambios producidos en ésta por la variable independiente (V.I.) en sus diversos niveles. Rivaliza, por tanto, con la independiente como posible causa. Por ello, debe ser controlada, una vez identificada.
VARIABLE ENMASCARADA.
VARIABLE ESTÍMULO. La expresión «variables estímulo» suele ser referida a cualesquiera condiciones externas al sujeto (naturales o sociales) que pueden ser objeto de intervención por parte del investigador y que afectan directamente al comportamiento del individuo dentro de un determinado contexto de actuación. Ejemplo: temperatura, ruido, espacio cómodo o incómodo, etc. (condiciones naturales); premiar tareas realizadas en clase o en el centro, valorar positivamente la participación activa de los estudiantes en tareas académicas, etc. (condiciones sociales).
Variable o característica ajena al experimento y que no tiene interés directo para el investigador, puesto que es incontrolada, no manipulada por él. Puede tener una influencia significativa sobre la variable dependiente (V.D.), ya que puede desvirtuarla y hacerla engañosa. Fox (1981) incluye bajo el epígrafe de variables extrañas a todas las variables que no sean independientes o dependientes. Se definen, pues, por exclusión: las que no son ni variables independientes (V.I.) ni variables dependientes (V.D.). Estas variables extrañas deben ser, cuando se pueda, eliminadas; cuando no se puedan eliminar, controladas, y cuando no se puedan ni eliminar, ni controlar, reducidas o minimizadas en su influencia por medio de diversos métodos, siendo los más utilizados los siguientes: a) Eliminar la variable por medio de un control, manteniendo constantes sus valores. VARIABLE EXTRAÑA (V.E.).
370
VARIABLE EXTRAÑA
b) Pareamiento de casos o series de individuos con características idénticas, es decir, casos equilibrados: grupos equivalentes, mediante técnicas de «emparejamiento» (caso de dos grupos) y de «bloqueo» (más de dos grupos). c) Introducción de la variable extraña dentro del diseño en forma de variable independiente para lograr que varíe de forma sistemática. d) Procedimiento al azar: selección aleatoria de los sujetos y asignación también aleatoria de éstos a los tratamientos. Es el método más efectivo. e) Control estadístico: formas de control que aíslan y cuantifican las varianzas. El «análisis de covarianza» es uno de los procedimientos más utilizados. Procedimiento de control consistente en suprimir la variable extraña de la situación experimental. VARIABLE EXTRAÑA, eliminación.
Variable que surge de la necesidad de incluir en la «ecuación de regresión» variables nominales categóricas. Si la variable independiente es nominal dicotómica, bastará crear una variable con el valor 0 para una categoría y 1 para la otra, e incluir esta variable en la ecuación como una más. Por otro lado, si la variable independiente es nominal con más de dos categorías, será necesario crear más de una variable. Por ejemplo, si la variable tiene cuatro categorías (v. gr., estado civil: casado (A), soltero (B), viudo (C), divorciado/separado (D), sería necesario crear tres variables de la siguiente forma: VARIABLE FICTICIA («dummy»).
Xi A B C D
I1 1 0 0 0
I2 0 1 0 0
I3 0 0 1 0
Las variables I1, I2 e I3 se incluirán en la ecuación de regresión junto con las restantes variables independientes. (Gil Pascual, 2003). VARIABLE HIPERGEOMÉTRICA.
(Véase: Modelo hipergeométrico).
VARIABLE INDEPENDIENTE (V.I.). Cualquier fenómeno, factor o suceso del que sospechamos pueda ser la causa de otro. En la investigación experimental y cuasi-experimental es una variable activa (véase), puesto que está manipulada por el investigador para producir un resultado o efecto sobre la V.D. (variable dependiente). En la investigación «ex-post-facto» es una variable asignada (véase).
371
VARIABLE NOMINAL
La V.I. está bajo control experimental y con ella se correlacionan los cambios en el experimento. Suele ser un estímulo, y las respuestas correspondientes son las variables dependientes. A la V.I. también se la denomina a veces tratamiento. VARIABLE INTERMEDIA. La expresión «variable intermedia», acuñada por Tolman (citado por Kerlinger, 1975, 27) designa los procesos psicológicos internos (constructos) y no observables directamente, que a su vez explican la conducta. En efecto, se puede decir que los «constructos», como tales, no son observables y que las variables, cuando son definidas de manera operacional, son observables. La variable intermedia es una variable imaginada: no puede ser vista, oída ni tocada. Se infiere de la conducta o manifestación externa que sí puede ser observada (por ejemplo: el «aprendizaje» se infiere, entre otras cosas, de los incrementos en las puntuaciones conseguidas en algún test o prueba). VARIABLE INTERMEDIARIA.
Variable organísmica (véase).
Aquella variable o característica ajena al experimento que no puede ser controlada o medida de manera directa y puede tener un efecto importante sobre el resultado, desvirtuándolo. Estas variables modificadoras intervienen entre la causa (variable independiente) y el efecto (variable dependiente) y han de ser neutralizadas por medio de un diseño experimental adecuado. (Véase: Variable extraña).
VARIABLE INTERVINIENTE.
VARIABLE MANIPULABLE. Variable que representa factores que pueden ser modificados o controlados directamente por el investigador (esquemas de motivación, métodos y materiales didácticos, programas, formas de agrupamiento de alumnos, etc.). Se caracteriza porque los sujetos de investigación pueden ser asignados al azar a los diferentes valores o niveles de la variable en cuestión. VARIABLE MARCADORA. Variable o característica de la población que, por ser conocida de antemano con suficiente precisión, se puede utilizar para comprobar que la muestra es equivalente a la población, al menos en cuanto a dicha característica o variable. VARIABLE MEDIACIONAL.
Variable extraña (véase).
Variable en que los sujetos de la investigación no pueden ser asignados al azar a sus diferentes valores o niveles, ya que los factores que representan no pueden ser modificados o controlados directamente por el investigador (por ejemplo: sexo, inteligencia, edad, etc.).
VARIABLE NO MANIPULABLE.
Variable también denominada categórica o atributiva (véase), porque establece distintas categorías o clases para cada una de las
VARIABLE NOMINAL.
VARIABLE ORDINAL
372
modalidades o características manifestadas por los objetos o sujetos (atributos) que no se pueden medir de una forma cuantitativa continua. Su «medición» es nominal: los objetos o sujetos se clasifican y las clases se numeran sólo para distinguirlas (los números no gozan de ninguna de las propiedades aritméticas). Si la variable sólo admite dos categorías, se denomina dicotómica (por ejemplo, estado vital: vivo o muerto). Si admite más de dos categorías, es politómica (por ejemplo, color de los ojos: negros, azules, verdes, grises, marrones). Es evidente que las variables nominales o atributivas no son manipulables. Denominación que Bunge (19796) otorga a la variable que es medida a nivel ordinal, es decir, sus valores pueden ordenarse, pero ella misma no puede ser sometida a operaciones aritméticas. Es la variable cuasi-cuantitativa (véase). (Amón, 1984). VARIABLE ORDINAL.
Variable que no puede ser alterada por el experimentador, puesto que ha sido en cierto modo determinada, p. ej., la edad, el sexo, la raza, la estatura, etc. Las variables organísmicas, al ser parte del organismo de los individuos, representan aquellas características que ya poseen los sujetos en diverso grado cuando llegan a la situación de investigación. Estas variables organísmicas o intermediarias forman un conjunto de variables que, sin ser objeto de investigación, pueden mediar o intervenir entre otras variables al interponerse entre estímulo y respuesta, influyendo en los resultados previsibles, por lo que deben ser objeto de atención por parte del investigador. VARIABLE ORGANÍSMICA.
VARIABLE POLITÓMICA. Es la variable categórica o atributo que presenta más de dos manifestaciones. P. ej., el estado civil (soltero, casado, viudo, separado, divorciado) o el color de los ojos (negros, azules, verdes, grises y marrones) son ejemplos de politomía.
Dícese de la variable independiente (V.I.) que, no produciendo un efecto significativo en combinación con otra V.I., es causa de una interacción significativa. VARIABLE RELEVANTE.
Variable que se manifiesta en la conducta del sujeto como efecto de una variable estímulo. Ejemplos: risa ante un chiste; llanto ante una catástrofe, etc.; mejora del rendimiento ante el estímulo X.
VARIABLE RESPUESTA.
VARIABLES MULTICOLINEALES. En el modelo de regresión lineal, variables independientes que resultan ser aproximadamente combinación lineal de otras, es decir, están altamente interrelacionadas. (Véase: Multicolinealidad).
373
VARIANZA
VARIACIÓN, coeficiente de (CV). Es el cociente entre la desviación típica (sx) de – una distribución o serie de valores y la media (X ) de dicha serie. Compara dos índices, uno de posición y otro de variabilidad. Coeficiente de variación de Pearson:
CV =
sx X
En general, de dos distribuciones que tengan la misma sx, será más concentrada aquella cuya media sea mayor. (Véase: Coeficiente de variación, para ampliar detalles). VARIACIONES. Dados n elementos, se denominan variaciones de orden r todos los conjuntos distintos que se pueden formar con esos n elementos, tomados de r en r. Se entiende que dos conjuntos son distintos si difieren al menos en uno de sus elementos o si, teniendo idénticos elementos, difieren en el orden de los mismos.
Vn, r =
n! ( n − r)!
Término equivalente a variabilidad o dispersión de los valores, datos o puntuaciones de una serie perteneciente a una variable cuantitativa continua. Es la media de las desviaciones cuadráticas de una variable aleatoria, referidas al valor medio de ésta. (D.R.A.E.). Equivalente al término varianza (véase). Su símbolo es σ2, referido a la población o universo, y s2x referido a una muestra.
VARIANCIA.
VARIANTES. Dícese de las variables cuya relación con la variable criterio (véase) es objeto de estudio.
Término equivalente a variabilidad o dispersión. Es la medida de dispersión de las puntuaciones o valores de un grupo en una variable respecto a la media de dicho grupo. Es equivalente al cuadrado de la desviación típica. Técnicamente es la media de las desviaciones cuadráticas de una variable aleatoria, referidas al valor medio de ésta, es decir, la media de las diferencias al cuadrado de n puntuaciones respecto a su media aritmética. Como, por definición, la varianza es una medida de dispersión o variabilidad, cuando no existe dispersión, la varianza es igual a 0. Al ser la varianza (σ2 o s2, según se trate de la población o de la muestra) el cuadrado de la desviación típica (σ o s), tiene sobre ésta la ventaja de que las sumas de cuadrados sobre las que se basa son siempre positivas. (Véase: Análisis de varianza). El análisis de varianza es una técnica para analizar mediciones o datos que dependen de varios tipos de efectos, que operan
VARIANZA (s2).
VARIANZA ALEATORIA
374
simultáneamente, para decidir qué clases de efectos son importantes y calcular la magnitud de los mismos. Es el procedimiento por excelencia en la investigación científico-experimental, ya que se requiere operar con cada una de las puntuaciones. La varianza nos dice en realidad cuánto se han dispersado las puntuaciones del grupo; y así, por ejemplo, cuando un grupo de estudiantes es muy homogéneo en velocidad lectora, su varianza será pequeña, y cuando sea heterogéneo, ésta será grande. VARIANZA ALEATORIA. Varianza del azar o variabilidad debida a fluctuaciones azarosas. Es debida, en primer lugar, a factores asociados a las diferencias individuales no tenidas en cuenta y , por tanto, no identificadas ni controladas como «varianza sistemática» (en general, muchos de estos factores se contrarrestan y sus efectos se compensan mutuamente). En segundo lugar, la variabilidad azarosa puede deberse a errores de medición. Los errores aleatorios pueden reducirse extremando el control de todas las condiciones de observación y experimentación y mediante la selección de instrumentos fiables de medida. VARIANZA DE ERROR. Variación aleatoria de la variable dependiente provocada por el efecto de variables extrañas. Es, por consiguiente, la variación o variabilidad que tiene como fuente el azar y cualquier otra variabilidad cuyo origen no sea identificado, medido y extraído para convertirlo en varianza sistemática. En suma, la varianza de error es aquella que persiste en un conjunto de mediciones después de que se eliminan todas las causas conocidas de varianza sistemática secundaria. Esta fluctuación o variación de medidas debida al azar, a la casualidad, es aleatoria y desconocida: la que quedaría después de eliminar las varianzas sistemáticas posibles. Se produce dentro de los grupos y es debida a las diferencias individuales, fundamentalmente, y a errores de medida, por lo que, en este sentido, es realmente sistemática. Las fuentes del error aleatorio se compensan mutuamente, ya que puede haber un sesgo en un sentido, y fluctuar al contrario. La varianza dentro de los grupos, al referirse a cada grupo por separado, no contiene efecto alguno de la variable independiente (V.I.), debiéndose únicamente a factores aleatorios, ya que todos los sujetos han sido sometidos al mismo tratamiento. Al no alterarse esta varianza «dentro de los grupos» como consecuencia de la V.I., prácticamente será igual antes que después del tratamiento; cosa que no ocurre con la «varianza entre grupos o experimental» si la V.I. fue eficaz. En síntesis, la varianza de error está al margen del efecto diferencial de la varianza experimental debida al tratamiento o condiciones de la V.I.
375
VARIANZA EXPERIMENTAL
Una parte sustancial de la varianza de error se conoce como diferencias individuales, como ya se ha apuntado. En cuanto a la variabilidad de las medidas, es causada por las fluctuaciones fortuitas de éstas; fluctuaciones o errores fortuitos que tienden a equilibrarse entre sí, de forma que su media sea cero, ya que se compensan mutuamente: a veces son positivas, a veces negativas, a veces ascienden y otras descienden. Como determinantes principales de la varianza de error se apuntan: a) la varianza sistemática, debida a las diferencias individuales que no pueden ser identificadas o controladas; b) los errores de medida, originados por variación de respuestas de un ensayo o prueba a otra, distracción momentánea, fatiga temporal, conjeturas, lapsus de memoria, estados emocionales transitorios, etc. Esta variabilidad de las mediciones responde a las fluctuaciones aleatorias o errores fortuitos ya aludidos y que se compensan mutuamente. La minimización de la varianza de error tiene dos aspectos principales: 1) control de las condiciones de medición, para reducir los errores de medida; 2) incremento en la confianza de las medidas. Acrecentar la confianza de las medidas es lo mismo que disminuir la varianza de error. (Kerlinger, 1975, y otros autores varios). Podemos expresar matemáticamente la varianza de error: Vt = Vg + Ve
Vt = varianza total Vg = varianza entre grupos Ve = varianza de error
VARIANZA EXPERIMENTAL. También llamada varianza sistemática primaria, es la varianza de la variable dependiente influida o causada por la variable o variables independientes de la hipótesis sustantiva. Es la variación de la variable dependiente originada por la actuación o manipulación activa de la/s variable/s independiente/s. Aunque por varianza experimental puede entenderse comúnmente la debida a una variable manipulada o activa (por ejemplo, métodos de aprendizaje A1 y A2), también se consideran variables experimentales las variables atributivas (sexo, inteligencia, nivel socio-económico, etc.). Tarea importante del investigador es maximizar esta varianza, es decir, separar nítidamente los niveles o condiciones elegidos por él (en el ejemplo anterior, los métodos de aprendizaje A1 y A2) y hacer que difieran al máximo, con distinción clara y nítida entre esos niveles o condiciones. La varianza experimental o entre grupos pretende responder a aquella que, siendo sistemática, es debida al efecto diferencial de la variable independiente, (tratamiento o condiciones). Y ello, por la manipulación activa de la misma que efectúa el experimentador. Su determinación se lleva a cabo comparando los grupos: la variabilidad de grupo a grupo
376
VARIANZA EXTRAÑA
—varianza entre grupos— se entiende que incluye la variación debida a la V.I. (variable independiente) y la originada por las diferencias individuales de los sujetos que los integran. Al haberse formado ambos grupos al azar, la varianza entre grupos debe ser aproximadamente igual que la varianza dentro de los grupos antes de la aplicación del tratamiento; mientras que si la V.I. ha sido eficaz, debe producir un efecto diferencial sobre tales grupos, de forma que uno de ellos aumente o disminuya sus puntuaciones con respecto al otro, por lo que ahora la varianza entre grupos o experimental habrá aumentado con respecto a la varianza dentro de los grupos. En el primer caso el valor de F (cociente entre ambas varianzas) será 1 o próximo a 1; en el segundo se elevará tanto más cuanto más acentuado sea el efecto de la V.I. En resumen: donde: s2t = varianza total s2t = s2E = s2D s2E = varianza entre grupos (experimental) s2D = varianza dentro de grupos (error). VARIANZA EXTRAÑA.
Varianza de error (véase).
Varianza derivada de los procedimientos de extracción de las muestras, ya que, independientemente del tamaño de una muestra, la técnica de muestreo favorece o no la entrada de otras fuentes de varianza. En cualquier caso, cuando las muestras son aleatorias y suficientemente amplias, la varianza de las medias no debe ser muy grande. Para estimar la varianza de muestreo de las medias entre grupos, se utiliza la varianza típica de la media o medias. El error típico de la media se calcula mediante la raíz cuadrada de la varianza típica de la media.
VARIANZA DE MUESTREO.
VX =
VS n
– siendo: VX– = varianza típica de la X VS = varianza de la muestra n = tamaño de la muestra Si aumenta el tamaño de la muestra, VX– se reducirá; en caso contrario, aumentará. Es la varianza que se refiere al universo o población de donde proceden las muestras. La varianza de población es prácticamente imposible de conocer con precisión en las denominadas poblaciones infinitas, por lo que en la investigación experimental y cuasi-experimental, al hacer referencia a este tipo de varianza, se alude a la varianza de muestreo o de la muestra que, extraída al azar y siendo suficientemente amplia, represente a la población estudiada. Y así, cuando
VARIANZA DE POBLACIÓN.
377
VARIANZA SISTEMÁTICA PRIMARIA
se habla de homogeneidad de varianzas (homoscedasticidad) se hace referencia a la suposición de que dos poblaciones tienen igual varianza o varianzas, si no iguales, muy semejantes (homogéneas), o que se conozca su razón de varianzas en casos especiales. VARIANZA RESIDUAL. En la aplicación de la prueba F de Snedecor (ANAVA o análisis de varianza) para la resolución de diseños de muestras o grupos relacionados, varianza de error que queda tras extraer de la varianza total las dos varianzas sistemáticas identificadas: varianza experimental entre grupos o columnas y la varianza de bloqueo (emparejamiento si se trata de dos grupos) o entre filas. Naturalmente, la varianza residual (que conceptualmente equivale a la varianza dentro de los grupos en el ANAVA al azar) será tanto menor cuanto más elevada sea la correlación entre los grupos y consecuentemente, la «varianza entre filas».
Variación de la variable dependiente provocada por la variable independiente (varianza sistemática primaria) o por la acción de variables extrañas (varianza sistemática secundaria). Es la que se inclina en un determinado sentido (unas veces por factores conocidos y otras sin identificar), es decir, la que de forma constante toma un sesgo preciso. Está, pues, ligada a fuentes concretas identificadas o identificables y de efectos predecibles. (Se diferencia de la varianza de error —véase— en que ésta comprende las variaciones cuya fuente es el azar). La varianza sistemática primaria es la experimental: la debida a la manipulación de una V.I. (variable independiente) o variable experimental. Es la varianza entre grupos: cuanto más eficaz sea la V.I., más cambios producirá en el grupo que la recibe, con respecto al que no, o a los que reciben niveles menos intensos de la misma. La varianza sistemática secundaria es la debida a fuentes distintas de la V.I. identificadas o identificables como variables extrañas y, por tanto, controlables en lo posible, para que no influyan concomitantemente, junto a la varianza sistemática primaria (V.I.), en los resultados (V.D.: variable dependiente). VARIANZA SISTEMÁTICA.
VARIANZA SISTEMÁTICA EXPERIMENTAL.
Varianza experimental (véase).
VARIANZA SISTEMÁTICA EXTRAÑA. La debida a las diferencias individuales, es decir, a los factores asociados a las diferencias individuales de los sujetos. Es una de las causas determinantes de la varianza de error (véase). De ahí que, como componente de esta última, cuando es imposible identificar y controlar la varianza sistemática, debe incluirse en la varianza de error. (Kerlinger, 1975). VARIANZA SISTEMÁTICA PRIMARIA.
experimental).
(Véase: Varianza sistemática y varianza
VARIANZA SISTEMÁTICA SECUNDARIA
378
Suele denominarse así la varianza no experimental, es decir, la variabilidad debida a las variables extrañas no controladas y que pueden influir en los resultados, contaminándolos. En efecto, al ser ajenas a los objetivos perseguidos por la actuación de la/s variable/s independiente/s e intervenir conjuntamente con ella/s, se pueden convertir en explicaciones rivales de los resultados.
VARIANZA SISTEMÁTICA SECUNDARIA.
VARIMAX, método.
Método de rotación ortogonal. (Véase: Rotación de fac-
tores). Característica del conocimiento científico —junto con la medición y el control— equivalente a la objetividad y que Kerlinger (1981, 9) la define como «el acuerdo entre jueces ‘expertos’ respecto a lo que se observa o a lo que se ha de hacer o se ha hecho en investigación». La objetividad no se refiere a una cualidad personal o a que haya unos científicos más objetivos que otros, aunque muchos pueden serlo, sino al procedimiento y forma de realizar la actividad científica. La condición principal para satisfacer el criterio de objetividad es, desde el punto de vista ideal, que cualesquiera observadores, con una competencia mínima, estén de acuerdo en sus observaciones.
VERIFICABILIDAD INTERSUBJETIVA.
Acción y efecto de verificar, es decir, de comprobar o examinar la verdad de algo que se dijo o pronosticó. En una investigación experimental o cuasi-experimental, la contrastación y validación de la hipótesis no puede interpretarse como «verificación» en sentido absoluto de la misma. La confirmación, en cambio, nos permite clasificar a una hipótesis como probable o improbable. Por tanto, debemos hablar de validación de hipótesis, dado el carácter de provisionalidad de las mismas, ya que nuestras afirmaciones se hacen en términos de probabilidad, no de certeza. Se precisará, en ocasiones, de nuevas validaciones que permitan a su vez establecer generalizaciones de mayor o menor validez.
VERIFICACIÓN.
Característica importante de los instrumentos de investigación (entendidos como los métodos y técnicas de recogida de datos que representan) que, considerada como criterio, comprende tres aspectos de la instrumentación: conocimientos, coste y tiempo (Fox, 1981).
VIABILIDAD.
W
Prueba estadística no paramétrica que se utiliza para probar una H0 (hipótesis de nulidad) que supone que dos muestras independientes pertenecen a la misma población, frente a H1 (hipótesis alternativa) que afirma proceden de dos poblaciones diferentes (diferencia total de ellas). Esta prueba descubre cualquier clase de diferencia —en tendencia central, en oblicuidad o en cualquier otro aspecto—, mientras otras pruebas están orientadas a diferencias específicas entre dos grupos. (La prueba de la mediana, por ejemplo, determina si las dos muestras se han extraído de poblaciones con la misma mediana). Esta prueba supone continuidad de la variable que se estudia. El nivel de medida que requiere esta prueba debe ser, como mínimo, ordinal. WALD-WOLFOWITZ, prueba de rachas.
WHERRY-DOOLITTLE, método. WHITEHEAD, modelo de.
(Véase: Correlación múltiple).
(Véase: Modelo de Whitehead).
WILCOXON, prueba T de. Prueba estadística no paramétrica de significatividad de diferencias para dos muestras o grupos relacionados. Se basa en el supuesto de que, estando igualados los grupos mediante el emparejamiento inicial, las diferencias de las puntuaciones para las diferentes parejas deben repartirse por igual entre los primeros y segundos miembros de cada pareja. Por consiguiente, asignados los rangos a las diferencias entre parejas, la suma de los rangos de los primeros miembros debe ser igual o muy próxima a la suma de los rangos de los segundos miembros de tales parejas. De no suceder así, las diferencias medidas en la variable dependiente (V.D.) tendrían como causa a la variable independiente (V.I.). Con datos conductuales (medida ordinal) se puede: a) saber cuál de los dos miembros del par es «mayor», indicando el signo de la diferencia en cualquier par; b) clasificar las diferencias por orden de tamaño absoluto.
WILCOXON, PRUEBA T DE
380
El estadístico de esta prueba es T, y se define como la menor suma de rangos —positivos o negativos— asignados a las diferencias entre las puntuaciones de las parejas. Esta prueba decide si T es significativo.
Z
Z, prueba.
(Véase: Razón crítica, z).
Estadístico desarrollado por R.A. Fisher para contrastar hipótesis respecto de ρ (coeficiente de correlación de Pearson), sobre todo cuando el valor supuesto de ρxy en la hipótesis de nulidad (H0) es distinto de cero. El contraste de hipótesis respecto de ρ mediante la función Zr de Fisher es matemáticamente más defendible que el uso de la distribución normal: a) porque su distribución en el muestreo es aproximadamente normal; b) su error típico depende de la magnitud de n y es independiente de la magnitud de ρ. Zr de FISHER.
ZONA DE AZAR. Región o zona fuera de la región crítica (véase). Es la zona de aceptación de la hipótesis nula (H0). ZONA DE NO AZAR.
nula (H0).
Región crítica (véase) o zona de rechazo de la hipótesis
LETRAS GRIEGAS
a (alfa o alpha). 1. Nivel de significación o coeficiente de riesgo, que expresa la probabilidad de cometer error tipo I = H0 (hipótesis nula) es verdadera y la rechazamos, aceptando H1 (hipótesis alternativa) falsa. Alternativas
Decisión
H0 verdadera
H1 verdadera
Rechazar H0 (aceptar H1)
Error tipo I (Probab. = α)
Decisión correcta (Probab. = 1 – β)
Rechazar H1 (aceptar H0)
Decisión correcta (Probab. = 1 – α)
Error tipo II (Probab. = β)
2. También significa medida de la consistencia interna de una prueba o de un test, basada en la covariación entre sus ítems. El índice «alfa» de Cronbach es el coeficiente que mide la consistencia interna de un test o de una prueba. Es un índice de fiabilidad relativa (véase) referido a la autoconsistencia o constancia de una prueba como instrumento de medida. Es la fiabilidad en sentido estricto. La consistencia interna es un índice tanto de la «homogeneidad» de los ítems cuanto de su «calidad técnica». Se basa en las correlaciones entre diversas partes del test, bien entre dos mitades, bien entre todos los ítems. Trata de evaluar si dos mitades del test se comportan como subtests paralelos, o si los ítems del test son paralelos unos a otros.
b (beta). Riesgo o probabilidad de cometer error tipo II = H1 (hipótesis alternativa) es verdadera y la rechazamos, aceptando H0 (hipótesis nula o de no diferencia) falsa. El riesgo β es siempre desconocido. Ahora bien, si α pasa, p. ej., de 0,01 a 0,05, disminuye la probabilidad de β.
g (gamma)
384
El riesgo de error β depende de tres factores: α, n y µA – µB. Cuanto más elevado es α, menor es la probabilidad de β. Este riesgo también disminuye si se aumenta el tamaño de la muestra o muestras y a medida que el parámetro difiere de cero. Finalmente, la potencia de una prueba (simbolizada por 1 – β) depende de tres factores fundamentalmente: α, n y γ.
g (gamma). Grado de discrepancia entre H0 (hipótesis de nulidad) y H1 (hipótesis alternativa). Índice de medida general del grado de falsedad de la H0 o de la magnitud del «efecto» en la población. En el contraste de hipótesis, γ puede considerarse como un valor específico que constituye una alternativa para H0. El valor de γ debe expresarse en términos de z, cuando se trata de parámetros (valores de la población), como µ, por ejemplo.
g
(gamma), DE GOODMAN Y KRUSKAL. «Proporción de pares semejantes o no-inversos, dentro de los no empatados, menos proporción de pares desemejantes o inversos, dentro, también, de los no empatados» (Amón, 19846, 1, 269). Se utiliza cuando la muestra consta de muchas observaciones y son muy pocos los valores ordinales alcanzables por ellas, por lo que será muy grande el número de empates.
γ =
ns nd n − nd − = s ns + nd ns + nd ns + nd
d (delta). Grados de libertad. (En algunos manuales: ν —ny o nu— p. ej., en Ostle, 19838, 337). El número de grados de libertad (g.l.), representado por δ, puede considerarse como el número de elementos que pueden escogerse libremente; o como el número de variables que pueden variar libremente; o como el número de variables independientes. Aquí la independencia es funcional, no estadística. (Ya-Lun Chou ,19772, 276-277). Dado el tamaño de la muestra n, el número de g.l. es δ = n – k, donde k es el número de restricciones. Combina con un solo índice el tamaño de la muestra y la magnitud del efecto en la población.
δ = γ f (n) donde: δ es igual a γ veces una función de n. El cálculo del valor de δ, cuando se trata de parámetros, (µo πo ρo, etc.), es:
δ =γ n
(n – 1, en muestras pequeñas)
En la diferencia de dos medias independientes:
δ =γ
n 2
m
385
e (epsilon). En la ecuación matemática del análisis de regresión, término de error que recoge la influencia de otras variables y las deficiencias intrínsecas al proceso de medición: Donde: α y β, parámetros a estimar para determinar Y = α + βX + ε el modelo X = variable no aleatoria ε = variable aleatoria N (0, σ2), es decir, sujeta a los requisitos de normalidad, independencia, con media 0 y varianza σ2.
h (eta). Coeficiente de correlación curvilínea (véase). En la relación curvilínea, al aumentar una variable, la otra puede aumentar hasta cierto valor y luego disminuir. El método más directo para calcular η consiste en definir el cuadrado de η por la razón de la suma de los cuadrados correspondientes a la variable Y «entre» columnas y la total.
η2yx = K (Kappa).(Vé
Σy2b Σy2t
ase)
l
(lambda). Media de aparición de sucesos o fenómenos raros (Modelo – – Poisson): λ = X = N · p (siendo X = media; N = totalidad de casos; p = probabilidad del suceso raro). El modelo binomial se aproxima al de Poisson cuando N · p ≥ 5. Y éste, al normal cuando el número de sucesos es N · p ≥ 10.
L (lambda) DE WILKS. Distribución que se puede considerar una versión multivariante de la distribución F de Snedecor y es muy utilizada en el análisis múltiple de la varianza. Se puede decir que Λ = |A| / |A + B| sigue la distribución lambda de Wilks con parámetros (n, s, t) y se denota : Λ (n, s, t). Tiene como propiedades: a) no depende de la matriz de covarianzas; b) tiene equivalencia con la distribución F; c) la distribución Λ (n, s, t) se utiliza en el análisis multivariante de la varianza para contrastar hipótesis lineales (donde n es el número de variables observables; s es el número de grados de libertad de la matriz de dispersión residual; t representa el número de grados de libertad de la hipótesis).
li. El autovalor λ i asociado a la función discriminante Di, es la proporción explicada por esta función, de la varianza total explicada por las m funciones discriminantes D1, …, Dm. La suma de los autovalores es la proporción de la varianza que queda explicada, que se conserva, al reducir todo el sistema a los ejes discriminantes. m. Media de la población.
n (ny o nu)
386
n (ny o nu). Símbolo empleado en algunos manuales de estadística para designar los grados de libertad estimados (p. ej. en Ostle, 19838, 337). (Véase: d y grados de libertad).
p
(pi). Proporción de población (distribución binomial). Se define una proporción de población como π = n / N, donde n es el número de elementos que poseen un cierto rasgo, y N es el número total de unidades de la población. Se diferencia de una proporción de muestra en que ésta se define como p = x/n, donde x = número de unidades de la muestra que poseen cierto rasgo, y n = tamaño de la muestra. Así, una proporción de muestra puede considerarse como una proporción de éxitos y se obtiene dividiendo el número de éxitos por el tamaño de la muestra, n. (Ya-Lun Chou, 19772, 197).
r (rho). Símbolo de correlación referida a la población. Generalmente designa el coeficiente de correlación por rangos (ρs) de Spearman. Cuando este coeficiente de correlación se refiere a muestras, su símbolo es rs. Sin embargo, ρ puede referirse también al coeficiente de correlación de Pearson en la población; si designa la correlación de datos provenientes de muestras, su símbolo es rxy. Y entonces exige datos con un nivel de medida de intervalo, o bien de razón o proporción. s. Desviación típica referida a la población. s2. Varianza de la población. S (sigma). Símbolo de la letra griega denominada «sigma» (en este caso, mayúscula) equivalente a nuestra «ese» mayúscula. Indica sumatorio. Generalmente suele presentarse en la forma: n
∑ i =1
Se lee: «sumatorio desde i = 1 hasta n». Indica de forma abreviada una suma que consta de n sumandos, siendo n un número natural cualquiera.
t (tau). Coeficiente de correlación entre rangos, t de Kendall (véase). Se puede utilizar en todos los casos en que se aplique el coeficiente rs de Spearman, sobre el que tiene ciertas ventajas, aunque es más laborioso de calcular. Se diferencia de rs en que no se basa en rxy de Pearson, ya que considera el orden de n objetos en una variable y su orden en otra e intenta medir «el grado de correspondencia entre estos dos órdenes», según Kendall. «En la práctica —dice— encontramos frecuentemente que, cuan-
χ2 (Ji cuadrado)
387
do ninguno de los dos coeficientes (rxy y rs) se acercan a la unidad, rs es aproximadamente un 50% mayor que τ en valor absoluto, pero esta regla no es invariable» (cit. por Amón, 19846, 1, 262). Es decir: rs ≅ (3 / 2) τ
φ (phi). Expresión griega que tiene tres acepciones: A) Coeficiente de correlación entre dos variables dicotómicas (datos estadísticos dicotómicos), con nivel de medición nominal (frecuencias). Es la aplicación a variables dicotómicas del coeficiente rxy de Pearson. Su valor no se puede interpretar como rxy. Será el de la correlación perfecta positiva (+1) y perfecta negativa (–1), cuando dichas variables se repartan por igual en las casillas de las diagonales positiva o negativa, es decir, cuando los totales marginales sean iguales. En los demás casos se determinará un valor máximo de φ para interpretar adecuadamente el valor empírico de este coeficiente. f1− m f p El φ máximo será: φ max = fm f1− p
Donde: fm = frecuencia marginal mayor de las cuatro. f1-m = frecuencia marginal complementaria de la misma variable. fp y f1-p = valores de la otra variable. Cálculo de φ: X
Y
φ=
+
– A
+ B
–
C
D
CB − AD ( A + B) (C + D) ( A + C) ( B + D)
B) Medida del grado de «falsedad» de la H0. Se utiliza para averiguar el poder de contraste F, en el análisis de varianza (ANAVA). (Glass-Stanley, 1974, 376). C) Representación del suceso imposible. (Véase: Suceso).
c2 (Ji cuadrado). Prueba estadística no paramétrica, o de distribución libre, que tiene múltiples aplicaciones en estadística inferencial. Se puede utilizar con datos nominales o de otro nivel de medida, siempre que estén expresados en categorías mutuamente
c2r PRUEBA DE FRIEDMAN
388
excluyentes y exhaustivas (datos u observaciones independientes). Asimismo puede emplearse con uno, dos o más grupos independientes. Sus funciones o usos fundamentales son dos: a) Como prueba de bondad de ajuste (compatibilidad con un modelo: distribución igual o proporcional por categorías, el de la curva normal de probabilidades, el de la distribución binomial, el de Poisson, o cualquier otro modelo); b) Para decidir si existe asociación o bien independencia de variables. Es decir, por un lado, como prueba de homogeneidad se usa para decidir si dos o más muestras independientes proceden de la misma población o de poblaciones diferentes. Por otro lado, como prueba de independencia dirime si un atributo es independiente de otro, dentro de una sola muestra tomada de una población (Ya-Lun Chou, 19772, 488-489); o sea, estudia conjuntamente dos variables para apreciar si los resultados medidos en cada una de ellas —frecuencias— se distribuyen aleatoriamente por las celdillas o si están asociadas, discrepando más allá del azar. En su esencia, χ2 es una prueba que valora estadísticamente discrepancias entre frecuencias empíricamente obtenidas —o frecuencias observadas (fo)— y las teóricas o esperadas (fe), de acuerdo con algún principio o con algún modelo teórico.
c2r PRUEBA DE FRIEDMAN. Prueba estadística no paramétrica para G muestras relacionadas, útil para probar la H0 (hipótesis nula) de que G (c) muestras han sido extraídas de la misma población, cuando los datos de esas G muestras igualadas están medidos, por lo menos, en una escala ordinal (variable continua). Sobre la prueba Q, de Cochran (véase) tiene la ventaja de que se puede utilizar incluso con muestras muy pequeñas, al disponer de tablas de probabilidades exactas.
REFERENCIAS BIBLIOGRÁFICAS
AMÓN, J. (19846): Estadística para psicólogos (tomos 1 y 2). Madrid, Ediciones Pirámide S. A. ANGUERA, M. T. (1985): Metodología de la observación en las Ciencias Humanas. Madrid, Cátedra. ARNAU, J (1981): Diseños experimentales en Psicología y Educación. México, Trillas. — (1978 y 19824): Psicología experimental. Un enfoque metodológico. México, Trillas. ARTIGOT, M. (1973): La tutoría. Madrid, I.C.E. Universidad Complutense - Instituto de Pedagogía del C.S.I.C. BALTES, P.B. et al. (1981): Métodos de investigación en psicología evolutiva: Enfoque del ciclo vital. Madrid, Morata. BARDIN, L. (1986): El análisis de contenido. Madrid, Akal. BARTOLOMÉ, M. (1982): «Análisis de valores a partir de documentos educativos». En Modelos de investigación educativa (VV. AA.). Barcelona, Ediciones Universitarias. BOCHENSKI (1981): Métodos actuales del pensamiento. Madrid, Rialp. BUNGE, M. (19765,19796 y 1989): La Investigación científica. Barcelona, Ariel. CAMPBELL, D. y STANLEY, J. (1978): Diseños experimentales y cuasi-experimentales en la investigación social. Buenos Aires, Amorrortu. CARR, W. y KEMMIS, S. (1988): Teoría crítica de la enseñanza. La investigación-acción en la formación del profesorado. Barcelona, Martínez Roca. CARR, W. (1996): Una teoría para la educación. Hacia una investigación educativa crítica. Madrid, Morata. CARROL, J. B. (1953): «An analytical solution for approximating simple structure in factor analysis». Psychometrica, 18, pp. 23-38. CASTRO, L. (1977 y 19803): Diseño experimental sin estadística. México, Trillas. COCHRAN, W. G. (19855): Técnicas de muestreo. México, CECSA. COCHRAN, W. G. y COX, G. (1975): Diseños experimentales. México, Trillas. COMITÉ CONJUNTO DE ESTÁNDARES PARA LA EVALUACION EDUCATIVA, presidido por J. R. SANDERS (1998): Estándares para la evaluación de programas. Bilbao, Ediciones Mensajero. COOK, T. D. y CAMPBEL, D. T. (1976): The Design and Conduct of Quasi-Experiments and True Experiments in Field Settings. Handbook of Industrial and Organizational Psychology. Chicago, Ed. M. D. Dunette, Prand Mc Nally Collage Publishing Company; pp. 223-326.
390
DICCIONARIO-GLOSARIO DE METODOLOGÍA DE LA INVESTIGACIÓN
Diccionario de Ciencias de la Educación. Investigación educativa (1985) (Coord. Orden Hoz, A.). Madrid, Anaya. Diccionario de Pedagogía (1964) (Direc. García Hoz, V.) Barcelona-Madrid (2 tomos), Editorial Labor, S.A. D.R.A.E. (DRAE): Diccionario de la Real Academia Española (200122). Madrid. DOWNIE, N. M.-HEATH, R. W. (19816): Métodos estadísticos aplicados. Madrid, Ed. Del Castillo, S.A. ELLIOT, J. (1990): La investigación-acción en Educación. Madrid, Morata. — (1993): El cambio educativo desde la investigación-acción. Madrid, Morata. ESCOBAR, M. (1992): El análisis de segmentación: Concepto y aplicaciones. Madrid, Fundación Juan March. ESCOTET, M. A. (1980): Diseño multivariado en Psicología y Educación. Barcelona, CEAC. FERNÁNDEZ HUERTA, J. (1964): «Pruebas objetivas». En Diccionario de Pedagogía. Barcelona-Madrid, Ed. Labor, S.A. FERGUSON, G. A. (1986): Análisis estadístico en educación y psicología. Madrid, Anaya. FESTINGER, L. y otro (19793): Los métodos de investigación en las Ciencias Sociales. Buenos Aires, Paidós. FOX, D. J. (1981, 19872): El proceso de investigación en educación. Pamplona, EUNSA. FRENCH, J. R. P. (19793): «Experimentos en contextos de campo». En FESTINGER, L. y otro: Los métodos de investigación en las Ciencias Sociales. Buenos Aires, Paidós; pp. 104-106. FUENTES, A. (1986): «Los modelos causales en la investigación del rendimiento académico». Revista de Investigación Educativa, 7, pp. 39 ss. GARCÍA HOZ, V. (19593): Normas elementales de pedagogía empírica. Madrid, Escuela Española. — (1960 y 19684,1978): Principios de Pedagogía Sistemática. Madrid, Rialp. — y FERRER, S. (1966): Estadística aplicada a la Educación y Ciencias Humanas. Madrid, Rialp. GARCÍA HOZ, V. y PÉREZ JUSTE, R. (1984): La investigación del profesor en el aula. Madrid, Escuela Española. GARCÍA LLAMAS, J. L. (2003): Métodos de investigación en educación. Vol. II: Investigación cualitativa y evaluativa. Madrid, U.N.E.D. GARCÍA LLAMAS, J. L. et al. (2001): Introducción a la investigación en educación. Madrid. U.N.E.D. GARCÍA LLAMAS, J. L., PÉREZ JUSTE, R. y del RÍO SADORNIL, D. (20032): Problemas y diseños de investigación resueltos. Madrid, Dykinson. GARCÍA RAMOS, J. M. (1985): «Análisis de conglomerados-Cluster». Diccionario de Ciencias de la Educación. Investigación educativa. Madrid, Ed. Anaya; pp. 7-12. GARRETT, H. E. (19796): Estadística en psicología y educación. Buenos Aires, Paidós. GIL PASCUAL, J. A. (2003): Métodos de investigación en educación. Vol. III: Análisis multivariante. Madrid, U.N.E.D. — (1993): Relación entre factores sociales y valores ocupacionales en alumnos de Educación Secundaria. Tesis doctoral (inédita). Madrid, U.N.E.D. GLASS-STANLEY, J. C. (1974): Métodos Estadísticos Aplicados a las Ciencias Sociales. Madrid, Prentice-Hall Internacional — Dossat, S.A.
REFERENCIAS BIBLIOGRÁFICAS
391
GOETZ, J. P. y LECOMPTE, M. D. (1988): Etnografía y diseño cualitativo en la investigación educativa. Madrid, Morata. GOLDSTEIN, H. et al. (1998): A user’s guide to Mlwin. London, Institute of Education. GONZALVO, G. (1978): Diccionario de metodología estadística. Madrid, Morata. HAIR et al. (19995): Análisis multivariante. Madrid, Prentice Hall. HOTELLING, H. (1933): «Analysis of a complex of statistical variables into principal components». Journal of Educational Psycholog., 24; pp. 417-441 y 498-520. HUBER, G. L. (1991): AQUAD. Análisis de datos cualitativos con ordenadores. Principios y manual del paquete de programas AQUAD 3.0. Sevilla, Carlos Marcelo. HYMAN, H. (1971): Diseño y análisis de encuestas sociales. Buenos Aires, Amorrortu. JIMÉNEZ, C. et al. (1983): Pedagogía Experimental, II, (t. 1 y 2) Madrid, U.N.E.D. KAISER, H. F. (1958): «The varimax criterion for analytic rotation in factor analysis». Psychometrika, 23; pp.187-200. KEMMIS, S. y MCTAGGART (1988): Cómo planificar la investigación-acción. Barcelona, Laertes. KENNY, D. A. (1979): Correlation and causality. Nueva York, Wiley. KERLINGER, F. N. (1975 y 1985): Investigación del comportamiento. México, Interamericana. — (1979): Behavioral Research: A Conceptual Aproach. New York, Holt, Rineheart and Winston. — (1982): «The future of educational research». Part. II. Educational Researcher, 11; pp. 12-13. KRIPPENDORF, K. (1990): Metodología del análisis de contenido. Barcelona, Paidós Ibérica. LAFOURCADE, P. D. (1972): Evaluación de los aprendizajes. Madrid, Editorial Cincel, S. A. LEÓN, O. G.-MONTERO, I. (1993): Diseño de investigaciones. Madrid, McGraw Hill. MARTÍNEZ ARIAS, M. R. (1985): «Teoría de la decisión». En Diccionario de Ciencias de la Educación. Investigación educativa (Coord. Orden Hoz, A.). Madrid, Anaya. MATEO ANDRÉS, J. y RODRÍGUEZ ESPINAR, S. (1984): «Precisiones y limitaciones explicativas en los métodos correlacionales. Alternativas metodológicas». Revista de Investigación Educativa (R.I.E.), 4, 123 ss. MAYURAMA, G. M. y WALBERG, H. J. (1982): «Causal modeling». En Encyclopedia of Educational Research, 5ª ed., AERA. Nueva York, McMillan. MCGUIGAN, F. J. (1976, 1977 y 1991): Psicología experimental. Enfoque metodológico. México, Trillas. MCKERNAN, J. (1999): Investigación-acción y currículum. Madrid, Morata. MILES, M. B. and HUBERMAN, A. M. (19942): Qualitative Data Analysis: A Sourcebook of New Methods. Beverly Hills, Sage. MONTGOMERY, D. C. (1991): Diseño y análisis de experimentos. México, Grupo Editorial Iberoamericana. MORA y ARAUJO, M. (1973): Estadística y sociología. Buenos Aires, Nueva Visión. NAVAS ARA, M. J. (2001): Métodos, diseños y técnicas de investigación psicológica. Madrid, U.N.E.D. O’NEIL, W. N. (1968): Introducción al método en Psicología. Buenos Aires, Eudeba.
392
DICCIONARIO-GLOSARIO DE METODOLOGÍA DE LA INVESTIGACIÓN
ORDEN HOZ, A. (Coord.) (1985): Diccionario de Ciencias de la Educación. Investigación educativa. Madrid, Anaya. — (1985): «Análisis causal». Diccionario de Ciencias de la Educación. Investigación Educativa. Madrid, Anaya. OSTLE, B. (19838): Estadística aplicada. México, Limusa. PEREA, R. (Directora) (2004): Educación para la salud. (Retos de nuestro tiempo). Madrid. Ediciones Díaz de Santos, S.A. PÉREZ JUSTE, R. (1983a, 1993 y reimpr. ss.): «Unidades didácticas I y IV», en JIMENEZ et al.: Pedagogía experimental II (tomos 1 y 2). Madrid, U.N.E.D. — (1983b): Pedagogía Experimental-Adaptación. Madrid, U.N.E.D. — (1985b): Estadística descriptiva. Madrid, U.N.E.D. — (1985a): Varios artículos en Diccionario de Ciencias de la Educación. Investigación educativa. (Coord. Orden Hoz, A.). Madrid, Anaya — et al. (1981) : Pedagogía Experimental I (t. 1 y 2). Madrid, U:N.E.D. — y MARTÍNEZ ARAGÓN, L. (1989): Evaluación de centros y calidad educativa. Madrid, Cincel. — et al. (1995): Evaluación de programas y centros educativos. Madrid, U.N.E.D. — et al. (2000): Hacia una educación de calidad. Gestión, instrumentos y evaluación. Madrid, Narcea.. PÉREZ SERRANO, G. (1994): Investigación cualitativa. Retos e interrogantes (tomos I y II). Madrid, La Muralla. POPPER, K. R. (19774 y 19857): La lógica de la investigación científica. MadridBarcelona. Tecnos. PRIETO ADÁNEZ, G. (1985): Varios artículos (Análisis de componentes, Análisis discriminante, Análisis multivariado, etc.) en Diccionario de Ciencias de la Educación. Investigación educativa. (Coord. Orden Hoz, A.). Madrid, Anaya. RICHARDS, L. y RICHARDS, T. (1994): «Using computers in qualitative research». En N. K. Denzin & Y. Lincoln: Handbook of Qualitative Research.Thousand Oaks, California: Sage. RÍO SADORNIL, D. Del (2003): Métodos de investigación en educación. Vol. I: Proceso y diseños no complejos .Madrid, U.N.E.D. RODRIGUES, A. (1980): Investigación experimental en psicología y educación. México, Trillas. ROSENTHAL, R. y JACOBSON, L. (1980): Pygmalión en la escuela. Expectativas del maestro y desarrollo intelectual del alumno. Madrid, Marova. RUIZ-MAYÁ, L. (19862): Métodos estadísticos de investigación. (Introducción al análisis de la varianza). Madrid, Instituto Nacional de Estadística. RUIZ OLABUENAGA, J. I. (1996): Metodología de la investigación cualitativa. Bilbao, Universidad de Deusto. SANCHÍS, C. et al. (1986): Hacer estadística. Madrid, Editorial Alhambra, S.A. (Biblioteca de Recursos Didácticos). SAX, G. (1979): Foundations of Educational Research. New Yersey, Prentice Hall, Inc. SCHEFFÉ, H. (1976): Analysis of variance. London, John Wiley Sons. Inc. SHAIE, K. W. (1965): «A General Model for the Study of Developmental Problems». Psychol. Bull., 64; pp. 92-107. SIEGEL, S. (1982): Estadística no paramétrica. México, Trillas. SIERRA BRAVO, R. (1981): Análisis estadísticos y modelos matemáticos. Teoría y ejercicios. Madrid, Paraninfo.
REFERENCIAS BIBLIOGRÁFICAS
393
— (19885): Técnicas de investigación social. Teoría y ejercicios. Madrid, Paraninfo. — (1991): Diccionario práctico de estadística. Madrid, Paraninfo. SNEDECOR, G. W. (19565): Statistical methods. Ames Iowa: Iowa State College Press. STEPHENSON, W. (1953): The Study of Behavior. Chicago, University of Chicago. TATSUOKA, M. M. (1971): Multivariate Analysis. Nueva York, Wiley. TÉBAR BELMONTE, L. (2003): El perfil del profesor mediador. Madrid, Santillana. TEJEDOR, F. J. (1985): «Análisis de correspondencias», «Análisis de regresión» (y otros artículos o entradas). Diccionario de Ciencias de la Educación. Investigación Educativa. Madrid, Anaya; pp. 13-15, etc. TESH, R. (1990): Qualitative Research. Analysis, Types and Software Tools. London, The Falmer Press. VALLES, M. S. (1997): Técnicas cualitativas de investigación social. Madrid, Síntesis. VÁZQUEZ GÓMEZ, G. (1985): «Investigación y Desarrollo». En Diccionario de Ciencias de la Educación. Investigación educativa (Coord. Orden Hoz, A.). Madrid, Anaya; pp. 137-138. VISAUTA, B. (1999): Análisis estadístico con SPSS para Windows. Madrid, McGraw-Hill. WEITZMAN, E. A. y MILES, M. B. (1995): Computers Programs for qualitative data analysis. London, Sage. YA-LUN CHOU (19772): Análisis estadístico. México, Interamericana. YELA, M. (1957): La técnica del análisis factorial. Madrid, Biblioteca nueva. ZARAGÜETA, J. (19532): Pedagogía fundamental. Barcelona, Labor.
Dionisio del Río Sadornil es doctor en Pedagogía y profesor titular de Universidad. Ha desempeñado su labor docente en la Universidad Complutense y, desde 1974 hasta 2005, en la UNED (Departamento de Métodos de Investigación y Diagnóstico en Educación). Fue Primer Premio del Consejo Social de la UNED a la mejor Unidad Didáctica en 2004. Actualmente es profesor colaborador honorífico de dicha Universidad. Su actividad docente e investigadora se refleja en veinticinco publicaciones sobre temas pedagógicos-didácticos. Los más recientes: Orientación educativa y tutoría; Problemas y diseños de investigación resueltos; Métodos de investigación en Educación.
ISBN: 978-84-362-5154-8
Diccionario-glosario de metodología de la investigación social
Este diccionario pretende ser un prontuario que disipe dudas y afiance conceptos. Contiene cerca de 1.800 entradas que recogen expresiones y términos de las diversas metodologías investigadoras, con las nuevas aportaciones terminológicas de los paradigmas cualitativo-interpretativo, evaluativo, sociocrítico, etc., que se unen a la terminología estadística consagrada en los diccionarios convencionales. No pocos términos se ofrecen con sus varias denominaciones sinónimas (éstas figuran como entradas independientes), y asimismo aquellos que albergan pluralidad de significados. Finalmente destaca por la claridad en la definición y explicación de los términos, sin que afecte al rigor expositivo de los mismos.
Dionisio del Río Sadornil
C
35268
Editorial 9 788436 251548
0135268CU01A01
CU 268
M
Y
CM
MY
CY CMY
K
cuadernos
Diccionario-glosario de metodología de la investigación social Dionisio del Río Sadornil
View more...
Comments