Segundo Trabajo de Estadistica

July 8, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Segundo Trabajo de Estadistica...

Description

 

INTRODUCCIÓN. La Correlación y la Regresión son de suma importancia ya que la correla cor relació ción n entr entre e dos va varia riable bles s tan so solo lo

sig signif nifica ica que que amba ambas s

vari variabl ables es

compart com parten en informa informació ción, n, que com compart parten en var variab iabili ilidad dad y Los mod modelo elos s de regresión se usan cuando tenemos dos o más variables relacionadas en un conjunto de datos y queremos explorar como el comportamiento de una de ella ellas s (que (que se de deno nomi mina nan n la vari variab able le resp respue uest sta a o de depe pend ndie ient nte) e) se ve influenciada por las otras variables (que se denominan variables explicativas o independientes). Por todo lo anteriormente mencionado esta investigación tiene como objetivo general indagar y conocer todo lo relacionado con “Correlación y Regresión” a fin de lograr un análisis de lo entendido; por ello la investigación se estructura de la siguiente manera:  

-Correlación: Diagrama de Dispersión, Coeficiente de Correlación lineal

de Pearson, Pearson,

Cau Causal salida idad d y Corr Correla elació ción, n, Coefi Coeficie ciente nte de Cor Correl relaci ación ón por 

Rangos de Spearman, Coeficiente Biseral Puntual y Correlación Parcial y Multiple.  

-Regresión: Ecuación de la Función Lineal, Ecuación de Regresión,

Métodos Mínimos Cuadrados, Error de Estimación e Intervalo de Confianza de una Estimación. Por último se deja en conocimiento las conclusiones donde se explica en fo form rma a clar clara a y prec precis isa a lo los s ob obje jeti tivo vos s al alca canz nzad ados os y lo en ente tend ndid ido o de la investigación con sus respectivas referencias.

 

“CORRELACION Y REGRESIÓN”. CORRELACIÓN.  

El con concep cepto to de cor correla relació ción n es par partic ticula ularme rmente nte val valios ioso. o. Anális Análisis is

estadísticos de un conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración) tienden a variar  conjuntamente, como si hubiera una conexión entre ellas. Por ejemplo, un estu estudio dio de dell ingre ingreso so an anua uall y la ed edad ad de mu muer erte te podr podría ía resu result ltar ar en qu que e personas pobres tienden a tener vidas más cortas que personas de mayor  ingreso. Las dos variables se dicen que están correlacionadas.

Diagrama de Dispersión.  

Un diagrama de dispersión es un tipo de diagrama matemático que utiliza

las coordenadas cartesianas para mostrar los valores de dos variables para un conjunto de datos. Los datos se muestran como un conjunto de puntos, cada uno con el valor de una variable que determina la posición en el eje horizontal y el valor  de la otra variable determinado por la posición en el eje vertical. Un diagrama de dispersión se llama también gráfico de dispersión; donde, se representa gráficamente la relación entre dos variables, muy utilizada en las fases de Comprobación de teorías e identificación de causas raíz y en el Diseño de soluciones y mantenimiento de los resultados obtenidos.

Coeficiente de Correlación lineal de Pearson.  

En estadística, el coeficiente de correlación de Pearson es un índice que

mide la relación lineal entre dos variables aleatorias cuantitativas (escala

4

 

mínima de intervalo). A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida m edida de las variables. De manera menos formal, se puede definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.

Causalidad y Correlación.  

La correlación entre dos variables tan so solo lo significa que ambas variables

comparten información, que comparten variabilidad. Determinar el origen de la información, la fuente de la variabilidad -la causa- es una cuestión que no puede resolverse mediante recursos exclusivamente matemáticos. La correlación (relación lineal entre dos variables) y la causalidad (el hecho de que todo evento tenga una causa) no tienen por qué venir juntas, es decir, que una cause la otra; por lo que la correlación no demuestra causalidad.

-Causalidad. En estadística, la causalidad se refiere a una relación de necesidad de conc concur urre renc ncia ia

de

do dos s

vari variab able les s

esta estadí díst stic icas as

co corr rrel elac acio iona nada das, s,

prob probar  ar 

caus causal alid idad ad en entr tre e do dos s vari variab able les s impl implic ica a ad adem emás ás de qu que e gu guar arde den n un una a correlación positiva, estudiar en casos donde una pueda aparecer sin la otra, etc.  

-Correlación. La correlación indica la fuerza y la dirección de una relación lineal y

proporc pro porciona ionalid lidad ad ent entre re dos var variab iables les est estadí adísti sticas cas.. Se con conside sidera ra que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la 5

 

otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad.  

Coeficiente de Correlación por Rangos de Spearman.   En estadística, el coeficiente de Spearman, es una medida de la correlación entre dos variables aleatorias continuas. Para calcularlo, los datos son ordenados y reemplazados por su respecto orden. Su expresión :

Donde D es la diferencia entre los correspondientes estadísticos de orden de x – y . N es el número de parejas. Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos son pocos, se puede ignorar tal circunstancia. Para muestras mayores de 20 observaciones, se puede utilizar la siguiente aproximación a la distribución t de estudiante.

  -Coeficiente Biserial Puntual.  

El coeficiente de correlación biserial puntual se utiliza cuando queremos

conocer la correlación existente entre dos variables, de las cuales una ha sido sido me medi dida da en esca escala la de inte interva rvalo los s y la ot otra ra resu result lta a se serr un una a va vari riab able le dicotómica. Generalmente, el coeficiente de correlación biserial puntual se denota mediante la expresión rbp. 6

 

En gene general ral,, la cor correl relaci ación ón bise biseria riall pun puntua tuall se est establ ablece ece com como o una correlación correla ción de Pearso Pearson n entre dos variables, con la partic particularid ularidad ad de que una de esas Variab Variables les es de tipo conti continuo nuo y la otra es una varia variable ble dicot dicotómica ómica (no dicotomizada, como ocurre en el caso de la correlación biserial). En el caso concreto que se expone, en el que la discri discriminac minación ión va a ser calcul calculada ada mediante un coeficiente de correlación ítem-test, se considera a cada uno de los íte ítems ms i com como o una varia variable ble dic dicotó otómica mica,, puest puesto o que lo que se tien tiene e en cuenta es si el sujeto contesta o no correctamente al ítem. A la respuesta correcta se le puede asignar el valor u uno no y a la respuesta incorrecta el valor  cero, de manera que cualquie cualquierr sujeto obtendrá, como vector de respue respuesta sta a la prueba un conjunto de unos y de ceros. Las puntuacio puntuaciones nes globales de los sujetos en la prueba, si las hay en número suficiente, pueden considerarse como valores de una variable continua. (En ítems no acertados incluimos ítems no alcanzados y omisiones).

Correlación Parcial y Múltiple. -Correlación Parcial. El coeficiente coeficiente de correl correlación ación parcial de primer orden, anotado aquí , permite conocer el valor de la correlación entre dos variables A y B, si la va vari riab able le C ha hab bía pe perm rma ane neci cido do co cons nsttant ante pa para ra la seri serie e de observaciones consideradas. La correlación parcial se define como la correlación entre dos variables si las demás variable variable no varían, es dec decir, ir, el valor de las dem demás ás variables variables son fi fijo jos. s. Po Porr ejem ejempl plo, o, el coef coefic icie ient nte e de co corr rrel elac ació ión n pa parc rcia iall ρ12. ρ12.3, 3, es la correlación entre la variable 1 y 2 siendo constante el valor de la variable 3; o el coeficiente de correlación parcial ρ23.1 es la correlación entre la variable 2 y 3 siendo constante el valor de la variable 1. La correla correlación ción parcial r12.3, 7

 

sería la correlación lineal entre la variable 1 y 2 dejando como constante la va vari riab able le 3. Es Esto to qu quie iere re de deci cirr que ha hay y qu que e me medi dirr la co corre rrela lació ción n en entr tre e la variable 1 y 2 que no sea un reflejo de sus relaciones con la variable 3. Por  tanto, se puede obtener una estima muestral r12.3 calculando la desviación o resi residu duo o e1 e13, 3, de la re regr gres esió ión n de la vari variab able le 1 so sobr bre e la va vari riab able le 3, y la desviación o residuo e23, de la regresión de la variable 2 sobre la variable 3. Y r12.3 es el coeficiente de correlación simple entre e13 y e23.  

-Correlación Múltiple. Una correlación múltiple (R) es el coeficiente de correlación entre una

va vari riab able le cri crite teri rio o (Y) (Y) y la

co comb mbina inaci ción ón liline near ar de la las s va vari riab able les s llllam amad adas as

predictoras (X) que también se pueden denominar, y es más claro, variables independientes. El término predictor es habitual aunque según la finalidad que se busque puede resulta resultarr ambiguo (podemos estar explicando más que prediciendo). La combinación lineal es la suma algebraica de las variables predictoras o independientes ponderadas por sus coeficientes beta; estos coeficientes son análogos a los coeficientes b y se calculan utilizando puntuaciones típicas. La correlación múltiple se simboliza como R e incluye el cálculo de los coeficientes beta de cada variable.

REGRESIÓN.  

La regresión estadística o regresión a la media es la tendencia de una

medición extrema a presentarse más cercana a la media en una segunda medición.

8

 

 

Ecuación de la Función Lineal. El mo mode dello de regre res sión lineal esta dado por y i=01 x ii donde y  

es la varia variable ble respue respuesta, sta, x es la variab variable le explic explicativa ativa y 0 y 1 son los  parámetros del modelo, el intercepto y la pendiente, respectivamente. Los i  son independientes y se distribuyen N 0,  2  . Con referencia a este modelo los objetivos de la regresión son: -Estimar los valores de los parámetros

0 , 1

-Estimar sus errores estándares -Establecer la significación estadística de los parámetros -Determinar que fracción de la variación en y es explicada por el modelo y que fracción permanece sin explicación Para escribir la ecuación de una función lineal y = mx + n, es necesario conocer los valores numéricos de m y n. Para hallarlos basta tener una de las siguientes condiciones: un punto de la recta y la pendiente o dos puntos de la recta. En el primer caso debemos hallar el valor de n, para ellos sustituimos sustituimos el valor de my las coordenadas del punto en la ecuación y despejamos la n. Ejemplo: Escribe la ecuación de la función lineal f, conociendo que m = 5 y el punto (– 3 ; 1) pertenece af.

9

 

En el segundo caso debemos hallar la m y la n, por lo que debemos comenzar calculando la m por la fórmula como se muestra en ejemplo, y luego procedemos como en el primer caso, utilizando cualquiera de los dos puntos. A la derecha se muestra el procedimiento que se utiliza para escribir la ecuación de la función lineal g, conociendo las coordenadas de dos de sus puntos (– 1 ; 1) y (4 ; 11). En la fórmula de la pendiente, en el numerador se escribe la diferencia de las ordenadas y en el denominador, la de las abscisas. Si el valor de la coordenada que se coloca después del signo de menos es negativo, se puede escribir un signo más directamente. Si la diferencia de las ordenadas es igual a cero, la pendiente pendiente es igual a cero y la ecuación es y = n. Si la diferencia de las abscisas es igual a cero, se indefine la fracción y no existe la pendiente; por lo que se obtiene una recta paralela al eje “y” la cual no representa una función.  

Ecuación de Regresión. Es el conjunto de técnicas estadísticas empleado para medir la intensidad

de la asociación entre dos variables. El valor del coeficiente de correlación 10

 

puede tomar valores desde menos uno hasta uno, indicando que mientras más cercano a uno sea el valor del coeficiente de correlación, en cualquier  dirección; y sirve para hallar la predicción de cierto numero. Y SU FORMULA ES: ¨ Yn=a0+a1(n)  

Métodos Mínimos Cuadrados. El procedimiento mas objetivo para ajustar una recta a un conjunto de

datos presentados en un diagrama de dispersión se conoce como "el método de los mínim mínimos os cuadra cuadrados". dos". La recta resultant resultante e presen presenta ta dos características características importantes: 1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta de ajuste ∑ (Y ー - Y) = 0. 2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra recta daría una suma menor de las desviaciones elevadas al cuadrado ∑ (Y ー - Y)² → 0 (mínima). El procedimiento consiste entonces en minimizar los residuos al cuadrado Ci²

Re emplazando

nos queda

La obtención de los valores de a y b que minimizan esta función es un problema que se puede resolver recurriendo a la derivación parcial de la función en términos de a y b: llamemos G a la función que se va a minimizar: 11

 

Tomemos las derivadas parciales de G respecto de a y b que son las incógnitas y las igualamos a cero; de esta forma se obtienen dos ecuaciones llamadas ecuaciones normales del modelo que pueden ser resueltas por  cualquier cualqui er método ya sea igualaci igualación ón o matric matrices es para obte obtener ner los valore valores s de a y b.

Derivamos parcialmente la ecuación respecto de a

Primera ecuación normal Derivamos parcialmente la ecuación respecto de b

12

 

Segunda ecuación normal Los valores de a y b se obtienen resolviendo el sistema de ecuaciones resultante. Veamos el siguiente ejemplo: En un estudio económico se desea saber la relación entre el nivel de instrucción de las personas y el ingreso.  

EJEMPLO. Se toma una muestra aleatoria de 8 ciudades de una región geográfica de

13 departamentos y se determina por los datos del censo el porcentaje de graduados en educación superior y la mediana del ingreso de cada ciudad, los resultados son los siguientes: CIUDAD : 1 2 3 4 5 6 7 8 % de (X) Graduados : 7.2 6.7 17.0 12.5 6.3 23.9 6.0 10.2 Ingreso (Y) Mediana : 4.2 4.9 7.0 6.2 3.8 7.6 4.4 5.4 (0000) Tenemos las ecuaciones normales ∑y = na + b∑x ∑xy = a∑x + b∑x² 13

 

Debemos encontrar los términos de las ecuaciones ∑y, ∑x, ∑xy, ∑ x² Por tanto procedemos de la siguiente forma:

 Y

X

XY



4.2

7.2 30.2 30.2 51.84 4

4.9

6.7 6. 7 32. 32.8 44.89 3

7.0 7. 0 17. 17.0 0 11 119.0 9.0 289.0 0 0 6.2 12. 12.5 5 77.50 77.50 156.25 156.25 3.8 3. 8

6.3 23.9 23.9 39.69 4

7.6 23. 23.9 9 1181. 81.6 6 571.21 4 4.4

6.0 6. 0 26.4 26.4 36.00 0

5.4 5. 4 10 10.2 .2 55. 55.0 0 104.04 8 43.5 43 .5 89. 546. 1292.9 8 63 2

Sustituyendo en las ecuaciones los resultados obtenidos tenemos: 43.50 = 8a + 89.8b 546.63 = 89.8a + 1292.92b multiplicamos la primera ecuación por (-89.8) y la segunda por (8) así: 14

 

43.50 = 8a + 89.8b (-89.8) 546.63 = 89.8a + 1292.92b (8) -3906.30 = -718.4a - 8064.04b 4373.04 = 718.4a + 10343.36b 466.74 = -0- 2279.32b

Este valor de b lo reemplazamos en cualquiera de las ecuaciones para obtener a así: Reemplazando b = 0.20477 en la primera ecuación normal 43.5 = 8a + 89.8 (0.20477) 43.5 = 8a + 18.3880 43.5 - 18.3880 = 8a 25.1120 = 8a

Tenemos entonces que los coeficientes de regresión son : a = 3.139 y b = 0.20477. Por tanto la ecuación de regresión nos queda:

Significa entonces que por cada incremento en una unidad en X el valor  de

se aumenta en 0.20477 Esta ecuación permite estimar el valor de

para cualquier valor de X, por 

ejemplo: Una ciudad que tiene un porcentaje de graduados a nivel superior  del 28% la mediana de ingreso para la ciudad será:

15

 

Los valores a y b también se pueden obtener de la siguiente forma: partiendo de las ecuaciones normales tenemos:

Si dividimos todos los términos de la ecuación (1) entre n nos queda:

Tenemos entonces que el primer termino es el segundo termino es incógnita incógni ta a y el tercer termin termino o es la incógn incógnita ita b multi multiplicad plicada a por nos queda: entonces

Reemplazando a en la ecuación (2) tenemos

16

la

por tanto

 

a = 5.4375 – 0.20477 (11.2250) = 5.4375 – 2.2985 = 3.139 Se debe tener present presente e lla a difere diferencia ncia entre el valor de

obteni obtenido do con la

ecua ecuaci ción ón de rreg egre resi sión ón y el va valo lorr de Y ob obse serv rvad ado. o. M Mie ient ntra ras s

es una una

estimación estim ación y su bondad en la estimación depend depende e de lo estrecha que sea la relaci rel ación ón ent entre re las dos var variab iables les que se est estudia udian; n; Y es el valor valor efe efecti ctivo, vo, verdadero verdad ero obten obtenido ido mediante la observa observación ción del invest investigador igador.. En el ejempl ejemplo o Y ー   es el valor mediano del ingreso que obtuvo el investigador utilizando todos los ingres ingresos os o observado bservados s en cada ciudad y

es el valor estim estimado ado con

base en el modelo lineal utilizado para obtener la ecuación de regresión. Los valores estimados y observados pueden no ser iguales por ejemplo la primera ciudad tiene un ingreso mediano observado de Y = 4.2 al reemplazar  en la ecuación el porcentaje de graduados obtenemos un 17

estimado de

 

Gráficamente lo anterior se puede mostrar así:

Claramente se observa en la gráfica que hay una diferencia entre el valor  efectivo efect ivo de Y ー   y el valor estima estimado; do; esta diferencia se conoce como error en la esti estima maci ción ón,, este este erro errorr se pu pued ede e me medi dir. r. A cont contin inua uaci ción ón se verá verá el procedimiento.  

Error de Estimación. -Error estándar en la estimación El error estándar de la estimaci estimación ón designado por sYX mide la dispar disparidad idad

"promedio" "prome dio" e entre ntre llos os va valores lores observa observados dos y los va valores lores estim estimados ados d de e

. Se

utiliza la siguiente formula.

Debem De bemos os e ent nton once ces s ca calc lcul ular ar llos os v val alore ores s de

pa para ra c cad ada a ci ciud udad ad

sustituyendo en la ecuación los valores de los porcentajes de graduados de cada ciudad estudiada. 18

 

 Y

X

4.2

7.2

4.6

-0.4

0.16

4.9

6.7

4.5

0.4

0.16

7.0

17.0

6.6

0.4

0.16

6.2

12.5

5.7

0.5

0.25

3 .8

6.3

4.4

-0.6

0.36

7.6

23.9

8.0

-0.4

0.16

4.4

6.0

4.4

0.0

0.00

5.4

10.2

5.2

0.2

0.04 1.29

Syx = 0.46 (decenas de miles $) Como esta medida trata de resumir la disparidad entre lo observado y lo estimado, es decir, trata de medir la diferencia promedio entre lo observado y lo estimado ó espera esperado do de acuerd acuerdo o al modelo, puede considera considerarse rse como un indicador del grado de precisión con que la ecuación de regresión, describe la relación entre las dos variables. Este error estándar se ve afectado por las unidades y sus cambios ya que es una medida absoluta, pues, se da en la 19

 

misma unidad de medida que esta dada la variable Y; en el ejemplo 0.46 serán decenas de miles de pesos, razón por la cual no es posible comparar  con las relaciones de variables dadas en distinta unidad de medida. Es necesario entonces calcular una medida que interprete o mida mejor el grado de relación entre las variables. El error d estimación es el valor absoluto de la diferencia entre una estimación particular y el valor del parámetro. En realidad por cada valor estimado del parámetro se tiene un error de estimación por lo general diferente. Sin embargo, es posible fijar un intervalo dent de ntro ro de dell cual cual se en enco cont ntra rará rán n la ma mayo yorí ría a de lo los s va valo lore res s de erro errorr de estimación para un estimador y parámetro dados. En la tabla siguiente se dan las fórmulas de los errores de estimación para pa ra algu alguno nos s esti estima mado dore res s y lo los s esti estima mado dore res s pa para ra ta tale les s erro errore res. s. Los Los estimadores se usan cuando los parámetros que se incluyen en las fórmulas de los errores de estimación son desconocidos. PAR ARÁ ÁMETR TRO O

ESTI TIMA MAD DOR

ERRO ROR R ESTÁ ESTÁN NDAR ESTI TIM MADO DOR R DE DEL ERR ERROR

=

N =

 

20

 

 

-Intervalo de Confianza de una Estimación. Estimar, es decir pronosticar, un parámetro de la población, generalmente

la media, la varianza (en consecuencia la desviación ttípica) ípica) y la proporción, a partir de una muestra de tamaño n. Pero a diferencia de la estimación puntual donde tal estimación se efectúa dando un valor concreto. Se dará un intervalo donde se afirmara ó pronosticará que en su interior se encontrará el parámetro a estimar, con una probabilidad de acertar previamente fijada y que trataremos que sea la mayor posible, es decir próxima a 1. Para ello vamos a establecer la notación a utilizar:

 

Parámetro

En la Muestra

En la Población

Media

X

μ

Varianza

S2n

σ2

Desviación Típica

Sn

σ

Cuasivarianza

Sn-1

σn-1

El proceso para obtener el intervalo es dar una variable aleatoria donde

intervenga el parámetro a estimar y el correspondiente de la muestra. A esta variable se le llama estadístico pivote y debe seguir una distribución de proba pro babil bilida idad d co cono noci cida da.. Po Porr ej ejem empl plo o pa para ra el cálc cálcul ulo o de un in inte terv rvalo alo de confianza de la media se utiliza el siguiente estadístico pivote: X −μ S n −1/

n

21

 

Pues bien, esa expresión donde interviene la media muestral, la media poblac pob lacion ional, al, la cua cuasi si des desvia viació ción n típica típica y el tam tamaño año mue muestr stral, al, sig sigue ue una distribución distri bución de probabi probabilidad lidad conocida que se encuentra tabulada, llamada tStudent con n-1 grados de libertad. Se trata pues de dar un intervalo (a, b) de modo que P (a < g < b) = 1 − α , siendo g el estadístico pivote correspondiente. Una vez est establ ableci ecida da esa des desigu iguald aldad, ad, desp despeja ejamos mos el par paráme ámetro tro poblacional que es el que queremos centrar en el intervalo.

 

22

 

CONCLUSIONES. Al finalizar la investigación se concluye que: La correlación es el análisis estadístico de un conjunto de datos, puede revelar que dos variables tienden a variar conjuntamente, como si hubiera una conexión entre ellas. A través través

de los diagra diagramas mas de disper dispersión sión se descubr descubren en las verda verdaderas deras

rela relaci cion ones es de ca causa usa-ef -efec ecto to,, es la clav clave e de la reso resolu luci ción ón ef efic icaz az de un proble pro blema ma,, que las las rela relaci cion ones es de ca causa usa-ef -efec ecto to ca casi si si siem empr pre e mu mues estr tran an variaciones, y que es más fácil ver la relación en un diagrama de dispersión que en una simple tabla de números. Al en enco cont ntrar rar una co corre rrela lació ción n en entr tre e do dos s me medi diad adas as no si sign gnif ific ica a automáticamente que una cause la otra, es decir correlación no demuestra causalidad (el hecho de que todo evento tenga una causa). La in inte terpr rpret etac ació ión n de co coef efici icien ente te de Sp Spea earma rman n es ig igua uall que que la de dell coeficiente coefi ciente de Pea Pearson. rson. Oscila ent entre re -1 y +1, indicánd indicándonos onos asoci asociacione aciones s negativas o positivas respectivamente, 0 cero, significa no correlación pero no independencia. La correlación biserial puntual también se asemeja a la correlación de Pear Pe arso son n en entr tre e do dos s vari variab able les, s, co con n la pa part rticu icula larid ridad ad de qu que e un una a de es esas as Vari Va riab able les s es de tipo tipo co cont ntinu inuo o y la otra otra es una va varia riable ble di dico cotó tómi mica ca (no dicotomizada, como ocurre en el caso de la correlación biserial). La correlación parcial no involucra la noción de variables independientes y dependientes sino que es una med medida ida de interdependencia. El coeficiente de correlación múltiple se aplica a la situación en que una variable, a la que

23

 

se puede seguir llamando Y, ha sido aislada para examinar su relación con el conjunto de las otras variables. Los objetivos de los modelos de regresión son estimar los parámetros del modelo y estimar la bondad o el ajuste del modelo a los datos, es decir, la calidad del modelo para describir los datos. Para escribir la ecuación de una función lineal, es necesario conocer los valores numéricos. Para hallarlos basta tener un punto de la recta y la pendiente ó dos puntos de la recta. La ecuación de regresi regresión ón sirve para medir la inte intensidad nsidad de la asoci asociación ación entre dos variables y para hallar la predicción de cierto número. Los métodos mínimos cuadrados consiste en después de realizar los procedimientos de cierta ecuación ajustar una recta a un conjunto de datos presentados en un diagrama de dispersión. El error de estimación es el valor absoluto de la diferencia entre una estimación particular y el valor del parámetro. Se utiliza el “promedio” para su estimación. El proceso para obtener el intervalo es dar una variable aleatoria donde intervenga el parámetro a estimar y el correspondiente de la muestra.

 

De manera general, se puede afirmar que le correlación y regresión se

asemejan en que ambos tienen en común las “variables”; la primera para detter de ermi mina narr si se rela relaci cion onan an en enttre si y la se segu gun nda pa para ra exp xplo lora rarr el comportamiento; por otra parte, ambas se representan gráficamente a través de diagramas de dispe dispersión rsión luego de halla hallarr ecuaci ecuaciones ones y resolv resolverla erla a travé través s de diferentes modelos.

24

 

REFERENCIAS.

Wikipedia Enciclopedia Libre. [Página Web]. Disponible en Línea: http://es.wikipedia.org/wiki/Diagrama_de_dispersi%C3%B3n [Consulta: 2012, Agosto 23].

Monografí Monogr afías. as.com com.. [Págin [Páginaa Web Web]. ]. Dis Dispon ponibl iblee en Lín Línea: ea: http://www.monografias.com/trabajos14/estadistica/estadistica.shtml [Consulta: 2012, Agosto 23]. Wikipedia Enciclopedia Libre. [Página Web].

Disponible en Línea:

http://es.wikipedia.org/wiki/Causalidad_(estad%C3%ADstica) [Consulta: 2012, Agosto 23]. Wikipedia Enciclopedia Libre. [Página Web]. Disponible en Línea: http://es.wikipedia.org/wiki/Correlaci%C3%B3n http://es.wikipedia.org/w iki/Correlaci%C3%B3n [Consulta: 2012, Agosto 23]. Wikipedia Enciclopedia Libre. [Página Web]. Disponible en Línea: http://es.wikipedia.org/wiki/Correlaci%C3%B3n_parcial http://es.wikipedia.org/w iki/Correlaci%C3%B3n_parcial [Consulta: 2012, 2 012, Agosto 23]. [Página

Web].

Disponible

en

http://www.eiesxunqueira1.com/Download/pdf/teointervalos.pdf  [Consulta: 2012, Agosto 18].

25

Línea:

 

[Página

Web].

Disponible

en

Línea:

http://pe http ://personal rsonal.us.e .us.es/vara s/vararey/a rey/adatos2/ datos2/corr correlacio elacion.pdf n.pdf [Consu [Consulta: lta: 2012, Agosto 18] Wikipedia Enciclopedia Libre. [Pagina Web]. Disponible en Línea: http://es. http ://es.wikip wikipedia.o edia.org/w rg/wiki/R iki/Regresi egresi%C3%B %C3%B3n 3n [Cons [Consulta ulta:: 2012, Agosto 18]. UNIVERSIDAD DE LOS ANDES. [Documento en Línea: REGRESIÓN LINEAL.

ESTADISTICA

Y

SIMULACIÓN].

Disponible

en:

http://cesimo.ing.ula.ve/~mablan/estadistica/uploads/regresion.pdf  [Consulta: 2012, Agosto 18]. Blog de MARISNENA MARISNENA.. (2009). [Pá [Página gina Web] Web].. Disponi Disponible ble en Línea: http://marisnena2009.blogspot.com/2009/05/ecuacion-de-regresion.html [Consulta: 2012, Agosto 18]. Mono Mo nogr graf afía ías. s.co com. m. [Pág [Págin inaa We Web] b].. Disp Dispon onib ible le en Líne Línea: a: http://www.monografias.com/trabajos16/metodos-lineales/metodoslineales.shtml#d [Consulta: 2012, Agosto 18].  

Ramos J. Estimación por intervalos de confianza. I.E.S. A Xunqueira I.

[L [Lib ibro ro en Line Linea: a: Méto Método dos s Esta Estadí díst stic icos os y numé numéri rico cos] s].. Di Disp spon onib ible le en: en: http://www.iesxunqueira1.com/Download/pdf/teointervalos.pdf 

26

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF