Regresion Lineal Simple

Share Embed Donate


Short Description

Download Regresion Lineal Simple...

Description

REGRESION LINEAL SIMPLE Con frecuencia, nos encontramos en economía con modelos en los que el comportamiento de una variable, Y, se puede explicar a través de una variable X; lo que representamos r epresentamos mediante Y = f (X) (1) Si consideramos que la relación f, que liga Y con X, es lineal, entonces (1) se puede escribir así: t 1 2 t Y = β + β X (2) Como quiera que las relaciones del tipo anterior raramente son exactas, sino que más bien son aproximaciones en las que se han omitido muchas variables de importancia secundaria, debemos incluir un término de perturbación aleatoria ε, que refleja todos los factores  – distintos de X -que influyen sobre la variable endógena, pero que ninguno de ellos es relevante individualmente. Con ello, laCuando se quiere saber en qué medida están relacionadas dos variables en estudio estudio se utiliza el modelo de regresión lineal simple, simple, expresado de la forma:

Y = β0 + β1X + ε

Y:

Variable dependiente

β0 y β1:

Parámetros del modelo

X:

Variable independiente

ε:

Error del modelo

ECUACION DE REGRESION LINEAL SIMPLE Cuando tenemos varias distribuciones de datos con su propia media o valor esperado

E (Y) = β0 + β1X

La relación lineal entre las dos variable puede ser: E(Y) Relación lineal positiva

Si β1 > 0 X E(Y)

Relación lineal negativa

Si β1 < 0 X E(Y)

No hay relación

Si β1 = 0 X

Ahora bien, cuando no se conocen los valores poblacionales se utiliza la

ECUACION DE REGRESION LINEAL SIMPLE ESTIMADA:

y = b0 + b1x

y : es el estimador puntual de E(Y) b0 , b1: estimadores de β0 y β1 respectivamente Para hallar la recta de regresión lineal simple estimada, a través de los datos muestrales, se utilizara el METODO DE LOS MINIMOS CUADRADOS, criterio consiste en encontrar los valores de b 0 y b 1 que hacen mínima la suma de los cuadrados de las desviaciones entre los valores observados de la variable dependiente y los valores estimados de la misma.

Ejemplo: Suponemos una muestra de 10 restaurantes que presenta el número de clientes y las ventas trimestrales: Restaurant Clientes (miles) Ventas (miles BF)

1

2

3

4

5

6

7

8

9

10

2

6

8

8

12

16

20

20

22

26

58

105

88

118

117

137

157

169

149

202

DIAGRAMA DE DISPERSION: Se obtiene de graficar los valores de las variables, en este caso clientes (que será X) contra ventas (Y)

Yi 250

200

150

100

50

0 0

5

10

15

20

25

30

Xi

Para predecir las ventas del restaurante se utilizará la recta de regresión lineal de la forma:

yi = b0 + b1xi yi

: valor estimado de las ventas del restaurante

b0 : intersección de la recta con el eje Y b1 : pendiente de la recta xi : número de clientes por restaurant

CRITERIO DE LOS MINIMOS CUADRADOS Consiste en encontrar los valores de b0 y b1 que hacen mínima la suma de los cuadrados de las desviaciones entre los valores observados y los valores estimados de la misma variable. Se utilizan los datos muestrales. Entonces la notación del criterio es: minΣ(yi – yi)2

yi : valores observados de la variable dependiente yi : valores estimados de la variable dependiente

Siguendo con el ejemplo

         ∑      ∑    

    -12 -8 -6 -6 -2 2 6 6 8 12

-72 -25 -42 -12 -13 7 27 39 19 72

 864 200 252 72 26 14 162 234 152 864 2840

)

 144 64 36 36 4 4 36 36 64 144 568

        

Luego:

yi = 60 + 5xi 250

200

150 Series1 100

50

0 0

5

10

15

20

25

30

La pendiente b1 es positiva lo que indica que la relación lineal entre las dos variables, número de clientes y venta trimestral es directamente proporcional. Podemos predecir con la recta obtenida las ventas para cualquier número de clientes, por ejemplo, para un restaurant con 16.000 clientes las ventas serán de

yi = 60 + 5Xi = 60 +5*16 = 60 + 80 = 140

Es decir, 140.000 Bs

SUMA DEL CUADRADO DE LOS ERRORES:

SCE :

SUMA DE CUADRADOS TOTAL:

STC :

SUMA DE CUADRADOS DE LA REGRESION:

SCR :

Se demuestra que: SCT = SCR + SCE

 ̅̂   ̂̅ 

Para el ejemplo:

̂

̂

y-

̂ ̅  ̂̅ 

(yi - )

2

70

-12

144

5184

3600

90

15

225

625

1600

100

-12

144

1764

900

100

18

324

144

900

120

-3

9

169

100

140

-3

9

49

100

160

-3

9

729

900

160

9

81

1521

900

170

-21

441

361

1600

190

12

144

5184

3600

1530

15730

14200

COEFICIENTE DE DETERMINACION:

  

* 100

Se expresa en forma de porcentaje, en el caso del ejemplo, r2 = 14200/15730 = 0.9027*100, se entiende que el 90.27 % de la variabilidad en las ventas es explicado por la relación lineal entre los clientes y las ventas.

COEFICIENTE DE CORRELACION MUESTRAL:

         1

Si

 

tiende a 1 hay mayor correlación positiva tiende a 1 hay mayor correlación negativa tiende a 0 no hay correlación

  √  

Para el ejemplo Luego, como

=+

= + 0.9051

tiende a 1 se puede decir que hay fuerte correlación positiva.

ERROR ESTANDAR DE ESTIMACION

    TABLA ANOVA. EL CONTRASTE DE REGRESIÓN. En este apartado se descompone la variabilidad de la variable respuesta en variabilidad explicada por el modelo más variabilidad no explicada o residual, esto permitirá contrastar si el modelo es significativo o no. Bajo la hipótesis de que existe una relación lineal entre la variable predicción y predictora, se quiere realizar el siguiente contraste de hipótesis,

frente a la alternativa

por tanto, si se acepta H0, la variable predictora no influye y no hay relación lineal entre ambas variables. En caso contrario, si existe una dependencia lineal de la variable respuesta respecto a la predictora. Para todos los datos muestrales se hace la siguiente descomposición

elevando al cuadrado y sumando se obtiene,

en base a la ortagonalidad de los vectores se obtiene que los productos cruzados son cero, de donde se sigue la siguiente igualdad (Teorema de Pitágoras) que permite descomponer la variabilidad de la variable respuesta en la variabilidad explicada por la recta de regresión

más la variabilidad residual o no explicada por el modelo ajustado

Global o Total

,

del Error

de la Regresión

Ahora se puede construir la siguiente tabla ANOVA Tabla ANOVA del modelo de regresión simple Fuente de Variación

Suma de Cuadrados

Grados de Libertad

ERROR

SCE =

2

1

REGRESION

SCR =

2

n-2

TOTAL

SCT =

2

n-1

Varianzas

  

     

Para probar si la regresión efectuada es significativa se utilizan tres tipos de pruebas de significación: Prueba t Intervalo de confianza para β1 Prueba F PRUEBA T: Se elabora el contraste para la no relación entre las variables, es decir que la pendiente de la recta de regresión β1 es cero contra la pendiente diferente de cero. H0: β1 = 0 Ha: β1 ≠ 0 Si se rechaza H0 es porque hay una relación estadísticamente significativa entre las variables. El estadístico de prueba para este contraste es:

 

En donde

    

Criterios de rechazo: p-Valor: RECHAZO si p-valor ≤ α Valor crítico: RECHAZO si t ≤ -t α/2 RECHAZO si t ≥ t α/2 INTERVALO DE CONFIANZA PARA β1 b1 ± ME ME= t α/2 * sb1

Donde t tiene n-2 grados de libertad

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF