Econometria de Series de Tiempo

July 8, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Econometria de Series de Tiempo...

Description

 

Universidad Nacional Mayor de San Marcos Factultad de Ciencias Econ´ o omicas micas - Semestre 2017-I Econometr´ ııa a de Series de Tiempo Profesor: Miguel Ata Ataurima urima Arellan Arellano o

Problem Set 02- Solucionario

Integrantes: Flores Paucar Susan Liliana Lauro Huacanca Julissa Jaquelin Romero Espinoza Karen Trujillo Morillas Cinthia Elizabeth Aula:   213-N EJERCICIO 1

  ×  

Use la f´ormula ormula





α(m) =   µ γ 1  +  + µ  µ2

γ 2  + µ  +  µ2

. . . γm   + µ  +  µ2

  ···   µ · · ·   γ m−1 +  + µ  µ2 · · ·   γ m−2 +  + µ  µ2

1   µ µ γ 0  +  + µ  µ2 µ γ 1  +  + µ  µ2 .. .. . . µ γ m−1  +  + µ  µ2

µ γ 1  +  + µ  µ2 γ 0  +  + µ  µ2 ..   . γ m−2 +  + µ  µ2

..

.

···

 

...   γ 0  +  + µ  µ2

  

−1

para probar que para una proceso estacionario en covarianza, la proyecci´on  on   Y t+1   sobre una constante  constante   Y t  est´a dada por: ˆ [Y  E   [Y t+1 Y t ] = (1

|

− ρ1)µ +  + ρ  ρ1 Y t

γ 1 donde   µ = donde  = E   E   [Y  [Y t ] y  ρ 1  =   γ  0

Soluci´ on: on: Para una proceso estacionario en covarianza, la proyecci´on Y  on  Y t+1  sobre una constante Y  constante  Y t  est´a dada por: ˆ [Y  E   [Y t+1 X t ] =  α (1) X t Donde X  Donde  X t  =

   1 Y t

 y  α



(1)



=   µ γ 1  + µ  +  µ2 

(1)

α

 1   µ µ γ 0  + µ  +  µ2



α(1) =   µ γ 1  + µ  +  µ2





 1 γ 0

α(1) =   µ γ 1  + µ  +  µ2

1



−1

 1   µ µ γ 0  +  + µ  µ2



  γ 0  +  + µ  µ2 µ  

−µ

   

=   µ γ 1  + µ  +  µ2









|



2

  1 +   µγ 0

− γ µ

0

−1

1

− γ µ

0

1 γ 0





 





α(1) =   µ



γ 1 γ 0

− µ γ γ 

1 0

 =   µ (1

ˆ  [Y  Entonces  E  [Y t+1 X t ] =  α (1) X t  est´a expresado por: 

|



ˆ  [Y  E  [Y t+1 X t ] =  α (1) X t  =   µ (1 

|

− ρ1)   ρ1



− ρ1)   ρ1

   1 Y t

 = (1

− ρ1) µ +  + ρ  ρ1 Y t

Entonces queda demostrado que la proyecci´on Y  on  Y t+1  sobre una constante Y  constante  Y t  est´a dada por: ˆ [Y  E   [Y t+1 Y t ] = (1

|

− ρ1) µ +  + ρ  ρ1 Y t

a) Probar que para el proceso AR(1). ´este este reproduce la ecuaci´on on   φs ˆ E   [Y  [Y t+s Y t , Y t−1 , . . .] .] =  µ +  µ  + (1 1 φL

|



− φL φL)( )(Y  Y t − µ) = µ +  µ  + φ  φs (Y t − µ)

para   s  = 1 para Soluci´ on: on: ˆ  [Y  Para s Para  s =  = 1 :  E  [Y t+1 Y t , Y t−1 ] =  µ +  µ  + φ  φ((Y t

|

− µ)

Entonces para un proceso AR proceso  AR(1) (1) Y t  = c  =  c +  + φY   φY t−1  +  +   t Sabemoss que µ Sabemo que  µ  =

  c 1−φ ,

entonces: Y t  =  µ

(Y t

− φµ φµ +  + φY   φY t−1  +  +   t

− µ) = φ (Y t−1 − µ) +  +  t

Ahora que hemos expresado las variable en desviaci´on on respecto a su media, podemos p odemos calcular calcular la proyecci´ proyecci´ on on de Y t−1 µ  sobre :







X t  =   (Y t obteniendo:

 

Y  Y t+1|t

− µ)

− µ =



(Y t−1

(2)   α1  

Ya que en un AR un  AR(1) (1) solo conocemos Y  conocemos  Y t   y  Y t−1   ,   m = 2

 

Y  Y t+1|t

− µ)

(2) α2





X t

− µ = α  =  α (2) +  α2(2)  (Y t−1 − µ) 1   (Y t − µ) + α

Dada esta definici´on on de X  de  X t , los coeficientes pueden ser calculados directamente a partir de: 



α(m) =  E  Y t+1 X t



−1



E  X t X t

    

α(2) = E  Y t+1 X t

2



E  X t X t

−1

 

    (2)

  α1 (2) α2

  α(2) 1 (2) α2

 =

  γ 0   γ 1 γ 1   γ 0

 =

2

α2(2)

 

Y  Y t+1|t



(2) (2) − µ = α +  α2   (Y t−1 − µ)  =  α 1   (Y t − µ) + α

ˆ [Y  Y Y t  +1|t  =  E   [Y t+1 Y t , Y t−1 ] =  µ +  µ  +

 

  γ 1 γ 2

−γ 12+γ 02γ 2 γ 0 −γ 1

  

Entonces:

  γ 1 γ 2

γ 0 γ 1 −γ 1 γ 2 γ 02 −γ 12

(2)

  α1

−1

−γ 1 γ 02 −γ 12 γ 0 γ 02 −γ 12

  γ 0 γ 02 −γ 12 −γ 1 γ 02 −γ 12

 =

   

|

Sabemos que para un proceso AR proceso  AR(1): (1):   γ 0  =

−  −

 γ 1 (γ   (γ 0 γ 2 ) (Y t γ 02 γ 12

  −    1 1−φ2

2

 +  + γ   γ 0 γ 2 − µ) + −γ γ 12 − (Y t−1 − µ) γ 2 0

σ 2 ,  γ 1  = φγ   =  φγ 0 ,  γ 2  =  φ 2 γ 0

  φγ 0 γ 0 φ2 γ 0   ˆ (Y t Y t+1|t  = E  [Y   [Y t+1 Y t , Y t−1 ] =  µ +  µ  + γ 02 φ2 γ 02

|

 

1

2 2

2 2

 + φ  φ γ 0 − µ) + −φγ 2γ 0  + (Y t−1 − µ) 2 φ γ 02 0  −  − ˆ [Y  Y  Y t+1|t  =  E   [Y t+1 |Y t , Y t−1 ] =  µ +  µ  + φ  φ (Y t − µ)

 

b) Probar que para el proceso MA(1). ´este este reproduce la ecuaci´on on



  θ 1 + θ + θ 2 + θ 4 + . . . +  + θ  θ 2(n−2) ˆ E   [Y  [Y n Y n−1 , Y n−2 , . . . , Y1  ] =  µ +  µ  + 1 + θ + θ 2 + θ 4 + . . . + θ  + θ 2(n−1)

|

para   n  = 2 para



Y n−1

Soluci´ on: on: Se tiene un proceso MA(1): Y t  = µ  =  µ +  +   t + θ  +  θ t−1

 ∼ W N  N (0 (0,, σ 2 ) con varianza σ varianza  σ 2 y  θ  irrestricto. Buscamos predecir el valor de Y  de  Y t  en base a los n los  n − 1 = 1 valores previos (Y  (Y 1 )

donde   t donde Sea



Y =   (Y 1

− µ)

(Y 2

− µ)

Sea Ωla matriz(2x2) de varianzas y covarianzas de Y de  Y

  

Ω =  E  YY  =

2

 1 + + θ  θ θ θ   1+ + θ  θ 2

Se puede probar que la factorizaci´on on triangular de Ω nos da

A =





  1 θ 1+θ 2

3

0   1







 E  ˆ  [Y  [Y n−1 Y n−2 , . . . , Y1  ]

|



 

D  = σ  =  σ 2





 1+ + θ  θ 2 0  



0 1+θ2 +θ4 1+θ2

El siste sistema ma de ecuaciones ecuaciones A  A Y  = Y  =  Y  po  podemo demoss escribi escr ibirlo rlo expl´ıcitam ıci tamente ente as´ıı::

 −    −      −−  −− Y  Y1   =  Y 1

µ

θ Y  Y 1  + Y  Y 2  =  Y 2 1 + θ + θ 2

µ

Entonces resolviendo la ultima u ´ ltima ecuaci´on on para Y  Y n  = Y  Y 2 Y  Y 2  = Y   =  Y 2 y como

  θ Y  Y1   =  Y 2 1 + θ + θ 2

µ

 − 

 

|

E  E  [Y  [Y 2 Y 1 ] = Y 2

− Y Y 2  = Y   =  Y 2 −

 

 



Y 2

  θ   [Y 1 1 + θ + θ 2

− µ]

|

E  E  [Y  [Y 2 Y 1 ]

Y  Y 2  = Y   =  Y 2 tenemos que

µ

−µ−

  θ 1 + θ + θ 2   [Y 1

|

E  E [Y   [Y 2 Y 1 ] == == µ  µ +  +



  θ  [ [Y  Y 1 1 + θ + θ 2

  θ µ]  =  = µ  µ +  + 1 + θ Y 1 + θ 2  [ [Y 



− µ]

− µ]

c) Probar que para un proceso AR(2), la predicci´oon n asociada es µ +

  φ1 (Y t 1 φ2



− µ)

Soluci´ on: on: Para un proceso AR proceso  AR(2) (2) Y t  = c  =  c +  + φ  φ1 Y t−1  + φ  +  φ2 Y t−2 +  +   t Sabemoss que µ Sabemo que  µ  =

  c 1−φ1 −φ2 ,

entonces: Y t  = µ  =  µ

(Y t

− φ1µ − φ2µ + φ  + φ1 Y t−1  +  + φ  φ2 Y t−2  +  +   t

− µ) = φ1 (Y   (Y t−1 − µ) + φ +  φ2 (Y   (Y t−2 − µ) +  + t

Ahora que hemos expresado las variable en desviaci´on on respecto a su media, podemos p odemos calcular calcular la proyecci´ proyecci´ on on de Y t+s µ  sobre :





X t  =   (Y t

− µ)

(Y t−1

− µ)

(3)   α1  

(3) α2  

(Y t−2

− µ)

obteniendo:

 

Y  Y t+s|t

− µ =



4

(3) α3



X t





 

Ya que en un AR un  AR(2) (2) solo conocemos Y  conocemos  Y t   ,  Y t−1 ,   y   Y t−2 ,  m  m =  = 3

 

Y  Y t+s|t

− µ = α  =  α (2) +  α(2) + α(3) 1   (Y t − µ) + α 2   (Y t−1 − µ) + α 3   (Y t−2 − µ)

Dada esta definici´on on de X  de  X t , los coeficientes pueden ser calculados directamente a partir de:

                      α



(m)





E  X t X t



  α(2) 1 (2) α2

E  X t X t −1

  γ 0   γ 1 γ 1   γ 0

 =

  γ 1 γ 2

γ 0 γ 1 −γ 1 γ 2 γ 02 −γ 12 −γ 12 +γ 0 γ 2 γ 02 −γ 12

(2)

  α1 α(2) 2

  γ 1 γ 2

−γ 1 γ 02 −γ 12 γ 0 γ 02 −γ 12

  γ 0 γ 02 −γ 12 −γ 1 γ 02 −γ 12

 =

−1



α(3) = E  Y t+1 X t   α(2) 1 (2) α2

−1



=  E  Y t+1 X t

 =

Entonces:

 

Y  Y t+1|t

(2) (2) − µ = α  =  α 1   (Y t − µ) + α +  α2   (Y t−1 − µ)

−  −

 γ 1 (γ   (γ 0 γ 2 ) ˆ [Y  Y Y t  +1|t  =  E   [Y t+1 Y t , Y t−1 ] =  µ +  µ  + (Y t γ 02 γ 12

 

|

Sabemos que para un proceso AR proceso  AR(1): (1):   γ 0  =

  −    1 1−φ2

 − γ 12 +  + γ   γ 0 γ 2 − µ) + γ 2 − (Y t−1 − µ) γ 12 0

σ 2 ,  γ 1  = φγ   =  φγ 0 ,  γ 2  =  φ 2 γ 0

  φγ 0 γ 0 φ2 γ 0   ˆ (Y t Y Y t  +1|t  = E  [Y   [Y t+1 Y t , Y t−1 ] =  µ +  µ  + γ 02 φ2 γ 02

 

|

 −

 − φ2 γ 02 +  + φ  φ2 γ 02 − µ) + γ 2 − φ2γ 2 (Y t−1 − µ) 0 0

ˆ [Y  Y t+1|t  =  E   [Y t+1 Y t , Y t−1 ] =  µ +  µ  + φ  φ (Y t

 

|

µ)



¿Est´ a el error asociado con esta predicci´on on correlacionado con con Y   Y t ? ¿Est´a correlacionado con Y  con  Y t−1 ? EJERCICIO 3

Encuentre la factorizaci´on on triangular de la siguiente matriz:

   −  −   −   −  1 2 3

2 6 4

3 4 12

Soluci´ on: on: Por la Factorizaci´on on de Cholesky, la factorizaci´on on triangular puede ser escrita como: 1

2

1

2

1

2

1

2

Ω  = ADA  =  ADA = AD / D / A = (AD / )( )(AD AD / ) o

5

 

Ω  =  =  PP  donde:   P

≡ AD / 1

2

Se puede calcular la descomposici´on on de Cholesky porque la matriz es sim´etrica etrica y definida positiva. La factorizaci´ on on puede ser calculada directamente a trav´ t rav´es es de las siguientes f´ormulas. ormulas. 2  =  a uii ii

uij   =

i−1 2 k =1 uik  para los elementos de la diagonal j 1 k=1  u ik ujk para el resto de los elementos. ujj

−

  aij −

principal, y





Donde u Donde  u ij son los elementos de la matriz. Desarrollando tendremos: g11  =

g22  =

  − a22

√ a11 = 1; g21 =   a21 = −2; g31 =   a31 = 3

2  = g21

g33  =

g11

g11

√ 

2; g32  =

  − a33

− g31 ∗ g21 = −4 −√ 3(−2) =  √ 2 = √ 2

  a32

2 g31

g22

− g322  =

2

  − − √   12

2

9

2

2

=1

con lo cual obtenemos la factorizaci´on on de Cholesky de de Ω   Ω  Ω  =  =

   −   −   −   −  − 1 2 3

2 6 4

3 4  = 12

1 2 3

0 0 2 0 2 1

√  √ 

donde   P  es el factor de Cholesky de  Ω : donde  Ω :

P

P  =

1 0 0

2 2 0

3  = PP  PP  2  = 1

≡ AD / 1

2

  √  √   − √     √    − √   1 0 0 2 1 0 3 1 1

1 0 0

1 2 3

P  =

EJERCICIO 5

    √ − √    

0 2 2

0 2 0

0 0 1

0 0 1

Probar que para un proceso Gausiano, la proyecci´on on lineal brinda la predicci´oon n ´ooptima ptima no restricta restricta −1 ˆ [Y   µ  + Ω21 Ω11  [Y 2 Y 1 ] =  µ +  (y  ( y1 E  [Y   [Y 2 Y 1 ] =  E 

|

|

− µ1)

Soluci´ on: on: Para los procesos pro cesos Gaussianos, podemos afirmar que mientras se incluya un t´ermino ermino constante entre las variables en las que se basa la predicci´oon, n, la predicci´on on no restricta optima ´optima resulta tener una forma lineal y, por lo tanto, est´ a dada por la proyecci´on on lineal.

×

Para verificar esto, definamos Y  definamos  Y 1 como un vector (n (n1 1) con media µ media  µ 1  y  Y 2 como un vector (n ( n2 µ2 , donde la matriz de varianzas y autocovarianzas est´a dada por: 6

× 1) con media

 

 

  − −  −    

− µ1) (Y 1 − µ1) E  (Y 2 − µ2 ) (Y 1 − µ1 )

  E  (Y 1



− µ2 ) µ) (Y 2 − µ2 )

µ1 ) (Y 2

  E  (Y 1



  E  (Y 2



  



 =

Si Y  Si  Y 1   y  Y 2   son Gaussianos, entonces la densidad de probabilidad conjunta es  ( Y 1 , Y 2 ) = f Y  Y 1 ,Y 2  (Y 

  

−1/2

Ω11   Ω12 Ω21   Ω22

  1 (2π)(n1 +n2 )/2

1  [(y  [( y1 2

exp

− µ1) ’ (y2 − µ2) ’]

  Ω11   Ω12 Ω21   Ω22





  Ω11   Ω12 Ω21   Ω22

 −1

  y1 y2

− µ1 − µ2



Por la factorizaci´on on triangular por bloques:



  Ω11   Ω12 Ω21   Ω22

  Ω11 0

  I n1   0 −1   I n2 Ω21 Ω11

 =

  Ω11   Ω12 Ω21   Ω22

 

0

Ω22



−1  Ω12 Ω21 Ω11

 = ADA  =  ADA



  I n1   0  

−1 Ω11  Ω 12

I n2







Entonces Ω

  I n1

Ω−1 =



    −1

−1

−1   Ω11

  −Ω11−1 Ω12

0

 

 

 

I n2

= A

= ADA

0

Ω22

 −1

D

−1

A

−1

0 −

− Ω21Ω111 Ω12

 

  I n1

−1

  −

0

−1

Ω21 Ω11   I n2 

Igualmente, la determinante de Ω se puede calcular tomando la determinante de   ADA

|Ω | =

          | |  





A D A

Ya que A que  A  es una matriz triangular inferiror. Su determinante est´a dada por los productos pro ductos de los t´erminos erminos de la diagonal principal, los cuales resultan la unidad. A  =  = 1 , entonces Ω = D

 

|Ω| =

Ω11 0

 

0



Ω22

1 Ω21 Ω− 11 Ω 12

 | |

 =  = Ω11 Ω22

−Ω

21



−1 Ω11 Ω12

Entonces la funci´oon n de densidad de probabilidad conjunta queda expresada como:

 −        − × − −        −  − − −   | |  − −  − −    −    −   

 ( Y 1 , Y 2 ) = f YY 1  ,Y 2 (Y 

1

 |Ω11|− (n +n )/2

(2 (2π π)

1

1   Ω− 11

 

Ω22

n1 +n2 )/2

Ω11

(2 (2π π )(

× exp

1 2 (y1

−1 Ω21 Ω11  Ω12

Ω22

µ2 )

0

−1 Ω21 Ω11  Ω 12

− 12

Ω22

µ1 ) ’ (y2

−1

1 Ω21 Ω− 11 Ω 12 −1   Ω11



m)

0

7

− 12

−1 Ω11   I n1  Ω 12 0   I n2



µ1 ) (y2

 

0

1

1 2

2

1 exp(( (y1 exp 2

 ( Y 1 , Y 2 ) = f YY 1  ,Y 2 (Y 



  I n1   0 −1   I n2 Ω21 Ω11

  y1 y2

µ1 µ2

)

− 12

 

Ω22

0

−1  Ω12 −1 Ω21 Ω11

  y1 y2

µ1 m

 

f YY  1 ,Y 2  (Y   ( Y 1 , Y 2 ) =

 

1

(2 (2π π)

× exp

 |Ω11|− (n +n )/2 2

1

−

1 2

1  (y  ( y1 2





Ω22



− Ω21Ω−111 Ω12 −

1 µ1 ) ’Ω− 11   (y1

− µ1) −

 1  (y  ( y2 2

1 2



− m)



Ω22





−1 −1 (y2  Ω12 Ω21 Ω11



− m)

donde −1  (y1 m  = µ  =  µ 2  + Ω 21 Ω11

− µ1)

La funci´on on densidad condicional de Y  de  Y 2  dada por Y  por  Y 1  se puede hallar dividiendo la funcion de densidad conjunta entre la funci´on on de densidad marginal: f YY 1  (Y 1 ) =

  1

 |Ω11|

− 12

n1 /2

(2 (2π π)

exp

−

1  (y  ( y1 2



1 µ1 ) ’Ω− 11   (y1



− µ1 )

El resultado de esta divisi´oon n es:

|

f YY 2  |Y 1 (Y 2 Y 1 ) =   1

f YY 2  |Y 1 (Y 2 Y 1 ) =

|

donde:

  f YY 1  ,Y 2 (Y   ( Y 1 , Y 2 ) f Y  Y1  (Y 1 ) 1

1

n2 /2

H − 2 exp

−

 | |

(2 (2π π)

H = Ω22

m) ’H−1 (y2

 (y  ( y2



2

m)



− Ω21Ω11−1 Ω12



En otras palabras,

|  ∼ N  N ((m, H)

Y 2 Y 1

|  ∼ N 

Y 2 Y 1



−1 µ2  + Ω 21 Ω11   (y1



− µ1)

, Ω22

− Ω21Ω11−1 Ω12



Ya que la predicci´on on irrestricta ´optima optima es dada por la esperanza esperanza condicional condicional.. Para Para un proceso proceso Gaussiano, Gaussiano, la predicci´ oon n optima ´optima es: −1 E  (Y   (Y 2 Y 1 ) =  µ2  + Ω 21 Ω11   (y1

|

− µ1)

Por otro lado, para cualquier distribuci´oon, n, la proyecci´on on lineal del vector  vector   Y 2  con un vector  vector   Y 1  y una t´ermino ermi no constante, est´a dada por:

 

−1 E  E (Y   (Y 2 Y 1 ) =  µ2  + Ω 21 Ω11   (y1

|

− µ1)

Entonces, para un proceso Gaussiano, la proyecci´oon n lineal nos da una predicci´oon n ´ooptima ptima no restricta. EJERCICIO 7 Soluci´ on: on: Realice una discusion del Paralelo entre una regresi´on on OLS y una Proyecci´on on Linea Lineal. l. Paralelo entre la regresi´on on OLS y la proyecci´oon n lineal: Ya sabemos que una regresi´oon n OLS es un resumen de las observaciones muestrales particulares (x ( x1 , x2 ,...,xT ) y (y2 , y3 ,...,yT +1 ), mientras que la Proyecci´on on lineal lineal es un resumen resumen de las caracter caracter´´ısticas ısticas poblacionale poblacionaless del ∞ proceso estoc´astico astico X t , Y t+1 t=−∞ .

 {

}

8

 

Aunque la proyecci´on on lineal describe momentos de la poblaci´oon n y los m´ınimos cuadrados ordinarios describen momentos muestrales, existe un sentido matem´atico atico formal en el que las dos operaciones son las mismas. Este paralelo se desarrolla mediante la introducci´oon n de una variable variable aleatoria artificial construida espec´ espec´ıficamente para tener momentos de poblaci´on on id´enticos enticos a los momentos de muestreo de una muestra particular. Demostrar que en alguna muestra paticular sobre la cual pretendemos realizar OLS hemos observado valores  T  particulares  T  particulares para la muestra explicativa del vector, denotado  denotado   x1 , x2 ,...,xT . Consid´ erese erese una variable variable aleatoria artificial discreta  discreta   ξ  ξ    que puede tomar s´oolo lo uno de estos valores T  valores  T    particulares, cada uno con probabilidad (1/T ):

{

}

{

}

P  ξ  = x  =  x 1 =  1/T 

P  ξ  = x  =  x 2 =  1/T  .. .

{

}

P  ξ  =  =  x T  =  1/T . As´ı,   ξ  ξ  es  es una variable aleatoria artificialmente construida cuya distribuci´on on de probabilidad de la poblaci´on on viene dada por la funci´on on de distribuci´on on emp em p´ırica ıri ca de  x t . La media poblacional de la variable aleatoria ξ  aleatoria  ξ    es T 



E (ξ ) =

 t=1

∗ {

xt P  ξ  =  =  x t

}



 1 xt . = T  t=1

As As´´ı, la media de la la p poblaci´ oblaci´on on de ξ  de  ξ  es   es igual a la media de la muestra observada de la variable aleatoria verdadera xt . El segundo momento de la poblaci´on on de ξ  de  ξ    es T 



 1  [4.A. .A.1] 1] xt xt [4 E (ξξ  ) = T  t=1 

que es el segundo momento de la muestra de (x (x1 , x2 ,...,xT ). Podemos construir de manera similar una segunda variable artificial   ω   que puede tomar uno de los valores discretos (y (y2 , y3 ,...,yT +1 ). Supongamos que la distribuci´on on conjunta de ω de  ω   y  ξ  viene  ξ  viene dada por

{

}

P  ξ  =  =  x t , ω  = y  =  y t+1 =  1/T  parat  parat =  = 1, 2,...,T. Entonces T 



 1 xt yt+1 ,  [4  [4.A. .A.2] 2] E (ξω) ξω ) = T  t=1 El coeficiente para una proyecci´on on lineal de  de   ω   en en ξ   ξ  es  es el valor de α de  αque que minimiza

E (ω

− αξ )2 =  T 1





(yt+1

t=1

− αxt )2. [4[4.A. .A.3] 3]

As´ As´ı, la regr regresi´ esi´oon n de m´ınimos cuadrados ordinarios ordinarios puede verse como un caso especial especial de proyec proyecci´ ci´ on on lineal. El valor de   α  que minimiza[4.A. minimiza[4.A.3]puede 3]puede ser encontrado de sustituir las expresiones de los momentos de la poblaci´on on de las variables aleatorias artificiales en la f´ormula ormula de una proyecci´on on lineal: lineal: 9

 



α  = [E (ξξ  )]

−1

   T 

1 xt xt E (ξω) ξω ) = T  t=1

−1



1 xt yt+1 . T  t=1

Por lo tanto, la f´ormula ormula para la estimaci´on on OLS  OLS   b  puede obtenerse como caso especial de la f´ormula ormula para el coeficiente de proyecci´on on lineal  lineal   α. Debido a que las proyecciones lineales y las regresiones OLS comparten la misma estructura matem´atica, atica, las declar dec laraci acione oness sobre sobre una tienen tienen un parale paralelo lo en la otra. otra. Esto Esto puede puede ser un dis disposi positiv tivoo util u ´ til para recordar los resultados o confirmar la ´algebra. algebra. Por ejemplo, la declaraci´on on sobre los momentos de la poblaci´on: on: E (Y  2 ) = V ar( ar (Y  )  ) + [E  [ E (Y   )] )]2 ,   [4 [4.A. .A.4] 4] Tiene el an´alogo alogo de la muestra 1 T  con y¯ = (1/T )







   1 yt2  =

T  t=1

t=1

(yt

− y¯)2 + (¯ (y¯)2 ,   [4 [4.A. .A.5] 5]

T  t=1 yt .

Como segundo ejemplo, supongamos que estimamos una serie de  n regresiones  n  regresiones OLS, con y con  y it  la variable dependiente para la i-´esima esima regresi´oon n y   xt   a (k  x 1) vector de variables explicativas comunes a cada uno regresi´on. Sea y Sea  y t (y1t , y2t ,..,ynt ) y escrito el modelo de regresi´on on como

 ≡



yt  =





xt  + u  +  ut

(n x  x k  k)) de coeficientes de regresi´on. on. Entonces la matriz de varianza-cov varianza-covarianza arianza de la muestra para  una matriz (n de los residuos OLS puede deducirse de

   −         − T 





1 yt xt T  t=1

1 1 yt yt uˆt  ˆ ut  = T  t=1 T  t=1

donde u ˆt  =  y t



1 xt xt T  t=1

−1



1  [4.A. .A.6] 6] xt yt ,  [4 T  t=1

   ˆ  x  , y la l a i-´esima esima fila de   ˆ es dada por:

πˆt  =

1

−1



xt x

1





xt ytt

.

      T 

EJERCICIO 9

t=1

t



t=1

Suponga que X  que  X t  sigue un proceso AR proceso  AR(( p)  p) y  v t  es un proceso ruido blanco que no est´a correlacionado con con X   X t−j para todo j todo  j . Pruebe que la suma Y t  =  X t  + v  +  vt sigue un proceso ARMA proceso  ARMA(( p, p). Soluci´ on: on:

−  

Sea X t  = Sea X   = φ  φ 1 X t−1 +φ2 X t−2 +. . .+φ p X t− p +t  que puede ser reescrito como: 1 t

 − −

Sea  W t  = Sea W   = v  v t  al cual podemos multiplicar por 1 φ1 L + φ  + φ2 L2 + . . . +  + φ  φ p L p  a ambos lados 1 φ1 L +  + φ  φ2 L2 + . . . + φ  + φ p L p W t  = 1 φ1 L + φ  + φ2 L2 + . . . +  + φ  φ p L p vt

−

Entonces sumando s umando los dos d os t´erminos erminos verticalmente: verticalme nte: 10



 + φ  + φ φ1 L +  φ2 L2 + . . . +  φ p L p X t  =

 

− − 1



−

 +  W t ] =   t + 1 φ1 L + φ  + φ2 L2 + . . . + φ  + φ p L p [X t + W 

1



−

φ1 L + φ  + φ2 L2 + . . . + φ  + φ p L p Y t  =   t  + 1



φ1 L +  + φ  φ2 L2 + . . . +  + φ  φ p L p vt



φ1 L +  + φ  φ2 L2 + . . . +  + φ  φ p L p vt

La ecuaci´on on claramente denota que  que   Y t  sigue un proceso ARMA proceso  ARMA(( p, ?) . procederemos identificar el orden MA del proceso ARMA 2

−

2

2

 p

 ∼



 ∼ W N 

 

Definamos   Z t  = Definamos  =    t   y   M t  = 1 φ1 L + φ  + φ2 L + . . . + φ  + φ p L vt  donde  donde    t W N  0, σ  y  v t Las autocovarianzas de Z  de  Z t  siguen la forma:   γ 0Z  ,  γ 1Z  ,  γ 2Z  , . . . y .  y las de M  de  M t ,  γ 0M   ,   γ 1M   ,  γ 2M   , . . . Asumimos que E  que  E  (Z   (Z t M t−j ) = 0 para todo j.

  0, σv

{ }

Observamos S  Observamos  S t  =  = Z   Z t +  + M   M t  , y definimos q  definimos  q  =  = max  max 0, p = p La autocovarianza de S  de  S t  de orden j est´a dada por E  (S   (S t S t−j ) = E  (Z   (Z t + M   +  M t ) (Z t−j  +  + M   M t−j )

E  (S   (S t S t−j ) = E  (Z   (Z t Z t−j ) + E  + E  (M   (M t M t−j )

γ jZ   + γ jM    paraj = paraj  = 0, 1, 2, . . . , q  E  (S   (S t S t−j ) =



0

  ± ±± ± ± ±

 

j = 0, 0 , 1, 2, . . . , q 

Entonces las autocovarianzas son 0 despues de  q  rezagos,  q  rezagos, los que nos dice que  que   S t  debe estar representado por in proces procesoo  M A(q ) =  M A( p)  p)

 −

−

Entonces:   S t  =   t + 1 φ1 L + φ  + φ2 L2 + . . . + φ  + φ p L p vt  = 1 , donde  donde   S t  sigue un proceso M proceso  M A( p)  p)



 donde ε  εt ψ1 L +  + ψ  ψ2 L2 + . . . +  + ψ  ψ p L p εt donde

 ∼ W N 

  0, σε2

As As´´ı llegamos a la conclusi´ conclusi on ´on que:

− 1

 −  

 + φ p L p Y t  = 1  + φ2 L2 + . . . + φ φ1 L + φ

Y t  sigue un proceso ARMA proceso  ARMA(( p, p) donde ε donde  ε t

 ∼ W N 

EJERCICIO 11



 + ψ  + ψ  ψ p L p εt ψ1 L +  ψ2 L2 + . . . +

0, σε2 .

Probar que el MLE condicional es el promedio de los residuos al cuadrado provenientes de una regresi´on on OLS Soluci´ on: on: Una alternativa para la maximizaci´oon n num´erica erica de la funci´on on de verosimilitud excata es considerar el valor de y1 como determin´ determin´ıstico y maximizar la verosimilitud condicionada sobre la primera observaci´on on T 

 f Y Y T   , Y T T, T  

1 ,...,Y 2 |Y 1



 |

(yT, yT  T − −1 ,...,y2 y1 ; θ ) =



 |

f Y  Yt  |Y t 1 (yt yt−1 ; θ ) −

t=2

el objetivo es entonces maximizar

T  log f Y TT,, Y TT  

1 ,...,Y 2 |Y 1



 |

T − −1 ,...,y2 y1 ; θ ) = (yT, yT 

1 T  1 log(2π π) log(σ σ2 ) 2   log(2 2   log(

−  −

−  −



− t=2



La maximizaci´on on de (a (a) con respecto a c a  c  y  φ  es equivalente a la minimizaci´on on de 11

(yt

c

φyt−1 )2

− 2−σ2



........................((a) ........................

 





(yt

t=2

− c − φyt−1)2.......................... ..........................((b)

la cual es conseguida mediante una regresi´on on por p or m´ınimos ınimos cuadrados ordinarios ordinari os (OLS) (OL S) de y de  yt  sobre una constante y sus propios valores rezagados. Por lo tanto, el estimador de m´axima axima verosimilitud condicional de de c  c  y  φ  est´a dado por

   − −        cˆ  =  T  1 φˆ yt−1

 

donde

yt yt−1 yt

yt2−1 yt−1

denota la sumatoria sobre t sobre  t  = 2, 3,...,T.

El estimador por m´axima axima verosimilitud condicional de la varianza de la innovaci´on, on,  σˆ2 , es encontrado diferenciando (a (a) con respecto a σ a  σ 2 e igualando el resultado a cero

 − −  −

 T 

T  1 (yt  + 2 2σ t=2

− c − φyt−1)2 2σ 4



 = 0

o T 

σˆ2 =

(yt

ˆ t−1 )2 − cˆ −  φy T 

t=2

 −



1



Demostrando que la MLE condicional es el promedio de los residuos al cuadrado provenientes de la regresi´on on OLS (b (b). EJERCICIO 13 Ejemplos de predicci´on on con R: library(readr) data 
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF