Econometria de Series de Tiempo
July 8, 2022 | Author: Anonymous | Category: N/A
Short Description
Download Econometria de Series de Tiempo...
Description
Universidad Nacional Mayor de San Marcos Factultad de Ciencias Econ´ o omicas micas - Semestre 2017-I Econometr´ ııa a de Series de Tiempo Profesor: Miguel Ata Ataurima urima Arellan Arellano o
Problem Set 02- Solucionario
Integrantes: Flores Paucar Susan Liliana Lauro Huacanca Julissa Jaquelin Romero Espinoza Karen Trujillo Morillas Cinthia Elizabeth Aula: 213-N EJERCICIO 1
×
Use la f´ormula ormula
α(m) = µ γ 1 + + µ µ2
γ 2 + µ + µ2
. . . γm + µ + µ2
··· µ · · · γ m−1 + + µ µ2 · · · γ m−2 + + µ µ2
1 µ µ γ 0 + + µ µ2 µ γ 1 + + µ µ2 .. .. . . µ γ m−1 + + µ µ2
µ γ 1 + + µ µ2 γ 0 + + µ µ2 .. . γ m−2 + + µ µ2
..
.
···
... γ 0 + + µ µ2
−1
para probar que para una proceso estacionario en covarianza, la proyecci´on on Y t+1 sobre una constante constante Y t est´a dada por: ˆ [Y E [Y t+1 Y t ] = (1
|
− ρ1)µ + + ρ ρ1 Y t
γ 1 donde µ = donde = E E [Y [Y t ] y ρ 1 = γ 0
Soluci´ on: on: Para una proceso estacionario en covarianza, la proyecci´on Y on Y t+1 sobre una constante Y constante Y t est´a dada por: ˆ [Y E [Y t+1 X t ] = α (1) X t Donde X Donde X t =
1 Y t
y α
(1)
= µ γ 1 + µ + µ2
(1)
α
1 µ µ γ 0 + µ + µ2
α(1) = µ γ 1 + µ + µ2
1 γ 0
α(1) = µ γ 1 + µ + µ2
1
−1
1 µ µ γ 0 + + µ µ2
γ 0 + + µ µ2 µ
−µ
= µ γ 1 + µ + µ2
|
−
2
1 + µγ 0
− γ µ
0
−1
1
− γ µ
0
1 γ 0
α(1) = µ
γ 1 γ 0
− µ γ γ
1 0
= µ (1
ˆ [Y Entonces E [Y t+1 X t ] = α (1) X t est´a expresado por:
|
ˆ [Y E [Y t+1 X t ] = α (1) X t = µ (1
|
− ρ1) ρ1
− ρ1) ρ1
1 Y t
= (1
− ρ1) µ + + ρ ρ1 Y t
Entonces queda demostrado que la proyecci´on Y on Y t+1 sobre una constante Y constante Y t est´a dada por: ˆ [Y E [Y t+1 Y t ] = (1
|
− ρ1) µ + + ρ ρ1 Y t
a) Probar que para el proceso AR(1). ´este este reproduce la ecuaci´on on φs ˆ E [Y [Y t+s Y t , Y t−1 , . . .] .] = µ + µ + (1 1 φL
|
−
− φL φL)( )(Y Y t − µ) = µ + µ + φ φs (Y t − µ)
para s = 1 para Soluci´ on: on: ˆ [Y Para s Para s = = 1 : E [Y t+1 Y t , Y t−1 ] = µ + µ + φ φ((Y t
|
− µ)
Entonces para un proceso AR proceso AR(1) (1) Y t = c = c + + φY φY t−1 + + t Sabemoss que µ Sabemo que µ =
c 1−φ ,
entonces: Y t = µ
(Y t
− φµ φµ + + φY φY t−1 + + t
− µ) = φ (Y t−1 − µ) + + t
Ahora que hemos expresado las variable en desviaci´on on respecto a su media, podemos p odemos calcular calcular la proyecci´ proyecci´ on on de Y t−1 µ sobre :
−
X t = (Y t obteniendo:
Y Y t+1|t
− µ)
− µ =
(Y t−1
(2) α1
Ya que en un AR un AR(1) (1) solo conocemos Y conocemos Y t y Y t−1 , m = 2
Y Y t+1|t
− µ)
(2) α2
X t
− µ = α = α (2) + α2(2) (Y t−1 − µ) 1 (Y t − µ) + α
Dada esta definici´on on de X de X t , los coeficientes pueden ser calculados directamente a partir de:
α(m) = E Y t+1 X t
−1
E X t X t
α(2) = E Y t+1 X t
2
E X t X t
−1
(2)
α1 (2) α2
α(2) 1 (2) α2
=
γ 0 γ 1 γ 1 γ 0
=
2
α2(2)
Y Y t+1|t
(2) (2) − µ = α + α2 (Y t−1 − µ) = α 1 (Y t − µ) + α
ˆ [Y Y Y t +1|t = E [Y t+1 Y t , Y t−1 ] = µ + µ +
γ 1 γ 2
−γ 12+γ 02γ 2 γ 0 −γ 1
Entonces:
γ 1 γ 2
γ 0 γ 1 −γ 1 γ 2 γ 02 −γ 12
(2)
α1
−1
−γ 1 γ 02 −γ 12 γ 0 γ 02 −γ 12
γ 0 γ 02 −γ 12 −γ 1 γ 02 −γ 12
=
|
Sabemos que para un proceso AR proceso AR(1): (1): γ 0 =
− −
γ 1 (γ (γ 0 γ 2 ) (Y t γ 02 γ 12
− 1 1−φ2
2
+ + γ γ 0 γ 2 − µ) + −γ γ 12 − (Y t−1 − µ) γ 2 0
σ 2 , γ 1 = φγ = φγ 0 , γ 2 = φ 2 γ 0
φγ 0 γ 0 φ2 γ 0 ˆ (Y t Y t+1|t = E [Y [Y t+1 Y t , Y t−1 ] = µ + µ + γ 02 φ2 γ 02
|
1
2 2
2 2
+ φ φ γ 0 − µ) + −φγ 2γ 0 + (Y t−1 − µ) 2 φ γ 02 0 − − ˆ [Y Y Y t+1|t = E [Y t+1 |Y t , Y t−1 ] = µ + µ + φ φ (Y t − µ)
b) Probar que para el proceso MA(1). ´este este reproduce la ecuaci´on on
θ 1 + θ + θ 2 + θ 4 + . . . + + θ θ 2(n−2) ˆ E [Y [Y n Y n−1 , Y n−2 , . . . , Y1 ] = µ + µ + 1 + θ + θ 2 + θ 4 + . . . + θ + θ 2(n−1)
|
para n = 2 para
Y n−1
Soluci´ on: on: Se tiene un proceso MA(1): Y t = µ = µ + + t + θ + θ t−1
∼ W N N (0 (0,, σ 2 ) con varianza σ varianza σ 2 y θ irrestricto. Buscamos predecir el valor de Y de Y t en base a los n los n − 1 = 1 valores previos (Y (Y 1 )
donde t donde Sea
Y = (Y 1
− µ)
(Y 2
− µ)
Sea Ωla matriz(2x2) de varianzas y covarianzas de Y de Y
Ω = E YY =
2
1 + + θ θ θ θ 1+ + θ θ 2
Se puede probar que la factorizaci´on on triangular de Ω nos da
A =
1 θ 1+θ 2
3
0 1
−
E ˆ [Y [Y n−1 Y n−2 , . . . , Y1 ]
|
D = σ = σ 2
1+ + θ θ 2 0
0 1+θ2 +θ4 1+θ2
El siste sistema ma de ecuaciones ecuaciones A A Y = Y = Y po podemo demoss escribi escr ibirlo rlo expl´ıcitam ıci tamente ente as´ıı::
− − −− −− Y Y1 = Y 1
µ
θ Y Y 1 + Y Y 2 = Y 2 1 + θ + θ 2
µ
Entonces resolviendo la ultima u ´ ltima ecuaci´on on para Y Y n = Y Y 2 Y Y 2 = Y = Y 2 y como
θ Y Y1 = Y 2 1 + θ + θ 2
µ
−
|
E E [Y [Y 2 Y 1 ] = Y 2
− Y Y 2 = Y = Y 2 −
Y 2
θ [Y 1 1 + θ + θ 2
− µ]
|
E E [Y [Y 2 Y 1 ]
Y Y 2 = Y = Y 2 tenemos que
µ
−µ−
θ 1 + θ + θ 2 [Y 1
|
E E [Y [Y 2 Y 1 ] == == µ µ + +
−
θ [ [Y Y 1 1 + θ + θ 2
θ µ] = = µ µ + + 1 + θ Y 1 + θ 2 [ [Y
− µ]
− µ]
c) Probar que para un proceso AR(2), la predicci´oon n asociada es µ +
φ1 (Y t 1 φ2
−
− µ)
Soluci´ on: on: Para un proceso AR proceso AR(2) (2) Y t = c = c + + φ φ1 Y t−1 + φ + φ2 Y t−2 + + t Sabemoss que µ Sabemo que µ =
c 1−φ1 −φ2 ,
entonces: Y t = µ = µ
(Y t
− φ1µ − φ2µ + φ + φ1 Y t−1 + + φ φ2 Y t−2 + + t
− µ) = φ1 (Y (Y t−1 − µ) + φ + φ2 (Y (Y t−2 − µ) + + t
Ahora que hemos expresado las variable en desviaci´on on respecto a su media, podemos p odemos calcular calcular la proyecci´ proyecci´ on on de Y t+s µ sobre :
−
X t = (Y t
− µ)
(Y t−1
− µ)
(3) α1
(3) α2
(Y t−2
− µ)
obteniendo:
Y Y t+s|t
− µ =
4
(3) α3
X t
Ya que en un AR un AR(2) (2) solo conocemos Y conocemos Y t , Y t−1 , y Y t−2 , m m = = 3
Y Y t+s|t
− µ = α = α (2) + α(2) + α(3) 1 (Y t − µ) + α 2 (Y t−1 − µ) + α 3 (Y t−2 − µ)
Dada esta definici´on on de X de X t , los coeficientes pueden ser calculados directamente a partir de:
α
(m)
E X t X t
α(2) 1 (2) α2
E X t X t −1
γ 0 γ 1 γ 1 γ 0
=
γ 1 γ 2
γ 0 γ 1 −γ 1 γ 2 γ 02 −γ 12 −γ 12 +γ 0 γ 2 γ 02 −γ 12
(2)
α1 α(2) 2
γ 1 γ 2
−γ 1 γ 02 −γ 12 γ 0 γ 02 −γ 12
γ 0 γ 02 −γ 12 −γ 1 γ 02 −γ 12
=
−1
α(3) = E Y t+1 X t α(2) 1 (2) α2
−1
= E Y t+1 X t
=
Entonces:
Y Y t+1|t
(2) (2) − µ = α = α 1 (Y t − µ) + α + α2 (Y t−1 − µ)
− −
γ 1 (γ (γ 0 γ 2 ) ˆ [Y Y Y t +1|t = E [Y t+1 Y t , Y t−1 ] = µ + µ + (Y t γ 02 γ 12
|
Sabemos que para un proceso AR proceso AR(1): (1): γ 0 =
− 1 1−φ2
− γ 12 + + γ γ 0 γ 2 − µ) + γ 2 − (Y t−1 − µ) γ 12 0
σ 2 , γ 1 = φγ = φγ 0 , γ 2 = φ 2 γ 0
φγ 0 γ 0 φ2 γ 0 ˆ (Y t Y Y t +1|t = E [Y [Y t+1 Y t , Y t−1 ] = µ + µ + γ 02 φ2 γ 02
|
−
− φ2 γ 02 + + φ φ2 γ 02 − µ) + γ 2 − φ2γ 2 (Y t−1 − µ) 0 0
ˆ [Y Y t+1|t = E [Y t+1 Y t , Y t−1 ] = µ + µ + φ φ (Y t
|
µ)
−
¿Est´ a el error asociado con esta predicci´on on correlacionado con con Y Y t ? ¿Est´a correlacionado con Y con Y t−1 ? EJERCICIO 3
Encuentre la factorizaci´on on triangular de la siguiente matriz:
− − − − 1 2 3
2 6 4
3 4 12
Soluci´ on: on: Por la Factorizaci´on on de Cholesky, la factorizaci´on on triangular puede ser escrita como: 1
2
1
2
1
2
1
2
Ω = ADA = ADA = AD / D / A = (AD / )( )(AD AD / ) o
5
Ω = = PP donde: P
≡ AD / 1
2
Se puede calcular la descomposici´on on de Cholesky porque la matriz es sim´etrica etrica y definida positiva. La factorizaci´ on on puede ser calculada directamente a trav´ t rav´es es de las siguientes f´ormulas. ormulas. 2 = a uii ii
uij =
i−1 2 k =1 uik para los elementos de la diagonal j 1 k=1 u ik ujk para el resto de los elementos. ujj
−
aij −
principal, y
−
Donde u Donde u ij son los elementos de la matriz. Desarrollando tendremos: g11 =
g22 =
− a22
√ a11 = 1; g21 = a21 = −2; g31 = a31 = 3
2 = g21
g33 =
g11
g11
√
2; g32 =
− a33
− g31 ∗ g21 = −4 −√ 3(−2) = √ 2 = √ 2
a32
2 g31
g22
− g322 =
2
− − √ 12
2
9
2
2
=1
con lo cual obtenemos la factorizaci´on on de Cholesky de de Ω Ω Ω = =
− − − − − 1 2 3
2 6 4
3 4 = 12
1 2 3
0 0 2 0 2 1
√ √
donde P es el factor de Cholesky de Ω : donde Ω :
P
P =
1 0 0
2 2 0
3 = PP PP 2 = 1
≡ AD / 1
2
√ √ − √ √ − √ 1 0 0 2 1 0 3 1 1
1 0 0
1 2 3
P =
EJERCICIO 5
√ − √
0 2 2
0 2 0
0 0 1
0 0 1
Probar que para un proceso Gausiano, la proyecci´on on lineal brinda la predicci´oon n ´ooptima ptima no restricta restricta −1 ˆ [Y µ + Ω21 Ω11 [Y 2 Y 1 ] = µ + (y ( y1 E [Y [Y 2 Y 1 ] = E
|
|
− µ1)
Soluci´ on: on: Para los procesos pro cesos Gaussianos, podemos afirmar que mientras se incluya un t´ermino ermino constante entre las variables en las que se basa la predicci´oon, n, la predicci´on on no restricta optima ´optima resulta tener una forma lineal y, por lo tanto, est´ a dada por la proyecci´on on lineal.
×
Para verificar esto, definamos Y definamos Y 1 como un vector (n (n1 1) con media µ media µ 1 y Y 2 como un vector (n ( n2 µ2 , donde la matriz de varianzas y autocovarianzas est´a dada por: 6
× 1) con media
− − −
− µ1) (Y 1 − µ1) E (Y 2 − µ2 ) (Y 1 − µ1 )
E (Y 1
− µ2 ) µ) (Y 2 − µ2 )
µ1 ) (Y 2
E (Y 1
E (Y 2
=
Si Y Si Y 1 y Y 2 son Gaussianos, entonces la densidad de probabilidad conjunta es ( Y 1 , Y 2 ) = f Y Y 1 ,Y 2 (Y
−1/2
Ω11 Ω12 Ω21 Ω22
1 (2π)(n1 +n2 )/2
1 [(y [( y1 2
exp
− µ1) ’ (y2 − µ2) ’]
Ω11 Ω12 Ω21 Ω22
Ω11 Ω12 Ω21 Ω22
−1
y1 y2
− µ1 − µ2
Por la factorizaci´on on triangular por bloques:
Ω11 Ω12 Ω21 Ω22
Ω11 0
I n1 0 −1 I n2 Ω21 Ω11
=
Ω11 Ω12 Ω21 Ω22
0
Ω22
−
−1 Ω12 Ω21 Ω11
= ADA = ADA
I n1 0
−1 Ω11 Ω 12
I n2
Entonces Ω
I n1
Ω−1 =
−1
−1
−1 Ω11
−Ω11−1 Ω12
0
I n2
= A
= ADA
0
Ω22
−1
D
−1
A
−1
0 −
− Ω21Ω111 Ω12
I n1
−1
−
0
−1
Ω21 Ω11 I n2
Igualmente, la determinante de Ω se puede calcular tomando la determinante de ADA
|Ω | =
| |
A D A
Ya que A que A es una matriz triangular inferiror. Su determinante est´a dada por los productos pro ductos de los t´erminos erminos de la diagonal principal, los cuales resultan la unidad. A = = 1 , entonces Ω = D
|Ω| =
Ω11 0
0
−
Ω22
1 Ω21 Ω− 11 Ω 12
| |
= = Ω11 Ω22
−Ω
21
−1 Ω11 Ω12
Entonces la funci´oon n de densidad de probabilidad conjunta queda expresada como:
− − × − − − − − − | | − − − − − −
( Y 1 , Y 2 ) = f YY 1 ,Y 2 (Y
1
|Ω11|− (n +n )/2
(2 (2π π)
1
1 Ω− 11
Ω22
n1 +n2 )/2
Ω11
(2 (2π π )(
× exp
1 2 (y1
−1 Ω21 Ω11 Ω12
Ω22
µ2 )
0
−1 Ω21 Ω11 Ω 12
− 12
Ω22
µ1 ) ’ (y2
−1
1 Ω21 Ω− 11 Ω 12 −1 Ω11
m)
0
7
− 12
−1 Ω11 I n1 Ω 12 0 I n2
µ1 ) (y2
0
1
1 2
2
1 exp(( (y1 exp 2
( Y 1 , Y 2 ) = f YY 1 ,Y 2 (Y
I n1 0 −1 I n2 Ω21 Ω11
y1 y2
µ1 µ2
)
− 12
Ω22
0
−1 Ω12 −1 Ω21 Ω11
y1 y2
µ1 m
f YY 1 ,Y 2 (Y ( Y 1 , Y 2 ) =
1
(2 (2π π)
× exp
|Ω11|− (n +n )/2 2
1
−
1 2
1 (y ( y1 2
−
Ω22
− Ω21Ω−111 Ω12 −
1 µ1 ) ’Ω− 11 (y1
− µ1) −
1 (y ( y2 2
1 2
− m)
Ω22
−
−1 −1 (y2 Ω12 Ω21 Ω11
− m)
donde −1 (y1 m = µ = µ 2 + Ω 21 Ω11
− µ1)
La funci´on on densidad condicional de Y de Y 2 dada por Y por Y 1 se puede hallar dividiendo la funcion de densidad conjunta entre la funci´on on de densidad marginal: f YY 1 (Y 1 ) =
1
|Ω11|
− 12
n1 /2
(2 (2π π)
exp
−
1 (y ( y1 2
−
1 µ1 ) ’Ω− 11 (y1
− µ1 )
El resultado de esta divisi´oon n es:
|
f YY 2 |Y 1 (Y 2 Y 1 ) = 1
f YY 2 |Y 1 (Y 2 Y 1 ) =
|
donde:
f YY 1 ,Y 2 (Y ( Y 1 , Y 2 ) f Y Y1 (Y 1 ) 1
1
n2 /2
H − 2 exp
−
| |
(2 (2π π)
H = Ω22
m) ’H−1 (y2
(y ( y2
−
2
m)
−
− Ω21Ω11−1 Ω12
En otras palabras,
| ∼ N N ((m, H)
Y 2 Y 1
| ∼ N
Y 2 Y 1
−1 µ2 + Ω 21 Ω11 (y1
− µ1)
, Ω22
− Ω21Ω11−1 Ω12
Ya que la predicci´on on irrestricta ´optima optima es dada por la esperanza esperanza condicional condicional.. Para Para un proceso proceso Gaussiano, Gaussiano, la predicci´ oon n optima ´optima es: −1 E (Y (Y 2 Y 1 ) = µ2 + Ω 21 Ω11 (y1
|
− µ1)
Por otro lado, para cualquier distribuci´oon, n, la proyecci´on on lineal del vector vector Y 2 con un vector vector Y 1 y una t´ermino ermi no constante, est´a dada por:
−1 E E (Y (Y 2 Y 1 ) = µ2 + Ω 21 Ω11 (y1
|
− µ1)
Entonces, para un proceso Gaussiano, la proyecci´oon n lineal nos da una predicci´oon n ´ooptima ptima no restricta. EJERCICIO 7 Soluci´ on: on: Realice una discusion del Paralelo entre una regresi´on on OLS y una Proyecci´on on Linea Lineal. l. Paralelo entre la regresi´on on OLS y la proyecci´oon n lineal: Ya sabemos que una regresi´oon n OLS es un resumen de las observaciones muestrales particulares (x ( x1 , x2 ,...,xT ) y (y2 , y3 ,...,yT +1 ), mientras que la Proyecci´on on lineal lineal es un resumen resumen de las caracter caracter´´ısticas ısticas poblacionale poblacionaless del ∞ proceso estoc´astico astico X t , Y t+1 t=−∞ .
{
}
8
Aunque la proyecci´on on lineal describe momentos de la poblaci´oon n y los m´ınimos cuadrados ordinarios describen momentos muestrales, existe un sentido matem´atico atico formal en el que las dos operaciones son las mismas. Este paralelo se desarrolla mediante la introducci´oon n de una variable variable aleatoria artificial construida espec´ espec´ıficamente para tener momentos de poblaci´on on id´enticos enticos a los momentos de muestreo de una muestra particular. Demostrar que en alguna muestra paticular sobre la cual pretendemos realizar OLS hemos observado valores T particulares T particulares para la muestra explicativa del vector, denotado denotado x1 , x2 ,...,xT . Consid´ erese erese una variable variable aleatoria artificial discreta discreta ξ ξ que puede tomar s´oolo lo uno de estos valores T valores T particulares, cada uno con probabilidad (1/T ):
{
}
{
}
P ξ = x = x 1 = 1/T
P ξ = x = x 2 = 1/T .. .
{
}
P ξ = = x T = 1/T . As´ı, ξ ξ es es una variable aleatoria artificialmente construida cuya distribuci´on on de probabilidad de la poblaci´on on viene dada por la funci´on on de distribuci´on on emp em p´ırica ıri ca de x t . La media poblacional de la variable aleatoria ξ aleatoria ξ es T
T
E (ξ ) =
t=1
∗ {
xt P ξ = = x t
}
1 xt . = T t=1
As As´´ı, la media de la la p poblaci´ oblaci´on on de ξ de ξ es es igual a la media de la muestra observada de la variable aleatoria verdadera xt . El segundo momento de la poblaci´on on de ξ de ξ es T
1 [4.A. .A.1] 1] xt xt [4 E (ξξ ) = T t=1
que es el segundo momento de la muestra de (x (x1 , x2 ,...,xT ). Podemos construir de manera similar una segunda variable artificial ω que puede tomar uno de los valores discretos (y (y2 , y3 ,...,yT +1 ). Supongamos que la distribuci´on on conjunta de ω de ω y ξ viene ξ viene dada por
{
}
P ξ = = x t , ω = y = y t+1 = 1/T parat parat = = 1, 2,...,T. Entonces T
1 xt yt+1 , [4 [4.A. .A.2] 2] E (ξω) ξω ) = T t=1 El coeficiente para una proyecci´on on lineal de de ω en en ξ ξ es es el valor de α de αque que minimiza
E (ω
− αξ )2 = T 1
T
(yt+1
t=1
− αxt )2. [4[4.A. .A.3] 3]
As´ As´ı, la regr regresi´ esi´oon n de m´ınimos cuadrados ordinarios ordinarios puede verse como un caso especial especial de proyec proyecci´ ci´ on on lineal. El valor de α que minimiza[4.A. minimiza[4.A.3]puede 3]puede ser encontrado de sustituir las expresiones de los momentos de la poblaci´on on de las variables aleatorias artificiales en la f´ormula ormula de una proyecci´on on lineal: lineal: 9
α = [E (ξξ )]
−1
T
1 xt xt E (ξω) ξω ) = T t=1
−1
T
1 xt yt+1 . T t=1
Por lo tanto, la f´ormula ormula para la estimaci´on on OLS OLS b puede obtenerse como caso especial de la f´ormula ormula para el coeficiente de proyecci´on on lineal lineal α. Debido a que las proyecciones lineales y las regresiones OLS comparten la misma estructura matem´atica, atica, las declar dec laraci acione oness sobre sobre una tienen tienen un parale paralelo lo en la otra. otra. Esto Esto puede puede ser un dis disposi positiv tivoo util u ´ til para recordar los resultados o confirmar la ´algebra. algebra. Por ejemplo, la declaraci´on on sobre los momentos de la poblaci´on: on: E (Y 2 ) = V ar( ar (Y ) ) + [E [ E (Y )] )]2 , [4 [4.A. .A.4] 4] Tiene el an´alogo alogo de la muestra 1 T con y¯ = (1/T )
T
T
1 yt2 =
T t=1
t=1
(yt
− y¯)2 + (¯ (y¯)2 , [4 [4.A. .A.5] 5]
T t=1 yt .
Como segundo ejemplo, supongamos que estimamos una serie de n regresiones n regresiones OLS, con y con y it la variable dependiente para la i-´esima esima regresi´oon n y xt a (k x 1) vector de variables explicativas comunes a cada uno regresi´on. Sea y Sea y t (y1t , y2t ,..,ynt ) y escrito el modelo de regresi´on on como
≡
yt =
xt + u + ut
(n x x k k)) de coeficientes de regresi´on. on. Entonces la matriz de varianza-cov varianza-covarianza arianza de la muestra para una matriz (n de los residuos OLS puede deducirse de
− − T
T
T
1 yt xt T t=1
1 1 yt yt uˆt ˆ ut = T t=1 T t=1
donde u ˆt = y t
T
1 xt xt T t=1
−1
T
1 [4.A. .A.6] 6] xt yt , [4 T t=1
ˆ x , y la l a i-´esima esima fila de ˆ es dada por:
πˆt =
1
−1
T
xt x
1
T
xt ytt
.
T
EJERCICIO 9
t=1
t
T
t=1
Suponga que X que X t sigue un proceso AR proceso AR(( p) p) y v t es un proceso ruido blanco que no est´a correlacionado con con X X t−j para todo j todo j . Pruebe que la suma Y t = X t + v + vt sigue un proceso ARMA proceso ARMA(( p, p). Soluci´ on: on:
−
Sea X t = Sea X = φ φ 1 X t−1 +φ2 X t−2 +. . .+φ p X t− p +t que puede ser reescrito como: 1 t
− −
Sea W t = Sea W = v v t al cual podemos multiplicar por 1 φ1 L + φ + φ2 L2 + . . . + + φ φ p L p a ambos lados 1 φ1 L + + φ φ2 L2 + . . . + φ + φ p L p W t = 1 φ1 L + φ + φ2 L2 + . . . + + φ φ p L p vt
−
Entonces sumando s umando los dos d os t´erminos erminos verticalmente: verticalme nte: 10
+ φ + φ φ1 L + φ2 L2 + . . . + φ p L p X t =
− − 1
−
+ W t ] = t + 1 φ1 L + φ + φ2 L2 + . . . + φ + φ p L p [X t + W
1
−
φ1 L + φ + φ2 L2 + . . . + φ + φ p L p Y t = t + 1
φ1 L + + φ φ2 L2 + . . . + + φ φ p L p vt
φ1 L + + φ φ2 L2 + . . . + + φ φ p L p vt
La ecuaci´on on claramente denota que que Y t sigue un proceso ARMA proceso ARMA(( p, ?) . procederemos identificar el orden MA del proceso ARMA 2
−
2
2
p
∼
∼ W N
Definamos Z t = Definamos = t y M t = 1 φ1 L + φ + φ2 L + . . . + φ + φ p L vt donde donde t W N 0, σ y v t Las autocovarianzas de Z de Z t siguen la forma: γ 0Z , γ 1Z , γ 2Z , . . . y . y las de M de M t , γ 0M , γ 1M , γ 2M , . . . Asumimos que E que E (Z (Z t M t−j ) = 0 para todo j.
0, σv
{ }
Observamos S Observamos S t = = Z Z t + + M M t , y definimos q definimos q = = max max 0, p = p La autocovarianza de S de S t de orden j est´a dada por E (S (S t S t−j ) = E (Z (Z t + M + M t ) (Z t−j + + M M t−j )
E (S (S t S t−j ) = E (Z (Z t Z t−j ) + E + E (M (M t M t−j )
γ jZ + γ jM paraj = paraj = 0, 1, 2, . . . , q E (S (S t S t−j ) =
0
± ±± ± ± ±
j = 0, 0 , 1, 2, . . . , q
Entonces las autocovarianzas son 0 despues de q rezagos, q rezagos, los que nos dice que que S t debe estar representado por in proces procesoo M A(q ) = M A( p) p)
−
−
Entonces: S t = t + 1 φ1 L + φ + φ2 L2 + . . . + φ + φ p L p vt = 1 , donde donde S t sigue un proceso M proceso M A( p) p)
donde ε εt ψ1 L + + ψ ψ2 L2 + . . . + + ψ ψ p L p εt donde
∼ W N
0, σε2
As As´´ı llegamos a la conclusi´ conclusi on ´on que:
− 1
−
+ φ p L p Y t = 1 + φ2 L2 + . . . + φ φ1 L + φ
Y t sigue un proceso ARMA proceso ARMA(( p, p) donde ε donde ε t
∼ W N
EJERCICIO 11
+ ψ + ψ ψ p L p εt ψ1 L + ψ2 L2 + . . . +
0, σε2 .
Probar que el MLE condicional es el promedio de los residuos al cuadrado provenientes de una regresi´on on OLS Soluci´ on: on: Una alternativa para la maximizaci´oon n num´erica erica de la funci´on on de verosimilitud excata es considerar el valor de y1 como determin´ determin´ıstico y maximizar la verosimilitud condicionada sobre la primera observaci´on on T
f Y Y T , Y T T, T
1 ,...,Y 2 |Y 1
−
|
(yT, yT T − −1 ,...,y2 y1 ; θ ) =
|
f Y Yt |Y t 1 (yt yt−1 ; θ ) −
t=2
el objetivo es entonces maximizar
T log f Y TT,, Y TT
1 ,...,Y 2 |Y 1
−
|
T − −1 ,...,y2 y1 ; θ ) = (yT, yT
1 T 1 log(2π π) log(σ σ2 ) 2 log(2 2 log(
− −
− −
T
− t=2
La maximizaci´on on de (a (a) con respecto a c a c y φ es equivalente a la minimizaci´on on de 11
(yt
c
φyt−1 )2
− 2−σ2
........................((a) ........................
T
(yt
t=2
− c − φyt−1)2.......................... ..........................((b)
la cual es conseguida mediante una regresi´on on por p or m´ınimos ınimos cuadrados ordinarios ordinari os (OLS) (OL S) de y de yt sobre una constante y sus propios valores rezagados. Por lo tanto, el estimador de m´axima axima verosimilitud condicional de de c c y φ est´a dado por
− − cˆ = T 1 φˆ yt−1
donde
yt yt−1 yt
yt2−1 yt−1
denota la sumatoria sobre t sobre t = 2, 3,...,T.
El estimador por m´axima axima verosimilitud condicional de la varianza de la innovaci´on, on, σˆ2 , es encontrado diferenciando (a (a) con respecto a σ a σ 2 e igualando el resultado a cero
− − −
T
T 1 (yt + 2 2σ t=2
− c − φyt−1)2 2σ 4
= 0
o T
σˆ2 =
(yt
ˆ t−1 )2 − cˆ − φy T
t=2
−
1
Demostrando que la MLE condicional es el promedio de los residuos al cuadrado provenientes de la regresi´on on OLS (b (b). EJERCICIO 13 Ejemplos de predicci´on on con R: library(readr) data
View more...
Comments