III.
Prognozowanie na podstawie modeli autoregresyjnych
Cechą charakterystyczną modeli autoregresyjnych jest to, że nie określają one ilościowo związków zachodzących pomiędzy zmienną objaśnianą a zmiennymi objaśniającymi. Model autoregresyjny ma postać :
Y = f Y , Y ,......, Y
,
1
−
−2
−
ε / 1 /
t
( t t
t p
t )
W modelu tym zmienna objaśniana jest funkcją realizacji samej siebie w okresach poprzedzających okres badany oraz składnika losowego.
W praktyce najczęściej spotyka się przypadki, gdy funkcja f jest liniowa ; p
Y
α
α Y
ε t = ,1
n
,......
2
/ 2 /
t =
0 + ∑
j t− j +
t
j=1
gdzie :
Y
zmienna objaśniana przez dane równanie
t −
Y
zmienne objaśniające w postaci opóźnionych w czasie
t− j (
j =
,
1,2,...... p)−
zmiennych objaśnianych
α ,α
0
j
(
j =
,
1,2,...... p)− parametry strukturalne modelu
bądź potęgowa :
p
α
j
ε t
Y = α0 ∏ Y e / 3 /
t
t − j
j=1
co po zlogarytmowaniu daje postać :
p
ln Y
α
α ln Y
ε / 4 /
t =
0 + ∑
j
t− j +
t
j=1
W z autoregresyjnym charakterem modelu powstaje kilka problemów natury
estymacyjnej,
Pierwszy z nich to określenia wartości parametru p , przy czym p oznacza
„maksymalne oddalenia czasowe” (rząd autoregresji), przy którym zmienne objaśniające mogą jeszcze wpływać na zmienną objaśnianą a więc od którego zależy jak daleko sięgamy w przyszłość przy uwzględnieniu wartości zmiennej objaśnianej Y w modelu. Ustalenie t
„dobrej” a tym bardziej optymalnej wartości tego parametru nie jest proste, gdyż zazwyczaj konieczna jest znajomość pewnych dodatkowych pozastatystycznych informacji o charakterze zmian Y w czasie. Wartość p najczęściej jest uzyskiwana drogą prób i błędów a t
niekiedy na podstawie subiektywnego wyczucia badacza. Pewne trudności występują w
przypadku dużych wartości parametru p , gdyż zmniejsza to liczbę obserwacji przy estymacji modelu. Postępowanie takie daje na ogół dobre wyniki (zapewnia zbudowanie modelu o niskim rzędzie wahań przypadkowych), wymaga jednak wielokrotnego szacowania modeli dla różnych zestawów zmiennych objaśniających i jest pracochłonne, nawet wtedy gdy stosuje się pakiety komputerowe. Podstawą wyboru „optymalnej” wartości parametru p może stanowić funkcja1:
2
k ln n
SR( k )= ln S +
k
=
,
1
,
0
,......,
2
K / 5 /
k
n
gdzie :
2
S
ocena wariancji składnika losowego modelu autoregresji rzędu k
k −
K − maksymalny rząd autokorelacji
Jako najlepszą wartość parametru p wybiera się taką, dla której : SR( p)= min SR( k ) k =
,
1
,
0
,......,
2
K / 6 /
Do oszacowania parametrów modelu autoregresyjnego należy odpowiednio przygotować dane wyjściowe.
Tablica 1. Przygotowanie danych wyjściowych do szacowania parametrów strukturalnych modeli z opóźnionymi w czasie zmiennymi objaśniającymi ( p = 5)
Y
Y
Y
......
Y
t
t 1
−
t−2
t−5
1
y
--- --- ...... ---
y 2
1
y
--- ...... ---
y 3
y 2
1
y
...... ---
y 4
y 3
y 2
...... ---
y 5
y 4
y 3
...... ---
y 6
y 5
y 4
......
1
y
Μ
Μ
Μ
Μ
Μ
y
y
y
......
y
n
n 1
−
n−2
n−
p
1 M. Cieślak (red.), Prognozowanie gospodarcze, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 1993, s.112
I tak niech :
y − oznacza wektor ( n − p)× )
1 zaobserwowanych wartości zmiennej
objaśnianej Y
t
X − macierz o wymiarach ( n − p)× ( p + )
1 zaobserwowanych wartości
zmiennych objaśniających Y
t− j
(
j =
p
1,2,...... )
α − wektor ( p + )
1 × )
1 nieznanych a priori wartości parametrów
α ,α
j
=
0
( j 1,2,.....,p)
ε − wektor ( n − p)× )
1 składników losowych.
1 y
y
....
y
p
p−1
1
1 y
y
....
y
p+1
2
p
X = Μ Μ Μ
/ 7 /
....
Μ
1 y
y
.... y
n−1
n−2
n− p
y
α0
ε p+1
p+1
y
α1
ε
y = p+2
α =
ε = p+2 / 8 /
Μ
Μ
Μ
y
α
ε
n
p
n
Parametry modeli autoregresyjnych szacuje się najczęściej klasyczną metodą najmniejszych kwadratów. Wprawdzie metoda ta w tym przypadku nie jest najefektywniejszą (uzyskiwane estymatory nie są zgodne i najefektywniejsze), lecz na ogół rezygnuje się z wysokiej efektywności na rzecz prostszych obliczeń numerycznych. W przypadku metody najmniejszych kwadratów oceny parametrów obliczamy na postawie dobrze znanej formuły : 1
a
(XT −
=
X) XTy / 9 /
Oceny jakości oszacowanego modelu dokonujemy zgodnie z zasadami estymacji jednorównaniowych modeli ekonometrycznych.
Jak już wspomniano metoda najmniejszych kwadratów daje oceny parametrów, które są niezgodne i obciążone. Wynika to z faktu, że istnieje korelacja pomiędzy zmienną objaśnianą a składnikiem losowym a tym samym istnieje też korelacja pomiędzy zmienną objaśniającą, która jest opóźnioną w czasie zmienną objaśnianą a składnikiem losowym.
Rozważmy model autoregresyjny rzędu pierwszego postaci :
Y
α
α Y
α X
ε
/ 10 /
t =
+
t− +
t +
t
t
=1,2,......,n
0
1
1
2
Można domniemywać, że składniki losowe modelu są związane autokorelacją rzędu pierwszego. W przypadku tego typu modeli do weryfikacji tej hipotezy nie należy stosować testu Durbina − Watsona . Można posłużyć się natomiast jego pewną odmianą testem h − Durbina albo testem mnożnika Lagrange’a na autokorelację ( test LM
)2.
Test h − Durbina oparty jest na statystyce :
n − 1
h = 1 r
/ 11 /
1 − ( n − ) 2
1 S 1 a
Dla dużej próby ( n > 30) statystyka h ma rozkład normalny N( ) 1
;
0 . Mankamentem tego
testu jest możliwość otrzymania ujemnego wyrażenia pod pierwiastkiem. Z tego względu w opisanym przypadku lepiej jest posłużyć się testem mnożnika Lagrange’a na autokorelację ( test LM
).
Realizacja tego testu przebiega w następujących krokach :
Krok 1 : Szacujemy za KMNK model
Krok 2 : Obliczamy reszty e
dla
t
= ,
1 ,......,
2
n
t
Krok 3 : Szacujemy model pomocniczy postaci :
e
β
β Y
β X
β e
ξ
/ 12 /
t =
+
t− +
t +
t− +
t
t
= 2,3,......,n
0
1
1
2
3
1
i obliczamy współczynnik determinacji 2
R dla tego modelu.
Krok 4 : Stawiamy hipotezę H : ρ = 0
H : ρ ≠
0
1
wobec hipotezy alternatywnej
0
1
1
Dla dostatecznie dużej liczby obserwacji ( n > 30) statystyka : LM = ( n − )
1 2
R ma rozkład 2
χ o jednym stopniu swobody / 13 /
Wartość krytyczną testu przy poziomie istotności γ i jednym stopniu swobody oznaczamy 2
χ
2
∗ . Jeśli LM > χ
∗ to hipotezę zerową odrzucamy na korzyść
hipotezy alternatywnej.
Warto zaznaczyć, że test LM na autokorelację można zastosować w przypadku testowania zjawiska autokorelacji rzędu wyższego niż jeden.
2 R. Ramanathan, Introductory Econometrics with Applications, HBJ Publishers, 1989 za : S. Dorosiewicz i inni, Ekonometria, Oficyna Wydawnicza SGH, Warszawa 1998, s. 56 .
Jeśli w wyniku zastosowania testu LM stwierdzimy, że występuje autokorelacja składników losowych zamiast KMNK możemy zastosować modyfikację metody
Cochrana − Orcutta 3.
Postępowanie przebiega następująco :
Krok 1 : Szacujemy parametry modelu autoregresyjnego i wyznaczamy reszty e
dla
t
= ,
1 ,......,
2
n
t
Krok 2 : Szacujemy model :
e = ρ e −1 + ξ / 14 /
t
t
t
i uzyskujemy oszacowanie współczynnika autokorelacji reszt rzędu pierwszego 1 r
Krok 3 : Przeprowadzamy dla t
= ,
3 ,......,
4
n transformację zmiennych
∗
y
y
r y
t =
t − 1 t 1
−
∗
y
y
r y
/ 15 /
t
=
1
−
t
−
1
−
1 t−2
∗
x
x
r x
t =
t − 1 t 1
−
Krok 4 : Szacujemy parametry modelu :
∗
∗
∗
Y
β
β Y
β X t = ,
3 ,......,
4
n / 16 /
t
= 0 + 1 t−1 + 2 t
Obliczamy reszty ∗
e i za pomocą testu LM sprawdzamy czy wstępuje
t
autokorelacja składników losowych. Jeżeli występuje powracamy do kroku 2. Jeżeli nie występuje przechodzimy do kroku 5
W wyniku opisanego wyżej postępowania otrzymamy zgodne estymatory
parametrów modelu, ale estymatory wariancji tych parametrów nie będą zgodne.
Krok 5 : Dla reszt z ostatnio oszacowanego modelu konstruujemy model ekonometryczny postaci :
e∗ = δ 0 + δ Y ∗
1 −1 + δ X ∗
2
+ δ e
3 −1 + η / 17 /
t
t
t
t
t
i szacujemy parametry. Błędy szacunku parametrów δ ,δ ,δ
0
1
2 są zgodnymi
oszacowaniami błędów szacunku parametrów α ,α ,α
0
1
2 .
3 S. Dorosiewicz i inni, Ekonometria, Oficyna Wydawnicza SGH, Warszawa 1998, s. 56-57 .
Po oszacowaniu parametrów modelu i jego weryfikacji można ten model użyć do celów prognostycznych. Przyszłą wartość zmiennej prognozowanej uzyskuje się podstawiając do modelu wartości zmiennej z poprzednich okresów. Konstrukcja prognoz na dalsze okresy mająca charakter sekwencyjny polega na wykorzystaniu do obliczeń prognoz wyznaczonych dla poprzednich okresów :
∗
y
a
a y
a y
a y
/ 18 /
n
=
+
n +
n
+ ......
1
+
+
0
1
2
1
−
p
n− p 1
+
∗
∗
y
a
a y
a y
a y
/ 19 /
n
=
+
n
+
n + ......
+
+
2
0
1
1
+
2
p
n− p+2
Literatura :
1. M. Cieślak (red.), Prognozowanie gospodarcze, Wydawnictwo Akademii Ekonomicznej we Wrocławiu, Wrocław 1993
2. S. Dorosiewicz i inni, Ekonometria, Oficyna Wydawnicza SGH, Warszawa 1998
3. A. Zeliaś, Teoria prognozy, PWE, Warszawa 1997