Modele
typu
autoregresyjnego
odgrywają ważną rolę wśród modeli
prognostycznych.
Stanowią
one
podklasę
modeli
trendów
stochastycznych.
Określają związek funkcyjny między
wartościami zmiennej prognozowanej w
okresie (momencie) t a wartościami tej
samej zmiennej z okresów (momentów)
poprzednich t-1, t-2, t-3......t-p z
dokładnością składnika losowego.
Modele autoregresyjne są bardzo
często stosowane, gdyż:
•
w prognozowaniu wielu zjawisk
gospodarczych można zauważyć dużo
sytuacji
wskazujących
na
występowanie opóźnień w przebiegu
niektórych zjawisk w czasie
•
rezygnuje się w nich ze stosowania wielu
zmiennych objaśniających, co jest istotne
gdy wiemy jakie zmienne należałoby włączyć
do zbioru zmiennych objaśniających danego
modelu, ale istnieją trudności z zebraniem
odpowiednich danych liczbowych
.
1.
Trudność polega na określeniu parametru
p, który oznacza „maksymalne odchylenie w
czasie” (rząd autoregresji), przy którym
zmienne opóźnione mogą jeszcze wpływać
na zmienną prognozowaną. Od tego zależy
jak daleko sięgamy w przeszłość przy
uwzględnianiu
opóźnionych
wartości
zmiennej prognozowanej.
2. Trudność pojawia się przy estymacji
parametrów
określonego
modelu
autoregre-syjnego.
Zmienne opóźnione występujące w roli
zmiennych objaśniających często są
silnie skorelowane i nie zawsze można
więc wykorzystać klasyczną metodę
najmniejszych kwadratów (KMNK)
•
Szeregów stacjonarnych
tj. szeregów gdzie występują jedynie
wahania losowe wokół średniej,
•
Szeregów niestacjonarnych
sprowadzalnych do stacjonarnych przez
obliczenie kolejnych różnic
-
Modele autoregresji AR (p)
- Modele średniej ruchomej MA (q)
- Modele mieszane autoregresji i średniej
ruchomej ARMA (p,q)
- Model zintegrowany autoregresji ARIMA
(p,d,q)
Model autoregresji rzędu p, w skrócie AR (p),
określamy wzorem:
Y
t
=α
0
+ α
1
Y
t-1
+ α
2
Y
t-2
+...+ α
p
Y
t-
p
+ε
t
gdzie:
y
t
, y
t-1
, y
t-2
, ... ,y
t-p
–
wartość zmiennej
prognozowanej w momencie lub okresie t, t-1, t-
2, ..., t-p
α
o
, α
1
, α
2
, ... , α
t-p
–
parametry modelu
ε
t
–
proces resztowy (biały szum)
p
–
rząd autoregresji, czyli maksymalne
opóźnienie zmiennej objaśnianej
Proces resztowy w modelu autoregresyjnym jest
procesem białego szumu, co oznacza, że
charakteryzuje się następującymi
właściwościami:
1.
E(ε
t
) = 0 (średnia procesu jest równa zero)
2.
D
2
(ε
t
) = σ
2
(wariancja procesu jest stała w czasie)
3.
K(ε
t
, ε
s
) = 0 dla t≠s (kowariancja pomiędzy
obserwacjami z okresu t i s jest równa zero, co
oznacza brak autokorelacji
Proces spełniający powyższe trzy własności
nazywamy białym szumem.
•
Budowa tego modelu jest oparta na założeniu,
iż
występuje
autokorelacja
między
wartościami zmiennej prognozowanej a jej
wartościami opóźnionymi w czasie.
•
Za jego pomocą można modelować zarówno
szeregi stacjonarne i niestacjonarne.
•
Wartość średnia stacjonarnego procesu AR
(p) jest stała. Dla procesu przedstawionego w
postaci odchyleń od średniej wynosi ona zero.
Również wariancja jest stała.
MA - ang. moving average,
średnia ruchoma
•
bieżąca (w okresie t) wartość s
stacjonarnego szeregu czasowego
Yt,
zależy od q
poprzedzających wartości
reszt
losowych.
Model średniej ruchomej MA (q),
określamy wzorem:
Y
t
=
α
0
+e
1
-
α
1
e
t-1
–
α
2
e
t-2
- ... –
α
q
e
t-q
gdzie:
α
o
,
α
1
, ...,
α
q
– parametry modelu
q
– wielkość opóźnienia
e
1,
e
t-1,
e
t-q
-
wartości reszt losowych
•
Modele średniej ruchomej wykorzystywane
są do prognozowania krótkookresowego,
jeśli w szeregu czasowym występują duże
wahania przypadkowe przy braku trendu
(lub słabo zarysowanym trendzie) i wahań
sezonowych.
•
Nazwa średnia ruchoma może być myląca,
gdyż wagi
1, -
1, - α
1
1
, -
, - α
2
2
, ..., -
, ..., - α
p
p
nie muszą
się sumować do jedności ani nie muszą być
dodatnie.
•
Proces średniej ruchomej MA (q)
zawsze jest stacjonarny, niezależnie od
wielkości parametrów. Średnia jest
równa wyrazowi wolnemu α
0
.
Parametry operatora:
powinny
tworzyć ciąg zbieżny.
O modelu średniej ruchomej MA, który spełnia
powyższy warunek mówi się, że jest odwracalny.
Warunek ten jest spełniony, jeżeli pierwiastki
wielomianu leżą poza okręgiem jednostkowym.
π (B) = α
(B)
-1
Aby osiągnąć większą elastyczność w
dopasowaniu modelu do szeregu
czasowego czasem celowe jest połączenie
modelu AR (p) z modelem MA (q), które
prowadzi do powstania modelu
autoregresji i średniej ruchomej
ARMA(p,q).
Model ARMA jest procesem stacjonarnym.
Wynika to z faktu, że składniki MA nie mają
wpływu
na
jego
ewentualną
niestacjonarność.
Ze względu na to, że każdy proces AR jest
procesem
odwracalnym,
warunki
odwracalności procesu ARMA są identyczne
jak dla procesu MA. Zatem proces ARMA jest
odwracalny.
Proces
Funkcja autokorelacji
Funkcja
autokorelacji
cząstkowej
AR (p)
Nieskończona, zanikająca
(zanikające funkcje
wykładnicze oraz/lub
sinusoidy tłumione)
Skończona, urywa się
po odstępie p
MA (q)
Skończona, urywa się po
odstępie q
Nieskończona,
zanikająca
(zdominowana przez
zanikające funkcje
wykładnicze oraz/lub
sinusoidy tłumione)
ARMA (p, q)
Nieskończona, zanikająca (po
pierwszych q – p odstępach
zanikające funkcje
wykładnicze oraz/lub
sinusoidy tłumione)
Nieskończona,
zanikająca (po
pierwszych p –q
odstępach dominują
zanikające funkcje
wykładnicze oraz/lub
sinusoidy tłumione)
Modele
ARIMA
stosowane
są
do
stacjonarnych
szeregów
czasowych.
Stosuje się je do zmiennych, dla których
istnieje duża liczba informacji (zaleca się,
aby szereg zawierał co najmniej 50
obserwacji dla modeli nie sezonowych, zaś
dla modeli sezonowych jeszcze więcej) oraz
które są stabilne w czasie tzn. nie występują
w nich skoki.
Jeżeli szereg nie jest stacjonarny, to
dokonuje się jego przekształcenia w szereg
stacjonarny poprzez operację różnicowania.
•
Polega ona na d-krotnym obliczaniu różnic
sąsiednich wyrazów szeregu, czyli:
•
pierwsza różnica
(d=1) wynosi
y
t
-y
t-1
,
•
druga różnica
(d=2) wynosi (y
t
-y
t-1
) - (y
t-
1
-y
t-2
),
•
kolejne, analogicznie aż do uzyskania
szeregu stacjonarnego.
•
Parametr d ustala się na takim
poziomie, aby szereg czasowy otrzymany
w wyniku tej operacji był stacjonarny.
Budowane modele, dla w ten sposób
przekształconych szeregów, określa się
odpowiednio do modeli prezentowanych
wcześniej mianem zintegrowanych modeli:
•
autoregresji ARI (p, d),
•
średniej ruchomej IMA (d, q),
•
autoregresji i średniej ruchomej ARIMA (p,
d, q).
Wszystkie modele autoregresji i średniej
można zapisać przy użyciu uniwersalnej
notacji ARIMA (p, d, q),
gdzie:
p
– rząd autoregresji (wielkość opóźnienia),
d – rząd operatora różnicy (krotność
różnicowania),
q – wielkość opóźnienia średniej ruchomej.
•
Modele ARIMA stosuje się, gdy w szeregu
czasowym:
•
występuje stały poziom zmiennej prognozowanej
i wahania przypadkowe (szereg stacjonarny),
•
występuje tendencja rozwojowa i wahania
przypadkowe (ich zastosowanie jest poprzedzane
przekształceniem
pierwotnego
szeregu
czasowego w szereg stacjonarny),
•
występują wahania sezonowe, przypadkowe i
ewentualnie tendencja rozwojowa.
Używanie do budowy prognoz modeli ARIMA,
wymaga znacznej wiedzy prognosty np. o
sposobach szacowania modeli nieliniowych, z
drugiej strony, nie gwarantuje to uzyskania w
każdym
przypadku
lepszych
bądź
porównywalnych wyników z otrzymywanymi
innymi, prostszymi metodami. Dlatego modele
te
są
dość
rzadko
stosowane
w
prognozowaniu gospodarczym.
I. ETAP – Identyfikacja
II.ETAP – Estymacja
III.ETAP – Weryfikacja
IV.ETAP - Prognozowanie
Najczęściej identyfikacja modelu ARIMA
przeprowadzana jest w formie analizy
danych
prognozowanego
szeregu
czasowego o co najmniej 50 obserwacjach.
Porównuje się tu przebieg teoretycznych
funkcji
autokorelacji
i
autokorelacji
cząstkowej z empirycznymi funkcjami
autokorelacji i autokorelacji cząstkowej,
otrzymanymi
na
podstawie
wartości
prognozowanego szeregu czasowego.
I ETAP- IDENTYFIKACJA
•
W
celu
ustalenia,
które
wartości
empirycznych
funkcji
autokorelacji
i
autokorelacji cząstkowej są różne od zera,
najczęściej
wykorzystuje
się
błędy
standardowe estymatorów tych funkcji.
•
Generalnie przyjmuje się, że wartości
empirycznych
funkcji
autokorelacji
i
autokorelacji cząstkowej są różne od zera,
jeżeli ich wartości bezwzględne są większe
niż dwa razy odpowiedni błąd standardowy.
n
t
t
k
n
t
k
t
t
k
y
y
y
y
y
r
y
1
_
1
_
_
(k = 0, 1,
… ,K)
gdzie:
n
–
długość analizowanego szeregu
czasowego,
-
średnia
arytmetyczna szeregu
czasowego.
y
4
n
K
k
j
k
k
k
j
k
k
j
k
j
k
j
r
r
r
r
r
,
)
1
(
1
,
2
2
,
1
1
,
...
Autokorelacje
cząstkowe
można
estymować
wykorzystując
równanie
Yule’a-Walkera:
gdzie:
j= 1,…,k
k= 1,2,…,K
• polega na estymacji parametrów wstępnie
przyjętego modelu ARIMA (p,d,q),
• parametry modeli AR (p) mogą być
szacowane klasyczną metodą najmniejszych
kwadratów lub wykorzystując układ równań
Yule’a-Walkera,
• do szacowania parametrów modeli MA (q) i
ARMA (p,q) – z uwagi żę są one nieliniowe –
stosuje się na ogół procedury iteracyjne,
polegające na poszukiwaniu takich wartości
ocen parametrów modelu, dla których suma
kwadratów reszt modelu jest najmniejsza.
Podstawą weryfikacji najczęściej są
reszty modelu:
t
t
t
y
y
e
^
t
y
^
-
ocena
wartości
szeregu
czasowego
uzyskana z oszacowanego modelu.
Badamy zazwyczaj funkcję autokorelacji reszt
r
e
(k). Jeśli model jest poprawny, to współczynniki
autokorelacji reszt nie powinny istotnie różnić się
od 0 dla k > 1.
gdzie:
Jakość modelu można ocenić na podstawie K
pierwszych współczynników autokorelacji
reszt. Wykorzystujemy wtedy statystykę
określoną wzorem:
)
(
)
(
1
2
k
r
d
n
Q
K
k
e
gdzie:
n
–
liczba wyrazów wyjściowego szeregu
czasowego
,
d
–
rząd operatora różnicy (krotność
różnicowania).
Jeżeli dobrany model jest odpowiedni, to
statystyka ta ma w przybliżeniu rozkład
χ
2
o
K-p-q
stopniach swobody.
Zatem przy z góry ustalonym poziomie
istotności α model odrzucimy, jeśli wartość
tej statystyki będzie większa lub równa
wartości krytycznej
χ
2α, K-p-q
omawianego
testu.
Odpowiednio
dobrany
model
może
być
wykorzystany do celów prognostycznych.
W procedurze tej realizacje zmiennych
Y
n+j
(j=1,2,...,h-1),
którymi
nie
dysponujemy,
zastępujemy ich prognozami
y
pn+j
,
natomiast jako
realizację zmiennych
e
n-j
przyjmujemy błędy
reszt modelu, przy czym nieznane realizacje tej
zmiennej zastępujemy zerami (czyli wartością
oczekiwaną zakłócenia losowego).
•
Cieślak
M.
(red.),
Prognozowanie
gospodarcze, Warszawa 2005
•
Zelias A., Pawełek B., Wanat S.,
Prognozowanie ekonomiczne, Warszawa
2008
•
Milo
W.
(red.),
Prognozowanie
i
symulacja, Łódź 2002
•
Sobczyk M. (red.), Prognozowanie teoria
przykłady zadania, Warszawa 2008
•
Kośko M., Osińska M., Stempińska J.,
Ekonometria współczesna, Toruń 2007
Dziękujemy
za uwagę