background image
background image

Modele 

typu 

autoregresyjnego 

odgrywają  ważną  rolę  wśród  modeli 
prognostycznych. 

Stanowią 

one 

podklasę 

modeli 

trendów 

stochastycznych. 
Określają  związek  funkcyjny  między 
wartościami zmiennej prognozowanej w 
okresie  (momencie)  t  a  wartościami  tej 
samej zmiennej  z okresów (momentów) 
poprzednich  t-1,  t-2,  t-3......t-p  
dokładnością składnika losowego.

background image

Modele  autoregresyjne  są  bardzo 

często stosowane, gdyż:

w  prognozowaniu  wielu  zjawisk 
gospodarczych można zauważyć dużo 
sytuacji 

wskazujących 

na 

występowanie  opóźnień  w  przebiegu 
niektórych zjawisk w czasie

background image

rezygnuje  się  w  nich  ze  stosowania  wielu 
zmiennych  objaśniających,  co  jest  istotne 
gdy wiemy jakie zmienne należałoby włączyć 
do  zbioru  zmiennych  objaśniających  danego 
modelu,  ale  istnieją  trudności  z  zebraniem 
odpowiednich danych liczbowych

.

background image

1. 

Trudność  polega  na  określeniu  parametru 

p, który oznacza „maksymalne odchylenie w 
czasie”  (rząd  autoregresji),  przy  którym 
zmienne  opóźnione  mogą  jeszcze  wpływać 
na  zmienną  prognozowaną.  Od  tego  zależy 
jak  daleko  sięgamy  w  przeszłość  przy 
uwzględnianiu 

opóźnionych 

wartości 

zmiennej prognozowanej.

background image

2. Trudność  pojawia  się  przy  estymacji 

parametrów 

określonego 

modelu 

autoregre-syjnego. 
Zmienne opóźnione występujące w roli 
zmiennych  objaśniających  często  są 
silnie skorelowane i nie zawsze można 
więc  wykorzystać  klasyczną  metodę 
najmniejszych kwadratów (KMNK)

background image

 

Szeregów stacjonarnych

tj. szeregów gdzie występują jedynie 
wahania losowe wokół średniej,

 

Szeregów niestacjonarnych

sprowadzalnych do stacjonarnych przez 
obliczenie kolejnych różnic

background image

Modele autoregresji AR (p)

Modele średniej ruchomej MA (q)

- Modele mieszane autoregresji i średniej 
ruchomej ARMA (p,q)

Model  zintegrowany autoregresji ARIMA 
(p,d,q)

background image

Model  autoregresji  rzędu  p,  w  skrócie  AR  (p), 

określamy wzorem:

Y

t

0

+ α 

1

Y

 t-1

+ α 

2

Y

 t-2 

+...+ α 

p

Y

 t-

p

t

 

gdzie:

       

y

t

,  y

t-1

,  y

t-2

,  ...  ,y

t-p

 

– 

wartość  zmiennej 

prognozowanej  w  momencie  lub  okresie  t,  t-1,  t-

2, ..., t-p

 

α 

o

, α 

1

, α 

2

, ... , α

t-p

 

– 

parametry modelu

   

ε

 

t

 

– 

proces resztowy (biały szum)

     

 

p

 

– 

rząd  autoregresji,  czyli  maksymalne 

opóźnienie zmiennej objaśnianej

background image

Proces resztowy w modelu autoregresyjnym jest 
procesem białego szumu, co oznacza, że 
charakteryzuje się następującymi 
właściwościami: 

1.

E(ε

t

) = 0 (średnia procesu jest równa zero)

2.

D

2

t

) = σ

2

 (wariancja procesu jest stała w czasie)

3.

K(ε

t

,  ε

s

)  =  0  dla  t≠s  (kowariancja  pomiędzy 

obserwacjami  z  okresu  t  i  s  jest  równa  zero,  co 

oznacza brak autokorelacji
Proces  spełniający  powyższe  trzy  własności 

nazywamy białym szumem.

background image

Budowa tego modelu jest oparta na założeniu, 

iż 

występuje 

autokorelacja 

między 

wartościami  zmiennej  prognozowanej  a  jej 

wartościami opóźnionymi w czasie. 

Za  jego  pomocą  można  modelować  zarówno 

szeregi stacjonarne i niestacjonarne.

Wartość  średnia  stacjonarnego  procesu  AR 

(p) jest stała. Dla procesu przedstawionego w 

postaci odchyleń od średniej wynosi ona zero. 

Również wariancja jest stała.

background image

MA - ang. moving average, 

średnia ruchoma 

bieżąca (w okresie t) wartość s

stacjonarnego szeregu czasowego 
Yt, 

zależy od q 

poprzedzających wartości 

reszt 

losowych.

 

background image

Model  średniej  ruchomej  MA  (q), 

określamy wzorem:

Y

t

α

 

0

+e

α

 

1

e

t-1 

– 

α

2

e

t-2 

- ... – 

α

q

e

t-q

 

gdzie:

 

α

 

o

α

 

1

, ..., 

α

 

q

 

– parametry modelu

q

 

– wielkość opóźnienia

1, 

e

t-1, 

e

t-q

-

 

wartości reszt losowych

background image

Modele  średniej  ruchomej  wykorzystywane 
są  do  prognozowania  krótkookresowego
jeśli  w  szeregu  czasowym  występują  duże 
wahania  przypadkowe  przy  braku  trendu 
(lub  słabo  zarysowanym  trendzie)  i  wahań 
sezonowych. 

Nazwa  średnia  ruchoma  może  być  myląca, 
gdyż wagi 

1, - 

1, - α

 

 

1

1

, - 

, - α

 

 

2

2

, ..., - 

, ..., - α

 

 

p

p

 

 nie muszą 

się sumować do jedności ani nie muszą być 
dodatnie.

background image

Proces średniej ruchomej MA (q) 
zawsze jest stacjonarny, niezależnie od 
wielkości parametrów. Średnia jest 
równa wyrazowi wolnemu α 

0

.

background image

Parametry operatora:

powinny 

tworzyć ciąg zbieżny. 

O  modelu  średniej  ruchomej  MA,  który  spełnia 
powyższy warunek mówi się, że jest odwracalny. 
Warunek  ten  jest  spełniony,  jeżeli  pierwiastki 
wielomianu leżą poza okręgiem jednostkowym.

π (B) = α 
(B)

-1

 

background image

Aby osiągnąć większą elastyczność w 
dopasowaniu modelu do szeregu 
czasowego czasem celowe jest połączenie 
modelu AR (p) z modelem MA (q), które 
prowadzi do powstania modelu 
autoregresji i średniej ruchomej 
ARMA(p,q). 

background image

Model  ARMA  jest  procesem  stacjonarnym
Wynika  to  z  faktu,  że  składniki MA nie  mają 
wpływu 

na 

jego 

ewentualną 

niestacjonarność.

Ze  względu  na  to,  że  każdy  proces  AR  jest 
procesem 

odwracalnym

warunki 

odwracalności  procesu  ARMA  są  identyczne 
jak dla procesu MA. Zatem proces ARMA jest 
odwracalny.

background image

Proces

Funkcja autokorelacji

Funkcja 

autokorelacji 

cząstkowej

AR (p)

Nieskończona, zanikająca 

(zanikające funkcje 

wykładnicze oraz/lub 

sinusoidy tłumione)

Skończona, urywa się 

po odstępie p

MA (q)

Skończona, urywa się po 

odstępie q

Nieskończona, 

zanikająca 

(zdominowana przez 

zanikające funkcje 

wykładnicze oraz/lub 

sinusoidy tłumione)

ARMA (p, q)

Nieskończona, zanikająca (po 

pierwszych q – p odstępach 

zanikające funkcje 

wykładnicze oraz/lub 

sinusoidy tłumione)

Nieskończona, 

zanikająca (po 

pierwszych p –q 

odstępach dominują 

zanikające funkcje 

wykładnicze oraz/lub 

sinusoidy tłumione)

background image

Modele 

ARIMA 

stosowane 

są 

do 

stacjonarnych 

szeregów 

czasowych

Stosuje  się  je  do  zmiennych,  dla  których 
istnieje  duża  liczba  informacji  (zaleca  się, 
aby  szereg  zawierał  co  najmniej  50 
obserwacji  dla  modeli  nie  sezonowych,  zaś 
dla  modeli  sezonowych  jeszcze  więcej)  oraz 
które są stabilne w czasie tzn. nie występują 
w nich skoki.

 

Jeżeli  szereg  nie  jest  stacjonarny,  to 

dokonuje  się  jego  przekształcenia  w  szereg 
stacjonarny poprzez operację różnicowania. 

background image

Polega ona na d-krotnym obliczaniu różnic 

sąsiednich wyrazów szeregu, czyli:

pierwsza różnica

 

 (d=1) wynosi

 

 y

t

-y

t-1

,

druga różnica

 

 (d=2) wynosi (y

t

-y

t-1

) - (y

t-

1

-y

t-2

), 

kolejne,  analogicznie  aż  do  uzyskania 

szeregu stacjonarnego.

Parametr  d  ustala  się  na  takim 

poziomie,  aby  szereg  czasowy  otrzymany 

w wyniku tej operacji był stacjonarny.

background image

Budowane  modele,  dla  w  ten  sposób 
przekształconych  szeregów,  określa  się 
odpowiednio  do  modeli  prezentowanych 
wcześniej mianem zintegrowanych modeli:

autoregresji ARI (p, d),

średniej ruchomej IMA (d, q),

autoregresji  i  średniej  ruchomej  ARIMA  (p, 
d, q).

background image

Wszystkie  modele  autoregresji  i  średniej 

można  zapisać  przy  użyciu  uniwersalnej 
notacji ARIMA (p, d, q),

gdzie:
p

 

 – rząd autoregresji (wielkość opóźnienia),

d – rząd operatora różnicy (krotność 

różnicowania),

q – wielkość opóźnienia średniej ruchomej.

background image
background image

Modele  ARIMA  stosuje  się,  gdy  w  szeregu 

czasowym:

występuje stały poziom zmiennej prognozowanej 

i wahania przypadkowe (szereg stacjonarny),

występuje  tendencja  rozwojowa  i  wahania 

przypadkowe (ich zastosowanie jest poprzedzane 

przekształceniem 

pierwotnego 

szeregu 

czasowego w szereg stacjonarny),

występują  wahania  sezonowe,  przypadkowe  i 

ewentualnie tendencja rozwojowa.

background image

Używanie  do budowy  prognoz  modeli  ARIMA, 
wymaga  znacznej  wiedzy  prognosty  np.  o 
sposobach  szacowania  modeli  nieliniowych,  z 
drugiej strony, nie gwarantuje to uzyskania w 
każdym 

przypadku 

lepszych 

bądź 

porównywalnych  wyników  z  otrzymywanymi 
innymi, prostszymi metodami. Dlatego modele 
te 

 

są 

dość 

rzadko 

stosowane 

prognozowaniu gospodarczym.

background image

I. ETAP – Identyfikacja

II.ETAP – Estymacja 

III.ETAP – Weryfikacja

IV.ETAP - Prognozowanie

background image

Najczęściej  identyfikacja  modelu  ARIMA 

przeprowadzana  jest  w  formie  analizy 

danych 

prognozowanego 

szeregu 

czasowego o co najmniej 50 obserwacjach.

Porównuje  się  tu  przebieg  teoretycznych 

funkcji 

autokorelacji 

autokorelacji 

cząstkowej  z  empirycznymi  funkcjami 

autokorelacji  i  autokorelacji  cząstkowej, 

otrzymanymi 

na 

podstawie 

wartości 

prognozowanego szeregu czasowego.

background image

I ETAP- IDENTYFIKACJA

celu 

ustalenia, 

które 

wartości 

empirycznych 

funkcji 

autokorelacji 

autokorelacji  cząstkowej  są  różne  od  zera, 
najczęściej 

wykorzystuje 

się 

błędy 

standardowe estymatorów tych funkcji.

Generalnie  przyjmuje  się,  że  wartości 
empirycznych 

funkcji 

autokorelacji 

autokorelacji  cząstkowej  są  różne  od  zera, 
jeżeli  ich  wartości  bezwzględne  są  większe 
niż dwa razy odpowiedni błąd standardowy.

background image



n

t

t

k

n

t

k

t

t

k

y

y

y

y

y

r

y

1

_

1

_

_

(k = 0, 1, 
… ,K)

gdzie:
n

 

 

długość analizowanego szeregu 

czasowego,

    

-

 

średnia

 

arytmetyczna szeregu 

czasowego.

y

4

n

background image

k

j

k

k

k

j

k

k

j

k

j

k

j

r

r

r

r

r

,

)

1

(

1

,

2

2

,

1

1

,

...

Autokorelacje 

cząstkowe 

można 

estymować 

wykorzystując 

równanie 

Yule’a-Walkera:

gdzie:
j= 1,…,k
k= 1,2,…,K

background image

• polega  na  estymacji  parametrów  wstępnie 

przyjętego modelu ARIMA (p,d,q),

• parametry  modeli  AR  (p)  mogą  być 

szacowane  klasyczną  metodą  najmniejszych 

kwadratów lub wykorzystując układ równań 

Yule’a-Walkera,

• do szacowania  parametrów modeli MA (q) i 

ARMA (p,q) – z uwagi żę są one nieliniowe – 

stosuje  się  na  ogół  procedury  iteracyjne, 

polegające na poszukiwaniu takich wartości 

ocen parametrów modelu, dla których suma 

kwadratów reszt modelu jest najmniejsza.

background image

Podstawą  weryfikacji  najczęściej  są 

reszty modelu:

t

t

t

y

y

e

^

t

y

^

        

ocena 

wartości 

szeregu 

czasowego 

uzyskana z oszacowanego modelu.

Badamy  zazwyczaj  funkcję  autokorelacji  reszt 

r

e

(k).  Jeśli  model  jest  poprawny,  to  współczynniki 

autokorelacji  reszt  nie  powinny  istotnie  różnić  się 

od 0 dla k > 1.

gdzie:

background image

Jakość modelu można ocenić na podstawie K 
pierwszych współczynników autokorelacji 
reszt. Wykorzystujemy wtedy statystykę 
określoną wzorem:

)

(

)

(

1

2

k

r

d

n

Q

K

k

e

gdzie:

– 

liczba  wyrazów  wyjściowego  szeregu 

czasowego

– 

rząd  operatora  różnicy  (krotność 

różnicowania).

background image

Jeżeli  dobrany  model  jest  odpowiedni,  to 
statystyka  ta  ma  w  przybliżeniu  rozkład 

χ

2

 

o

 

K-p-q 

stopniach swobody.

Zatem  przy  z  góry  ustalonym  poziomie 
istotności  α model odrzucimy, jeśli wartość 
tej  statystyki  będzie  większa  lub  równa 
wartości  krytycznej 

χ

2α,  K-p-q

 

omawianego 

testu.

background image

Odpowiednio 

dobrany 

model 

może 

być 

wykorzystany do celów prognostycznych.

W  procedurze  tej  realizacje  zmiennych 

Y

n+j 

(j=1,2,...,h-1),

 

którymi 

nie 

dysponujemy, 

zastępujemy ich prognozami 

y

pn+j

natomiast jako 

realizację  zmiennych 

e

n-j

 

przyjmujemy  błędy 

reszt  modelu,  przy  czym  nieznane  realizacje  tej 
zmiennej  zastępujemy  zerami  (czyli  wartością 
oczekiwaną zakłócenia losowego).

background image

Cieślak 

M. 

(red.), 

Prognozowanie 

gospodarcze, Warszawa 2005

Zelias  A.,  Pawełek  B.,  Wanat  S., 
Prognozowanie  ekonomiczne,  Warszawa 
2008

Milo 

W. 

(red.), 

Prognozowanie 

symulacja, Łódź 2002

Sobczyk  M.  (red.),  Prognozowanie  teoria 
przykłady zadania, Warszawa 2008

Kośko  M.,  Osińska  M.,  Stempińska  J., 
Ekonometria współczesna, Toruń 2007   

   

                                                              

background image

Dziękujemy 

za uwagę 


Document Outline