Analiza fundamentalna i prognozowanie koniunktury
Joanna Bruzda
Piątek 14:30-15:30 p. 241
06.10.2011
Plan wykładu
Pojęcie i klasyfikacja cykli koniunkturalnych; Cechy morfologiczne cyklu koniunkturalnego; Miary aktywności gospodarczej;
Metody dekompozycji szeregów czasowych
Metody oceny i prognozowania koniunktury; Cykle koniunkturalne a cykle giełdowe
Jedno- i dwuwymiarowa analiza spektralna i jej zastosowania
Modele popytu dla gałęzi
Zastosowanie metod taksonomicznych w analizie spółek giełdowych
Literatura
R. Barczyk, K. Konopczak, M. Lubiński, K. Marczewski, Synchronizacja wahań koniunkturalnych. Mechanizmy i konsekwencje, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań 2010.
M. Czekała, Analiza fundamentalna i techniczna, Wydawnictwo AE we Wrocławiu, Wrocław 1997.
Diagnozowanie koniunktury gospodarczej w Polsce, red. S. Pangsy-Kania, K. Piech, Dom Wydawniczy Elipsa, Warszawa 2003.
J. C. Ritchie, Analiza fundamentalna, WIG Press, Warszawa 1997.
Definicja cyklu koniunkturalnego
Klasyczna (tzw. cykl poziomów)
Cykl koniunkturalny to „rodzaj fluktuacji, obserwowanych w ogólnej działalności gospodarczej narodów, organizujących swą pracę głównie w przedsiębiorstwach, nastawionych na zysk. Cykl składa się z ekspansji […], po niej następuje recesja, kurczenie się działalności gospodarczej, następnie ożywienia przechodzącego w fazę ekspansji kolejnego cyklu” (Burns, Mitchell, 1946, Measuring Business Cycles).
Odchyleniowa
Wahania koniunkturalne to proces powtarzających się, nieściśle periodycznych, oscylacji produktu wokół jego długookresowej ścieżki wzrostu (Lucas, 1977, Understanding Business Cycles);
Inaczej: Wahania koniunkturalne to odchylenie podstawowych agregatów makroekonomicznych od linii trendu tych agregatów lub ich wielkości potencjalnej.
Cykle kroczące
Wahania koniunkturalne są charakteryzowane przez powtarzające się okresy relatywnie wysokich i niskich stóp wzrostu, tzw. cykle wzrostu.
„Cykle wzrostu są to wahania w zagregowanych działaniach gospodarczych. Składają się one z okresu relatywnie wysokiej stopy wzrostu, występującego w tym samym czasie w większości działań gospodarczych, oraz z następującego po nim, równie generalnego, okresu relatywnie niskiej stopy wzrostu, prowadzącego do fazy wysokiej stopy wzrostu cyklu następnego” (Mintz, 1972, Dating American Growth Cycle, w: Zarnowitz, 1972, The Business Cycle Today).
Cykle wzrostu – cd.
„… wahania gospodarcze przejawiają się nie w spadkach absolutnych wielkości ekonomicznych (głównie dochodu narodowego), lecz w zahamowaniach i przyspieszeniach stopy wzrostu gospodarczego.” (Z. Kowalczyk, 1982, Koniunktura gospodarcza)
Cykle koniunkturalne vs. cykle odchyleniowe i cykle kroczące
Źródło: Zarnowitz, Ozyildirim 2002
Cykle koniunkturalne vs. cykle odchyleniowe i cykle kroczące
Wszystkie recesje zawierają spowolnienie, ale nie wszystkie spowolnienia zawierają recesje; stąd cykle wzrostu są bardziej liczne niż cykle klasyczne; Są też od nich bardziej symetryczne;
Eliminacja trendu zmniejsza wariancję cykli oraz korelację pomiędzy cyklami;
Cykle kroczące wyprzedzają cykle klasyczne oraz cykle odchyleniowe;
Cykle kroczące (cykle w stopach wzrostu) wymagają zwykle wygładzenia;
Maksima (minima) cyklu wzrostu są punktami przegięcia cyklu poziomów.
Klasyfikacja wahań gospodarczych
R = T + S + C + P
R – wahania realnych wielkości makroekonomicznych
T – trend
S – wahania sezonowe
C – wahania koniunkturalne
P – wahania przypadkowe
Przyjmując założenie, że wahania przypadkowe nie istnieją, mamy:
R = T + S + C
C = R – (T + S)
C = (R – S) – T
Aby otrzymać czysty ruch cykliczny należy w wahaniach realnych zlikwidować skutki wahań sezonowych, a następnie wyeliminować wpływ trendu.
Zmiany długookresowe – trendy
Trend - pewna wyrównana linia opisująca zasadniczy przebieg zjawiska w czasie.
Wyraża zniżkową lub zwyżkową tendencję rozwojową w długim okresie.
Trend pokazuje poziom zmiennej endogenicznej, wynikający z oddziaływania na nią pewnych istotnych przyczyn, takich jak:
zmiany podaży czynnika pracy (ilość i jakość pracy)
zmiany podaży rzeczowych czynników produkcji
postęp techniczny i naukowy.
Wahania sezonowe
Zmiany nasilenia działalności gospodarczej dokonujące się na przestrzeni roku kalendarzowego i wynikające ze zjawisk bezpośrednio lub pośrednio związanych z porami roku.
Czynnikami sezonowym są także tzw. efekty kalendarzowe - ilość dni roboczych przypadających w danym miesiącu lub kwartale oraz święta.
Rodzaje cykli koniunkturalnych
Kryterium długości cyklu (Schumpeter, 1939)
Krótkie (cykle Kitchina) 40 -miesięczne ≈ 3,5-4 -letnie
Średnie
Cykle Juglara 6-11 -letnie
Cykle Kuznetsa 18-20 -letnie
Długie (cykle Kondratiewa) 45-60 - letnie
Super długie 150-160 –letnie
Mitchell i Burns (1946): ‘Cykle koniunkturalne mają zmienną długość – od powyżej 1 roku do 10-12 lat’.
Cykle Kitchina, Juglara i Kondratiewa
Przyczyną występowania cykli Kitchina są zmiany zapasów, a szerzej zmiany w kapitale obrotowym. Na jeden cykl Juglara skladają się 2-3 cykle Kitchina.
Przyczyną cykli Juglara są inwestycje w kapitał trwały (zmiany wyposażenia technicznego produkcji). Na jeden cykl Kondratiewa składa się 6 cykli średnich.
Przyczyną fal długich (około półwiecznych) są wielkie cykle inwestycyjne infrastruktury ekonomicznej, które wymagają nadzwyczajnych nakładów oraz długiego czasu. Znaczenie odgrywają odkrycia i wynalazki (elektryczność, silnik parowy, komputer).
Inne rodzaje wahań periodycznych
Wahania dobowe (notowania giełdowe – wzrost kursu akcji na 0,5 godz. przed końcem sesji)
Wahania tygodniowe (efekt poniedziałku, w Japonii i Australii – wtorku)
Wahania miesięczne (28-dniowy cykl handlowy - odkryty w latach 30. XX wieku na rynku pszenicy)
Rodzaje cykli koniunkturalnych
Kryterium zasięgu geograficznego
cykl światowy
cykl międzynarodowy
regionalny cykl koniunkturalny
narodowe cykle koniunkturalne
Kryterium selektywności podmiotowej
cykle ogólnogospodarcze
cykle wycinkowe (specjalne)
cykle budowlane
cykle niektórych rynków rolniczych:
cykl świński
cykl bawełny amerykańskiej
cykl bydła
cykl kawy
Kryterium cech morfologicznych
Cykl klasyczny
Cykl współczesny
Cechy morfologiczne cyklu koniunkturalnego
Długość | wyznaczona przez okresy występujące między punktami zwrotnymi; długość fazy spadkowej + długość fazy wzrostowej |
---|---|
Częstotliwość | informuje ile cykli lub jaka część cyklu występuje w przyjętej jednostce czasu |
Amplituda | różnica między skrajnymi wartościami pewnych elementów występujących w danym okresie |
Intensywność | oznacza siłę tendencji zwyżkowych lub zniżkowych występujących w poszczególnych fazach |
Symetryczność (asymetryczność) | informuje o relacji pomiędzy amplitudą poszczególnych faz oraz o zależnościach w zakresie ich długości |
długość – charakteryzuje cykle i fazy. Długość fazy wyznaczana jest przez okresy występujące między punktami zwrotnymi. Długość cyklu – okres trwania 2 faz (kolejnych), tj. fazy pomyślnej koniunktury i fazy gorszej koniunktury
amplituda fazy – wartość bezwzględna różnicy między wartościami ekstremalnymi, należącymi do danej fazy,
amplituda cyklu – różnica między amplitudą fazy wzrostowej i amplitudą fazy spadkowej.
Badanie intensywności cyklu polega na określeniu nasilenia wzrostu i zniżki w poszczególnych fazach cyklu. Cykl koniunkturalny ma malejącą intensywność, jeśli rozproszenie szeregu wokół hipotetycznej średniej jest coraz mniejsze (cykle mają charakter tłumiony).
symetryczność / asymetryczność wahań – informuje o relacji między amplitudą poszczególnych faz oraz o zależnościach w zakresie ich długości. Fluktuacje są symetryczne, gdy spełnione są warunki:
amplitudy poszczególnych faz są równe (czyli amplituda cyklu = 0),
okresy trwania faz wzrostowych = okresy trwania faz spadkowych
Cykl współczesny
Fazy w cyklu klasycznym
O recesji (ożywieniu) mówimy wówczas, gdy dynamika PKB jest ujemna (dodatnia) przez dwa kolejne kwartały.
Szczególnie ostra recesja, ze znacznym spadkiem produkcji realnej i wskaźnikiem bezrobocia sięgającym 15% lub więcej, nazywana jest depresją.
Okres pełnego wykorzystania czynników produkcji to rozkwit.
Fazy w cyklu współczesnym
Współczesne cykle koniunkturalne to fluktuacje aktywności gospodarczej kształtujące się po drugiej wojnie światowej. Obejmują one zwykle okresy od 2-8 lat, z dominującą długością cyklu 3,5-5 lat.
Charakterystyczna zmiana we współczesnych cyklach koniunkturalnych dotyczy skrócenia oraz spłycenia fazy spadkowej.
Jest to jednoznaczne ze złagodzeniem recesji, która ujawnia się w dynamicznie rozwijających się gospodarkach w postaci przyhamowania tempa wzrostu gospodarczego, nie zaś w postaci absolutnego zmniejszenia produkcji.
Porównanie kilku cech klasycznych i współczesnych cykli gospodarczych
Cykl klasyczny | Cykl współczesny |
---|---|
cykl czterofazowy: ożywienie, rozkwit, kryzys, depresja | cykl dwufazowy: faza wysokiej i faza niskiej aktywności gospodarczej |
punkty zwrotne gwałtowne, ostre | punkty zwrotne łagodne |
amplitudy faz zbliżone; amplituda cyklu bliska 0 | amplituda fazy wzrostowej wyższa; amplituda cyklu dodatnia |
faza pomyślnej koniunktury 4-6 lat faza spadkowej koniunktury 4-6 lat cykl 8-12 lat ; niska częstotliwość |
faza pomyślnej koniunktury 2-3 lat faza spadkowej koniunktury 1,5-2 lat cykl 3,5-5 lat ; wysoka częstotliwość |
intensywność wysoka | intensywność niska, malejąca |
Czynniki zmieniające współczesny cykl koniunkturalny
wieloletnie i skuteczne oddziaływanie polityki stabilizacyjnej państwa;
poprawa zarządzania zapasami;
istnienie bardziej wiarygodnych informacji o sytuacji gospodarczej i jej perspektywach; szybkość przepływu informacji;
stabilizujące oddziaływanie handlu zagranicznego i międzynarodowej współpracy gospodarczej; procesy globalizacji i internacjonalizacji;
dynamiczna ekspansja sektora usług.
Miary poziomu aktywności gospodarczej
mierniki produkcji
mierniki wykorzystania czynników produkcji
mierniki cen
wskaźniki rynku pieniężnego
wskaźniki zbiorcze
Mierniki produkcji
produkt krajowy brutto
produkt potencjalny (metoda ‘trendu po wierzchołkach’, prawo Okuna, funkcje produkcji)
produkcja przemysłowa
proste mierniki reprezentacyjne (wydobycie węgla, produkcja stali itp.)
Mierniki wykorzystania czynników produkcji
stopa bezrobocia
wykorzystanie aparatu produkcyjnego
Mierniki cen
deflator PKB
wskaźnik cen towarów i usług konsumpcyjnych
wskaźnik cen producentów
Wskaźniki rynku pieniężnego
podaż pieniądza
stopa procentowa
Wskaźniki zbiorcze
wskaźnik dyfuzji (stosunek liczby wskaźników wykazujących ten sam kierunek zmian do ogólnej liczby wskaźników)
wskaźnik zbiorczy o znormalizowanej amplitudzie (wskaźnik dyfuzji uwzględniający nasilenie zmian)
Metody dekompozycji szeregów czasowych
Klasyczna dekompozycja z wykorzystaniem scentrowanej średniej ruchomej i metody wskaźników sezonowości
Wyodrębnianie trendu
Podejście analityczne
Trend pełzający
Filtr Hodricka-Prescota
Filtr Rotemberga
Dekompozycja Beveridge’a-Nelsona
UCARIMA
Filtry pasmowe (np. Baxtera-Kinga, oparte na analizie spektralnej, filtry falkowe)
Modele SVAR z dekompozycją Blancharda-Quah
Klasyczna dekompozycja z wykorzystaniem średnich ruchomych i wskaźników sezonowości
Model addytywny Model multiplikatywny
dla cykliczności addytywnej: wariancja wartości wewnątrz kolejnych okresów nie będzie rosła wraz ze wzrostem średniego poziomu (nie będzie z nim dodatnio skorelowana)
dla cykliczności multiplikatywnej: wariancja wartości wewnątrz kolejnych okresów będzie rosła wraz ze wzrostem średniego poziomu (będzie z nim dodatnio skorelowana)
Przykład 1. Szereg obserwacji kwartalnych
t | y |
---|---|
1 | 2,4 |
2 | 3,8 |
3 | 5,6 |
4 | 2,5 |
5 | 2,3 |
6 | 4 |
7 | 5,1 |
8 | 2,4 |
9 | 2,2 |
10 | 2,9 |
11 | 4,8 |
12 | 2,1 |
13 | 3,2 |
14 | 4,8 |
15 | 5,9 |
16 | 3 |
17 | 3,1 |
18 | 5,1 |
19 | 6,2 |
20 | 3,3 |
21 | 3,4 |
22 | 7 |
23 | 5,1 |
24 | 3,4 |
Wyodrębnianie trendu poprzez eliminację wahań sezonowych i przypadkowych
$${\overset{\overline{}}{y}}_{t} = \frac{1}{2q}\lbrack\frac{1}{2}y_{t - q} + \sum_{s = - q + 1}^{q - 1}{y_{t + s} + \frac{1}{2}y_{t + q}}\rbrack$$
q= k/2 (k- liczba obserwacji w roku)
Scentrowana średnia ruchoma czterowyrazowa:
y1
y2
y3 ${\overset{\overline{}}{y}}_{3} = \frac{0,5y_{1} + y_{2} + y_{3} + y_{4} + 0,5y_{5}}{4}$
y4 ${\overset{\overline{}}{y}}_{4} = \frac{0,5y_{2} + y_{3} + y_{4} + y_{5} + 0,5y_{6}}{4}$
⋮
yn − 2 ${\overset{\overline{}}{y}}_{n - 2} = \frac{0,5y_{n - 4} + y_{n - 3} + y_{n - 2} + y_{n - 1} + 0,5y_{n}}{4}$
yn − 1
yn
Wskaźniki sezonowości – model addytywny (także w szeregu bez trendu)
surowe
$${c'}_{i} = \frac{\sum_{j = 0}^{s - 1}(y_{i + j*k} - {\overset{\overline{}}{y}}_{i + j*k}}{s}$$
i = 1, ...,k - numer sezonu
s – liczba lat
${\overset{\overline{}}{y}}_{t}$ -ocena trendu
oczyszczone (suma równa 0)
$$c_{i} = {c'}_{i} - \frac{1}{k}\sum_{i = 1}^{k}{c'}_{i}$$
Wskaźniki sezonowości – model multiplikatywny (także w szeregu bez trendu)
surowe
$${c'}_{i} = \frac{\sum_{j = 0}^{s - 1}\frac{y_{i + j*k}}{{\overset{\overline{}}{y}}_{i + j*k}}}{s}$$
oczyszczone (ich suma jest równa k)
$$c_{i} = \frac{{c'}_{i}}{\frac{1}{k}\sum_{i = 1}^{k}{c'}_{i}}$$
Przykład 1. Szereg obserwacji kwartalnych Y
Sezonowość addytywna | Sezonowość multiplikatywna | Sezonowość addytywna | Sezonowość multiplikatywna |
---|---|---|---|
Wskaźniki surowe | Wskaźniki czyste | ||
-1,0925 | 0,721 | -1,1625 | 0,709 |
0,8175 | 1,185 | 0,7475 | 1,165 |
1,76 | 1,476 | 1,69 | 1,451 |
-1,205 | 0,687 | -1,275 | 0,675 |
Średnia = 0,07 | Średnia = 1,017 | S = 0,000 | S = 4,000 |
t | y | Trend + Cykl | Trend + Cykl + Wahania przypadkowe |
---|---|---|---|
1 | 2,4 | 3,56 | |
2 | 3,8 | 3,05 | |
3 | 5,6 | 3,56 | 3,91 |
4 | 2,5 | 3,58 | 3,78 |
5 | 2,3 | 3,54 | 3,46 |
6 | 4 | 3,46 | 3,25 |
7 | 5,1 | 3,44 | 3,41 |
8 | 2,4 | 3,29 | 3,68 |
9 | 2,2 | 3,11 | 3,36 |
10 | 2,9 | 3,04 | 2,15 |
11 | 4,8 | 3,13 | 3,11 |
12 | 2,1 | 3,49 | 3,38 |
13 | 3,2 | 3,86 | 4,36 |
14 | 4,8 | 4,11 | 4,05 |
15 | 5,9 | 4,21 | 4,21 |
16 | 3 | 4,24 | 4,28 |
17 | 3,1 | 4,31 | 4,26 |
18 | 5,1 | 4,39 | 4,35 |
19 | 6,2 | 4,46 | 4,51 |
20 | 3,3 | 4,74 | 4,58 |
21 | 3,4 | 4,84 | 4,56 |
22 | 7 | 4,71 | 6,25 |
23 | 5,1 | 3,41 | |
24 | 3,4 | 4,68 |
Przykład 1. Szereg danych kwartalnych
Trend pełzający (metoda Hellwiga)
Stały segment wygładzania
Dla danej stałej wygładzania k szacuje się trendy liniowe na podstawie kolejnych k obserwacji:
y1 y2 … yk
y2 y3 … yk + 1
… … … …
yn − k + 1 yn − k + 2 … yn
otrzymując:
y1, t = a1t + b1 (t = 1, …, k)
y2, t = a2t + b2 (t = 2, …, k + 1)
… … … …
yn − k + 1, t = an − k + 1t + bn − k + 1 (t = n − k + 1, …, n)
Wyrazom szeregu yt przyporządkowuje się teoretyczne wartości wyznaczone z funkcji trendu o numerach:
d(t)≤j ≤ g(t)
gdzie:
$$d\left( t \right) = \left\{ \begin{matrix}
1\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \text{dla}\ t = 1,\ldots,k \\
t - k + 1\ \ \ \ \ \ \ \text{dla}\ t = k + 1,\ldots,n \\
\end{matrix} \right.\ $$
$$g\left( t \right) = \left\{ \begin{matrix}
t\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\text{dla}\ t = 1,\ldots,n - k \\
t - k + 1\ \ \ \ \ \ \ \ \ \ \text{dla}\ t = n - k + 1,\ldots,n \\
\end{matrix} \right.\ $$
Ostatecznie wartość wyrównana dla okresu t dana jest wzorem:
$${\overset{\overline{}}{y}}_{t} = \frac{1}{g\left( t \right) - d\left( t \right) + 1}\sum_{j = d(t)}^{g(t)}{\hat{y}}_{j,\ t}$$
Metoda wag harmonicznych
Oszacowany model trendu pełzającego może być podstawą prognozowania. W tym celu należy dokonać ekstrapolacji trendu metodą wag harmonicznych.
Najpierw wyznacza się przyrosty trendu pełzającego:
$$w_{t + 1} = {\overset{\overline{}}{y}}_{t + 1} - {\overset{\overline{}}{y}}_{t}\ \ \ \ \ \ \ \ \ \ \ \ \ (t = 1,\ldots,n - 1)$$
a następnie oblicza średnią ważoną tych przyrostów:
$$w = \sum_{t = 1}^{n - 1}{C_{t + 1}^{n}w_{t + 1}}$$
Współczynniki Ct + 1n nazywane są wagami harmonicznymi i mają na celu uwzględnienie postulatu postarzania informacji. Zdefiniowane są one następująco:
$$C_{t + 1}^{n} = \frac{1}{n - 1}\sum_{i = 1}^{t}{\frac{1}{n - i}\ \ \ \ \ \ \ \ \ \ \ \ \ \ (t = 1,\ldots,n - 1)}$$
Wagi harmoniczne są rosnąca funkcją t i sumują się do jedności:
$$\sum_{t = 1}^{n - 1}{C_{t + 1}^{n} = 1}$$
0 < Ct + 1n < 1
Ctn < Ct + 1n
Wartość prognozy na okres T = n + 1, …, n + h można obliczyć poprzez prostą ekstrapolację liniową ostatniego segmentu trendu pełzającego:
yTp = an − k + 1T + bn − k + 1 (T = n + 1, …, n + h)
lub ze wzoru: $y_{\text{Tp}} = {\overset{\overline{}}{y}}_{n} + w(T - n)$
Przykład 2. Popyt na rynku dobra Y
Miesiąc t | Popyt yt |
---|---|
1 | 8 |
2 | 12 |
3 | 25 |
4 | 40 |
5 | 50 |
6 | 65 |
7 | 36 |
8 | 61 |
9 | 88 |
10 | 63 |
$${\hat{y}}_{1,\ t} = - 2 + 8,5t$$
$${\hat{y}}_{2,\ t} = \ - 2,333 + 14t$$
$${\hat{y}}_{3,\ t} = 13,333 + 12,5t$$
$${\hat{y}}_{4,\ t} = 26,667 + 12,5t$$
$${\hat{y}}_{5,\ t} = 64,333 - 7t$$
$${\hat{y}}_{6,\ t} = 58 - 2t$$
$${\hat{y}}_{7,\ t} = 9,67 + 26t$$
$${\hat{y}}_{8,\ t} = 68,667 + t$$
t=1 | t=2 | t=3 | t=4 | t=5 | t=6 | t=7 | t=8 | t=9 | t=10 | ||
---|---|---|---|---|---|---|---|---|---|---|---|
1 | 6,500 | 15,000 | 23,500 | ||||||||
2 | 11,667 | 25,667 | 39,667 | ||||||||
3 | 25,833 | 38,333 | 50,833 | ||||||||
4 | 39,167 | 51,667 | 64,167 | ||||||||
5 | 57,333 | 50,333 | 43,333 | ||||||||
6 | 56,000 | 54,000 | 52,000 | ||||||||
7 | 35,667 | 61,667 | 87,667 | ||||||||
8 | 69,667 | 70,667 | 71,667 | ||||||||
Wartości trendu pełzającego | 6,500 | 13,334 | 25,000 | 39,056 | 53,278 | 56,833 | 44,333 | 61,111 | 79,167 | 71,667 | |
Przyrosty trendu | 6,834 | 11,667 | 14,056 | 14,222 | 3,556 | -12,500 | 16,778 | 18,056 | -7,500 | ||
9,000 | 8,000 | 7,000 | 6,000 | 5,000 | 4,000 | 3,000 | 2,000 | 1,000 | |||
Wagi harmoniczne | 0,012 | 0,026 | 0,042 | 0,061 | 0,083 | 0,111 | 0,148 | 0,203 | 0,314 | 1,000 | |
0,084 | 0,306 | 0,592 | 0,862 | 0,295 | -1,383 | 2,477 | 3,669 | -2,357 | 4,546 |
Filtr Hodricka-Prescotta (1981, 1997 JMCB)
Składnik cykliczny zmiennej y jest różnicą między jej bieżącą wartością, a miarą pokazującą wartość trendu, a ten ostatni komponent jest ważoną średnią przeszłych, obecnych i przyszłych obserwacji:
$$y_{t}^{c} = y_{t} - \tau_{t} = y_{t} - \sum_{j = - J}^{J}{a_{j}*}y_{t - j}$$
gdzie: ytc składnik cykliczny zmiennej y w okresie t,
τt wartość komponentu trendu deterministycznego i stochastycznego.
W metodzie tej oblicza się wartości τt, które minimalizują wyrażenie:
$$\sum_{t = 1}^{T}{\left( y_{t} - \tau_{t} \right)^{2} + \lambda}\sum_{t = 2}^{T - 1}{\lbrack(}\tau_{t + 1} - \tau_{t}) - (\tau_{t} - {\tau_{t - 1})\rbrack}^{2}$$
gdzie: λ – parametr filtru (λ = 100 w przypadku danych rocznych; λ = 1600 w przypadku danych kwartalnych i λ = 14400 dla danych miesięcznych).
λ = 0 daje komponent trendu identyczny z wyjściowym szeregiem yt, zaś λ = ∞ daje komponent trendu w postaci liniowego trendu deterministycznego.
Metoda nie zależy od procesu generującego dane
Składniki cykliczny i trendowy są nieskorelowane
Składnik cykliczny jest stacjonarny nawet w procesach I(4)
Statystycznie optymalna metoda dekompozycji pewnych typów procesów I(1) i I(2)
Może wywoływać pozorne cykliczności.
W praktyce odsezonowane dane poddaje się najpierw logarytmowaniu, a następnie stosuje filtr Hodricka-Prescotta (HP). Od logarytmów odsezonowanych szeregów odejmuje się trend HP, co (po przemnożeniu przez 100) pozwala uzyskać procentowe odchylenia od trendu.
Filtr Rotemberga (1999)
$$\sum_{t = 1 + k}^{T}\left( y_{t}^{c} - {\overset{\overline{}}{y}}^{c} \right)\left( y_{t - k}^{c} - {\overset{\overline{}}{y}}^{c} \right) + \lambda\sum_{t = 2}^{T - 1}{\lbrack(\tau_{t + 1} -}\tau_{t}) - {(\tau_{t} - \tau_{t - 1})\rbrack}^{2} \rightarrow \min$$
$$\sum_{t = k + v}^{T - v - k}{\left( y_{t}^{c} - {\overset{\overline{}}{y}}^{c} \right)\lbrack(}\tau_{t + v} - \tau_{t}) - (\tau_{t} - \tau_{t - v})\rbrack = 0$$
λ jest ustalane jako najmniejsza liczba dodatnia gwarantująca spełnienie dodatkowego ograniczenia.
Metoda ta zakłada, że wahania w trendzie są ortogonalne do cyklu, trend ma gładki przebieg, a cykl jest krótki.
Dla danych kwartalnych przyjmuje się zwykle v = 5 i k = 16.
Dekompozycja Beveridge’a-Nelsona (1981)
Związana jest z wyznaczaniem prognoz. Polega na dekompozycji procesu ARIMA(p, 1, q) na random walk z dryfem i proces stacjonarny.
Składnik trendu jest wyznaczany następująco:
$$y_{t}^{g} = y_{t} + \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)}$$
xt = yt − yt − 1 − μ
${\hat{x}}_{t}\left( j \right)$- prognoza xt j okresów do przodu
Zaś składnik cykliczny dany jest przez
$$y_{t}^{c} = - \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)}$$
ytc- stacjonarny, gdyż ${\hat{x}}_{t}\left( j \right) = \psi_{j}\varepsilon_{t} + \psi_{j}\varepsilon_{t - 1} + \psi_{j + 2}\varepsilon_{t - 2} + \ldots\text{oraz}$
$$\operatorname{}{\sum_{j = 1}^{k}{{\hat{x}}_{t}\left( j \right) = \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)} =}}\sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t}} + \sum_{j = 2}^{\infty}{\psi_{j}\varepsilon_{t - 1} + \sum_{j = 3}^{\infty}{\psi_{j}\varepsilon_{t - 2} + \ldots,\ co\ jest\ zbiez\text{ne.}}}$$
ytg- random walk z dryfem
$$y_{t}^{g} - y_{t - 1}^{g} = y_{t} - y_{t - 1} + \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right) -}\sum_{j = 1}^{\infty}{{\hat{x}}_{t - 1}\left( j \right)}$$
Oznaczmy $A_{t} = \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)}$
$$A_{t} - A_{t - 1} = \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right) -}\sum_{j = 1}^{\infty}{{\hat{x}}_{t - 1}\left( j \right)} = \sum_{j = 1}^{\infty}{\lbrack{\hat{x}}_{t}\left( j \right) - {\hat{x}}_{t - 1}\left( j \right)}\rbrack =$$
$$= \sum_{j = 1}^{\infty}{\{\lbrack{\hat{x}}_{t}\left( j \right) - {\hat{x}}_{t - 1}\left( j + 1 \right)}\rbrack + \lbrack{\hat{x}}_{t - 1}\left( j + 1 \right) - {\hat{x}}_{t - 1}\left( j \right)\rbrack\} =$$
$$= \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} - {\hat{x}}_{t - 1}\left( 1 \right)}$$
${\hat{x}}_{t}\left( j \right) = \psi_{j}\varepsilon_{t} + \psi_{j + 1}\varepsilon_{t - 1} + \psi_{j + 2}\varepsilon_{t - 2} + \ldots$
${\hat{x}}_{t - 1}\left( j \right) = \psi_{j}\varepsilon_{t - 1} + \psi_{j + 1}\varepsilon_{t - 2} + \psi_{j + 2}\varepsilon_{t - 3} + \ldots$
${\hat{x}}_{t - 1}\left( j + 1 \right) = \psi_{j + 1}\varepsilon_{t - 1} + \psi_{j + 2}\varepsilon_{t - 2} + \psi_{j + 3}\varepsilon_{t - 3} + \ldots$
$$y_{t}^{g} - y_{t - 1}^{g} = y_{t} - y_{t - 1} + \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} - {\hat{x}}_{t - 1}\left( 1 \right) =}$$
$$= \mu + x_{t} + \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} - {\hat{x}}_{t - 1}\left( 1 \right) =}$$
$$= \mu + \varepsilon_{t} + \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} = \mu + (1 + \sum_{j = 1}^{\infty}{\psi_{j})}}\varepsilon_{t} = \mu + \Psi(1)\varepsilon_{t}$$
Wada: trend i cykl są silnie skorelowane.
20.10.2011
Koniunktura makroekonomiczna a strategie inwestycyjne
Strategie ‘top-down’ i ‘bottom-up
Strategie oparte na analizie fundamentalnej
Podstawą aktywnego inwestowania jest ciągłe ‘zakładanie się z rynkiem’, które można podzielić na poszukiwanie nieefektywności wynikających z anomalii rynkowych oraz na analizę fundamentalną.
Analiza fundamentalna obejmuje ocenę ekonomicznej sytuacji spółki z uwzględnieniem perspektyw wzrostu jej przychodów i zysków, dynamiki wskaźników rentowności oraz zdolności do obsługi zadłużenia, jak również ocenę otoczenia konkurencyjnego spółki, prognozy dla sektora oraz prognozy makroekonomiczne.
Aktywne zarządzanie portfelem przez profesjonalnych analityków oparte na analizie fundamentalnej skupia się głównie na ocenie krótko- i długoterminowych zmian wskaźnika EPS (zysku na akcję).
Strategia top-down
Wg tej strategii najpierw poszukuje się najbardziej atrakcyjnych rynków i sektorów, a dopiero potem wewnątrz nich szuka najbardziej obiecujących przedsiębiorstw. Ta strategia inwestycyjna zaczyna się od ogólnej oceny kondycji danej gospodarki i branży. Analiza fundamentów konkretnej spółki jest jej ostatnim etapem.
Wśród najbardziej powszechnych strategii tego typu są:
strategia rotacji różnych aktywów zwana taktyczną alokacją aktywów (Tactical Asset Allocation - TAA)
strategia rotacji sektorowej
Taktyczna alokacja aktywów
W myśl tej strategii menedżer inwestuje przerzucając aktywnie środki pieniężne pomiędzy akcje, obligacje, kontrakty terminowe, bony skarbowe i surowce (np. złoto) w zależności od oczekiwanej koniunktury na rynku oraz premii za ryzyko.
Natomiast w ramach samego rynku akcji środki przerzucane są pomiędzy sektorami i różnymi stylami inwestycyjnymi. Ostatnim etapem jest wybór niedowartościowanych spółek bazując na ustalonych kryteriach.
Najprostszym przykładem zastosowania takiej właśnie strategii jest alokacja aktywów pomiędzy akcje, obligacje i złoto (jako najlepszego przedstawiciela rynku surowcowego).
Przykład
Martin Pring proponuje analog barometru harvardzkiego: Ekspansja gospodarcza wiąże się z hossą na rynku akcji, słaba gospodarka sprzyja wzrostom cen obligacji, natomiast gospodarka inflacyjna pobudza wzrosty cen złota.
Pierwszym rynkiem zapowiadającym ekspansję gospodarcza jest rynek obligacji. Wzrosty cen obligacji, jakie towarzyszą spadkom rynkowych stóp procentowych, zaczynają się jeszcze w okresie recesji. Swój szczyt ceny obligacji osiągają, gdy rynek znajduje się już w fazie wzrostowej.
Kiedy pojawiają się pierwsze sygnały ożywienia, inwestorzy zaczynają akumulować akcje. W międzyczasie presja na wzrost stóp procentowych powoduje spadek cen obligacji, rynek ten powoli zaczyna się osuwać.
Gdy wzrost gospodarczy trwa już jakiś czas, pojawia się presja inflacyjna. Na rynkach akcji dochodzi do korekty, a ekspansja gospodarcza osiąga kres swoich możliwości.
Rosnąca obawa przed inflacją doprowadza do wzrostu cen na rynku złota. Inflacja osiąga zwykle swój szczyt w początkowej fazie recesji, dlatego też hossa na rynku złota ma miejsce kilka miesięcy wcześniej, kiedy gospodarka zaczyna zwalniać.
Źródło: N. Hamernik, Czy cykle koniunkturalne warunkują zmiany na giełdach?
Strategia rotacji sektorowej
Ma zastosowanie tylko na rynku akcji
Polega na przeważaniu poszczególnych sektorów (takich jak banki, nowe technologie, cykliczne dobra konsumpcyjne) relatywnie do benchmarku zgodnie z antycypowaną przez cykl giełdowy fazą cyklu koniunkturalnego.
Niecykliczne dobra konsumpcyjne: Akcje spółek należące do tej kategorii (m.in. producenci żywności, kosmetyków, napojów) mają tendencję do w miarę stałego popytu ze strony inwestorów i są mniej wrażliwe na zmiany koniunktury gospodarczej. Przyciągają one inwestorów zazwyczaj kiedy cykl koniunkturalny oraz hossa na giełdzie są już na zaawansowanym poziomie lub we wczesnej fazie recesji.
Cykliczne dobra konsumpcyjne (trwałego i nietrwałego użytku): Akcje z tej grupy charakteryzują się wysokim stopniem wrażliwości na poziom stóp procentowych oraz koniunkturę gospodarczą. Zarządzający stawiają na te spółki w późnych fazach recesji.
Farmaceutyka i ochrona zdrowia: Branże te mają cechy zbliżone do niecyklicznych dóbr konsumpcyjnych. Firmy farmaceutyczne narażone są jednak na szereg regulacji legislacyjnych dotyczących patentów, zezwoleń oraz polityki rządowej w zakresie ochrony zdrowia.
Banki i instytucje finansowe: Branża ta zachowuje się wyjątkowo dobrze w okresie spadających stóp procentowych i jest na celowniku inwestorów w czasie recesji gospodarczej.
Nowe technologie: Akcje z tego sektora uważane są za jedne z najbardziej wrażliwych na stan koniunktury makroekonomicznej, a ich cykliczność jest uzależniona od poziomu wydatków inwestycyjnych oraz popytu na produkty. Cieszą się popularnością we wczesnych i środkowych fazach ekspansji gospodarczej.
Niekonsumpcyjne dobra trwałe: Wydatki inwestycyjne znacząco się zwiększają podczas późnych faz wzrostu oraz rozkwitu gospodarki. Duże znaczenie ma również globalny popyt na maszyny i urządzenia przemysłowe.
Energia: Akcje spółek z branży energetycznej są wyjątkowo czułe na ogólnoświatowe tendencje popytu i podaży na określony surowiec oraz polityczne wydarzenia w skali światowej. Są one popularne podczas rozkwitu gospodarki i zaawansowanej hossy na rynku kapitałowym.
Metale szlachetne: Akcje tych spółek są wykorzystywane w strategiach hedgingowych przeciwko inflacji.
Techniki te dają lepsze rezultaty od pasywnej strategii „kup i trzymaj”. Jednakże pozytywne wyniki są osiągane w średnim i długim terminie, dlatego strategia ta powinna by stosowana przez inwestorów z dłuższym horyzontem inwestycyjnym
Źródło: S. E. Kuhn, Stocks Are Still Your Best Buy, Fortune, 21 marzec 1994, 140.
za: http://www.bzwbk.pl, Profesjonalne strategie inwestycyjne
Strategia bottom-up
Skupia się wyłącznie na fundamentach i perspektywach konkretnej spółki bez uwzględniania sytuacji branży oraz czynników makro.
Zwolennik bottom-up bdzie zwracał uwagę na zarządzanie przedsiębiorstwem, historię, model biznesowy, perspektywy wzrostu i inne cechy charakterystyczne.
Korzystający z tej strategii wierzą, że niektóre spółki mają przewagę nad innymi porównywalnymi firmami i bez względu na sytuację ogólnoekonomiczną ich akcje dadzą większe zyski od innych.
Zadaniem menedżera jest odnalezienie takich „spółek-gwiazd” i zakup ich z istotnym dyskontem do wartości wynikającej z ich wyceny. Dla inwestora indywidualnego strategia bottom-up jest zdecydowania prostsza do zastosowania, ale strategia top-down przynosi wyższe zyski w długim okresie.
Podstawy analizy spektralnej
Literatura:
Brockwell P. J., Davis R. A. (1996), Introduction to time series and forecasting, Springer, New York, Chapter IV.
Talaga L., Zieliński Z. (1987), Analiza spektralna w modelowaniu ekonometrycznym, PWN, Warszawa
Zgodnie z twierdzeniem o dekompozycji Wolda, każdy proces kowariancyjnie stacjonarny ma reprezentację:
$${\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }Y}_{t} = \mu + \sum_{j = 0}^{\infty}{\psi_{j}\varepsilon_{t - j},\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (1)}$$
Inną reprezentacją procesu stacjonarnego jest przedstawienie go jako ważonej sumy funkcji okresowych sin(t ω) i cos(t ω) postaci:
Yt = μ + ∫0πα(ω)cos(tω)dω + ∫0πβ(ω)sin(tω)dω (2)
Reprezentacja (2) będzie pomocna w ocenie tego, które cykle (o jakich częstościach) odpowiadają za dynamikę procesu. Pierwszy rodzaj analizy do analiza w dziedzinie czasu (time domain analysis), zaś drugi – w dziedzinie częstości (frequency domain analysis).
Niech proces będzie kowariancyjnie stacjonarny o średniej i sumowalnej w wartościach bezwzględnych funkcji kowariancyjnej:
E(Yt − μ)(Yt − τ−μ) = K(τ) = γτ.
Spektrum (funkcją gęstości spektralnej) procesu będziemy nazywać funkcję postaci:
$$\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }f_{Y}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{\tau}e^{- \text{iτω}}.}$$
Z twierdzenia De Moivre’a mamy, że e−iτω = cos(τω) − i sin(τω), co po podstawieniu prowadzi do:
$${\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }f}_{Y}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{\tau}\left\lbrack \cos\left( \text{τω} \right) - i\sin\left( \text{τω} \right) \right\rbrack =}\frac{1}{2\pi}\gamma_{0}(\cos\ 0 - i\sin{0) +}$$
$$\ \ \ \ + \frac{1}{2\pi}\sum_{\tau = 1}^{\infty}{\gamma_{\tau}\left\lbrack \cos\left( \text{τω} \right) - i\sin{\left( \text{τω} \right) + \cos\left( - \text{τω} \right) - \text{\ i\ }\sin( - \text{τω})} \right\rbrack =}\frac{1}{2\pi}\left\{ \gamma_{0} + 2\sum_{\tau = 1}^{\infty}{\gamma_{\tau}\cos(\text{τω})} \right\}.$$
Ze wzoru powyżej można wywnioskować następujące własności:
Zakładając sumowalność w wartościach bezwzględnych funkcji kowariancyjnej otrzymujemy, że spektrum istnieje dla dowolnej częstości i jest funkcją ciągłą o wartościach rzeczywistych.
Funkcja gęstości spektralnej jest funkcją symetryczną i okresową o okresie 2π. Stąd wystarczy znać jej wartości w przedziale [0, π].
Inne ważne własności spektrum są następujące:
(1) fY(ω) ≥ 0 dla dowolnych ω;
(2) γτ = K(τ) = ∫−ππeiτωfY(ω)dω = ∫−ππcos(τω)fY(ω)dω
(2a) σ2 = K(0) = ∫−ππfY(ω)dω
Dowód (1): (NIEOBOWIĄZKOWY) Rozważmy proces o średniej 0. Dla dowolnej liczby naturalnej T możemy zdefiniować pomocnicze wyrażenie:
$$f_{Y}^{T}\left( \omega \right) = \frac{1}{2\text{πT}}E\left( \left| \sum_{r = 1}^{T}{Y_{r}e^{- \text{irω}}} \right|^{2} \right) = \frac{1}{2\text{πT}}E\left( \sum_{r = 1}^{T}{Y_{r}e^{- \text{irω}}}\sum_{s = 1}^{T}{Y_{s}e^{\text{isω}}} \right) =$$
$$= \frac{1}{2\text{πT}}\left\lbrack T\gamma_{0} + \left( T - 1 \right)\gamma_{1}e^{- \text{iω}} + \left( T - 1 \right)\gamma_{1}e^{\text{iω}} + \left( T - 2 \right)\gamma_{2}e^{- 2\text{iω}} + \left( T - 2 \right)\gamma_{2}e^{2\text{iω}} + \ldots + \gamma_{T - 1}e^{- (T - 1)\text{iω}} + \gamma_{T - 1}e^{(T - 1)\text{iω}} \right\rbrack =$$
$$= \frac{1}{2\text{πT}}\sum_{\left| \tau \right| < T}^{}{(T - \left| \tau \right|)e^{- \text{irω}}}\gamma_{\tau}.$$
Powyższa funkcja przyjmuje wartości nieujemne dla dowolnych T i ω, przy czym zachodzi:
$$f_{Y}^{T}\left( \omega \right)\overset{\rightarrow}{T \rightarrow \infty}f_{Y}\left( \omega \right).$$
Dowód (2): $\int_{- \pi}^{\pi}e^{\text{iτω}}f_{Y}\left( \omega \right)d\omega = \int_{- \pi}^{\pi}{\frac{1}{2\pi}\sum_{h = - \infty}^{\infty}e^{i(\tau - h)\omega}\gamma_{h}}d\omega = \frac{1}{2\pi}\sum_{h = - \infty}^{\infty}{\gamma_{h}\int_{- \pi}^{\pi}{e^{i(\tau - h)\omega}d\omega =}}\gamma_{\tau}$.
Rozważmy biały szum εt o wariancji σε2. Wówczas mamy:
$$f_{\varepsilon}\left( \omega \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi},$$
tj. otrzymujemy płaskie spektrum.
W przypadku procesu AR(1) postaci Yt = ϕYt − 1 + εt mamy z kolei:
$$f_{Y}\left( \omega \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi(1 - \phi^{2}}\left\lbrack 1 + \sum_{\tau = 1}^{\infty}{\phi^{\tau}\left( e^{\text{iτω}} + e^{- \text{iτω}} \right)} \right\rbrack =$$
$$= \frac{\sigma_{\varepsilon}^{2}}{2\pi(1 - \phi^{2})}\left( 1 + \frac{\phi e^{\text{iω}}}{1 - \phi e^{\text{iω}}} + \frac{\phi e^{- \text{iω}}}{1 - \phi e^{- \text{iω}}} \right) =$$
$$= \frac{\sigma_{\varepsilon}^{2}}{2\pi(1 - {2\text{ϕcosω} + \phi}^{2})}.$$
Rys. 1. Spektrum procesu AR(1) z parametrem autoregresji 0,5 i jednostkową wariancją białego szumu.
Natomiast dla procesu MA(1): Yt = εt + θεt − 1 otrzymujemy:
$$f_{Y}\left( \omega \right) = \frac{1}{2\pi}\left( \gamma_{0} + \gamma_{1}e^{- i\omega} + \gamma_{1}e^{i\omega} \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi}\left( 1 + \theta^{2} + 2\text{θcosω} \right).$$
Rys. 2. Spektrum procesu MA(1) z parametrem θ = – 0,5 i jednostkową wariancją białego szumu.
Ogólnie, dla procesu ARMA postaci:
Yt = c + ϕ1Yt − 1 + … + ϕpYt − p + εt + θ1εt − 1 + … + θqεt − q
funkcja gęstości spektralnej przedstawia się następująco:
$$f_{Y}\left( \omega \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi}\frac{\left| A(e^{- i\omega}) \right|^{2}}{\left| B(e^{- i\omega}) \right|^{2}},$$
gdzie: B(L) = 1 − ϕ1L − … − ϕpLp, A(L) = 1 + θ1L + … + θqLq.
Interpretacja funkcji gęstości spektralnej
Całka postaci:
∫−ω1ω1fY(ω)dω=2∫0ω1fY(ω)dω
stanowi tę część wariancji procesu Yt, która jest związana z częstościami mniejszymi od ω1.
Filtry liniowe
W przypadku stosowania filtru liniowego postaci:
$$X_{t} = \sum_{j = - \infty}^{\infty}{\alpha_{j}Y_{t - j}}$$
funkcje gęstości spektralnej wyjściowego procesu Yt i procesu przefiltrowanego Xt są związane relacją:
fX(ω) = |α(e−iω)|2fY(ω),
gdzie:
$$\alpha\left( e^{- \text{iω}} \right) = \sum_{j = - \infty}^{\infty}\alpha_{j}e^{- \text{ijω}}$$
jest tzw. funkcją transferową filtru. Rozważmy kilka przykładów filtrów i oceńmy ich wpływ na spektrum procesu.
Ex. 1. Filtr różnicowy
Jest on zdefiniowany następująco: =1 − L, tj. Xt = Yt = Yt − Yt − 1. Jego funkcja transferowa jest postaci:
H(ω) = α(e−iω) = 1 − e−iω,
a kwadrat jej modułu (określany jako kwadrat wzmocnienia) wynosi:
|H(ω)|2 = |α(e−iω)|2 = 2 − 2cos ω.
Ponieważ wzmocnienie jest funkcją symetryczną (|H(−ω)| = |H(ω)|), wystarczy rozpatrywać jego wartości na odcinku [0, π]. Poniżej zamieszczono wykres kwadratu wzmocnienia filtru różnicowego. Filtr ten wyraźnie osłabia niskie częstości (eliminuje wahania długookresowe), a wzmacnia częstości wysokie.
Filtr różnicowy wzmacnia wahania krótkookresowe a eliminuje wahania długookresowe.
Rys. 2. Kwadrat wzmocnienia filtru różnicowego
Ex. 2. Średnia ruchoma prosta
$$X_{t} = \frac{1}{2q + 1}\sum_{j = - q}^{q}Y_{t - j}$$
Jej funkcja transferowa jest następująca:
$$H\left( \omega \right) = \frac{1}{2q + 1}\sum_{j = - q}^{q}e^{- \text{ijω}} = \frac{1}{2q + 1}\sum_{j = - q}^{q}{\cos{\left( \text{jω} \right) =}}\frac{1}{2q + 1}\left\lbrack 1 + 2\sum_{j = 1}^{q}{\cos\left( \text{jω} \right)} \right\rbrack.$$
Filtr średniej ruchomej osłabia wahania krótkookresowe, przepuszczając wahania o niskich częstościach (trend).
Rys. 3. Kwadrat wzmocnienia filtru średniej ruchomej zwykłej dla q = 1.
Ex. 3. Filtr Baxtera-Kinga (BK)
Jest to filtr symetryczny postaci:
$$X_{t} = \sum_{j = - n}^{n}{\theta_{j}Y_{t - j},}$$
gdzie
$$\theta_{j} = \psi_{j} - \frac{1}{2n + 1}\sum_{i = - n}^{n}\psi_{i}$$
oraz ψj są parametrami idealnego filtru pasmowego o nieskończonej odpowiedzi impulsowej postaci:
$$\psi_{j} = \left\{ \begin{matrix}
\frac{\sin\left( j\omega_{2} \right) - \sin(j\omega_{1})}{\text{πj}},\ \ \ \ \ j \neq 0 \\
\text{\ \ \ \ \ \ \ \ \ }\frac{\omega_{2} - \omega_{1}}{\pi}\ \ \ \ \ \ \ \ \ \ \ \ \ \ ,\ \ \ \ \ \ j = 0 \\
\end{matrix} \right.\ $$
Filtr BK o skończonej odpowiedzi impulsowej aproksymuje idealny filtr pasmowy o odpowiedzi nieskończonej. ω1 i ω2 są dolnymi i górnymi częstościami odcięcia filtru, n proponuje się ustalić na poziomie 3 lat.
Polecenie. Wykreślić kwadrat wzmocnienia filtru BK dla wahań z przedziału od 6 do 40 kwartałów (tj. dla częstości z przedziału $\left\lbrack \frac{\pi}{20},\ \frac{\pi}{3} \right\rbrack$) i n = 12.
Estymatory spektrum
Periodogram
Dysponując próbą T- elementową y1, y2, …, yT można wyznaczyć T – 1 ocen funkcji kowariancyjnej procesu Yt zgodnie z formułą:
$$C_{\tau} = \left\{ \begin{matrix}
\frac{1}{T}\sum_{t = \tau + 1}^{T}{\left( y_{t} - \overset{\overline{}}{y} \right)(y_{t - \tau} - \overset{\overline{}}{y})}\ \ \ dla\ j = 0,\ 1,\ldots,\ T - 1 \\
\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }C_{- \tau}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ dla\ j = - 1,\ - 2,\ \ldots,\ - T - 1 \\
\end{matrix}. \right.\ $$
Dla dowolnego ω możemy wyznaczyć próbkowy odpowiednik funkcji gęstości spektralnej postaci:
$${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - T + 1}^{T - 1}{C_{\tau}e^{- \text{iτω}}.\ \ \ \ \ \ \ \ \ \ \ \ (5)}$$
Estymator (5) można równoważnie wyrazić w następujących formach:
$${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}\left\lbrack {\hat{\sigma}}^{2} + 2\sum_{\tau = 0}^{T - 1}{C_{\tau}\cos(\tau\omega)} \right\rbrack,$$
${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}I_{T}\left( \omega \right),$
gdzie
$$I_{T}\left( \omega \right) = \frac{1}{T}\left| \sum_{t = 1}^{T}{y_{t}e^{- \text{itω}}} \right|^{2}$$
jest nazywany periodogramem. Periodogram zwykle wyznaczamy dla tzw. częstości Fouriera postaci:
$$\omega_{k} = \frac{2\pi k}{T},\ \ \ \ \ \ \ k = - \left\lbrack \frac{T - 1}{2} \right\rbrack,\ \ldots,\ \left\lbrack \frac{T}{2} \right\rbrack.$$
Dla częstości Fouriera zachodzi:
$$\sum_{t = 1}^{T}{y_{t}^{2} =}y^{'}*y = \sum_{k = - \lbrack\frac{T - 1}{2}\rbrack}^{\lbrack\frac{T}{2}\rbrack}{I_{T}(\omega_{k})}.$$
Powyższa zależność określana jest mianem równości Parsevala. Pokazuje ona, w jaki sposób zdekomponować próbkową wariancję procesu z wykorzystaniem wartości periodogramu. Mówimy, że Dyskretna Transformata Fouriea zachowuje energię sygnału.
Estymator (5) można także zapisać następująco:
$${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi T}\left\{ \left\lbrack \sum_{t = 1}^{T}{y_{t}\cos(t\omega)} \right\rbrack^{2} + \left\lbrack \sum_{t = 1}^{T}{y_{t}\sin(t\omega)} \right\rbrack^{2} \right\}.$$
Estymator ten ma następujące własności: Po pierwsze, Fuller (1976) pokazał, że dla ω ≠ 0 i wystarczająco dużej próby zachodzi w przybliżeniu:
$$\frac{2{\hat{f}}_{Y}\left( \omega \right)}{f_{Y}\left( \omega \right)}\sim\chi^{2}\left( 2 \right).$$
Dodatkowo, powyższe wielkości dla różnych częstości są w przybliżeniu niezależne. Ponieważ zmienna losowa o rozkładzie χ2(2) ma wartość średnią równą 2, w przybliżeniu otrzymujemy:
$${E\lbrack\hat{f}}_{Y}\left( \omega \right)\rbrack = f_{Y}\left( \omega \right).$$
Stąd estymator periodogramowy jest w dużej próbie w przybliżeniu nieobciążony. Jednakże jego wariancja nie zbiega do 0 wraz ze wzrostem próby – stąd estymator ten nie jest zgodny.
Najprostszym sposobem poprawienia własności estymatora (5) jest uśrednienie sąsiednich wartości w periodogramie. Estymator taki jest zgodny pod warunkiem, że zostanie odpowiednio dobrana liczba uśrednianych częstości. Np. można zaproponować:
$${\tilde{f}}_{Y}\left( \omega_{k} \right) = \frac{1}{2\pi}\sum_{|j| \leq M}^{}{\frac{I_{T}\left( \omega_{k} + \frac{2\text{πj}}{T} \right)}{2M + 1},}$$
gdzie M=$\sqrt{T}$.
Zgodną metodą estymacji funkcji gęstości spektralnej jest również metoda okna wygładzającego, w której ocenę spektrum wyznaczamy za pomocą wzoru:
$${\overset{\overline{}}{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}\left\lbrack {\hat{\sigma}}^{2} + 2\sum_{\tau = 0}^{T - 1}{\kappa_{\tau}C_{\tau}\cos(\text{τω})} \right\rbrack.$$
Matematycznie rzecz biorąc, jest ona równoważna metodzie uśredniania sąsiednich wartości w periodogramie.
Popularnymi oknami wygładzającymi są:
(A) okno prostokątne
$$\kappa\left( \tau \right) = \left\{ \begin{matrix}
1\ \ \ \ \ \text{dla}\text{\ \ \ \ \ }\tau \leq M \\
0\ \ \ \ \ \text{dla}\text{\ \ \ \ \ }\tau > M \\
\end{matrix}, \right.\ $$
(B) okno Bartletta
$$\kappa\left( \tau \right) = \left\{ \begin{matrix}
1 - \frac{\tau}{M + 1}\text{\ \ \ \ \ }\text{dla}\text{\ \ \ \ \ }\tau \leq M \\
\ \ \ \ \ \ \ \ 0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \text{dla}\text{\ \ \ \ \ }\tau > M \\
\end{matrix}. \right.\ $$
Test Fishera istotności wartości w periodogramie
Test ten służy do weryfikacji hipotezy, że proces jest białym szumem względem alternatywy, że posiada składową cykliczną o nieokreślonej bliżej częstości. Opiera się on na statystyce:
$$\xi = \frac{\operatorname{}{I_{T}(\omega_{i})}}{\frac{\sum_{1 \leq i \leq q}^{}{I_{T}(\omega_{i})}}{q}},$$
gdzie $q = \left\lbrack \frac{T - 1}{2} \right\rbrack$. Wartość powyższej statystyki wykorzystujemy, aby wyznaczyć empiryczny poziom istotności zgodnie z formułą:
$$P\left( \xi \geq x \right) = 1 - \sum_{j = 0}^{q}{{( - 1)}^{j}\left( \frac{q}{j} \right)\left( 1 - \frac{\text{jx}}{q} \right)_{+}^{q - 1},}$$
gdzie z+ = max{z, 0}.
03.11.2011
Podstawy analizy spektralnej – cd.
Literatura:
Osińska M. (2006), Ekonometria finansowa, PWE, Warszawa.
Talaga L., Zieliński Z. (1986), Analiza spektralna w modelowaniu ekonometrycznym, PWN, Warszawa.
Rozważmy dwuwymiarowy proces stacjonarny postaci Yt = (Y1t, Y1t)′ o średniej (μ1, μ2)′ i funkcji kowariancyjnej γij(τ) = E(Yit − μ1)(Yj, t + τ − μ2) spełniającej warunek:
$$\sum_{\tau = - \infty}^{\infty}{\left| \gamma_{\text{ij}}\left( \tau \right) \right| < \infty},\ \ \ \ \ \ \ \ \ i,\ j = 1,\ 2.$$
Funkcją wzajemnej gęstości spektralnej (cross-spektrum, spektrum wzajemnym) procesu nazywamy funkcję postaci:
$$f_{12}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}e^{- i\tau\omega}\gamma_{12}\left( \tau \right),\ \ \ \ \ \ \ \ \omega \in \left\lbrack - \pi,\ \pi \right\rbrack.$$
Zachodzi przy tym:
γ12(τ) = ∫−ππeiτωf12(ω)dω.
Z zapisów powyżej wynika, że funkcja wzajemnej gęstości spektralnej jest transformatą Fouriera funkcji kowariancji wzajemnej procesu dwuwymiarowego, podczas gdy funkcja kowariancji wzajemnej jest odwrotną transformatą Fouriera funkcji wzajemnej gęstości spektralnej.
Własności:
Ponieważ γij(τ) nie jest funkcją symetryczną dla i ≠ j, spektrum wzajemne przyjmuje w ogólności wartości zespolone. Wprowadzamy następujące pojęcia i oznaczenia:
f12(ω) = c(ω) − iq(ω),
gdzie
c(ω) = Re{f12(ω)}
jest częścią rzeczywistą funkcji wzajemnej gęstości spektralnej, zwaną kospektrum, zaś
q(ω) = −Im{f12(ω)}
jest (wziętą z minusem) jej częścia urojoną, zwaną spektrum kwadraturowym (quad-spectrum). Wówczas mamy:
$$c\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{12}\left( \tau \right)}\cos\left( \text{τω} \right);\ \ \ \ \ \ \ \ \ \ \ \ q\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{12}\left( \tau \right)}\sin\left( \text{τω} \right);$$
z czego wynika, że kospektrum jest funkcja parzystą, a spektrum kwadraturowe – nieparzystą.
Zachodzi także:
$$f_{12}\left( \omega \right) = \overset{\overline{}}{f_{12}\left( \omega \right)},$$
Ponieważ
$$f_{12}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}e^{- i\tau\omega}\gamma_{12}\left( \tau \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}\overline{e^{\text{iτω}}}\gamma_{12}\left( - \tau \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}\overline{e^{- i\tau\omega}}\gamma_{12}\left( \tau \right) = \overset{\overline{}}{f_{12}\left( \omega \right)}.$$
3) Można zauważyć, że kowariancja między procesami wynosi:
γ12(0) = ∫−ππf12(ω)dω = 2∫0πc(ω)dω.
4) Inną ważną własnością jest następująca obserwacja: Jeśli procesy Y1t i Y2tzostaną przekształcone filtrami liniowymi do postaci:
$$X_{1t} = \sum_{j = - \infty}^{\infty}{\alpha_{j}Y_{1,t - j} = \alpha(L)Y_{1t},}$$
$$X_{2t} = \sum_{j = - \infty}^{\infty}{\beta_{j}Y_{2,t - j} = \beta(L)Y_{2t},}$$
gdzie $\sum_{}^{}{\left| \alpha_{j} \right| < \infty},\ \sum_{}^{}{\left| \beta_{j} \right| < \infty}$, to zachodzi:
$$f_{12}^{X}\left( \omega \right) = \alpha\left( e^{- i\omega} \right)\overline{\beta\left( e^{- i\omega} \right)}f_{12}^{Y}\left( \omega \right).\ \ \ \ \ \ \ (*)$$
Funkcje α(e−iω), β(e−iω) oznaczają funkcje transferowe (transmitancje, funkcje przenoszenia) odpowiednich filtrów liniowych, t.j.:
$$\alpha\left( e^{- i\omega} \right) = \sum_{j = - \infty}^{\infty}{\alpha_{j}e^{- ij\omega}.}$$
(analogicznie β(e−iω)).
Odpowiednikiem tej własności dla przypadku spektrum procesu jednowymiarowego jest:
fX(ω) = |α(e−iω)|2fY(ω). (* * )
W praktyce najczęściej wykorzystujemy pewne funkcje powyżej zdefiniowanych wielkości (kospektrum i spektrum kwadraturowego). Najważniejszymi z nich są:
1) współczynnik koherencji:
$$K\left( \omega \right) = \frac{\left| f_{12}\left( \omega \right) \right|}{\left\lbrack f_{11}\left( \omega \right)f_{22}\left( \omega \right) \right\rbrack^{0,5}}$$
lub koherencja kwadratowa (w skrócie koherencja):
$$K^{2}\left( \omega \right) = \frac{\left| f_{12}\left( \omega \right) \right|^{2}}{f_{11}\left( \omega \right)f_{22}\left( \omega \right)}.$$
Współczynnik koherencji (jak również koherencja kwadratowa) jest unormowany w przedziale [0, 1] i mierzy siłę zależności liniowej między procesami dla danej częstości dla wszystkich opóźnień i wyprzedzeń czasowych. W pewnym przybliżeniu można twierdzić, że współczynnik koherencji jest współczynnikiem korelacji liniowej w dziedzinie częstości. Mówiąc ściślej, koherencja kwadratowa informuje, jaka część wariancji każdego z procesów dla danej częstości może zostać wyjaśniona poprzez liniową regresję jednego procesu względem wyprzedzeń, opóźnień i wartości bieżących drugiego procesu. Koherencja kwadratowa jest równa współczynnikowi R2 w takiej regresji.
Wśród innych ważnych własności współczynnika koherencji są następujące:
- Jego wartość nie zależy od kolejności procesów.
- Jest funkcją symetryczną zmiennej ω.
- W przypadku zależności postaci:
Y2t = αY1, t − τ + εt
jego wartość nie zależy od parametru t, tj. jest taka sama dla zależności jednoczesnych, opóźnionych czy wyprzedzających.
- Jeśli procesy Y1t i Y2t są związane filtrem liniowym, tj.
$$Y_{2t} = \sum_{j = - \infty}^{\infty}{\Psi_{j}Y_{1,t - j},}$$
gdzie $\sum_{j = - \infty}^{\infty}{\left| \Psi_{j} \right| < \infty,}$ to współczynnik ten wynosi 1.
- Uogólnieniem dwu własności powyżej jest następująca obserwacja: Współczynnik koherencji jest niezmienniczy ze względu na filtracje liniowe, tj. współczynnik koherencji dla procesów postaci:
$$X_{1t} = \sum_{j = - \infty}^{\infty}{\alpha_{j}Y_{1,t - j},}$$
$$X_{2t} = \sum_{j = - \infty}^{\infty}{\beta_{j}Y_{2,t - j},}$$
gdzie $\sum_{}^{}{\left| \alpha_{j} \right| < \infty},\ \sum_{}^{}{\left| \beta_{j} \right| < \infty}$, jest taki sam jak dla procesów Y1t i Y2t. Z zależności (*) i (**) mamy bowiem:
$$K^{X}\left( \omega \right) = \frac{\left| f_{12}^{X}(\omega) \right|}{\left\lbrack f_{11}^{X}(\omega)f_{22}^{X}(\omega) \right\rbrack^{0,5}} = \frac{\left| \alpha(e^{- \text{iω}})\overset{\overline{}}{\beta(e^{- \text{iω}})}f_{12}^{Y}(\omega) \right|}{\left\lbrack \left| \alpha(e^{- \text{iω}}) \right|^{2}f_{11}^{Y}(\omega)\left| \beta(e^{- \text{iω}}) \right|^{2}f_{22}^{Y}(\omega) \right\rbrack^{0,5}} = K^{Y}\left( \omega \right).$$
Kąt fazowy (spektrum fazowe)
Jeśli funkcję wzajemnej gęstości spektralnej przedstawimy jako:
f12(ω) = A(ω)eiϕ(ω),
to możemy zdefiniować tzw. spektrum amplitudowe postaci:
A(ω) = [c2(ω)+q2(ω)]0, 5 = |f12(ω)|
oraz spektrum fazowe (kąt fazowy) postaci:
$$\phi\left( \omega \right) = \text{arctg}\frac{- q(\omega)}{c(\omega)}.$$
Wartość spektrum amplitudowego dla danej częstości interpretujemy jako iloczyn amplitud odpowiednich składowych częstościowych badanych dwu procesów, podczas gdy spektrum fazowe podaje przesunięcie fazowe pomiędzy tymi składowymi. Aby zauważyć, jakie informacje niesie ze sobą kąt fazowy i współczynnik koherencji, rozważmy kilka przykładów.
Ex. 1. Liniowa regresja
Rozważmy dwa stacjonarne procesy o średniej 0 związane relacją:
Y2t = αY1t + εt,
gdzie εt jest białym szumem nieskorelowanym z Y1t dla wszystkich opóźnień i wyprzedzeń. Wówczas:
γ12(τ) = E[Y1t(αY1, t + τ+εt + τ)] = αγ11(τ),
γ22(τ) = E(αY1, t+εt)(αY1, t + τ+εt + τ) = α2γ11(τ) + γε(τ)
Stąd dostajemy:
f12(ω) = αf11(ω)
oraz
c(ω) = αf11(ω); q(ω) = 0; A(ω) = αf11(ω); ϕ(ω) = 0.
Ponadto ponieważ:
$$f_{22}\left( \omega \right) = \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi},$$
otrzymujemy:
$$K\left( \omega \right) = \frac{\left| \alpha f_{11}\left( \omega \right) \right|}{\left\lbrack f_{11}\left( \omega \right)*\left( \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi} \right) \right\rbrack^{0,5}} = \left\lbrack 1 + \frac{\sigma_{\varepsilon}^{2}}{2\pi\alpha^{2}f_{11}\left( \omega \right)} \right\rbrack^{- 0,5}.$$
Uzyskujemy informację o braku przesunięcia fazowego między procesami, natomiast współczynnik koherencji ma przebieg ‘przypominający’ kształtem wykres funkcji gęstości spektralnej procesu Y1t.
Rys. 1. Współczynnik koherencji dla procesu z Przykładu 1. z a = 1, σε2 = 1 i procesu Y1t będącego autoregresją rzędu 1 z parametrem autoregresji 0.5 i jednostkową wariancją składnika losowego.
Ex. 2. Liniowa regresja z opóźnieniem
Y2t = αY1, t − d + εt
gdzie, jak poprzednio, εt jest białym szumem nieskorelowanym z Y1t dla wszystkich opóźnień i wyprzedzeń oraz, dla uproszczenia, rozważamy procesy o średniej 0. Wówczas:
γ12(τ) = E[Y1t(αY1, t + τ − d+εt + τ)] = αγ11(τ−d),
γ22(τ) = E(αY1, t − d+εt)(αY1, t + τ − d+εt + τ) = α2γ11(τ) + γε(τ)
Stąd dostajemy:
$$f_{12}\left( \omega \right) = \frac{\alpha}{2\pi}\sum_{\tau = - \infty}^{\infty}{e^{- \text{iτω}}\gamma_{11}\left( \tau - d \right)} = \frac{\alpha}{2\pi}\sum_{\tau = - \infty}^{\infty}{e^{- i(\tau - d)\omega}\gamma_{11}\left( \tau - d \right)}e^{- \text{idω}} = \alpha e^{- \text{idω}}f_{11}\left( \omega \right).$$
oraz
c(ω) = αcos(dω)f11(ω); q(ω) = αsin(dω)f11(ω);
$$A\left( \omega \right) = \alpha f_{11}\left( \omega \right);\ \ \ \ \ \ \ \ \ \ \ \ \ \ \phi\left( \omega \right) = \text{arctg}\frac{- \sin\left( \text{dω} \right)}{\cos\left( \text{dω} \right)} = - \text{dω};$$
Ponadto ponieważ, jak w poprzednim przykładzie, mamy:
$$f_{22}\left( \omega \right) = \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi},$$
otrzymujemy:
$$K\left( \omega \right) = \frac{\left| \alpha e^{- \text{idω}}f_{11}\left( \omega \right) \right|}{\left\lbrack f_{11}\left( \omega \right)*\left( \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi} \right) \right\rbrack^{0,5}} = \left\lbrack 1 + \frac{\sigma_{\varepsilon}^{2}}{2\pi\alpha^{2}f_{11}\left( \omega \right)} \right\rbrack^{- 0,5},$$
tj. współczynnik koherencji ma tę sama wartość, co w Przykładzie 1, ale kąt fazowy wskazuje na występowanie przesunięcia fazowego między składowymi częstościowymi procesów. Dodatkowo widzimy, że w przypadku występowania tego samego opóźnienia czasowego dla wszystkich częstości spektrum fazowe jest liniową funkcją częstości, a współczynnik kierunkowy tej prostej wyznacza odstęp czasu między procesami. Dodatni współczynnik kierunkowy (rosnące spektrum fazowe) wskazuje, że proces Y2t wyprzedza proces Y1t. Definiujemy pomocniczą wielkość:
Odstęp czasu w dziedzinie częstości:
$$\tau\left( \omega \right) = - \frac{\phi\left( \omega \right)}{\omega}.$$
W Przykładzie 2 otrzymujemy więc: τ(ω) = d.
Wzmocnienie tylko dla zbieżności jednokierunkowej
$$G\left( \omega \right) = \frac{\left| f_{12}\left( \omega \right) \right|}{f_{11}\left( \omega \right)} = \frac{A(\omega)}{f_{11}\left( \omega \right)}.$$
Wzmocnienie można w przybliżeniu interpretować jako moduł współczynnika b w regresji jednej zmiennej względem drugiej w dziedzinie częstości. Jeśli G(ω) > 1, to proces Y1t charakteryzuje się niższą amplitudą niż proces Y2t dla danej częstości oraz odwrotnie, gdy G(ω) < 1. Zwykle wyznaczamy wzmocnienie tylko w jednym kierunku, tj. przyjmując za Y1t proces-przyczynę, a za Y2t proces-skutek.
Dynamiczny współczynnik korelacji
$$\rho\left( \omega \right) = \frac{c(\omega)}{{\lbrack f_{11}\left( \omega \right)f_{22}\left( \omega \right)\rbrack}^{0,5}}$$
Współczynnik ten (unormowany w przedziale [-1, 1]) koncentruje się na zależnościach jednoczesnych.
Estymacja w wielowymiarowej analizie spektralnej
Periodogramem krzyżowym (cross-periodogramem, periodogramem wzajemnym) nazywamy wielkość:
$$I_{T}^{12}\left( \omega \right) = \frac{1}{T}\sum_{t = 1}^{T}{y_{1t}e^{- \text{itω}}}\overset{\overline{}}{\sum_{t = 1}^{T}{y_{2t}e^{- \text{itω}}}} = \frac{1}{T}\sum_{t = 1}^{T}{y_{1t}e^{- \text{itω}}}\sum_{t = 1}^{T}{y_{2t}e^{\text{itω}}}$$
W przypadku estymacji cross-spektrum postępuje się analogicznie jak w przypadku estymacji funkcji gęstości spektralnej, tzn. należy zamienić ciąg teoretycznych kowariancji wzajemnych (krzyżowych) przez ciąg empiryczny, wykorzystując w tym celu estymator kowariancji krzyżowych między szeregami czasowymi.
17.11.2011
Metody oceny i prognozowania koniunktury
Diagnoza i prognoza
Diagnoza - dostarcza informacji o obecnej sytuacji gospodarki oraz formułuje przyczyny, będąc jednocześnie punktem wyjścia w prowadzeniu dalszych analiz sytuacji gospodarczej.
Prognoza - jest przewidywaniem dotyczącym wystąpienia lub niewystąpienia pewnych zjawisk w określonej przyszłości.
Metody datowania cykli
W zastosowaniach empirycznych dominują dwa podejścia:
metoda NBER (National Bureau of Economic Research)
Dla danych miesięcznych opracowali ją Bry i Boschan (1971).
Jej modyfikację dla danych kwartalnych przedstawili Harding i Pagan (1999).
przełącznikowe modele Markowa (Hamilton, 1989) a także inne modele nieliniowe (SETAR, STAR)
Algorytm datowania cykli wg NBER
Znalezienie potencjalnych punktów zwrotnych:
Górny punkt zwrotny: {yt − 2, yt − 1} < yt > {yt + 1, yt + 2}
Dolny punkt zwrotny: {yt − 2, yt − 1} > yt < {yt + 1, yt + 2}
W przypadku danych miesięcznych rozpatruje się po 5 wartości wcześniejszych i późniejszych.
Powyższa zasada jest równoważna przyjęciu definicji:
Górny punkt zwrotny: {2yt, yt} > 0, {yt + 1, 2yt + 2} < 0
Dolny punkt zwrotny: {2yt, yt} < 0, {yt + 1, 2yt + 2} > 0
gdzie 2yt = yt − yt − 2
Zamiast definiowania lokalnych minimów i maksimów proponuje się także reguły sekwencyjne postaci:
Górny punkt zwrotny: {yt} > 0, {yt + 1, yt + 2} < 0
Dolny punkt zwrotny: {yt} < 0, {yt + 1, yt + 2} > 0
Reguły te nawiązują do definicji Artura Okuna, w myśl której o recesji można mówić, jeśli wystąpiły co najmniej dwa kwartały ujemnego wzrostu.
Reguły cenzurowania:
Odpowiednia długość faz (dwa kwartały w procedurze Hardinga i Pagana oraz 6 miesięcy w algorytmie Bry i Boschan) i całego cyklu (odpowiednio – 5 kwartałów i 15 miesięcy);
Odpowiednia wielkość amplitud;
Zagwarantowanie, że dolne i górne punkty zwrotne występują naprzemiennie.
Badanie synchronizacji cykli
Indeks zgodności (konkordancji) – odzwierciedla procentowy udział liczy okresów, w których dwa szeregi są w tej samej fazie (wzrostowej lub spadkowej): $I_{\text{ij}} = \frac{1}{T}\sum_{t = 1}^{T}\left\lbrack S_{\text{it}}S_{\text{jt}} + \left( 1 - S_{\text{it}} \right)(1 - S_{\text{jt}}) \right\rbrack$
gdzie Sit jest szeregiem binarnym odzwierciedlającym fazę cyklu koniunkturalnego w kraju i w okresie t.
Artis (2002) zaproponował test istotności dla tego wskaźnika.
Miary zależności dla zmiennych jakościowych (np. współczynnik kontyngencji Pearsona)
Indeks dyfuzji $D_{t} = \frac{1}{N}\sum_{i = 1}^{N}S_{\text{it}}$
Odzwierciedla on procent gospodarek, które są w tej samej fazie cyklu.
Podobnie konstruuje się indeksy dyfuzji jako syntetyczne (złożone) mierniki aktywności gospodarczej (np. jako procent branż, które weszły już w określoną fazę cyklu)
Przełącznikowe modele Markowa
(MS-AR, Markov Switching Autoregressive models)
Jest to bardziej współczesne podejście do datowania cykli, według którego dynamika wzrostu gospodarczego jest różna w różnych reżimach procesu, definiowanych za pomocą nieobserwowalnego procesu St, opisującego fazę cyklu koniunkturalnego.
St jest jednorodnym łańcuchem Markowa o zadanej z góry liczbie stanów (w zastosowaniach 2 lub 3) oraz szacowanej macierzy prawdopodobieństw przejścia między reżimami.
W ogólnej postaci model MS-AR(p) zapisujemy następująco:
yt = α(St) + ϕ1(St)yt − 1 + … + ϕp(St)yt − p + εt(St),
εt(St) ∼ n.i.i.d.(0, σ2(St))
Modele przełącznikowe szacuje się metodą największej wiarygodności z wykorzystaniem algorytmu EM (maksymalizacji wartości oczekiwanej).
W algorytmie tym parametry strukturalne modelu, elementy macierzy wariancji i kowariancji składników losowych oraz prawdopodobieństwa przejścia łańcucha Markowa szacowane są iteracyjnie w taki sposób, że w każdym kroku podwyższa się wartości funkcji wiarygodności.
Ponadto dla każdej obserwacji można obliczyć prawdopodobieństwo tego, że w danym okresie gospodarka była w określonej fazie cyklu. Na tej podstawie poszczególnym obserwacjom przypisywana jest dana faza (w przypadku dwu reżimów – jeśli prawdopodobieństwo bycia w recesji jest większe od 0.5, stwierdzamy recesję, a w przeciwnym wypadku - ekspansję).
Posługujemy się wygładzonymi prawdopodobieństwami.
Cykl gospodarki polskiej zidentyfikowany na podstawie modelu przełącznikowego Markowa dla szeregu produkcji przemysłowej w latach 1996-2008 (Konopczak, 2009)
Badanie synchronizacji cykli
Indeks zgodności
Współczynnik kontyngencji Pearsona
Współczynnik korelacji wygładzonych prawdopodobieństw bycia w jednej z faz
Wykorzystanie modeli MS-VAR (Krolzig, 1997, 2001) dla grupy krajów, gdzie przełączenia między reżimami są kontrolowane przez wspólny łańcuch Markowa.
Hipoteza o istnieniu wspólnego (np. europejskiego) cyklu koniunkturalnego jest weryfikowana poprzez testowanie istotności różnicy średnich stóp wzrostu w poszczególnych fazach dla każdej z gospodarek.
Metody analizy i prognozowania koniunktury
(Lubiński, 2004)
Barometry koniunktury;
Testy koniunktury;
Modele ekonometryczne;
Metody bilansowo-statystyczne;
Opinie ekspertów.
Barometry koniunktury (ang. business cycle indicators)
Odpowiednio dobrane zestawy wskaźników statystycznych, czułych na zmiany koniunktury oraz wyprowadzone z nich wskaźniki syntetyczne.
Barometry koniunktury służą zazwyczaj do orientacyjnej oceny sytuacji gospodarczej i przewidywanych kierunków jej zmiany.
Nie można ich traktować jako wystarczającej podstawy do całościowej diagnozy stanu koniunktury.
Barometry, obok testów koniunktury, zalicza się do tzw. wskaźnikowych metod badania koniunktury gospodarczej. Jedną ze wspólnych cech tych metod jest szybkość uzyskiwania aktualnych i syntetycznych danych o gospodarce.
Punktem wyjścia budowy barometrów jest identyfikacja cyklu odniesienia i oznaczenie punktów zwrotnych oraz faz cyklu.
Do cyklu odniesienia porównywane jest zachowanie się innych badanych wielkości, szczególnie usytuowanie punktów zwrotnych. Wśród zmiennych makroekonomicznych wyodrębnia się zmienne równoległe, wyprzedzające i opóźnione.
Następnie dla każdej grupy obliczany jest wskaźnik dyfuzji lub indeks zbiorczy o znormalizowanej amplitudzie.
Do budowy barometrów wykorzystuje się ‘twarde dane’ o gospodarce, zwłaszcza z grupy wskaźników wyprzedzających, a także tzw. ‘dane miękkie’, czyli rozmaite sondażowe wskaźniki nastrojów konsumentów, analityków, przedsiębiorców czy menedżerów ds. zakupów.
Pierwszy barometr - barometr harwardzki z 1919 r., zwany krzywą ABC, obejmował trzy dobrane na podstawie obserwacji empirycznych wskaźniki:
Wskaźnik spekulacji, którym był przeciętny kurs akcji na giełdzie w Nowym Jorku
Wskaźnik rynku towarowego, wyznaczany na podstawie hurtowych cen towarów
Wskaźnik rynku pieniężnego, obliczany na podstawie kursu papierów o stałym oprocentowaniu
Barometr harwardzki ukazywał te indykatory jako "prąd trójfazowy„
Zmiany wskaźnika spekulacji wyprzedzały zmiany wskaźnika rynku towarowego. Natomiast maksymalne wartości wskaźnika rynku pieniężnego przypadały na okres minimalnych wartości wskaźnika spekulacji.
Barometry koniunktury dla Polski
Wskaźniki bieżące i wyprzedzające ufności konsumenckiej GUS
Barometr koniunktury IRG SGH
Wskaźniki bieżące i wyprzedzające koniunktury BIEC, IBnGR
OECD – Composite Leading Indicator
Wskaźnik optymizmu konsumentów Ipsos
Indeks PMI (wskaźnik menedżerów logistyki) dla przemysłu
i wiele innych…
Tygodniowy barometr koniunktury IBnGR
wskaźnik wyprzedzający koniunktury IBnGR (30%),
wskaźnik optymizmu konsumentów Ipsos (30%),
tygodniowy wskaźnik syntetyczny (40%)
wartość indeksu giełdowego WIG20
procentowa zmiana podaży pieniądza M3
procentowa zmiana liczby mieszkań oddanych do użytku
procentowa zmiana średniej detalicznej ceny benzyny bezołowiowej
wskaźnik nastrojów wśród niemieckich przedsiębiorców
zmiana średniej stopy procentowej kredytów konsumpcyjnych w ROR z dwudziestu największych banków w Polsce
Barometry koniunktury dla Polski
Barometry – zalety i wady
Zalety | Wady |
---|---|
Przejrzystość konstrukcji | Nie wyjaśniają mechanizmu cyklu koniunkturalnego – nie tworzą modelu powiązań przyczynowo-skutkowych |
Łatwość posługiwania się | Efektywne wyprzedzenia, na których można oprzeć ocenę przyszłości, są krótkie |
Pozwalają na odtworzenie przebiegu wahań i wykorzystanie określonych prawidłowości do diagnozy i prognozy | Sygnalizują bardziej kierunek zmiany niż amplitudę oscylacji |
Pozwalają w porę zorientować się, że zbliża się przełom dotychczasowej tendencji | W budowie wskaźników zbiorczych wykorzystuje się identyczne wagi dla różnych kategorii |
Uzyskana za ich pomocą prognoza pozwala ustalić kierunek i natężenie zmian w ostatnich miesiącach, dla których nie ma jeszcze dokładnych danych | Buduje się je na podstawie analogii historycznych, które wymagają długich szeregów danych |
Testy koniunktury
Metoda wskaźnikowa oparta na badaniach ankietowych, której celem jest określenie aktualnego stanu aktywności gospodarczej w porównaniu z okresem poprzednim oraz wyznaczenie prawdopodobnego kierunku zmian w przyszłości.
Badania zainicjowano w USA na przełomie lat dwudziestych i trzydziestych, ale rozpowszechniły się po II wojnie światowej.
Przeprowadza się je w odstępach miesięcznych bądź kwartalnych oddzielnie dla poszczególnych dziedzin gospodarki: przemysłu, budownictwa, usług, bankowości, gospodarstw domowych i innych.
W Polsce od 1984 r. (AE w Poznaniu), od 1987 – IRG SGH, od 1992 – GUS.
W ankietach występują pytania powtarzalne i niepowtarzalne, dotyczące diagnozy i prognozy.
Odpowiedzi są na skali porządkowej trzyelementowej (częściej) lub pięcioelementowej (rzadziej), tj.
wzrost, brak zmian, spadek
znaczny wzrost, wzrost, brak zmian, spadek, znaczny spadek
Wyniki opracowuje się w postaci wskaźników prostych (sald odpowiedzi na tak i na nie z pominięciem odpowiedzi neutralnych) lub wskaźników syntetycznych będących najczęściej średnimi ważonymi wskaźników prostych.
Salda koniunktury
wyrażane w %;
określają wypadkową tendencję występującą w zakresie badanej wielkości ekonomicznej;
przyjmują wartość z przedziału od –100 do +100, znak salda oznacza kierunek zmiany występujący na rynku w zakresie danej wielkości;
wartość bezwzględna salda koniunktury (od 0 do 100), wyraża natężenie zjawiska w zakresie danej wielkości
Badania GUS - przemysł
Pytania dot. sytuacji bieżącej i przewidywanej:
Ogólna sytuacja gospodarcza
Portfele zamówień krajowych i zagranicznych
Poziom produkcji sprzedanej
Zdolność do bieżącego regulowania zobowiązań
Badania GUS – budownictwo
Pytania dot. sytuacji bieżącej i przewidywanej:
Ogólna sytuacja gospodarcza
Portfel zamówień na roboty budowlano-montażowe na rynku krajowym
Produkcja budowlano-montażowa na rynku krajowym
Sytuacja finansowa przedsiębiorstw
Badania GUS - handel
Pytania dot. sytuacji bieżącej i przewidywanej:
Ogólna sytuacja gospodarcza
Ilość sprzedanych towarów
Zdolność do bieżącego regulowania zobowiązań
Ceny sprzedawanych towarów
Oprócz wskaźników podażowych występują też wskaźniki popytowe – oparte na badaniach nastrojów konsumenckich, np. Wyprzedzający Wskaźnik Ufności Konsumenckiej GUS, będący średnią sald ocen
zmiany sytuacji finansowej gospodarstwa domowego
zmiany ogólnej sytuacji ekonomicznej kraju
trendów poziomu bezrobocia (ze znakiem przeciwnym)
oszczędzania pieniędzy w najbliższych 12 miesiącach.
Badanie przeprowadzają co miesiąc GUS wspólnie z NBP na próbie 5000 gospodarstw domowych.
Testy od barometrów opartych na ‘twardych danych’ różnią się przede wszystkim rodzajem i techniką zbierania danych:
źródłem informacji – ma ono charakter pierwotny
charakterem danych – jakościowy - określają jedynie kierunek i ewentualne natężenie zmian
szybkością opracowania prognozy
częstością prowadzonych badań i ich charakterem (niewyczerpujący)
Testy – zalety i wady
Zalety | Wady |
---|---|
Aktualność informacji, wynikająca z szybkiego pozyskiwania i opracowania danych | Subiektywny charakter odpowiedzi, niepewność co do wiedzy i kompetencji respondentów; słabe związki z teorią ekonomii |
Regularność i częstość prowadzonych badań (badania miesięczne i kwartalne) | Brak kwantyfikacji opisywanych procesów i zjawisk (podejście jakościowe) |
Możliwość uzyskania informacji niedostępnych w statystyce gospodarczej prezentującej dane liczbowe lub publikowanych z dużym opóźnieniem | Duża zmienność danych wynikająca ze zmian planów i zamierzeń |
Elementy prognoz w badaniach | Wysoki koszt badań ankietowych |
Możliwość jednoczesnego pozyskania informacji dla oceny koniunktury ogólnokrajowej i koniunktury w poszczególnych sektorach | Wybiórczość informacji pod względem podmiotowym - badanie ankietowe obejmuje jedynie pewną próbę jednostek gospodarczych w ramach określonej zbiorowość |
Możliwość wykorzystania testu w innych procedurach badania koniunktury gospodarczej, np. w ilościowych modelach ekonometrycznych, barometrach | Wąski zakres informacji - ankiety zawierają zwykle 10-20 pytań |
Możliwość oceny poprawności poprzez porównanie poprzednich prognoz z obecną diagnozą | Problemy techniczne – przy przetwarzaniu i interpretacji danych powstaje wiele trudności technicznych, np. problem doboru reprezentatywnej próby, ważenia odpowiedzi, eliminacji wahań sezonowych |
Modele ekonometryczne
Modele adaptacyjne (np. wyrównywanie wykładnicze)
Modele jednowymiarowych szeregów czasowych (modele trendu i sezonowości, autoregresji, modele nieliniowe)
Modele wielowymiarowych szeregów czasowych VAR
Modele przyczynowo-skutkowe
Modele symptomatyczne (korelacyjne)
Modele – zalety i wady
Zalety | Wady |
---|---|
Długi horyzont prognozy – przeważnie półroczny lub roczny | W praktyce założenia, konieczne do konstrukcji poprawnego modelu, są trudne do spełnienia |
Dają wyniki wymierne: konkretne liczby | Brak jednoznacznej zależności między stopniem złożoności modelu a jakością wyprowadzanych prognoz; jakość prognoz często bardzo niska |
Wiarygodne do ustalania faz wzrostowych i spadkowych wahań cyklicznych gospodarki | Nie zdają egzaminu przy przewidywaniu górnych i dolnych punktów zwrotnych cyklu koniunkturalnego |
Możliwość wykorzystania modelu w innych celach | Przeważnie mniejsza częstotliwość (najwyżej kwartalna) prognoz |
Narzędzie zbyt sztywne w prognozowaniu koniunktury, bo oparte na założeniu niezmienności relacji między procesami – konieczna konfrontacja z prognozami innych źródeł |
Metoda bilansowa
Oparta na wykorzystaniu rachunkowości społecznej, znajdującej pokrycie w dostępnych danych statystycznych. Polega na iteracyjnym szacowaniu popytu finalnego i produkcji globalnej w okresie prognozy, zapewniających równowagę ogólną.
Zalety | Wady |
---|---|
Metoda bardzo elastyczna – możliwość swobodnego doboru zmiennych i korygowania parametrów | W większości krajów rachunkowość społeczna jest prowadzona jedynie w przedziałach rocznych |
Umożliwia większą szczegółowość analizy | Małe możliwości prognostyczne, jedynie budżety ekonomiczne dają prognozę |
Dostarcza jednolitych podstaw obliczeń wielkości makroekonomicznych, co daje możliwość wszechstronnych porównań | Bardzo pracochłonna |
Elastyczność powoduje, że rozluźnia się dyscyplinę analizy i dopuszcza nadmierną arbitralność ocen, które następnie deformują pozostałe szacunki | |
Pewne wielkości ekonomiczne pozostają poza rachunkowością społeczną |
Metody eksperckie
Zwane są metodami intuicyjnymi. Polegają na formułowaniu poglądów na temat obecnego i przyszłego kształtowania się badanych wielkości na podstawie wiedzy i doświadczeń ekspertów, np. burza mózgów, metoda delficka.
Problemy: wynik analizy zależny od czynników psychologicznych; metoda subiektywna; nie znamy sposobu otrzymywania rezultatów, a stąd brak możliwości weryfikacji wyników.
Kształtu przyszłości nie da się przegłosować.
1.12.2011
Nieliniowe procesy stochastyczne poszerzają ramy klasycznej analizy szeregów czasowych za pomocą liniowych modeli ARIMA, prezentowanej w pracy Boxa i Jenkinsa.
W nieliniowej analizie jednowymiarowych szeregów czasowych poszukuje się funkcji wiążącej dany proces z ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie:
Yt = f(εt,εt − 1,εt − 2,…),
gdzie εt ∼ i.i.d. o średniej zero i wariancji jednostkowej.
Powyższa reprezentacja okazuje się być zbyt ogólna. Przyjmuje się najczęściej, że nieliniowy proces ekonomiczny ma postać
Yt = g(εt − 1,εt − 2,…) + εth(εt − 1,εt − 2,…). (*)
Ponieważ
E(Yt|Ωt − 1) = g(εt − 1,εt − 2,…),
funkcja g opisuje zmiany wartości średniej procesu Xt warunkowo względem informacji z przeszłości. Natomiast kwadrat funkcji h przedstawia zmiany warunkowej wariancji tego procesu:
σ2(Yt|Ωt − 1) = E[(Yt−E(Yt|Ωt − 1))2|Ωt − 1] = E(εt2h2(εt − 1,εt − 2,…)|Ωt − 1) = h2(εt − 1,εt − 2,…)E(εt2) = h2(εt − 1,εt − 2,…)
Proces Xt będziemy nazywali nieliniowym, jeśli jego warunkowa wartość średnia bądź warunkowa wariancja są nieliniowymi funkcjami zmiennych εt − 1, εt − 2, …
Równanie (*) prowadzi do naturalnego podziału ekonomicznych procesów nieliniowych: procesy z nieliniową funkcją g noszą nazwę procesów nieliniowych w wartości średniej, zaś procesy z nieliniową funkcją h( • )2 nazywamy procesami nieliniowymi w wariancji.
Szeregi generowane według modeli nieliniowych w wartości średniej nie spełniają hipotezy martyngałowej i istnieje teoretyczna możliwość konstrukcji predyktorów nieliniowych o lepszych własnościach niż odpowiednie predyktory liniowe.
Szeregi generowane według modeli nieliniowych w wariancji są różnicami martyngałowymi, ale nie spełniają założenia niezależności, a więc nie są białymi szumami w ścisłym sensie.
Przykładami modeli nieliniowych w warunkowej wartości średniej o potencjalnym zastosowaniu w finansach i makroekonomii mogą być:
modele dwuliniowe (BL, od ang. bilinear model),
nieliniowe modele autoregresji i średniej ruchomej,
modele progowe, przełącznikowe i wygładzonego przejścia,
deterministyczne systemy nieliniowe.
Natomiast modelami o zmiennej wariancji warunkowej są modele z rodziny GARCH oraz modele zmienności stochastycznej.
Oprócz powyższych specyfikacji wykorzystuje się też konstrukcje charakteryzujące się oboma typami nieliniowości, wśród których można wymienić modele GARCH-M (GARCH in mean) oraz modele BL-GARCH.
Modele kawałkami (przedziałami) liniowe
Autoregresyjne modele progowe (SE)TAR, autoregresyjne modele wygładzonego przejścia STAR oraz modele przełącznikowe Markowa zalicza się do grupy szeroko rozumianych modeli ‘kawałkami liniowych’ (ang. piecewise linear), które pozwalają przybliżać dynamikę analizowanego procesu poprzez lokalną aproksymację procesami liniowymi w różnych stanach (reżimach) procesu. Należy zaznaczyć, że przyporządkowanie modeli STAR do grupy modeli ‘kawałkami liniowych’ nie jest postępowaniem ścisłym, gdyż modele te można również traktować jako posiadające continuum reżimów.
Modele te znalazły zastosowanie w opisywaniu i prognozowaniu procesów ekonomicznych takich jak np. pewne procesy makroekonomiczne zależne od fazy cyklu koniunkturalnego (w rodzaju stóp bezrobocia czy indeksów produkcji przemysłowej) czy procesy finansowe, charakteryzujące się np. asymetrią dynamiki.
Autoregresyjne procesy progowe
Podstawowy model SETAR (ang. self-exciting threshold autoregressive model), gdzie r jest liczbą reżimów zaś p liczbą opóźnień autoregresyjnych, zdefiniowany jest następująco:
$Y_{t} = \sum_{j = 1}^{r}{\left( {\alpha^{'}}_{j}X_{t} + h_{j}\varepsilon_{t} \right)1\left\{ c_{j - 1} < Y_{t - d} \leq c_{j} \right\} =}\left\{ \begin{matrix} \alpha_{10} + \alpha_{11}Y_{t - 1} + \ldots\alpha_{1p}Y_{t - p} + h_{1}\varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }Y_{t - d} \leq c_{1} \\ \alpha_{20} + \alpha_{21}Y_{t - 1} + \ldots\alpha_{2p}Y_{t - p} + h_{2}\varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }c_{1} < Y_{t - d} \leq c_{2} \\ \ldots \\ \alpha_{r0} + \alpha_{r1}Y_{t - 1} + \ldots\alpha_{\text{rp}}Y_{t - p} + h_{r}\varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }c_{r - 1} < Y_{t - d} \\ \end{matrix},\ \ \ \ \ \ \ \ (1) \right.\ $
gdzie:
Xt = (1, Yt − 1,.., Yt − p)′,
αj = (αj0, αj1,…, αjp)′ , j = 1, …, r,
−∞=c0 < c1 < … < cr − 1 < cr = ∞ są parametrami progowymi,
εt ∼ i.i.d.(0,1),
1{•}jest funkcją wskaźnikową Heaviside’a, tj. funkcja postaci:
$$1\left\{ \text{ZϵA} \right\} = \left\{ \begin{matrix}
1\ \ \ \ \ \ \text{dla}\text{\ \ \ }Z \in A \\
0\ \ \ \ \ \text{dla}\text{\ \ \ \ \ }Z \notin A \\
\end{matrix} \right.\ ,$$
Yt − d jest zmienną progową,
d > 0 jest parametrem opóźnienia.
Rozważa się również modele z różnymi rzędami opóźnień w reżimach, które są oznaczane SETAR (r, p1,…, pr).
Ogólniejszą specyfikacją od (1) jest model TAR, w którym zmienną progową może być dowolna funkcja przeszłych obserwacji lub pewna zmienna egzogeniczna, w tym zmienna czasowa. Model ten można więc zapisać następująco:
$$Y_{t} = \sum_{j = 1}^{r}{\left( {\alpha^{'}}_{j}X_{t} + h_{j}\varepsilon_{t} \right)1\left\{ c_{j - 1} < Z_{t} \leq c_{j} \right\}.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (2)}$$
Jeśli Zt = Yt − d, d > 0 , otrzymujemy model TAR, w którym zmiany reżimowe zależne są od stóp wzrostu. Model ten zaproponowali W. Enders i C.W.J. Granger (1998), którzy rozważali przypadek procesu dwureżimowego z parametrem progowym równym wartości średniej zmiennej progowej. W szczególności, w przypadku zerowego progu, model ten zakłada różną dynamikę procesu przy wzrostach i przy spadkach. Dla swojej propozycji W. Enders i C.W.J. Granger (1998) zasugerowali nazwę model M-TAR (skrót od ang. momentum TAR) - model TAR z impetem.
Inny przypadek szczególny modelu (1) otrzymujemy przyjmując za zmienną przejścia zmienną czasową lub standaryzowaną zmienną czasową, tj. Zt = t lub Zt = t/n, gdzie n jest liczbą obserwacji. Wówczas otrzymujemy model autoregresyjny z r − 1 egzogenicznymi zmianami strukturalnymi.
Autoregresyjne procesy wygładzonego przejścia
Uogólnieniem procesów SETAR są procesy STAR (ang. smooth transition autoregressive processes), w których funkcję wskaźnikową zastępuje się pewną funkcją ciągłą zmiennej progowej, zwanej tutaj zmienną przejścia (ang. transition variable), na skutek czego przejścia pomiędzy reżimami mają charakter wygładzony a nie gwałtowny.
Podstawowy model STAR ma postać:
$$Y_{t} = {\alpha^{'}}_{1}X_{t} + {\alpha^{'}}_{2}X_{t} \bullet F\left( S_{t};\gamma,c \right) + \varepsilon_{t} = \alpha_{10} + \sum_{j = 1}^{p}{\alpha_{1j}Y_{t - j} +}\left( \alpha_{20} + \sum_{j = 1}^{p}{\alpha_{2j}Y_{t - j}} \right) \bullet F\left( S_{t};\gamma,c \right) + \varepsilon_{t},\ \ \ \ \ \ \ \ \ \ (3)$$
gdzie
Xt = (1, Yt − 1,.., Yt − p)′,
α1i α2 są wektorami parametrów postaci α1 = (α10, α11,…, α1p)′ i α2 = (α20, α21,…, α2p)′,
εt ∼ i.i.d.(0,1),
F(St;γ,c) jest funkcją przejścia (funkcją transformacji),
St jest zmienną przejścia.
Odnośnie funkcji F(St;γ,c) przyjmuje się założenie, iż jest ograniczoną funkcją ciągłą, najczęściej przyjmującą wartości z przedziału (0, 1), zależną od skalarnego parametru γ kontrolującego gładkość przejścia między reżimami, oraz wektora parametrów c, zawierającego parametry progowe.
Najczęściej stosowanymi funkcjami przejścia są:
funkcja wykładnicza:
F(St;γ,c) = 1 − e−γ(St − c)2, γ > 0, (4)
funkcja logistyczna pierwszego rzędu:
$$F\left( S_{t};\gamma,c \right) = \frac{1}{1 + e^{- \gamma(S_{t} - c)}}\ ,\ \ \ \ \ \ \ \ \ \ \ \gamma > 0,\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (5)$$
funkcja logistyczna rzędu drugiego postaci:
$$F\left( S_{t};\gamma,c_{1},\ c_{2} \right) = \frac{1}{1 + e^{- \gamma\left( S_{t} - c_{1} \right)\left( S_{t} - c_{2} \right)}}\ \ ,\ \ \ \ \ \gamma > 0,\ \ c_{1} < c_{2}.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (6)$$
Przykładowe przebiegi tych funkcji przedstawia rysunek:
Rys. 1. Wykresy funkcji przejścia; (a) funkcja wykładnicza z γ = 0, 2 i c = 0; (b) funkcja logistyczna pierwszego rzędu z γ = 2 i c = 0; (c) funkcja logistyczna drugiego rzędu z γ = 2, c1 = − 2 i c2 = 2.
Oprócz powyższych rozpatruje się także przypadek uogólnionej funkcji logistycznej rzędu r posiadającej r punktów przegięcia. Istotną własnością funkcji logistycznych jest to, iż wraz z γ → ∞ dążą one do funkcji wskaźnikowych. W konsekwencji model STAR z funkcją przejścia w postaci funkcji logistycznej zbiega do modelu SETAR (r + 1) z restrykcjami zakładającymi, że w co drugim reżimie występuje ten sam zestaw parametrów. W szczególności dla r = 1 parametry modelu STAR zmieniają się monotonicznie od α1 do α1 + α2 w zależności od wartości zmiennej przejścia, a wraz z γ → ∞ model ten zbiega do modelu SETAR (2, p). W przypadku r = 2 parametry modelu STAR zmieniają się symetrycznie wokół wartości (c1 + c2)/2, dla której funkcja logistyczna osiąga swoją wartość najmniejszą, zaś wraz z γ → ∞ zmiany reżimowe stają się coraz bardziej gwałtowne i model STAR zbiega do modelu SETAR(3, p) z restrykcjami zakładającymi, że reżimy zewnętrzne są identyczne. Stąd rodzina modeli STAR obejmuje jako przypadki graniczne pewne modele SETAR.
Model STAR z funkcją przejścia (4) nosi nazwę wykładniczego modelu autoregresyjnego wygładzonego przejścia (ESTAR, ang. exponential STAR), zaś z funkcją transformacji postaci (5) jest logistycznym modelem STAR (LSTAR, ang. logistic STAR). Najczęściej przyjmuje się, że zmienną przejścia jest opóźniony proces endogeniczny, tj. St = Yt − d, d > 0, ale moga to być też opóźnienia przyrostów procesu endogenicznego, zmienna czasowa itd.
T. Teräsvirta (1994) zaproponował procedurę modelowania mającą na celu m.in. poprawne rozstrzygnięcie pomiędzy modelem ESTAR a modelem LSTAR dla r = 1. Ta sama strategia modelowania ma zastosowanie do rozstrzygania pomiędzy modelem LSTAR rzędu drugiego a modelem LSTAR rzędu pierwszego. W istocie dokonuje się w ten sposób wyboru pomiędzy dynamiką trzyreżimową z identycznymi reżimami zewnętrznymi a dynamika dwureżimową. Ta pierwsza umożliwia np. uwzględnienie występowania przedziału wokół wartości w położeniu równowagi analizowanego procesu, który może być wynikiem obecności kosztów transakcyjnych czy ograniczeń płynności, zaś druga jest szczególnie użyteczna do modelowania asymetrii procesów wynikającej np. z obecności wahań koniunkturalnych, przejawiających się różną dynamiką procesów gospodarczych w okresach recesji i ożywienia.
Procesy przełącznikowe Markowa
Innym rodzajem procesów ‘kawałkami liniowych’ są autoregresyjne procesy przełącznikowe Markowa (ang. Markov switching autoregressive processes) postaci:
$$Y_{t} = \sum_{j = 1}^{r}{{\alpha^{'}}_{j}X_{t}1\left\{ S_{t} = j \right\} + \varepsilon_{t} =}\left\{ \begin{matrix}
\alpha_{10} + \alpha_{11}Y_{t - 1} + \ldots\alpha_{1p}Y_{t - p} + \varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }S_{t} = 1 \\
\alpha_{20} + \alpha_{21}Y_{t - 1} + \ldots\alpha_{2p}Y_{t - p} + \varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }S_{t} = 2 \\
\ldots \\
\alpha_{r0} + \alpha_{r1}Y_{t - 1} + \ldots\alpha_{\text{rp}}Y_{t - p} + \varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }S_{t} = r \\
\end{matrix},\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (7) \right.\ $$
gdzie
Xt = (1, Yt − 1,.., Yt − p)′,,
αj = (αj0, αj1,…, αjp)′ , j = 1, …, r,
εt ∼ i.i.d.(0,σ2),
1{•} jest funkcją wskaźnikową,
St jest nieobserwowalnym jednorodnym łańcuchem Markowa o r stanach.
Przypomnijmy, że jednorodny łańcuch Markowa definiuje się następująco: Niech St będzie ciągiem zmiennych losowych przyjmujących wartości ze zbioru {1, 2, …,r}. Proces ten jest jednorodnym łańcuchem Markowa, jeśli dla każdych i, j, k, ... zachodzi P {St=j | St − 1=i, St − 2=k, …} = P{St=j | St − 1=i} = pij. Wielkości pij, noszące nazwę prawdopodobieństw przejścia, tworzą macierz prawdopodobieństw przejścia, której elementy sumują się w każdym wierszu do 1.
O procesie St w modelach Markow switching zakłada się, że jest on niezależny od ετ dla każdych t i τ oraz że jego prawdopodobieństwa przejścia są nieznane i muszą być estymowane łącznie z innymi parametrami modelu. St określa się jako zmienną przełącznikową (ang. switching variable). Model (7) będzie użyteczny do opisu zmiany stanów, które zdają się nie mieć obserwowalnej i mierzalnej przyczyny lub zależą od zmiennej przełącznikowej, realizacjami której nie dysponujemy oraz dla której nie istnieje odpowiednia zastępcza zmienna.
Testy liniowości wobec alternatywy STAR
Rozważmy ogólny proces STAR postaci:
Yt = φ′1Xt + φ′2XtF(St;γ,c) + εt, (8)
gdzie
Xt = (1, Yt − 1,…,Yt − p)′ ,
φi = (φi0, φi1,…,φip)′, i = 1, 2
oraz F jest funkcją logistyczną pierwszego rzędu, tj.:
F(St;γ,c) = {1+exp[−γ(St−c)]}−1, γ > 0 (LSTAR)
lub funkcją wykładniczą:
F(St;γ,c) = 1 − exp[−γ(St−c)2], γ > 0. (ESTAR)
W celu skonstruowania testu liniowości mającego moc względem procesów LSTAR i ESTAR T. Teräsvirta (1994) zaproponował zastąpienie funkcji przejścia przez jej aproksymację szeregiem Taylora niskiego rzędu. Rozwinięcie w szereg Taylora wokół γ = 0 funkcji (5) – przypadek LSTAR – prowadzi w przypadku aproksymacji pierwszego rzędu do regresji pomocniczej postaci:
Yt = β′1Xt + β′2XtSt + et. (9)
Wówczas weryfikując hipotezę H01 : β2 = 0 na podstawie regresji (9) korzysta się ze statystyki postaci:
$$\text{LM}_{1} = n\frac{{(\text{SSR}_{0} - \text{SSR})}^{a}}{\text{SSR}_{0}}\sim\chi^{2}\left( m \right)\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (10)$$
lub preferowanej w małych próbach statystyki F:
$$F_{1} = \frac{(\text{SSR}_{0} - \text{SSR})/m}{\text{SSR}/(n - m - p - 1)} \approx F\left( m,\ n - m - p - 1 \right)\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (11)$$
(SSR0 jest sumą kwadratów reszt z estymacji modelu (9) z restrykcjami występującymi w hipotezie zerowej, SSR – odpowiednią suma kwadratów reszt
z modelu bez restrykcji, zaś m jest liczbą restrykcji równą p + 1).
Zastosowanie aproksymacji trzeciego rzędu prowadzi natomiast do regresji postaci:
Yt = β′1Xt + β′2XtSt + β′3XtSt2 + β′4XtSt3 + et. (12)
Wówczas testuje się hipotezę zerową H03 : β2 = β3 = β4 = 0, którą weryfikuje się w oparciu o odpowiednią statystykę LM3 zdefiniowaną jak w (10) lub statystykę F3 zdefiniowaną podobnie jak w (11) z m = 3p + 3.
W przypadku funkcji przejścia typu wykładniczego (4) stosuje się regresję pomocniczą postaci:
Yt = β′1Xt + β′2XtSt + β′3XtSt2 + et. (13)
Wówczas przeprowadza się test hipotezy H02 : β2 = β3 = 0 na podstawie statystyk LM2 i F2 zdefiniowane jak poprzednio z liczbą restrykcji m = 2p + 2.
Rozstrzygnięcie pomiędzy postaciami analitycznymi funkcji przejścia proponuje się dokonać na podstawie procedury testowej opartej na następującym ciągu zagnieżdżonych hipotez zerowych:
H′03 : β4 = 0,
H′02 : β3 = 0 | β4 = 0,
H′01 : β2 = 0 | β3 = β4 = 0,
testowanych na bazie regresji (12). Analiza współczynników rozwinięcia obu funkcji przejścia w szereg Taylora wskazuje, iż mamy β4 ≠ 0 tylko, gdy badany proces jest procesem LSTAR.
Jeśli H′03 nie jest odrzucana, w następnej kolejności testuje się hipotezę warunkową H′02. Hipoteza ta jest odrzucana w przypadku procesów ESTAR (lub LSTAR drugiego rzędu), a także procesów LSTAR pierwszego rzędu z c ≠ 0.
Natomiast hipoteza H′01 jest odrzucana, jeśli badany proces jest dowolnym procesem LSTAR pierwszego rzędu, a także jeśli jest procesem ESTAR z c ≠ 0.
Spostrzeżenia te prowadzą do praktycznej wskazówki mówiącej, iż jeśli wartość p związana z testem hipotezy H′02 jest najmniejsza, należy wybrać model ESTAR (lub LSTAR rzędu drugiego). W pozostałych przypadkach właściwym wyborem jest model LSTAR rzędu pierwszego.
Testy z wyspecyfikowaną hipotezą alternatywną mogą mieć moc również względem innych modeli niż ujęte w tej hipotezie. W szczególności testy względem alternatyw STAR będą wykazywać moc względem swojego przypadku granicznego w postaci modeli (SE)TAR. Potwierdzają to wyniki symulacji prezentowanych w wielu artykułach. Jak piszą C.W.J. Granger i T. Teräsvirta (1993), sytuacja odwrotna, w której testy wobec alternatywy TAR mają wysoką moc względem procesów STAR, wydaje się mniej prawdopodobna.
Testy wobec alternatywy (SE)TAR
Testy liniowości względem progowych procesów autoregresyjnych są w większości oparte na tzw. uporządkowanych regresjach (ang. arranged regressions), które uzyskuje się porządkując wektory obserwacji zgodnie z rosnącymi lub malejącymi wartościami zmiennej progowej. Wówczas testowanie liniowości sprowadza się do weryfikacji hipotezy o braku załamania strukturalnego w modelu opartym na uporządkowanych obserwacjach.
Pierwszym testem wykorzystującym to spostrzeżenie jest propozycja J. Petruccelliego i N. Daviesa (1986) zastosowanie testu stałości parametrów CUSUM do wektorów obserwacji uporządkowanych zgodnie z wartościami zmiennej progowej.
Wśród innych popularnych testów nieliniowości progowej należy wymienić testy R.S. Tsaya (1989) i B.E. Hansena (1996).
Prognozowanie procesów nieliniowych
Oprócz opisu dynamiki badanego procesu celem budowy modelu nieliniowego może być prognozowanie. Prognozowanie z modeli nieliniowych jest zadaniem trudniejszym od ekstrapolacji na podstawie modeli liniowych.
Prognozy jednokrokowe z modeli nieliniowych uzyskuje się bezpośrednio. Rozważmy dla ilustracji ogólny nieliniowy model autoregresji rzędu p postaci:
Yt = g(Zt − 1; θ) + εt, (14)
gdzie Zt = (Yt, ..., Yt − p + 1).
Wówczas prognoza jednokrokowa dana jest wzorem:
Yt + 1|t = E(Yt + 1 |Zt)=g(Zt; θ). (15)
Prognoza na dwa okresy do przodu ma natomiast postać:
Yt + 2|t = E(Yt + 2 |Zt)=E[g (Zt + 1;θ)+εt + 2|Zt] = E[g(g(Zt;θ)+εt + 1, Yt,…,Yt − p + 2; θ)] = ∫εg(Yt + 1|t + ε, Yt, …, Yt − p + 2; θ)dF(ε). (16)
Zakładając znajomość rozkładu składnika losowego, prognozę tę można wyliczyć poprzez całkowanie numeryczne. W przypadku prognoz na kilka okresów w przód postępowanie takie, określane jako metoda dokładna, wymaga złożonych operacji numerycznych.
Inny sposób postępowania zakłada zignorowanie składnika losowego i wyznaczenie prognozy zgodnie z formułą:
Yt + 2|tn = g(Yt + 1|t, Yt,…,Yt − p + 2; θ) = g(Zt + 1|t;θ). (17)
Prognoza taka, określana jako naiwna lub szkieletowa (ang. ‘skeleton’ forecast), jest jednak obciążona, co może prowadzić do istotnych strat efektywności procesu predykcji.
Alternatywnym sposobem uniknięcia całkowania numerycznego jest aproksymacja z wykorzystaniem symulacji Monte Carlo lub metod bootstrap, przy czym to drugie podejście nie wymaga znajomości rozkładu składnika losowego. Wówczas prognozę Monte Carlo na dwa okresy w przód definiuje się następująco:
$$Y_{t + 2|t}^{\text{MC}} = \left( \frac{1}{N} \right)\sum_{i = 1}^{N}{g(}Z_{t + 1|t} + \varepsilon_{t + 1}^{(i)};\ \theta)\ \ \ \ \ \ \ \ \ \ \ \ (18)$$
gdzie εt + 1(i) są wektorami wymiaru 1 × p postaci εt + 1(i) = (εt + 1(i), 0, ..., 0), zaś (εt + 1(1),…,εt + 1(N)) jest próbą prostą z rozkładu εt + 1. Analogicznie definiuje się prognozę bootstrapową:
$$Y_{t + 2|t}^{B} = \left( \frac{1}{N} \right)\sum_{i = 1}^{N}{g(}Z_{t + 1|t} + e_{t + 1}^{*(i)};\ \theta),\ \ \ \ \ \ \ \ \ \ \ \ (19)$$
gdzie et + 1*(i) są wektorami wymiaru 1 × p postaci et + 1*(i) = (et + 1*(i),0,…,0), zaś (et + 1*(1),…,et + 1*(N)) jest próbą bootstrapową losowaną spośród reszt modelu. Rozszerzenie tego postępowania na prognozy o dłuższym horyzoncie wymaga wielokrotnego losowania z rozkładu składnika losowego lub ze zbioru reszt przy czym.
Poza technikami numerycznymi (całkowaniem numerycznym i aproksymacją z użyciem symulacji lub metody bootstrap) prognozy wielokrokowe można także generować analitycznie, budując osobne modele dla każdego horyzontu prognozy. Postępowanie takie, określane jako metoda bezpośrednia, jest równoważne wyznaczaniu prognoz na jeden okres w przód z każdego spośród zbudowanych modeli.
Należy też dodać, że w przypadku pewnych modeli nieliniowych, takich jak nieliniowe średnie ruchome, które są liniowe względem parametrów, czy modele SETAR możliwe jest analityczne wyznaczanie prognoz na 2, 3 i więcej okresów w przód. W przypadku modeli SETAR prowadzi to do formuły, w myśl której prognoza na h okresów w przód jest średnią ważoną optymalnych prognoz dla poszczególnych reżimów z wagami będącymi prawdopodobieństwami przebywania przez proces w danym reżimie w momencie t + h − d, skorygowaną o pewien dodatkowy czynnik.
Porównanie jakości prognoz z modeli nieliniowych uzyskiwanych różnymi metodami na podstawie danych symulowanych było przedmiotem pracy J.-L. Lina i C.W.J. Grangera (1994). Prezentowane tam wyniki wskazują, że prognozy Monte Carlo i prognozy bootstrap na dwa okresy w przód są dokładniejsze od prognoz uzyskanych metodą bezpośrednią w terminach średniego błędu prognozy, jeśli w charakterze predyktora użyto parametrycznych modeli STAR lub pewnych nieliniowych modeli autoregresji. Dokładność prognoz bezpośrednich wzrasta jednak w przypadku modeli nieparametrycznych, w tym modeli sieci neuronowych.
Sposobem na podwyższenie dokładności prognoz jest łączenie prognoz z kilku modeli (ang. combining forecasts) z zastosowaniem różnych schematów wag oraz liniowych jak i nieliniowych kombinacji prognoz. Dobrze uzasadnionymi od strony teoretycznej wagami dla prognoz kombinowanych są wynikające z analizy bayesowskiej prawdopodobieństwa a posteriori modeli. W szczególności łączenie prognoz z modeli liniowych i nieliniowych może prowadzić do prognoz bardziej odpornych na sytuacje nietypowe.
Użyteczność specyfikacji nieliniowych w prognozowaniu jest wciąż przedmiotem wielu kontrowersji. Jedni autorzy dokumentują jedynie marginalne korzyści wynikające z wykorzystania jednowymiarowych modeli nieliniowych w charakterze predyktorów procesów makroekonomicznych, inni zaś wskazują na brak jakichkolwiek korzyści np. w odniesieniu do prognozowania kursów walutowych czy wielu innych zmiennych makroekonomicznych.
W szczególności J.H. Stock i M.W. Watson na przykładzie 215 szeregów makroekonomicznych obserwacji miesięcznych pokazują, że prognozowanie z użyciem sieci neuronowych, wygładzania wykładniczego czy modeli STAR nie daje lepszych wyników od prognozowania na podstawie liniowych modeli autoregresyjnych konstruowanych w oparciu o wyniki testów pierwiastków jednostkowych, choć prognozy z modeli liniowych można poprawić stosując w charakterze predyktorów liniowe kombinacje modeli (w tym modeli nieliniowych). Zgoła inne wyniki prezentują T. Teräsvirta, D. van Dijk i M.C. Medeiros (2006), którzy przeanalizowali 47 zmiennych makroekonomicznych dochodząc do wniosku, iż modele STAR dostarczają generalnie lepszych prognoz od liniowych modeli autoregresyjnych. W swoim badaniu podkreślają jednak, że stosują dynamiczną specyfikację modeli prognostycznych, tj. wraz z kolejną obserwacją nie tylko estymują ponownie parametry modelu, ale również dokonują jego respecyfikacji. Ponadto stosują inną metodę wyznaczania prognoz wielokrokowych, opartą na technice bootstrapingu, podczas gdy J.H. Stock i M.W. Watson budują różne modele dla różnych horyzontów prognoz.
Podobne zastrzeżenia można wystosować w stosunku do nieliniowych modeli współzależności, choć znane są również przykłady, gdy modele tego typu okazywały się dostarczać lepszych prognoz makroekonomicznych niż ich liniowe odpowiedniki. Nie zmienia to jednak faktu, iż, jak stwierdzają J.G. De Gooijer i K. Kumar (1992), nie ma wyraźnych dowodów na wyższość prognozowania z modeli nieliniowych nad prognozowaniem z modeli liniowych, zaś M.P. Clements, P.H. Franses i N.R. Swanson (2004) zauważają, że sytuacja ta wygląda bardzo podobnie również kilkanaście lat po publikacji artykułu J.G. De Gooijera i K. Kumara.
15.12.2011
VI wykład
Metoda Największej Wiarygodności (MNW)
Polega na znalezieniu ocen parametrów, gwarantujących największe prawdopodobieństwo uzyskania wartości zaobserwowanych w próbie.
Jako ilustrację wprowadzającą rozważmy klasyczny model regresji z jedną zmienną objaśniającą:
, .
Wówczas funkcja wiarygodności jest funkcją gęstości łącznego rozkładu prawdopodobieństwa zmiennych , traktowaną jako funkcja nieznanych prametrów modelu:
Logarytm funkcji wiarygodności (ang. loglikelihood) dany jest następująco:
.
Poszukując ocen parametrów oraz maksymalizujemy powyższe wyrażenie. W tym celu wyznaczamy pochodne cząstkowe i przyrównujemy je do zera:
,
,
Pierwsze dwa warunki dostarczają ocen parametrów strukturalnych identycznych z ocenami KMNK, zaś z ostatniego otrzymujemy:
.
Estymator wariancji składnika losowego uzyskany MNW jest obciążony, ale obciążenie to zanika wraz ze wzrostem próby. Natomiast oceny parametrów strukturalnych uzyskane MNW i KMNK są identyczne. Podobne wyniki otrzymuje się w przypadku regresji wielorakiej.
Pamiętamy, że metoda najmniejszych kwadratów ma zastosowanie przy mniej restrykcyjnych założeniach (nie wymaga normalności rozkładu składnika losowego). Ilustruje to fakt, że MNW często może być również stosowana przy niespełnieniu założenia odnośnie przyjętego rozkładu – mówimy wówczas o metodzie quasi-największej wiarygodności.
Statystyczne własności estymatora MNW
Przy spełnieniu pewnych warunków regularności:
- estymator MNW jest zgodny,
- estymator ten ma asymptotyczny rozkład normalny postaci:
,
gdzie jest wektorem teoretycznych wartości parametrów, jest wektorem ocen MNW tych parametrów oraz
,
przy czym jest graniczną macierzą informacyjną:
.
Macierz informacyjna zawiera więc (wzięte z przeciwnym znakiem) wartości oczekiwane drugich pochodnych cząstkowych logarytmu funkcji wiarygodności. Jeśli logarytm funkcji wiarygodności jest bardzo zakrzywiony w pobliżu swojego maksimum, drugie pochodne przyjmują duże wartości co do wartości bezwględnej, a wariancja estymatora jest mała – estymator staje się bardziej precyzyjny. Ponadto można wykazać, że odwrotność macierzy informacyjnej dostarcza dolnego ograniczenia dla asymptotycznej macierzy wariancji i kowariancji wszystkich zgodnych estymatorów asymptotycznie normalnych. Jest to tzw. dolne ograniczenie Rao-Cramera. Wiąże się ono z kolejną ważną własnością estymatora MNW:
- estymator MNW jest asymptotycznie najefektywniejszy w klasie wszystkich zgodnych estymatorów o asymptotycznym rozkładzie normalnym.
Ta ostatnia własność jest podstawową zaletą metody największej wiarygodności: ponieważ metoda ta wykorzystuje w pełni informację z próby (na temat rozkładów skończenie wymiarowych dla obserwacji na zmiennej zależnej), otrzymujemy estymatory o minimalnej wariancji w dużych próbach. Należy jednak podkreślić, że dobre własności tej metody nie muszą przejawiać się w małych próbach.
Inną ważną zaletą MNW jest możliwość wygodnego testowania liniowych i nieliniowych restrykcji dotyczących estymowanych parametrów. Wykorzystuje się w tym celu trzy różne zasady konstrukcji testów statystycznych.
Załóżmy dla uproszczenia, że testujemy hipotezę odnośnie pojedynczego parametru:
.
Można wówczas rozważyć następujące testy:
Test ilorazu wiarygodności LR (ang. likelihood ratio test) (Neyman, Pearson, 1928) – dostarcza łatwego w konstrukcji sposobu porównania dwu modeli zagnieżdżonych. Wykorzystuje się tutaj iloraz funkcji wiarygodności i konstruuje statystykę postaci:
, (*)
gdzie jest wartością funkcji wiarygodności wyliczoną dla oceny MNW wyznaczonej przy nieograniczonej estymacji, zaś jest wartością tej funkcji dla oceny wyznaczonej przy założeniu prawdziwości hipotezy zerowej. Statystyka (*) ma asymptotycznie przy założeniu prawdziwości rozkład .
Test Walda W (Wald, 1943) – zasadza się na obserwacji, iż jeśli testowana restrykcja jest prawdziwa, to powinno być w przybliżeniu równe 0, gdzie, jak poprzednio, jest oceną parametru uzyskaną MNW bez nakładania restrykcji. Odrzucenie hipotezy zerowej następuje, jeśli jest istotnie różne od 0. Warto zauważyć, że identyczną zasadę stosujemy, wykonując test t istotności parametrów. Testy Walda wymagają jedynie estymacji modelu nieograniczonego (bez nakładania restrykcji). Są one asymptotycznie równoważne testom LR.
Test mnożnika Lagrange’a LM (ang. Lagrange multiplier test) (Rao, 1948) – korzystamy tu z obserwacji, że ocena parametru wyznaczona przy założeniu prawdziwości restrykcji występującej w hipotezie zerowej powinna znajdować się blisko wartości maksymalizującej funkcję wiarygodności. Z tego powodu pochodna logarytmu funkcji wiarygodności w punkcie powinna być bliska zero, gdzie jest oceną parametru uzyskaną z estymacji MNW przy warunku pobocznym. Test ten wymaga estymacji jedynie modelu z restrykcjami i jest asymptotycznie równoważny testom LR i W.
Rys. 1. Testowanie restrykcji z wykorzystaniem estymacji MNW
(Greene, Econometric Analysis, s. 485)
W przypadku modeli regresji liniowej trzy wspomniane statystyki mają postać:
oraz zachodzi:
.
Stąd wniosek, że test W jest testem najmocniejszym w skończonych próbach. Ponadto widać związek tego testu z testem F postaci:
O tym, która zasada jest stosowana w konkretnej sytuacji decyduje łatwość przeprowadzenia odpowiedniej estymacji. Ponieważ najłatwiejsze do uzyskania są zwykle oceny parametrów w estymacji z restrykcjami, w praktyce dosyć często stosuje się test LM.
Pamiętamy, że do testowania ogólnej hipotezy liniowej w modelu liniowej regresji używaliśmy do tej pory statystyki postaci:
.
Test F jest testem dla małej próby. Teraz widzimy, że w dużych próbach test F można zastąpić asymptotycznie równoważnymi testami LR, W i LM. Przy okazji testy te mają znacznie ogólniejsze zastosowanie (np. do testowania restrykcji nieliniowych).
Poniżej prezentuje się jedno z ważniejszych zastosowań estymacji metodą największej wiarygodności – estymację modeli logitowych i probitowych.
Modele zmiennej jakościowej. Przypadek zmiennej dychotomicznej (zero-jedynkowej)
Informacje wprowadzające:
Liniowy model prawdopodobieństwa (LMP):
Rozważmy przypadek pojedynczej zmiennej objaśniającej. LMP to zwykłe równanie regresji:
, ,
gdzie zmienna zależna jest zmienną dychotomiczną.
Wówczas jest równe prawdopodobieństwu, że zero-jedynkowa zmienna objaśniana przyjmuje wartość 1:
Problemy:
- Heteroskedastyczność składnika losowego – ponieważ składnik losowy przyjmuje tylko dwie wartości: i z prawdopodobieństwami wynoszącymi odpowiednio i , więc można łatwo wyliczyć wariancję:
Wariancja ta nie jest stała (zależy od wartości zmiennej objaśniającej).
- Składnik losowy nie ma rozkładu normalnego (ma rozkład dwupunktowy), co powoduje problemy z wnioskowaniem statystycznym.
- Wartości teoretyczne (oceny prawdopodobieństw,) mogą wychodzić poza przedział [0, 1].
Modele logitowe i probitowe
Rozważamy model regresji, w którym zmienna objaśniana jest nieobserwowalna (inaczej - ukryta, ang. latent variable):
.
Obserwujemy zmienną postaci:
Np. jeśli informuje o tym, czy dana osoba kupiła samochód (zaciągnęła kredyt, podjęła pracę), to informuje o skłonności (zdolności) do kupna samochodu (zaciągnięcia kredytu, podjęcia pracy). Dla obserwowanej zmiennej o rozkładzie dwupunktowym prawdopodobieństwo sukcesu wynosi:
,
gdzie F jest dystrybuantą rozkładu składnika losowego. Jeśli rozkład składnika losowego jest symetryczny, otrzymujemy:
.
Przyjmując, że F jest dystrybuantą rozkładu logistycznego, otrzymujemy model logitowy, podczas gdy przyjęcie dystrybuanty rozkładu normalnego daje model probitowy.
Funkcja gęstości i dystrybuanta rozkładu logistycznego są postaci:
;
.
Stąd dla modelu logitowego:
lub równoważnie
.
Wyrażenie powyższe to tzw. logarytm ilorazu szans (logit). W modelu logitowym logarytm ilorazu szans jest liniową funkcją zmiennych objaśniających. W LMP taką funkcją było samo prawdopodobieństwo.
W przypadku rozkładu normalnego mamy:
;
.
Stąd w modelu probitowym:
.
Wyrażenie jest określane w tym przypadku jako probit.
Estymacja modeli logitowych i probitowych odbywa się najczęściej metodą największej wiarygodności, polegającą na poszukiwaniu takich ocen parametrów, które maksymalizują funkcję wiarygodności przyjmującą w tym wypadku postać:
.
Logarytm funkcji wiarygodności dany jest następująco:
,
Wyznaczając pochodne i przyrównując do 0 mamy:
Wyrażenia występujące pod pierwszym znakiem sumy są to tzw. uogólnione reszty. Warunki pierwszego rzędu stwierdzają, że uogólnione reszty sumują się do 0 i są ortogonalne do zmiennych objaśniających.
W przypadku modelu logitowego łatwo sprawdzić, że warunki powyższe redukują się do:
i uogólnione reszty stają się zwykłymi resztami. W szczególności mamy więc: , tj. rzeczywista częstość względna jest równa przewidywanej częstości względnej (częstości z modelu).
Warunek ten nie zachodzi dla modeli probitowych (zachodzi jedynie w przybliżeniu).
Ponieważ rozkłady logistyczny i normalny są zbliżone, miary dopasowania obu modeli są bardzo podobne. Ponadto mając oceny parametrów modelu logitowego, przybliżone oceny parametrów modelu probitowego otrzymujemy przemnażając te pierwsze przez 1/1,6 = 0,625.
Istnieje także przybliżony związek między ocenami parametrów liniowego modelu prawdopodobieństwa i modelu logitowego postaci:
Predykcja efektów zmian wartości zmiennych objaśniających (inaczej mówiąc – interpretacja parametrów):
w liniowym modelu prawdopodobieństwa parametry informują, o ile wzrośnie średnio prawdopodobieństwo sukcesu, jeśli dana zmienna wzrośnie o jednostkę przy innych zmiennych na tym samym poziomie.
w modelu logitowym wielkość informuje, ilukrotnie wzrośnie iloraz szans przy jednostkowym wzroście danej zmiennej objaśniającej.
w przypadku modeli logitowych i probitowych efekty krańcowe zależą od wartości zmiennych objaśniających i można je wyznaczyć następująco:
gdzie ϕ to funkcja gęstości standardowego rozkładu normalnego.
W programach komputerowych wyznacza się je dla średnich wartości zmiennych objaśniających.
Miary dopasowania:
W ocenie i porównywaniu różnych modeli zmiennych jakościowych stosuje się mierniki takie jak:
a) współczynnik korelacji między wartościami rzeczywistymi i teoretycznymi , tj. ocenami prawdopodobieństw, :
gdzie to dystrybuanta standardowego rozkładu normalnego.
b) pseudo-R2 McFaddena oparty na ilorazie logarytmów funkcji wiarygodności modelu bez restrykcji (U, ang. unrestricted) i z restrykcjami zerowymi na parametrach j , j = 1, …, k, (R, ang. restricted) postaci:
;
c) zliczeniowy R2 (count-R2): po oszacowaniu parametrów modelu logitowego, probitowego lub LMP szacujemy dla każdej obserwacji odpowiednie prawdopodobieństwa, , a następnie wyznaczamy prognozy według reguły:
Trafność prognoz wygodnie jest badać w oparciu o tablicę trafności:
Empiryczne | Prognozowane | Razem |
---|---|---|
Y = 1 | Y = 0 | |
Y = 1 | n11 | n10 |
Y = 0 | n01 | n00 |
Razem | n.1 | n.0 |
Wówczas
Do weryfikacji modeli szacowanych MNW służy test ilorazu wiarygodności – jego wariant w Gretlu testuje łączną istotność wszystkich parametrów poza wyrazem wolnym i ma rozkład χ2 z k stopniami swobody (k – liczba parametrów).