Analiza fundamentalna i prognozowanie koniunktury do 6 wykładu

Analiza fundamentalna i prognozowanie koniunktury

Joanna Bruzda

Piątek 14:30-15:30 p. 241

06.10.2011

Plan wykładu

  1. Pojęcie i klasyfikacja cykli koniunkturalnych; Cechy morfologiczne cyklu koniunkturalnego; Miary aktywności gospodarczej;

  2. Metody dekompozycji szeregów czasowych

  3. Metody oceny i prognozowania koniunktury; Cykle koniunkturalne a cykle giełdowe

  4. Jedno- i dwuwymiarowa analiza spektralna i jej zastosowania

  5. Modele popytu dla gałęzi

  6. Zastosowanie metod taksonomicznych w analizie spółek giełdowych

Literatura

  1. R. Barczyk, K. Konopczak, M. Lubiński, K. Marczewski, Synchronizacja wahań koniunkturalnych. Mechanizmy i konsekwencje, Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, Poznań 2010.

  2. M. Czekała, Analiza fundamentalna i techniczna, Wydawnictwo AE we Wrocławiu, Wrocław 1997.

  3. Diagnozowanie koniunktury gospodarczej w Polsce, red. S. Pangsy-Kania, K. Piech, Dom Wydawniczy Elipsa, Warszawa 2003.

  1. J. C. Ritchie, Analiza fundamentalna, WIG Press, Warszawa 1997.

Definicja cyklu koniunkturalnego
Klasyczna (tzw. cykl poziomów)

Odchyleniowa

Cykle kroczące

„Cykle wzrostu są to wahania w zagregowanych działaniach gospodarczych. Składają się one z okresu relatywnie wysokiej stopy wzrostu, występującego w tym samym czasie w większości działań gospodarczych, oraz z następującego po nim, równie generalnego, okresu relatywnie niskiej stopy wzrostu, prowadzącego do fazy wysokiej stopy wzrostu cyklu następnego” (Mintz, 1972, Dating American Growth Cycle, w: Zarnowitz, 1972, The Business Cycle Today).

Cykle wzrostu – cd.

Cykle koniunkturalne vs. cykle odchyleniowe i cykle kroczące

Źródło: Zarnowitz, Ozyildirim 2002

Cykle koniunkturalne vs. cykle odchyleniowe i cykle kroczące

Klasyfikacja wahań gospodarczych

R = T + S + C + P

R – wahania realnych wielkości makroekonomicznych

T – trend

S – wahania sezonowe

C – wahania koniunkturalne

P – wahania przypadkowe

Przyjmując założenie, że wahania przypadkowe nie istnieją, mamy:

R = T + S + C

C = R – (T + S)

C = (R – S) – T

Aby otrzymać czysty ruch cykliczny należy w wahaniach realnych zlikwidować skutki wahań sezonowych, a następnie wyeliminować wpływ trendu.

Zmiany długookresowe – trendy

Wahania sezonowe

Rodzaje cykli koniunkturalnych
Kryterium długości cyklu (Schumpeter, 1939)

Cykle Kitchina, Juglara i Kondratiewa

Inne rodzaje wahań periodycznych

Rodzaje cykli koniunkturalnych
Kryterium zasięgu geograficznego

Kryterium selektywności podmiotowej

Kryterium cech morfologicznych

Cechy morfologiczne cyklu koniunkturalnego

Długość wyznaczona przez okresy występujące między punktami zwrotnymi; długość fazy spadkowej + długość fazy wzrostowej
Częstotliwość informuje ile cykli lub jaka część cyklu występuje w przyjętej jednostce czasu
Amplituda różnica między skrajnymi wartościami pewnych elementów występujących w danym okresie
Intensywność oznacza siłę tendencji zwyżkowych lub zniżkowych występujących w poszczególnych fazach
Symetryczność (asymetryczność) informuje o relacji pomiędzy amplitudą poszczególnych faz oraz o zależnościach w zakresie ich długości

Cykl współczesny

Fazy w cyklu klasycznym

O recesji (ożywieniu) mówimy wówczas, gdy dynamika PKB jest ujemna (dodatnia) przez dwa kolejne kwartały.

Szczególnie ostra recesja, ze znacznym spadkiem produkcji realnej i wskaźnikiem bezrobocia sięgającym 15% lub więcej, nazywana jest depresją.

Okres pełnego wykorzystania czynników produkcji to rozkwit.

Fazy w cyklu współczesnym

Współczesne cykle koniunkturalne to fluktuacje aktywności gospodarczej kształtujące się po drugiej wojnie światowej. Obejmują one zwykle okresy od 2-8 lat, z dominującą długością cyklu 3,5-5 lat.

Charakterystyczna zmiana we współczesnych cyklach koniunkturalnych dotyczy skrócenia oraz spłycenia fazy spadkowej.

Jest to jednoznaczne ze złagodzeniem recesji, która ujawnia się w dynamicznie rozwijających się gospodarkach w postaci przyhamowania tempa wzrostu gospodarczego, nie zaś w postaci absolutnego zmniejszenia produkcji.

Porównanie kilku cech klasycznych i współczesnych cykli gospodarczych

Cykl klasyczny Cykl współczesny
cykl czterofazowy: ożywienie, rozkwit, kryzys, depresja cykl dwufazowy: faza wysokiej i faza niskiej aktywności gospodarczej
punkty zwrotne gwałtowne, ostre punkty zwrotne łagodne
amplitudy faz zbliżone; amplituda cyklu bliska 0 amplituda fazy wzrostowej wyższa; amplituda cyklu dodatnia

faza pomyślnej koniunktury 4-6 lat

faza spadkowej koniunktury 4-6 lat

cykl 8-12 lat ; niska częstotliwość

faza pomyślnej koniunktury 2-3 lat

faza spadkowej koniunktury 1,5-2 lat

cykl 3,5-5 lat ; wysoka częstotliwość

intensywność wysoka intensywność niska, malejąca

Czynniki zmieniające współczesny cykl koniunkturalny

Miary poziomu aktywności gospodarczej

Mierniki produkcji

Mierniki wykorzystania czynników produkcji

Mierniki cen

Wskaźniki rynku pieniężnego

Wskaźniki zbiorcze

Metody dekompozycji szeregów czasowych

Klasyczna dekompozycja z wykorzystaniem średnich ruchomych i wskaźników sezonowości

Model addytywny Model multiplikatywny

Przykład 1. Szereg obserwacji kwartalnych

t y
1 2,4
2 3,8
3 5,6
4 2,5
5 2,3
6 4
7 5,1
8 2,4
9 2,2
10 2,9
11 4,8
12 2,1
13 3,2
14 4,8
15 5,9
16 3
17 3,1
18 5,1
19 6,2
20 3,3
21 3,4
22 7
23 5,1
24 3,4

Wyodrębnianie trendu poprzez eliminację wahań sezonowych i przypadkowych


$${\overset{\overline{}}{y}}_{t} = \frac{1}{2q}\lbrack\frac{1}{2}y_{t - q} + \sum_{s = - q + 1}^{q - 1}{y_{t + s} + \frac{1}{2}y_{t + q}}\rbrack$$

q= k/2 (k- liczba obserwacji w roku)

Scentrowana średnia ruchoma czterowyrazowa:


y1


y2

y3 ${\overset{\overline{}}{y}}_{3} = \frac{0,5y_{1} + y_{2} + y_{3} + y_{4} + 0,5y_{5}}{4}$

y4 ${\overset{\overline{}}{y}}_{4} = \frac{0,5y_{2} + y_{3} + y_{4} + y_{5} + 0,5y_{6}}{4}$



yn − 2 ${\overset{\overline{}}{y}}_{n - 2} = \frac{0,5y_{n - 4} + y_{n - 3} + y_{n - 2} + y_{n - 1} + 0,5y_{n}}{4}$


yn − 1


yn

Wskaźniki sezonowości – model addytywny (także w szeregu bez trendu)


$${c'}_{i} = \frac{\sum_{j = 0}^{s - 1}(y_{i + j*k} - {\overset{\overline{}}{y}}_{i + j*k}}{s}$$

i = 1, ...,k - numer sezonu

s – liczba lat

${\overset{\overline{}}{y}}_{t}$ -ocena trendu


$$c_{i} = {c'}_{i} - \frac{1}{k}\sum_{i = 1}^{k}{c'}_{i}$$

Wskaźniki sezonowości – model multiplikatywny (także w szeregu bez trendu)


$${c'}_{i} = \frac{\sum_{j = 0}^{s - 1}\frac{y_{i + j*k}}{{\overset{\overline{}}{y}}_{i + j*k}}}{s}$$


$$c_{i} = \frac{{c'}_{i}}{\frac{1}{k}\sum_{i = 1}^{k}{c'}_{i}}$$

Przykład 1. Szereg obserwacji kwartalnych Y

Sezonowość addytywna Sezonowość multiplikatywna Sezonowość addytywna Sezonowość multiplikatywna
Wskaźniki surowe Wskaźniki czyste
-1,0925 0,721 -1,1625 0,709
0,8175 1,185 0,7475 1,165
1,76 1,476 1,69 1,451
-1,205 0,687 -1,275 0,675
Średnia = 0,07 Średnia = 1,017 S = 0,000 S = 4,000
t y Trend + Cykl Trend + Cykl + Wahania przypadkowe
1 2,4   3,56
2 3,8   3,05
3 5,6 3,56 3,91
4 2,5 3,58 3,78
5 2,3 3,54 3,46
6 4 3,46 3,25
7 5,1 3,44 3,41
8 2,4 3,29 3,68
9 2,2 3,11 3,36
10 2,9 3,04 2,15
11 4,8 3,13 3,11
12 2,1 3,49 3,38
13 3,2 3,86 4,36
14 4,8 4,11 4,05
15 5,9 4,21 4,21
16 3 4,24 4,28
17 3,1 4,31 4,26
18 5,1 4,39 4,35
19 6,2 4,46 4,51
20 3,3 4,74 4,58
21 3,4 4,84 4,56
22 7 4,71 6,25
23 5,1   3,41
24 3,4   4,68

Przykład 1. Szereg danych kwartalnych

Trend pełzający (metoda Hellwiga)

Stały segment wygładzania

Dla danej stałej wygładzania k szacuje się trendy liniowe na podstawie kolejnych k obserwacji:


y1                          y2          yk


y2 y3yk + 1


… … … …


yn − k + 1 yn − k + 2         … yn

otrzymując:


y1,  t          =       a1t + b1                        (t = 1, …, k)


y2,  t          =         a2t + b2                       (t = 2, …, k + 1)


 … … … …


yn − k + 1,  t =  an − k + 1t + bn − k + 1       (t = n − k + 1, …, n)

Wyrazom szeregu yt przyporządkowuje się teoretyczne wartości wyznaczone z funkcji trendu o numerach:


d(t)≤j ≤ g(t)

gdzie:


$$d\left( t \right) = \left\{ \begin{matrix} 1\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \text{dla}\ t = 1,\ldots,k \\ t - k + 1\ \ \ \ \ \ \ \text{dla}\ t = k + 1,\ldots,n \\ \end{matrix} \right.\ $$


$$g\left( t \right) = \left\{ \begin{matrix} t\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }\text{dla}\ t = 1,\ldots,n - k \\ t - k + 1\ \ \ \ \ \ \ \ \ \ \text{dla}\ t = n - k + 1,\ldots,n \\ \end{matrix} \right.\ $$

Ostatecznie wartość wyrównana dla okresu t dana jest wzorem:


$${\overset{\overline{}}{y}}_{t} = \frac{1}{g\left( t \right) - d\left( t \right) + 1}\sum_{j = d(t)}^{g(t)}{\hat{y}}_{j,\ t}$$

Metoda wag harmonicznych

Oszacowany model trendu pełzającego może być podstawą prognozowania. W tym celu należy dokonać ekstrapolacji trendu metodą wag harmonicznych.

Najpierw wyznacza się przyrosty trendu pełzającego:


$$w_{t + 1} = {\overset{\overline{}}{y}}_{t + 1} - {\overset{\overline{}}{y}}_{t}\ \ \ \ \ \ \ \ \ \ \ \ \ (t = 1,\ldots,n - 1)$$

a następnie oblicza średnią ważoną tych przyrostów:


$$w = \sum_{t = 1}^{n - 1}{C_{t + 1}^{n}w_{t + 1}}$$

Współczynniki Ct + 1n nazywane są wagami harmonicznymi i mają na celu uwzględnienie postulatu postarzania informacji. Zdefiniowane są one następująco:


$$C_{t + 1}^{n} = \frac{1}{n - 1}\sum_{i = 1}^{t}{\frac{1}{n - i}\ \ \ \ \ \ \ \ \ \ \ \ \ \ (t = 1,\ldots,n - 1)}$$

Wagi harmoniczne są rosnąca funkcją t i sumują się do jedności:


$$\sum_{t = 1}^{n - 1}{C_{t + 1}^{n} = 1}$$


0 < Ct + 1n < 1


Ctn < Ct + 1n

Wartość prognozy na okres T = n + 1, …, n + h można obliczyć poprzez prostą ekstrapolację liniową ostatniego segmentu trendu pełzającego:

yTp = an − k + 1T + bn − k + 1 (T = n + 1,  …, n + h)

lub ze wzoru: $y_{\text{Tp}} = {\overset{\overline{}}{y}}_{n} + w(T - n)$

Przykład 2. Popyt na rynku dobra Y

Miesiąc t Popyt yt
1 8
2 12
3 25
4 40
5 50
6 65
7 36
8 61
9 88
10 63


$${\hat{y}}_{1,\ t} = - 2 + 8,5t$$


$${\hat{y}}_{2,\ t} = \ - 2,333 + 14t$$


$${\hat{y}}_{3,\ t} = 13,333 + 12,5t$$


$${\hat{y}}_{4,\ t} = 26,667 + 12,5t$$


$${\hat{y}}_{5,\ t} = 64,333 - 7t$$


$${\hat{y}}_{6,\ t} = 58 - 2t$$


$${\hat{y}}_{7,\ t} = 9,67 + 26t$$


$${\hat{y}}_{8,\ t} = 68,667 + t$$

  t=1 t=2 t=3 t=4 t=5 t=6 t=7 t=8 t=9 t=10  
1 6,500 15,000 23,500                
2   11,667 25,667 39,667              
3     25,833 38,333 50,833            
4       39,167 51,667 64,167          
5         57,333 50,333 43,333        
6           56,000 54,000 52,000      
7             35,667 61,667 87,667    
8               69,667 70,667 71,667  
Wartości trendu pełzającego 6,500 13,334 25,000 39,056 53,278 56,833 44,333 61,111 79,167 71,667  
Przyrosty trendu   6,834 11,667 14,056 14,222 3,556 -12,500 16,778 18,056 -7,500  
    9,000 8,000 7,000 6,000 5,000 4,000 3,000 2,000 1,000  
Wagi harmoniczne   0,012 0,026 0,042 0,061 0,083 0,111 0,148 0,203 0,314 1,000
    0,084 0,306 0,592 0,862 0,295 -1,383 2,477 3,669 -2,357 4,546

Filtr Hodricka-Prescotta (1981, 1997 JMCB)

Składnik cykliczny zmiennej y jest różnicą między jej bieżącą wartością, a miarą pokazującą wartość trendu, a ten ostatni komponent jest ważoną średnią przeszłych, obecnych i przyszłych obserwacji:


$$y_{t}^{c} = y_{t} - \tau_{t} = y_{t} - \sum_{j = - J}^{J}{a_{j}*}y_{t - j}$$

gdzie: ytc składnik cykliczny zmiennej y w okresie t,

τt wartość komponentu trendu deterministycznego i stochastycznego.

W metodzie tej oblicza się wartości τt, które minimalizują wyrażenie:


$$\sum_{t = 1}^{T}{\left( y_{t} - \tau_{t} \right)^{2} + \lambda}\sum_{t = 2}^{T - 1}{\lbrack(}\tau_{t + 1} - \tau_{t}) - (\tau_{t} - {\tau_{t - 1})\rbrack}^{2}$$

gdzie: λ – parametr filtru (λ = 100 w przypadku danych rocznych; λ = 1600 w przypadku danych kwartalnych i λ = 14400 dla danych miesięcznych).

W praktyce odsezonowane dane poddaje się najpierw logarytmowaniu, a następnie stosuje filtr Hodricka-Prescotta (HP). Od logarytmów odsezonowanych szeregów odejmuje się trend HP, co (po przemnożeniu przez 100) pozwala uzyskać procentowe odchylenia od trendu.

Filtr Rotemberga (1999)


$$\sum_{t = 1 + k}^{T}\left( y_{t}^{c} - {\overset{\overline{}}{y}}^{c} \right)\left( y_{t - k}^{c} - {\overset{\overline{}}{y}}^{c} \right) + \lambda\sum_{t = 2}^{T - 1}{\lbrack(\tau_{t + 1} -}\tau_{t}) - {(\tau_{t} - \tau_{t - 1})\rbrack}^{2} \rightarrow \min$$


$$\sum_{t = k + v}^{T - v - k}{\left( y_{t}^{c} - {\overset{\overline{}}{y}}^{c} \right)\lbrack(}\tau_{t + v} - \tau_{t}) - (\tau_{t} - \tau_{t - v})\rbrack = 0$$

Dekompozycja Beveridge’a-Nelsona (1981)

Związana jest z wyznaczaniem prognoz. Polega na dekompozycji procesu ARIMA(p, 1, q) na random walk z dryfem i proces stacjonarny.


$$y_{t}^{g} = y_{t} + \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)}$$


xt = yt − yt − 1 − μ

${\hat{x}}_{t}\left( j \right)$- prognoza xt j okresów do przodu


$$y_{t}^{c} = - \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)}$$

ytc- stacjonarny, gdyż ${\hat{x}}_{t}\left( j \right) = \psi_{j}\varepsilon_{t} + \psi_{j}\varepsilon_{t - 1} + \psi_{j + 2}\varepsilon_{t - 2} + \ldots\text{oraz}$


$$\operatorname{}{\sum_{j = 1}^{k}{{\hat{x}}_{t}\left( j \right) = \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)} =}}\sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t}} + \sum_{j = 2}^{\infty}{\psi_{j}\varepsilon_{t - 1} + \sum_{j = 3}^{\infty}{\psi_{j}\varepsilon_{t - 2} + \ldots,\ co\ jest\ zbiez\text{ne.}}}$$

ytg- random walk z dryfem


$$y_{t}^{g} - y_{t - 1}^{g} = y_{t} - y_{t - 1} + \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right) -}\sum_{j = 1}^{\infty}{{\hat{x}}_{t - 1}\left( j \right)}$$

Oznaczmy $A_{t} = \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right)}$


$$A_{t} - A_{t - 1} = \sum_{j = 1}^{\infty}{{\hat{x}}_{t}\left( j \right) -}\sum_{j = 1}^{\infty}{{\hat{x}}_{t - 1}\left( j \right)} = \sum_{j = 1}^{\infty}{\lbrack{\hat{x}}_{t}\left( j \right) - {\hat{x}}_{t - 1}\left( j \right)}\rbrack =$$


$$= \sum_{j = 1}^{\infty}{\{\lbrack{\hat{x}}_{t}\left( j \right) - {\hat{x}}_{t - 1}\left( j + 1 \right)}\rbrack + \lbrack{\hat{x}}_{t - 1}\left( j + 1 \right) - {\hat{x}}_{t - 1}\left( j \right)\rbrack\} =$$


$$= \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} - {\hat{x}}_{t - 1}\left( 1 \right)}$$

${\hat{x}}_{t}\left( j \right) = \psi_{j}\varepsilon_{t} + \psi_{j + 1}\varepsilon_{t - 1} + \psi_{j + 2}\varepsilon_{t - 2} + \ldots$

${\hat{x}}_{t - 1}\left( j \right) = \psi_{j}\varepsilon_{t - 1} + \psi_{j + 1}\varepsilon_{t - 2} + \psi_{j + 2}\varepsilon_{t - 3} + \ldots$

${\hat{x}}_{t - 1}\left( j + 1 \right) = \psi_{j + 1}\varepsilon_{t - 1} + \psi_{j + 2}\varepsilon_{t - 2} + \psi_{j + 3}\varepsilon_{t - 3} + \ldots$


$$y_{t}^{g} - y_{t - 1}^{g} = y_{t} - y_{t - 1} + \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} - {\hat{x}}_{t - 1}\left( 1 \right) =}$$


$$= \mu + x_{t} + \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} - {\hat{x}}_{t - 1}\left( 1 \right) =}$$


$$= \mu + \varepsilon_{t} + \sum_{j = 1}^{\infty}{\psi_{j}\varepsilon_{t} = \mu + (1 + \sum_{j = 1}^{\infty}{\psi_{j})}}\varepsilon_{t} = \mu + \Psi(1)\varepsilon_{t}$$

Wada: trend i cykl są silnie skorelowane.

20.10.2011

Koniunktura makroekonomiczna a strategie inwestycyjne

Strategie ‘top-down’ i ‘bottom-up

Strategie oparte na analizie fundamentalnej

Strategia top-down

Taktyczna alokacja aktywów

Przykład

Źródło: N. Hamernik, Czy cykle koniunkturalne warunkują zmiany na giełdach?

Strategia rotacji sektorowej

Źródło: S. E. Kuhn, Stocks Are Still Your Best Buy, Fortune, 21 marzec 1994, 140.
za: http://www.bzwbk.pl, Profesjonalne strategie inwestycyjne

Strategia bottom-up

Podstawy analizy spektralnej

Literatura:

Brockwell P. J., Davis R. A. (1996), Introduction to time series and forecasting, Springer, New York, Chapter IV.

Talaga L., Zieliński Z. (1987), Analiza spektralna w modelowaniu ekonometrycznym, PWN, Warszawa

Zgodnie z twierdzeniem o dekompozycji Wolda, każdy proces kowariancyjnie stacjonarny ma reprezentację:


$${\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }Y}_{t} = \mu + \sum_{j = 0}^{\infty}{\psi_{j}\varepsilon_{t - j},\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (1)}$$

Inną reprezentacją procesu stacjonarnego jest przedstawienie go jako ważonej sumy funkcji okresowych sin(t ω) i cos(t ω) postaci:


Yt = μ + ∫0πα(ω)cos(tω)dω + ∫0πβ(ω)sin(tω)dω                  (2)

Reprezentacja (2) będzie pomocna w ocenie tego, które cykle (o jakich częstościach) odpowiadają za dynamikę procesu. Pierwszy rodzaj analizy do analiza w dziedzinie czasu (time domain analysis), zaś drugi – w dziedzinie częstości (frequency domain analysis).

Niech proces będzie kowariancyjnie stacjonarny o średniej i sumowalnej w wartościach bezwzględnych funkcji kowariancyjnej:


E(Yt − μ)(Yt − τμ) = K(τ) = γτ.

Spektrum (funkcją gęstości spektralnej) procesu będziemy nazywać funkcję postaci:


$$\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }f_{Y}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{\tau}e^{- \text{iτω}}.}$$

Z twierdzenia De Moivre’a mamy, że e−iτω = cos(τω) − i sin(τω), co po podstawieniu prowadzi do:


$${\text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }f}_{Y}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{\tau}\left\lbrack \cos\left( \text{τω} \right) - i\sin\left( \text{τω} \right) \right\rbrack =}\frac{1}{2\pi}\gamma_{0}(\cos\ 0 - i\sin{0) +}$$


$$\ \ \ \ + \frac{1}{2\pi}\sum_{\tau = 1}^{\infty}{\gamma_{\tau}\left\lbrack \cos\left( \text{τω} \right) - i\sin{\left( \text{τω} \right) + \cos\left( - \text{τω} \right) - \text{\ i\ }\sin( - \text{τω})} \right\rbrack =}\frac{1}{2\pi}\left\{ \gamma_{0} + 2\sum_{\tau = 1}^{\infty}{\gamma_{\tau}\cos(\text{τω})} \right\}.$$

Ze wzoru powyżej można wywnioskować następujące własności:

Inne ważne własności spektrum są następujące:

(1) fY(ω) ≥ 0   dla dowolnych ω;


(2) γτ = K(τ) = ∫ππeiτωfY(ω)dω = ∫ππcos(τω)fY(ω)dω


(2a) σ2 = K(0) = ∫ππfY(ω)dω

Dowód (1): (NIEOBOWIĄZKOWY) Rozważmy proces o średniej 0. Dla dowolnej liczby naturalnej T możemy zdefiniować pomocnicze wyrażenie:


$$f_{Y}^{T}\left( \omega \right) = \frac{1}{2\text{πT}}E\left( \left| \sum_{r = 1}^{T}{Y_{r}e^{- \text{irω}}} \right|^{2} \right) = \frac{1}{2\text{πT}}E\left( \sum_{r = 1}^{T}{Y_{r}e^{- \text{irω}}}\sum_{s = 1}^{T}{Y_{s}e^{\text{isω}}} \right) =$$


$$= \frac{1}{2\text{πT}}\left\lbrack T\gamma_{0} + \left( T - 1 \right)\gamma_{1}e^{- \text{iω}} + \left( T - 1 \right)\gamma_{1}e^{\text{iω}} + \left( T - 2 \right)\gamma_{2}e^{- 2\text{iω}} + \left( T - 2 \right)\gamma_{2}e^{2\text{iω}} + \ldots + \gamma_{T - 1}e^{- (T - 1)\text{iω}} + \gamma_{T - 1}e^{(T - 1)\text{iω}} \right\rbrack =$$


$$= \frac{1}{2\text{πT}}\sum_{\left| \tau \right| < T}^{}{(T - \left| \tau \right|)e^{- \text{irω}}}\gamma_{\tau}.$$

Powyższa funkcja przyjmuje wartości nieujemne dla dowolnych T i ω, przy czym zachodzi:


$$f_{Y}^{T}\left( \omega \right)\overset{\rightarrow}{T \rightarrow \infty}f_{Y}\left( \omega \right).$$

Dowód (2): $\int_{- \pi}^{\pi}e^{\text{iτω}}f_{Y}\left( \omega \right)d\omega = \int_{- \pi}^{\pi}{\frac{1}{2\pi}\sum_{h = - \infty}^{\infty}e^{i(\tau - h)\omega}\gamma_{h}}d\omega = \frac{1}{2\pi}\sum_{h = - \infty}^{\infty}{\gamma_{h}\int_{- \pi}^{\pi}{e^{i(\tau - h)\omega}d\omega =}}\gamma_{\tau}$.

Rozważmy biały szum εt o wariancji σε2. Wówczas mamy:


$$f_{\varepsilon}\left( \omega \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi},$$

tj. otrzymujemy płaskie spektrum.

W przypadku procesu AR(1) postaci Yt = ϕYt − 1 + εt mamy z kolei:


$$f_{Y}\left( \omega \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi(1 - \phi^{2}}\left\lbrack 1 + \sum_{\tau = 1}^{\infty}{\phi^{\tau}\left( e^{\text{iτω}} + e^{- \text{iτω}} \right)} \right\rbrack =$$


$$= \frac{\sigma_{\varepsilon}^{2}}{2\pi(1 - \phi^{2})}\left( 1 + \frac{\phi e^{\text{iω}}}{1 - \phi e^{\text{iω}}} + \frac{\phi e^{- \text{iω}}}{1 - \phi e^{- \text{iω}}} \right) =$$


$$= \frac{\sigma_{\varepsilon}^{2}}{2\pi(1 - {2\text{ϕcosω} + \phi}^{2})}.$$

Rys. 1. Spektrum procesu AR(1) z parametrem autoregresji 0,5 i jednostkową wariancją białego szumu.

Natomiast dla procesu MA(1): Yt = εt + θεt − 1 otrzymujemy:


$$f_{Y}\left( \omega \right) = \frac{1}{2\pi}\left( \gamma_{0} + \gamma_{1}e^{- i\omega} + \gamma_{1}e^{i\omega} \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi}\left( 1 + \theta^{2} + 2\text{θcosω} \right).$$

Rys. 2. Spektrum procesu MA(1) z parametrem θ = – 0,5 i jednostkową wariancją białego szumu.

Ogólnie, dla procesu ARMA postaci:


Yt = c + ϕ1Yt − 1 + … + ϕpYt − p + εt + θ1εt − 1 + … + θqεt − q

funkcja gęstości spektralnej przedstawia się następująco:


$$f_{Y}\left( \omega \right) = \frac{\sigma_{\varepsilon}^{2}}{2\pi}\frac{\left| A(e^{- i\omega}) \right|^{2}}{\left| B(e^{- i\omega}) \right|^{2}},$$

gdzie: B(L) = 1 − ϕ1L − … − ϕpLp,    A(L) = 1 + θ1L + … + θqLq.

Interpretacja funkcji gęstości spektralnej

Całka postaci:


ω1ω1fY(ω)dω=2∫0ω1fY(ω)dω

stanowi tę część wariancji procesu Yt, która jest związana z częstościami mniejszymi od ω1.

Filtry liniowe

W przypadku stosowania filtru liniowego postaci:


$$X_{t} = \sum_{j = - \infty}^{\infty}{\alpha_{j}Y_{t - j}}$$

funkcje gęstości spektralnej wyjściowego procesu Yt i procesu przefiltrowanego Xt są związane relacją:


fX(ω) = |α(e−iω)|2fY(ω),

gdzie:


$$\alpha\left( e^{- \text{iω}} \right) = \sum_{j = - \infty}^{\infty}\alpha_{j}e^{- \text{ijω}}$$

jest tzw. funkcją transferową filtru. Rozważmy kilka przykładów filtrów i oceńmy ich wpływ na spektrum procesu.

Ex. 1. Filtr różnicowy

Jest on zdefiniowany następująco: =1 − L, tj. Xt = Yt = Yt − Yt − 1. Jego funkcja transferowa jest postaci:

H(ω) = α(e−iω) = 1 − e−iω,

a kwadrat jej modułu (określany jako kwadrat wzmocnienia) wynosi:

|H(ω)|2 = |α(e−iω)|2 = 2 − 2cos ω.

Ponieważ wzmocnienie jest funkcją symetryczną (|H(−ω)| = |H(ω)|), wystarczy rozpatrywać jego wartości na odcinku [0, π]. Poniżej zamieszczono wykres kwadratu wzmocnienia filtru różnicowego. Filtr ten wyraźnie osłabia niskie częstości (eliminuje wahania długookresowe), a wzmacnia częstości wysokie.

Filtr różnicowy wzmacnia wahania krótkookresowe a eliminuje wahania długookresowe.

Rys. 2. Kwadrat wzmocnienia filtru różnicowego

Ex. 2. Średnia ruchoma prosta


$$X_{t} = \frac{1}{2q + 1}\sum_{j = - q}^{q}Y_{t - j}$$

Jej funkcja transferowa jest następująca:


$$H\left( \omega \right) = \frac{1}{2q + 1}\sum_{j = - q}^{q}e^{- \text{ijω}} = \frac{1}{2q + 1}\sum_{j = - q}^{q}{\cos{\left( \text{jω} \right) =}}\frac{1}{2q + 1}\left\lbrack 1 + 2\sum_{j = 1}^{q}{\cos\left( \text{jω} \right)} \right\rbrack.$$

Filtr średniej ruchomej osłabia wahania krótkookresowe, przepuszczając wahania o niskich częstościach (trend).

Rys. 3. Kwadrat wzmocnienia filtru średniej ruchomej zwykłej dla q = 1.

Ex. 3. Filtr Baxtera-Kinga (BK)

Jest to filtr symetryczny postaci:


$$X_{t} = \sum_{j = - n}^{n}{\theta_{j}Y_{t - j},}$$

gdzie


$$\theta_{j} = \psi_{j} - \frac{1}{2n + 1}\sum_{i = - n}^{n}\psi_{i}$$

oraz ψj są parametrami idealnego filtru pasmowego o nieskończonej odpowiedzi impulsowej postaci:


$$\psi_{j} = \left\{ \begin{matrix} \frac{\sin\left( j\omega_{2} \right) - \sin(j\omega_{1})}{\text{πj}},\ \ \ \ \ j \neq 0 \\ \text{\ \ \ \ \ \ \ \ \ }\frac{\omega_{2} - \omega_{1}}{\pi}\ \ \ \ \ \ \ \ \ \ \ \ \ \ ,\ \ \ \ \ \ j = 0 \\ \end{matrix} \right.\ $$

Filtr BK o skończonej odpowiedzi impulsowej aproksymuje idealny filtr pasmowy o odpowiedzi nieskończonej. ω1 i ω2 są dolnymi i górnymi częstościami odcięcia filtru, n proponuje się ustalić na poziomie 3 lat.

Polecenie. Wykreślić kwadrat wzmocnienia filtru BK dla wahań z przedziału od 6 do 40 kwartałów (tj. dla częstości z przedziału $\left\lbrack \frac{\pi}{20},\ \frac{\pi}{3} \right\rbrack$) i n = 12.

Estymatory spektrum

Periodogram

Dysponując próbą T- elementową y1, y2, …, yT można wyznaczyć T – 1 ocen funkcji kowariancyjnej procesu Yt zgodnie z formułą:


$$C_{\tau} = \left\{ \begin{matrix} \frac{1}{T}\sum_{t = \tau + 1}^{T}{\left( y_{t} - \overset{\overline{}}{y} \right)(y_{t - \tau} - \overset{\overline{}}{y})}\ \ \ dla\ j = 0,\ 1,\ldots,\ T - 1 \\ \text{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }C_{- \tau}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ dla\ j = - 1,\ - 2,\ \ldots,\ - T - 1 \\ \end{matrix}. \right.\ $$

Dla dowolnego ω możemy wyznaczyć próbkowy odpowiednik funkcji gęstości spektralnej postaci:


$${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - T + 1}^{T - 1}{C_{\tau}e^{- \text{iτω}}.\ \ \ \ \ \ \ \ \ \ \ \ (5)}$$

Estymator (5) można równoważnie wyrazić w następujących formach:


$${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}\left\lbrack {\hat{\sigma}}^{2} + 2\sum_{\tau = 0}^{T - 1}{C_{\tau}\cos(\tau\omega)} \right\rbrack,$$

${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}I_{T}\left( \omega \right),$

gdzie


$$I_{T}\left( \omega \right) = \frac{1}{T}\left| \sum_{t = 1}^{T}{y_{t}e^{- \text{itω}}} \right|^{2}$$

jest nazywany periodogramem. Periodogram zwykle wyznaczamy dla tzw. częstości Fouriera postaci:


$$\omega_{k} = \frac{2\pi k}{T},\ \ \ \ \ \ \ k = - \left\lbrack \frac{T - 1}{2} \right\rbrack,\ \ldots,\ \left\lbrack \frac{T}{2} \right\rbrack.$$

Dla częstości Fouriera zachodzi:


$$\sum_{t = 1}^{T}{y_{t}^{2} =}y^{'}*y = \sum_{k = - \lbrack\frac{T - 1}{2}\rbrack}^{\lbrack\frac{T}{2}\rbrack}{I_{T}(\omega_{k})}.$$

Powyższa zależność określana jest mianem równości Parsevala. Pokazuje ona, w jaki sposób zdekomponować próbkową wariancję procesu z wykorzystaniem wartości periodogramu. Mówimy, że Dyskretna Transformata Fouriea zachowuje energię sygnału.

Estymator (5) można także zapisać następująco:


$${\hat{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi T}\left\{ \left\lbrack \sum_{t = 1}^{T}{y_{t}\cos(t\omega)} \right\rbrack^{2} + \left\lbrack \sum_{t = 1}^{T}{y_{t}\sin(t\omega)} \right\rbrack^{2} \right\}.$$

Estymator ten ma następujące własności: Po pierwsze, Fuller (1976) pokazał, że dla ω ≠ 0 i wystarczająco dużej próby zachodzi w przybliżeniu:


$$\frac{2{\hat{f}}_{Y}\left( \omega \right)}{f_{Y}\left( \omega \right)}\sim\chi^{2}\left( 2 \right).$$

Dodatkowo, powyższe wielkości dla różnych częstości są w przybliżeniu niezależne. Ponieważ zmienna losowa o rozkładzie χ2(2) ma wartość średnią równą 2, w przybliżeniu otrzymujemy:


$${E\lbrack\hat{f}}_{Y}\left( \omega \right)\rbrack = f_{Y}\left( \omega \right).$$

Stąd estymator periodogramowy jest w dużej próbie w przybliżeniu nieobciążony. Jednakże jego wariancja nie zbiega do 0 wraz ze wzrostem próby – stąd estymator ten nie jest zgodny.

Najprostszym sposobem poprawienia własności estymatora (5) jest uśrednienie sąsiednich wartości w periodogramie. Estymator taki jest zgodny pod warunkiem, że zostanie odpowiednio dobrana liczba uśrednianych częstości. Np. można zaproponować:


$${\tilde{f}}_{Y}\left( \omega_{k} \right) = \frac{1}{2\pi}\sum_{|j| \leq M}^{}{\frac{I_{T}\left( \omega_{k} + \frac{2\text{πj}}{T} \right)}{2M + 1},}$$

gdzie M=$\sqrt{T}$.

Zgodną metodą estymacji funkcji gęstości spektralnej jest również metoda okna wygładzającego, w której ocenę spektrum wyznaczamy za pomocą wzoru:


$${\overset{\overline{}}{f}}_{Y}\left( \omega \right) = \frac{1}{2\pi}\left\lbrack {\hat{\sigma}}^{2} + 2\sum_{\tau = 0}^{T - 1}{\kappa_{\tau}C_{\tau}\cos(\text{τω})} \right\rbrack.$$

Matematycznie rzecz biorąc, jest ona równoważna metodzie uśredniania sąsiednich wartości w periodogramie.

Popularnymi oknami wygładzającymi są:

(A) okno prostokątne


$$\kappa\left( \tau \right) = \left\{ \begin{matrix} 1\ \ \ \ \ \text{dla}\text{\ \ \ \ \ }\tau \leq M \\ 0\ \ \ \ \ \text{dla}\text{\ \ \ \ \ }\tau > M \\ \end{matrix}, \right.\ $$

(B) okno Bartletta


$$\kappa\left( \tau \right) = \left\{ \begin{matrix} 1 - \frac{\tau}{M + 1}\text{\ \ \ \ \ }\text{dla}\text{\ \ \ \ \ }\tau \leq M \\ \ \ \ \ \ \ \ \ 0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \text{dla}\text{\ \ \ \ \ }\tau > M \\ \end{matrix}. \right.\ $$

Test Fishera istotności wartości w periodogramie

Test ten służy do weryfikacji hipotezy, że proces jest białym szumem względem alternatywy, że posiada składową cykliczną o nieokreślonej bliżej częstości. Opiera się on na statystyce:


$$\xi = \frac{\operatorname{}{I_{T}(\omega_{i})}}{\frac{\sum_{1 \leq i \leq q}^{}{I_{T}(\omega_{i})}}{q}},$$

gdzie $q = \left\lbrack \frac{T - 1}{2} \right\rbrack$. Wartość powyższej statystyki wykorzystujemy, aby wyznaczyć empiryczny poziom istotności zgodnie z formułą:


$$P\left( \xi \geq x \right) = 1 - \sum_{j = 0}^{q}{{( - 1)}^{j}\left( \frac{q}{j} \right)\left( 1 - \frac{\text{jx}}{q} \right)_{+}^{q - 1},}$$

gdzie z+ = max{z, 0}.

03.11.2011

Podstawy analizy spektralnej – cd.

Literatura:

Osińska M. (2006), Ekonometria finansowa, PWE, Warszawa.

Talaga L., Zieliński Z. (1986), Analiza spektralna w modelowaniu ekonometrycznym, PWN, Warszawa.

Rozważmy dwuwymiarowy proces stacjonarny postaci Yt = (Y1tY1t)′ o średniej (μ1,  μ2)′ i funkcji kowariancyjnej γij(τ) = E(Yit − μ1)(Yj,  t + τ − μ2) spełniającej warunek:


$$\sum_{\tau = - \infty}^{\infty}{\left| \gamma_{\text{ij}}\left( \tau \right) \right| < \infty},\ \ \ \ \ \ \ \ \ i,\ j = 1,\ 2.$$

Funkcją wzajemnej gęstości spektralnej (cross-spektrum, spektrum wzajemnym) procesu nazywamy funkcję postaci:


$$f_{12}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}e^{- i\tau\omega}\gamma_{12}\left( \tau \right),\ \ \ \ \ \ \ \ \omega \in \left\lbrack - \pi,\ \pi \right\rbrack.$$

Zachodzi przy tym:


γ12(τ) = ∫ππeiτωf12(ω)dω.

Z zapisów powyżej wynika, że funkcja wzajemnej gęstości spektralnej jest transformatą Fouriera funkcji kowariancji wzajemnej procesu dwuwymiarowego, podczas gdy funkcja kowariancji wzajemnej jest odwrotną transformatą Fouriera funkcji wzajemnej gęstości spektralnej.

Własności:

  1. Ponieważ γij(τ) nie jest funkcją symetryczną dla i ≠ j, spektrum wzajemne przyjmuje w ogólności wartości zespolone. Wprowadzamy następujące pojęcia i oznaczenia:


f12(ω) = c(ω) − iq(ω),

gdzie


c(ω) = Re{f12(ω)}

jest częścią rzeczywistą funkcji wzajemnej gęstości spektralnej, zwaną kospektrum, zaś


q(ω) = −Im{f12(ω)}

jest (wziętą z minusem) jej częścia urojoną, zwaną spektrum kwadraturowym (quad-spectrum). Wówczas mamy:


$$c\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{12}\left( \tau \right)}\cos\left( \text{τω} \right);\ \ \ \ \ \ \ \ \ \ \ \ q\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}{\gamma_{12}\left( \tau \right)}\sin\left( \text{τω} \right);$$

z czego wynika, że kospektrum jest funkcja parzystą, a spektrum kwadraturowe – nieparzystą.

  1. Zachodzi także:


$$f_{12}\left( \omega \right) = \overset{\overline{}}{f_{12}\left( \omega \right)},$$

Ponieważ


$$f_{12}\left( \omega \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}e^{- i\tau\omega}\gamma_{12}\left( \tau \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}\overline{e^{\text{iτω}}}\gamma_{12}\left( - \tau \right) = \frac{1}{2\pi}\sum_{\tau = - \infty}^{\infty}\overline{e^{- i\tau\omega}}\gamma_{12}\left( \tau \right) = \overset{\overline{}}{f_{12}\left( \omega \right)}.$$

3) Można zauważyć, że kowariancja między procesami wynosi:


γ12(0) = ∫ππf12(ω)dω = 2∫0πc(ω)dω.

4) Inną ważną własnością jest następująca obserwacja: Jeśli procesy Y1t i Y2tzostaną przekształcone filtrami liniowymi do postaci:


$$X_{1t} = \sum_{j = - \infty}^{\infty}{\alpha_{j}Y_{1,t - j} = \alpha(L)Y_{1t},}$$


$$X_{2t} = \sum_{j = - \infty}^{\infty}{\beta_{j}Y_{2,t - j} = \beta(L)Y_{2t},}$$

gdzie $\sum_{}^{}{\left| \alpha_{j} \right| < \infty},\ \sum_{}^{}{\left| \beta_{j} \right| < \infty}$, to zachodzi:


$$f_{12}^{X}\left( \omega \right) = \alpha\left( e^{- i\omega} \right)\overline{\beta\left( e^{- i\omega} \right)}f_{12}^{Y}\left( \omega \right).\ \ \ \ \ \ \ (*)$$

Funkcje α(eiω),  β(eiω) oznaczają funkcje transferowe (transmitancje, funkcje przenoszenia) odpowiednich filtrów liniowych, t.j.:


$$\alpha\left( e^{- i\omega} \right) = \sum_{j = - \infty}^{\infty}{\alpha_{j}e^{- ij\omega}.}$$

(analogicznie β(eiω)).

Odpowiednikiem tej własności dla przypadku spektrum procesu jednowymiarowego jest:


fX(ω) = |α(eiω)|2fY(ω).       (* * )

W praktyce najczęściej wykorzystujemy pewne funkcje powyżej zdefiniowanych wielkości (kospektrum i spektrum kwadraturowego). Najważniejszymi z nich są:

1) współczynnik koherencji:


$$K\left( \omega \right) = \frac{\left| f_{12}\left( \omega \right) \right|}{\left\lbrack f_{11}\left( \omega \right)f_{22}\left( \omega \right) \right\rbrack^{0,5}}$$

lub koherencja kwadratowa (w skrócie koherencja):


$$K^{2}\left( \omega \right) = \frac{\left| f_{12}\left( \omega \right) \right|^{2}}{f_{11}\left( \omega \right)f_{22}\left( \omega \right)}.$$

Współczynnik koherencji (jak również koherencja kwadratowa) jest unormowany w przedziale [0, 1] i mierzy siłę zależności liniowej między procesami dla danej częstości dla wszystkich opóźnień i wyprzedzeń czasowych. W pewnym przybliżeniu można twierdzić, że współczynnik koherencji jest współczynnikiem korelacji liniowej w dziedzinie częstości. Mówiąc ściślej, koherencja kwadratowa informuje, jaka część wariancji każdego z procesów dla danej częstości może zostać wyjaśniona poprzez liniową regresję jednego procesu względem wyprzedzeń, opóźnień i wartości bieżących drugiego procesu. Koherencja kwadratowa jest równa współczynnikowi R2 w takiej regresji.

Wśród innych ważnych własności współczynnika koherencji są następujące:

- Jego wartość nie zależy od kolejności procesów.

- Jest funkcją symetryczną zmiennej ω.

- W przypadku zależności postaci:


Y2t = αY1,  t − τ + εt

jego wartość nie zależy od parametru t, tj. jest taka sama dla zależności jednoczesnych, opóźnionych czy wyprzedzających.

- Jeśli procesy Y1t i Y2t są związane filtrem liniowym, tj.


$$Y_{2t} = \sum_{j = - \infty}^{\infty}{\Psi_{j}Y_{1,t - j},}$$

gdzie $\sum_{j = - \infty}^{\infty}{\left| \Psi_{j} \right| < \infty,}$ to współczynnik ten wynosi 1.

- Uogólnieniem dwu własności powyżej jest następująca obserwacja: Współczynnik koherencji jest niezmienniczy ze względu na filtracje liniowe, tj. współczynnik koherencji dla procesów postaci:


$$X_{1t} = \sum_{j = - \infty}^{\infty}{\alpha_{j}Y_{1,t - j},}$$


$$X_{2t} = \sum_{j = - \infty}^{\infty}{\beta_{j}Y_{2,t - j},}$$

gdzie $\sum_{}^{}{\left| \alpha_{j} \right| < \infty},\ \sum_{}^{}{\left| \beta_{j} \right| < \infty}$, jest taki sam jak dla procesów Y1t i Y2t. Z zależności (*) i (**) mamy bowiem:


$$K^{X}\left( \omega \right) = \frac{\left| f_{12}^{X}(\omega) \right|}{\left\lbrack f_{11}^{X}(\omega)f_{22}^{X}(\omega) \right\rbrack^{0,5}} = \frac{\left| \alpha(e^{- \text{iω}})\overset{\overline{}}{\beta(e^{- \text{iω}})}f_{12}^{Y}(\omega) \right|}{\left\lbrack \left| \alpha(e^{- \text{iω}}) \right|^{2}f_{11}^{Y}(\omega)\left| \beta(e^{- \text{iω}}) \right|^{2}f_{22}^{Y}(\omega) \right\rbrack^{0,5}} = K^{Y}\left( \omega \right).$$

  1. Kąt fazowy (spektrum fazowe)

Jeśli funkcję wzajemnej gęstości spektralnej przedstawimy jako:


f12(ω) = A(ω)eiϕ(ω),

to możemy zdefiniować tzw. spektrum amplitudowe postaci:


A(ω) = [c2(ω)+q2(ω)]0, 5 = |f12(ω)|

oraz spektrum fazowe (kąt fazowy) postaci:


$$\phi\left( \omega \right) = \text{arctg}\frac{- q(\omega)}{c(\omega)}.$$

Wartość spektrum amplitudowego dla danej częstości interpretujemy jako iloczyn amplitud odpowiednich składowych częstościowych badanych dwu procesów, podczas gdy spektrum fazowe podaje przesunięcie fazowe pomiędzy tymi składowymi. Aby zauważyć, jakie informacje niesie ze sobą kąt fazowy i współczynnik koherencji, rozważmy kilka przykładów.

Ex. 1. Liniowa regresja

Rozważmy dwa stacjonarne procesy o średniej 0 związane relacją:


Y2t = αY1t + εt,

gdzie εt jest białym szumem nieskorelowanym z Y1t dla wszystkich opóźnień i wyprzedzeń. Wówczas:


γ12(τ) = E[Y1t(αY1, t + τ+εt + τ)] = αγ11(τ),


γ22(τ) = E(αY1, t+εt)(αY1, t + τ+εt + τ) = α2γ11(τ) + γε(τ)

Stąd dostajemy:


f12(ω) = αf11(ω)

oraz

c(ω) = αf11(ω);           q(ω) = 0;        A(ω) = αf11(ω);           ϕ(ω) = 0.

Ponadto ponieważ:


$$f_{22}\left( \omega \right) = \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi},$$

otrzymujemy:


$$K\left( \omega \right) = \frac{\left| \alpha f_{11}\left( \omega \right) \right|}{\left\lbrack f_{11}\left( \omega \right)*\left( \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi} \right) \right\rbrack^{0,5}} = \left\lbrack 1 + \frac{\sigma_{\varepsilon}^{2}}{2\pi\alpha^{2}f_{11}\left( \omega \right)} \right\rbrack^{- 0,5}.$$

Uzyskujemy informację o braku przesunięcia fazowego między procesami, natomiast współczynnik koherencji ma przebieg ‘przypominający’ kształtem wykres funkcji gęstości spektralnej procesu Y1t.

Rys. 1. Współczynnik koherencji dla procesu z Przykładu 1. z a = 1, σε2 = 1 i procesu Y1t będącego autoregresją rzędu 1 z parametrem autoregresji 0.5 i jednostkową wariancją składnika losowego.

Ex. 2. Liniowa regresja z opóźnieniem


Y2t = αY1, t − d + εt

gdzie, jak poprzednio, εt jest białym szumem nieskorelowanym z Y1t dla wszystkich opóźnień i wyprzedzeń oraz, dla uproszczenia, rozważamy procesy o średniej 0. Wówczas:


γ12(τ) = E[Y1t(αY1, t + τ − d+εt + τ)] = αγ11(τd),


γ22(τ) = E(αY1, t − d+εt)(αY1, t + τ − d+εt + τ) = α2γ11(τ) + γε(τ)

Stąd dostajemy:


$$f_{12}\left( \omega \right) = \frac{\alpha}{2\pi}\sum_{\tau = - \infty}^{\infty}{e^{- \text{iτω}}\gamma_{11}\left( \tau - d \right)} = \frac{\alpha}{2\pi}\sum_{\tau = - \infty}^{\infty}{e^{- i(\tau - d)\omega}\gamma_{11}\left( \tau - d \right)}e^{- \text{idω}} = \alpha e^{- \text{idω}}f_{11}\left( \omega \right).$$

oraz

c(ω) = αcos(dω)f11(ω);           q(ω) = αsin(dω)f11(ω);


$$A\left( \omega \right) = \alpha f_{11}\left( \omega \right);\ \ \ \ \ \ \ \ \ \ \ \ \ \ \phi\left( \omega \right) = \text{arctg}\frac{- \sin\left( \text{dω} \right)}{\cos\left( \text{dω} \right)} = - \text{dω};$$

Ponadto ponieważ, jak w poprzednim przykładzie, mamy:


$$f_{22}\left( \omega \right) = \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi},$$

otrzymujemy:


$$K\left( \omega \right) = \frac{\left| \alpha e^{- \text{idω}}f_{11}\left( \omega \right) \right|}{\left\lbrack f_{11}\left( \omega \right)*\left( \alpha^{2}f_{11}\left( \omega \right) + \frac{\sigma_{\varepsilon}^{2}}{2\pi} \right) \right\rbrack^{0,5}} = \left\lbrack 1 + \frac{\sigma_{\varepsilon}^{2}}{2\pi\alpha^{2}f_{11}\left( \omega \right)} \right\rbrack^{- 0,5},$$

tj. współczynnik koherencji ma tę sama wartość, co w Przykładzie 1, ale kąt fazowy wskazuje na występowanie przesunięcia fazowego między składowymi częstościowymi procesów. Dodatkowo widzimy, że w przypadku występowania tego samego opóźnienia czasowego dla wszystkich częstości spektrum fazowe jest liniową funkcją częstości, a współczynnik kierunkowy tej prostej wyznacza odstęp czasu między procesami. Dodatni współczynnik kierunkowy (rosnące spektrum fazowe) wskazuje, że proces Y2t wyprzedza proces Y1t. Definiujemy pomocniczą wielkość:

Odstęp czasu w dziedzinie częstości:


$$\tau\left( \omega \right) = - \frac{\phi\left( \omega \right)}{\omega}.$$

W Przykładzie 2 otrzymujemy więc: τ(ω) = d.

  1. Wzmocnienie tylko dla zbieżności jednokierunkowej


$$G\left( \omega \right) = \frac{\left| f_{12}\left( \omega \right) \right|}{f_{11}\left( \omega \right)} = \frac{A(\omega)}{f_{11}\left( \omega \right)}.$$

Wzmocnienie można w przybliżeniu interpretować jako moduł współczynnika b w regresji jednej zmiennej względem drugiej w dziedzinie częstości. Jeśli G(ω) > 1, to proces Y1t charakteryzuje się niższą amplitudą niż proces Y2t dla danej częstości oraz odwrotnie, gdy G(ω) < 1. Zwykle wyznaczamy wzmocnienie tylko w jednym kierunku, tj. przyjmując za Y1t proces-przyczynę, a za Y2t proces-skutek.

  1. Dynamiczny współczynnik korelacji


$$\rho\left( \omega \right) = \frac{c(\omega)}{{\lbrack f_{11}\left( \omega \right)f_{22}\left( \omega \right)\rbrack}^{0,5}}$$

Współczynnik ten (unormowany w przedziale [-1, 1]) koncentruje się na zależnościach jednoczesnych.

Estymacja w wielowymiarowej analizie spektralnej

Periodogramem krzyżowym (cross-periodogramem, periodogramem wzajemnym) nazywamy wielkość:


$$I_{T}^{12}\left( \omega \right) = \frac{1}{T}\sum_{t = 1}^{T}{y_{1t}e^{- \text{itω}}}\overset{\overline{}}{\sum_{t = 1}^{T}{y_{2t}e^{- \text{itω}}}} = \frac{1}{T}\sum_{t = 1}^{T}{y_{1t}e^{- \text{itω}}}\sum_{t = 1}^{T}{y_{2t}e^{\text{itω}}}$$

W przypadku estymacji cross-spektrum postępuje się analogicznie jak w przypadku estymacji funkcji gęstości spektralnej, tzn. należy zamienić ciąg teoretycznych kowariancji wzajemnych (krzyżowych) przez ciąg empiryczny, wykorzystując w tym celu estymator kowariancji krzyżowych między szeregami czasowymi.

17.11.2011

Metody oceny i prognozowania koniunktury

Diagnoza i prognoza

Diagnoza - dostarcza informacji o obecnej sytuacji gospodarki oraz formułuje przyczyny, będąc jednocześnie punktem wyjścia w prowadzeniu dalszych analiz sytuacji gospodarczej.

Prognoza - jest przewidywaniem dotyczącym wystąpienia lub niewystąpienia pewnych zjawisk w określonej przyszłości.

Metody datowania cykli

W zastosowaniach empirycznych dominują dwa podejścia:

  1. metoda NBER (National Bureau of Economic Research)

  1. przełącznikowe modele Markowa (Hamilton, 1989) a także inne modele nieliniowe (SETAR, STAR)

Algorytm datowania cykli wg NBER

  1. Znalezienie potencjalnych punktów zwrotnych:

Górny punkt zwrotny: {yt − 2yt − 1} < yt > {yt + 1yt + 2}

Dolny punkt zwrotny: {yt − 2yt − 1} > yt < {yt + 1yt + 2}

W przypadku danych miesięcznych rozpatruje się po 5 wartości wcześniejszych i późniejszych.

Powyższa zasada jest równoważna przyjęciu definicji:

Górny punkt zwrotny: {2ytyt} > 0,  {yt + 12yt + 2} < 0

Dolny punkt zwrotny: {2ytyt} < 0,  {yt + 12yt + 2} > 0

gdzie 2yt = yt − yt − 2

Zamiast definiowania lokalnych minimów i maksimów proponuje się także reguły sekwencyjne postaci:

Górny punkt zwrotny: {yt} > 0,  {yt + 1yt + 2} < 0

Dolny punkt zwrotny:  {yt} < 0,  {yt + 1yt + 2} > 0

Reguły te nawiązują do definicji Artura Okuna, w myśl której o recesji można mówić, jeśli wystąpiły co najmniej dwa kwartały ujemnego wzrostu.

  1. Reguły cenzurowania:

Badanie synchronizacji cykli

gdzie Sit jest szeregiem binarnym odzwierciedlającym fazę cyklu koniunkturalnego w kraju i w okresie t.

Artis (2002) zaproponował test istotności dla tego wskaźnika.

Odzwierciedla on procent gospodarek, które są w tej samej fazie cyklu.

Podobnie konstruuje się indeksy dyfuzji jako syntetyczne (złożone) mierniki aktywności gospodarczej (np. jako procent branż, które weszły już w określoną fazę cyklu)

Przełącznikowe modele Markowa

(MS-AR, Markov Switching Autoregressive models)

Jest to bardziej współczesne podejście do datowania cykli, według którego dynamika wzrostu gospodarczego jest różna w różnych reżimach procesu, definiowanych za pomocą nieobserwowalnego procesu St, opisującego fazę cyklu koniunkturalnego.

St jest jednorodnym łańcuchem Markowa o zadanej z góry liczbie stanów (w zastosowaniach 2 lub 3) oraz szacowanej macierzy prawdopodobieństw przejścia między reżimami.

W ogólnej postaci model MS-AR(p) zapisujemy następująco:


yt = α(St) + ϕ1(St)yt − 1 + … + ϕp(St)yt − p + εt(St),


εt(St)  ∼  n.i.i.d.(0,  σ2(St))

W algorytmie tym parametry strukturalne modelu, elementy macierzy wariancji i kowariancji składników losowych oraz prawdopodobieństwa przejścia łańcucha Markowa szacowane są iteracyjnie w taki sposób, że w każdym kroku podwyższa się wartości funkcji wiarygodności.

Posługujemy się wygładzonymi prawdopodobieństwami.

Cykl gospodarki polskiej zidentyfikowany na podstawie modelu przełącznikowego Markowa dla szeregu produkcji przemysłowej w latach 1996-2008 (Konopczak, 2009)

Badanie synchronizacji cykli

Hipoteza o istnieniu wspólnego (np. europejskiego) cyklu koniunkturalnego jest weryfikowana poprzez testowanie istotności różnicy średnich stóp wzrostu w poszczególnych fazach dla każdej z gospodarek.

Metody analizy i prognozowania koniunktury
(Lubiński, 2004)

Barometry koniunktury (ang. business cycle indicators)

Odpowiednio dobrane zestawy wskaźników statystycznych, czułych na zmiany koniunktury oraz wyprowadzone z nich wskaźniki syntetyczne.

Barometry koniunktury służą zazwyczaj do orientacyjnej oceny sytuacji gospodarczej i przewidywanych kierunków jej zmiany.

Nie można ich traktować jako wystarczającej podstawy do całościowej diagnozy stanu koniunktury.

Barometry, obok testów koniunktury, zalicza się do tzw. wskaźnikowych metod badania koniunktury gospodarczej. Jedną ze wspólnych cech tych metod jest szybkość uzyskiwania aktualnych i syntetycznych danych o gospodarce.

Punktem wyjścia budowy barometrów jest identyfikacja cyklu odniesienia i oznaczenie punktów zwrotnych oraz faz cyklu.

Do cyklu odniesienia porównywane jest zachowanie się innych badanych wielkości, szczególnie usytuowanie punktów zwrotnych. Wśród zmiennych makroekonomicznych wyodrębnia się zmienne równoległe, wyprzedzające i opóźnione.

Następnie dla każdej grupy obliczany jest wskaźnik dyfuzji lub indeks zbiorczy o znormalizowanej amplitudzie.

Do budowy barometrów wykorzystuje się ‘twarde dane’ o gospodarce, zwłaszcza z grupy wskaźników wyprzedzających, a także tzw. ‘dane miękkie’, czyli rozmaite sondażowe wskaźniki nastrojów konsumentów, analityków, przedsiębiorców czy menedżerów ds. zakupów.

Pierwszy barometr - barometr harwardzki z 1919 r., zwany krzywą ABC, obejmował trzy dobrane na podstawie obserwacji empirycznych wskaźniki:

Barometr harwardzki ukazywał te indykatory jako "prąd trójfazowy„

Zmiany wskaźnika spekulacji wyprzedzały zmiany wskaźnika rynku towarowego. Natomiast maksymalne wartości wskaźnika rynku pieniężnego przypadały na okres minimalnych wartości wskaźnika spekulacji.

Barometry koniunktury dla Polski

Tygodniowy barometr koniunktury IBnGR

Barometry koniunktury dla Polski

Barometry – zalety i wady

Zalety Wady
Przejrzystość konstrukcji Nie wyjaśniają mechanizmu cyklu koniunkturalnego – nie tworzą modelu powiązań przyczynowo-skutkowych
Łatwość posługiwania się Efektywne wyprzedzenia, na których można oprzeć ocenę przyszłości, są krótkie
Pozwalają na odtworzenie przebiegu wahań i wykorzystanie określonych prawidłowości do diagnozy i prognozy Sygnalizują bardziej kierunek zmiany niż amplitudę oscylacji
Pozwalają w porę zorientować się, że zbliża się przełom dotychczasowej tendencji W budowie wskaźników zbiorczych wykorzystuje się identyczne wagi dla różnych kategorii
Uzyskana za ich pomocą prognoza pozwala ustalić kierunek i natężenie zmian w ostatnich miesiącach, dla których nie ma jeszcze dokładnych danych Buduje się je na podstawie analogii historycznych, które wymagają długich szeregów danych

Testy koniunktury

Metoda wskaźnikowa oparta na badaniach ankietowych, której celem jest określenie aktualnego stanu aktywności gospodarczej w porównaniu z okresem poprzednim oraz wyznaczenie prawdopodobnego kierunku zmian w przyszłości.

Badania zainicjowano w USA na przełomie lat dwudziestych i trzydziestych, ale rozpowszechniły się po II wojnie światowej.

Przeprowadza się je w odstępach miesięcznych bądź kwartalnych oddzielnie dla poszczególnych dziedzin gospodarki: przemysłu, budownictwa, usług, bankowości, gospodarstw domowych i innych.

W Polsce od 1984 r. (AE w Poznaniu), od 1987 – IRG SGH, od 1992 – GUS.

W ankietach występują pytania powtarzalne i niepowtarzalne, dotyczące diagnozy i prognozy.

Odpowiedzi są na skali porządkowej trzyelementowej (częściej) lub pięcioelementowej (rzadziej), tj.

Wyniki opracowuje się w postaci wskaźników prostych (sald odpowiedzi na tak i na nie z pominięciem odpowiedzi neutralnych) lub wskaźników syntetycznych będących najczęściej średnimi ważonymi wskaźników prostych.

Salda koniunktury

Badania GUS - przemysł

Pytania dot. sytuacji bieżącej i przewidywanej:

Badania GUS – budownictwo

Pytania dot. sytuacji bieżącej i przewidywanej:

Badania GUS - handel

Pytania dot. sytuacji bieżącej i przewidywanej:

Oprócz wskaźników podażowych występują też wskaźniki popytowe – oparte na badaniach nastrojów konsumenckich, np. Wyprzedzający Wskaźnik Ufności Konsumenckiej GUS, będący średnią sald ocen

Badanie przeprowadzają co miesiąc GUS wspólnie z NBP na próbie 5000 gospodarstw domowych.

Testy od barometrów opartych na ‘twardych danych’ różnią się przede wszystkim rodzajem i techniką zbierania danych:

Testy – zalety i wady

Zalety Wady
Aktualność informacji, wynikająca z szybkiego pozyskiwania i opracowania danych Subiektywny charakter odpowiedzi, niepewność co do wiedzy i kompetencji respondentów; słabe związki z teorią ekonomii
Regularność i częstość prowadzonych badań (badania miesięczne i kwartalne) Brak kwantyfikacji opisywanych procesów i zjawisk (podejście jakościowe)
Możliwość uzyskania informacji niedostępnych w statystyce gospodarczej prezentującej dane liczbowe lub publikowanych z dużym opóźnieniem Duża zmienność danych wynikająca ze zmian planów i zamierzeń
Elementy prognoz w badaniach Wysoki koszt badań ankietowych
Możliwość jednoczesnego pozyskania informacji dla oceny koniunktury ogólnokrajowej i koniunktury w poszczególnych sektorach Wybiórczość informacji pod względem podmiotowym - badanie ankietowe obejmuje jedynie pewną próbę jednostek gospodarczych w ramach określonej zbiorowość
Możliwość wykorzystania testu w innych procedurach badania koniunktury gospodarczej, np. w ilościowych modelach ekonometrycznych, barometrach Wąski zakres informacji - ankiety zawierają zwykle 10-20 pytań
Możliwość oceny poprawności poprzez porównanie poprzednich prognoz z obecną diagnozą Problemy techniczne – przy przetwarzaniu i interpretacji danych powstaje wiele trudności technicznych, np. problem doboru reprezentatywnej próby, ważenia odpowiedzi, eliminacji wahań sezonowych

Modele ekonometryczne

Modele – zalety i wady

Zalety Wady
Długi horyzont prognozy – przeważnie półroczny lub roczny W praktyce założenia, konieczne do konstrukcji poprawnego modelu, są trudne do spełnienia
Dają wyniki wymierne: konkretne liczby Brak jednoznacznej zależności między stopniem złożoności modelu a jakością wyprowadzanych prognoz; jakość prognoz często bardzo niska
Wiarygodne do ustalania faz wzrostowych i spadkowych wahań cyklicznych gospodarki Nie zdają egzaminu przy przewidywaniu górnych i dolnych punktów zwrotnych cyklu koniunkturalnego
Możliwość wykorzystania modelu w innych celach Przeważnie mniejsza częstotliwość (najwyżej kwartalna) prognoz
Narzędzie zbyt sztywne w prognozowaniu koniunktury, bo oparte na założeniu niezmienności relacji między procesami – konieczna konfrontacja z prognozami innych źródeł

Metoda bilansowa

Oparta na wykorzystaniu rachunkowości społecznej, znajdującej pokrycie w dostępnych danych statystycznych. Polega na iteracyjnym szacowaniu popytu finalnego i produkcji globalnej w okresie prognozy, zapewniających równowagę ogólną.

Zalety Wady
Metoda bardzo elastyczna – możliwość swobodnego doboru zmiennych i korygowania parametrów W większości krajów rachunkowość społeczna jest prowadzona jedynie w przedziałach rocznych
Umożliwia większą szczegółowość analizy Małe możliwości prognostyczne, jedynie budżety ekonomiczne dają prognozę
Dostarcza jednolitych podstaw obliczeń wielkości makroekonomicznych, co daje możliwość wszechstronnych porównań Bardzo pracochłonna
Elastyczność powoduje, że rozluźnia się dyscyplinę analizy i dopuszcza nadmierną arbitralność ocen, które następnie deformują pozostałe szacunki
Pewne wielkości ekonomiczne pozostają poza rachunkowością społeczną

Metody eksperckie

Zwane są metodami intuicyjnymi. Polegają na formułowaniu poglądów na temat obecnego i przyszłego kształtowania się badanych wielkości na podstawie wiedzy i doświadczeń ekspertów, np. burza mózgów, metoda delficka.

Problemy: wynik analizy zależny od czynników psychologicznych; metoda subiektywna; nie znamy sposobu otrzymywania rezultatów, a stąd brak możliwości weryfikacji wyników.

Kształtu przyszłości nie da się przegłosować.

1.12.2011

Procesy nieliniowe - wprowadzenie

Nieliniowe procesy stochastyczne poszerzają ramy klasycznej analizy szeregów czasowych za pomocą liniowych modeli ARIMA, prezentowanej w pracy Boxa i Jenkinsa.

W nieliniowej analizie jednowymiarowych szeregów czasowych poszukuje się funkcji wiążącej dany proces z ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie:


Yt = f(εt,εt − 1,εt − 2,…),

gdzie εt ∼ i.i.d. o średniej zero i wariancji jednostkowej.

Powyższa reprezentacja okazuje się być zbyt ogólna. Przyjmuje się najczęściej, że nieliniowy proces ekonomiczny ma postać


Yt = g(εt − 1,εt − 2,…) + εth(εt − 1,εt − 2,…).               (*)

Ponieważ


E(Yt|Ωt − 1) = g(εt − 1,εt − 2,…),

funkcja g opisuje zmiany wartości średniej procesu Xt warunkowo względem informacji z przeszłości. Natomiast kwadrat funkcji h przedstawia zmiany warunkowej wariancji tego procesu:


σ2(Yt|Ωt − 1) = E[(YtE(Yt|Ωt − 1))2|Ωt − 1] = E(εt2h2(εt − 1,εt − 2,…)|Ωt − 1) = h2(εt − 1,εt − 2,…)E(εt2) = h2(εt − 1,εt − 2,…)

Proces Xt będziemy nazywali nieliniowym, jeśli jego warunkowa wartość średnia bądź warunkowa wariancja są nieliniowymi funkcjami zmiennych εt − 1, εt − 2, …

Równanie (*) prowadzi do naturalnego podziału ekonomicznych procesów nieliniowych: procesy z nieliniową funkcją g noszą nazwę procesów nieliniowych w wartości średniej, zaś procesy z nieliniową funkcją h( • )2 nazywamy procesami nieliniowymi w wariancji.

Szeregi generowane według modeli nieliniowych w wartości średniej nie spełniają hipotezy martyngałowej i istnieje teoretyczna możliwość konstrukcji predyktorów nieliniowych o lepszych własnościach niż odpowiednie predyktory liniowe.

Szeregi generowane według modeli nieliniowych w wariancji są różnicami martyngałowymi, ale nie spełniają założenia niezależności, a więc nie są białymi szumami w ścisłym sensie.

Przykładami modeli nieliniowych w warunkowej wartości średniej o potencjalnym zastosowaniu w finansach i makroekonomii mogą być:

Natomiast modelami o zmiennej wariancji warunkowej są modele z rodziny GARCH oraz modele zmienności stochastycznej.

Oprócz powyższych specyfikacji wykorzystuje się też konstrukcje charakteryzujące się oboma typami nieliniowości, wśród których można wymienić modele GARCH-M (GARCH in mean) oraz modele BL-GARCH.

Modele kawałkami (przedziałami) liniowe

Autoregresyjne modele progowe (SE)TAR, autoregresyjne modele wygładzonego przejścia STAR oraz modele przełącznikowe Markowa zalicza się do grupy szeroko rozumianych modeli ‘kawałkami liniowych’ (ang. piecewise linear), które pozwalają przybliżać dynamikę analizowanego procesu poprzez lokalną aproksymację procesami liniowymi w różnych stanach (reżimach) procesu. Należy zaznaczyć, że przyporządkowanie modeli STAR do grupy modeli ‘kawałkami liniowych’ nie jest postępowaniem ścisłym, gdyż modele te można również traktować jako posiadające continuum reżimów.

Modele te znalazły zastosowanie w opisywaniu i prognozowaniu procesów ekonomicznych takich jak np. pewne procesy makroekonomiczne zależne od fazy cyklu koniunkturalnego (w rodzaju stóp bezrobocia czy indeksów produkcji przemysłowej) czy procesy finansowe, charakteryzujące się np. asymetrią dynamiki.

Autoregresyjne procesy progowe

Podstawowy model SETAR (ang. self-exciting threshold autoregressive model), gdzie r jest liczbą reżimów zaś p liczbą opóźnień autoregresyjnych, zdefiniowany jest następująco:

$Y_{t} = \sum_{j = 1}^{r}{\left( {\alpha^{'}}_{j}X_{t} + h_{j}\varepsilon_{t} \right)1\left\{ c_{j - 1} < Y_{t - d} \leq c_{j} \right\} =}\left\{ \begin{matrix} \alpha_{10} + \alpha_{11}Y_{t - 1} + \ldots\alpha_{1p}Y_{t - p} + h_{1}\varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }Y_{t - d} \leq c_{1} \\ \alpha_{20} + \alpha_{21}Y_{t - 1} + \ldots\alpha_{2p}Y_{t - p} + h_{2}\varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }c_{1} < Y_{t - d} \leq c_{2} \\ \ldots \\ \alpha_{r0} + \alpha_{r1}Y_{t - 1} + \ldots\alpha_{\text{rp}}Y_{t - p} + h_{r}\varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }c_{r - 1} < Y_{t - d} \\ \end{matrix},\ \ \ \ \ \ \ \ (1) \right.\ $

gdzie:


Xt = (1, Yt − 1,.., Yt − p),


αj = (αj0αj1,…, αjp) ,   j = 1, …, r,

−∞=c0 < c1 < … < cr − 1 < cr = ∞ są parametrami progowymi,


εt ∼ i.i.d.(0,1),

1{•}jest funkcją wskaźnikową Heaviside’a, tj. funkcja postaci:


$$1\left\{ \text{ZϵA} \right\} = \left\{ \begin{matrix} 1\ \ \ \ \ \ \text{dla}\text{\ \ \ }Z \in A \\ 0\ \ \ \ \ \text{dla}\text{\ \ \ \ \ }Z \notin A \\ \end{matrix} \right.\ ,$$

Yt − d jest zmienną progową,

d > 0  jest parametrem opóźnienia.

Rozważa się również modele z różnymi rzędami opóźnień w reżimach, które są oznaczane SETAR (r, p1,…, pr).

Ogólniejszą specyfikacją od (1) jest model TAR, w którym zmienną progową może być dowolna funkcja przeszłych obserwacji lub pewna zmienna egzogeniczna, w tym zmienna czasowa. Model ten można więc zapisać następująco:


$$Y_{t} = \sum_{j = 1}^{r}{\left( {\alpha^{'}}_{j}X_{t} + h_{j}\varepsilon_{t} \right)1\left\{ c_{j - 1} < Z_{t} \leq c_{j} \right\}.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (2)}$$

Jeśli Zt = Yt − d,  d > 0 , otrzymujemy model TAR, w którym zmiany reżimowe zależne są od stóp wzrostu. Model ten zaproponowali W. Enders i C.W.J. Granger (1998), którzy rozważali przypadek procesu dwureżimowego z parametrem progowym równym wartości średniej zmiennej progowej. W szczególności, w przypadku zerowego progu, model ten zakłada różną dynamikę procesu przy wzrostach i przy spadkach. Dla swojej propozycji W. Enders i C.W.J. Granger (1998) zasugerowali nazwę model M-TAR (skrót od ang. momentum TAR) - model TAR z impetem.

Inny przypadek szczególny modelu (1) otrzymujemy przyjmując za zmienną przejścia zmienną czasową lub standaryzowaną zmienną czasową, tj. Zt = t lub Zt = t/n, gdzie n jest liczbą obserwacji. Wówczas otrzymujemy model autoregresyjny z r − 1 egzogenicznymi zmianami strukturalnymi.

Autoregresyjne procesy wygładzonego przejścia

Uogólnieniem procesów SETAR są procesy STAR (ang. smooth transition autoregressive processes), w których funkcję wskaźnikową zastępuje się pewną funkcją ciągłą zmiennej progowej, zwanej tutaj zmienną przejścia (ang. transition variable), na skutek czego przejścia pomiędzy reżimami mają charakter wygładzony a nie gwałtowny.

Podstawowy model STAR ma postać:


$$Y_{t} = {\alpha^{'}}_{1}X_{t} + {\alpha^{'}}_{2}X_{t} \bullet F\left( S_{t};\gamma,c \right) + \varepsilon_{t} = \alpha_{10} + \sum_{j = 1}^{p}{\alpha_{1j}Y_{t - j} +}\left( \alpha_{20} + \sum_{j = 1}^{p}{\alpha_{2j}Y_{t - j}} \right) \bullet F\left( S_{t};\gamma,c \right) + \varepsilon_{t},\ \ \ \ \ \ \ \ \ \ (3)$$

gdzie


Xt = (1, Yt − 1,.., Yt − p),

α1i α2 są wektorami parametrów postaci α1 = (α10α11,…, α1p)′ i α2 = (α20α21,…, α2p)′,


εt ∼ i.i.d.(0,1),

F(St;γ,c) jest funkcją przejścia (funkcją transformacji),

St jest zmienną przejścia.

Odnośnie funkcji F(St;γ,c) przyjmuje się założenie, iż jest ograniczoną funkcją ciągłą, najczęściej przyjmującą wartości z przedziału (0, 1), zależną od skalarnego parametru γ kontrolującego gładkość przejścia między reżimami, oraz wektora parametrów c, zawierającego parametry progowe.

Najczęściej stosowanymi funkcjami przejścia są:


F(St;γ,c) = 1 − eγ(St − c)2,      γ > 0,                                                                      (4)


$$F\left( S_{t};\gamma,c \right) = \frac{1}{1 + e^{- \gamma(S_{t} - c)}}\ ,\ \ \ \ \ \ \ \ \ \ \ \gamma > 0,\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (5)$$


$$F\left( S_{t};\gamma,c_{1},\ c_{2} \right) = \frac{1}{1 + e^{- \gamma\left( S_{t} - c_{1} \right)\left( S_{t} - c_{2} \right)}}\ \ ,\ \ \ \ \ \gamma > 0,\ \ c_{1} < c_{2}.\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (6)$$

Przykładowe przebiegi tych funkcji przedstawia rysunek:

Rys. 1. Wykresy funkcji przejścia; (a) funkcja wykładnicza z γ = 0, 2 i c  =  0; (b) funkcja logistyczna pierwszego rzędu z γ = 2 i c  =  0; (c) funkcja logistyczna drugiego rzędu z γ  =  2,   c1  =   − 2 i c2  =  2.

Oprócz powyższych rozpatruje się także przypadek uogólnionej funkcji logistycznej rzędu r posiadającej r punktów przegięcia. Istotną własnością funkcji logistycznych jest to, iż wraz z γ → ∞ dążą one do funkcji wskaźnikowych. W konsekwencji model STAR z funkcją przejścia w postaci funkcji logistycznej zbiega do modelu SETAR (r + 1) z restrykcjami zakładającymi, że w co drugim reżimie występuje ten sam zestaw parametrów. W szczególności dla r = 1 parametry modelu STAR zmieniają się monotonicznie od α1 do α1 + α2 w zależności od wartości zmiennej przejścia, a wraz z γ → ∞ model ten zbiega do modelu SETAR (2,  p). W przypadku r = 2 parametry modelu STAR zmieniają się symetrycznie wokół wartości (c1 + c2)/2, dla której funkcja logistyczna osiąga swoją wartość najmniejszą, zaś wraz z γ → ∞ zmiany reżimowe stają się coraz bardziej gwałtowne i model STAR zbiega do modelu SETAR(3,  p) z restrykcjami zakładającymi, że reżimy zewnętrzne są identyczne. Stąd rodzina modeli STAR obejmuje jako przypadki graniczne pewne modele SETAR.

Model STAR z funkcją przejścia (4) nosi nazwę wykładniczego modelu autoregresyjnego wygładzonego przejścia (ESTAR, ang. exponential STAR), zaś z funkcją transformacji postaci (5) jest logistycznym modelem STAR (LSTAR, ang. logistic STAR). Najczęściej przyjmuje się, że zmienną przejścia jest opóźniony proces endogeniczny, tj. St = Yt − d, d > 0, ale moga to być też opóźnienia przyrostów procesu endogenicznego, zmienna czasowa itd.

T. Teräsvirta (1994) zaproponował procedurę modelowania mającą na celu m.in. poprawne rozstrzygnięcie pomiędzy modelem ESTAR a modelem LSTAR dla r = 1. Ta sama strategia modelowania ma zastosowanie do rozstrzygania pomiędzy modelem LSTAR rzędu drugiego a modelem LSTAR rzędu pierwszego. W istocie dokonuje się w ten sposób wyboru pomiędzy dynamiką trzyreżimową z identycznymi reżimami zewnętrznymi a dynamika dwureżimową. Ta pierwsza umożliwia np. uwzględnienie występowania przedziału wokół wartości w położeniu równowagi analizowanego procesu, który może być wynikiem obecności kosztów transakcyjnych czy ograniczeń płynności, zaś druga jest szczególnie użyteczna do modelowania asymetrii procesów wynikającej np. z obecności wahań koniunkturalnych, przejawiających się różną dynamiką procesów gospodarczych w okresach recesji i ożywienia.

Procesy przełącznikowe Markowa

Innym rodzajem procesów ‘kawałkami liniowych’ są autoregresyjne procesy przełącznikowe Markowa (ang. Markov switching autoregressive processes) postaci:


$$Y_{t} = \sum_{j = 1}^{r}{{\alpha^{'}}_{j}X_{t}1\left\{ S_{t} = j \right\} + \varepsilon_{t} =}\left\{ \begin{matrix} \alpha_{10} + \alpha_{11}Y_{t - 1} + \ldots\alpha_{1p}Y_{t - p} + \varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }S_{t} = 1 \\ \alpha_{20} + \alpha_{21}Y_{t - 1} + \ldots\alpha_{2p}Y_{t - p} + \varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }S_{t} = 2 \\ \ldots \\ \alpha_{r0} + \alpha_{r1}Y_{t - 1} + \ldots\alpha_{\text{rp}}Y_{t - p} + \varepsilon_{t}\text{\ \ \ }\text{dla}\text{\ \ \ }S_{t} = r \\ \end{matrix},\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (7) \right.\ $$

gdzie

Xt = (1, Yt − 1,.., Yt − p),,

αj = (αj0αj1,…, αjp) ,   j = 1, …, r,


εt ∼ i.i.d.(0,σ2),

1{•} jest funkcją wskaźnikową,

St jest nieobserwowalnym jednorodnym łańcuchem Markowa o r stanach.

Przypomnijmy, że jednorodny łańcuch Markowa definiuje się następująco: Niech St będzie ciągiem zmiennych losowych przyjmujących wartości ze zbioru {1, 2, …,r}. Proces ten jest jednorodnym łańcuchem Markowa, jeśli dla każdych i, j, k, ... zachodzi P {St=j | St − 1=i,  St − 2=k, …} = P{St=j | St − 1=i} = pij. Wielkości pij, noszące nazwę prawdopodobieństw przejścia, tworzą macierz prawdopodobieństw przejścia, której elementy sumują się w każdym wierszu do 1.

O procesie St w modelach Markow switching zakłada się, że jest on niezależny od ετ dla każdych t i τ oraz że jego prawdopodobieństwa przejścia są nieznane i muszą być estymowane łącznie z innymi parametrami modelu. St określa się jako zmienną przełącznikową (ang. switching variable). Model (7) będzie użyteczny do opisu zmiany stanów, które zdają się nie mieć obserwowalnej i mierzalnej przyczyny lub zależą od zmiennej przełącznikowej, realizacjami której nie dysponujemy oraz dla której nie istnieje odpowiednia zastępcza zmienna.

Testy liniowości wobec alternatywy STAR

Rozważmy ogólny proces STAR postaci:


Yt = φ1Xt + φ2XtF(St;γ,c) + εt,                                                                                         (8)

gdzie


Xt = (1, Yt − 1,…,Yt − p) ,


φi = (φi0φi1,…,φip),  i = 1,  2

oraz F jest funkcją logistyczną pierwszego rzędu, tj.:


F(St;γ,c) = {1+exp[−γ(Stc)]}−1,   γ > 0             (LSTAR)

lub funkcją wykładniczą:


F(St;γ,c) = 1 − exp[−γ(Stc)2],               γ > 0.             (ESTAR)

W celu skonstruowania testu liniowości mającego moc względem procesów LSTAR i ESTAR T. Teräsvirta (1994) zaproponował zastąpienie funkcji przejścia przez jej aproksymację szeregiem Taylora niskiego rzędu. Rozwinięcie w szereg Taylora wokół γ = 0 funkcji (5) – przypadek LSTAR – prowadzi w przypadku aproksymacji pierwszego rzędu do regresji pomocniczej postaci:


Yt = β1Xt + β2XtSt + et.                                                                                                      (9)

Wówczas weryfikując hipotezę H01 : β2 = 0 na podstawie regresji (9) korzysta się ze statystyki postaci:


$$\text{LM}_{1} = n\frac{{(\text{SSR}_{0} - \text{SSR})}^{a}}{\text{SSR}_{0}}\sim\chi^{2}\left( m \right)\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (10)$$

lub preferowanej w małych próbach statystyki F:


$$F_{1} = \frac{(\text{SSR}_{0} - \text{SSR})/m}{\text{SSR}/(n - m - p - 1)} \approx F\left( m,\ n - m - p - 1 \right)\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (11)$$

(SSR0 jest sumą kwadratów reszt z estymacji modelu (9) z restrykcjami występującymi w hipotezie zerowej, SSR – odpowiednią suma kwadratów reszt
z modelu bez restrykcji, zaś m jest liczbą restrykcji równą p + 1).

Zastosowanie aproksymacji trzeciego rzędu prowadzi natomiast do regresji postaci:

Yt = β1Xt + β2XtSt + β3XtSt2 + β4XtSt3 + et.           (12)

Wówczas testuje się hipotezę zerową H03 : β2 = β3 = β4 = 0, którą weryfikuje się w oparciu o odpowiednią statystykę LM3 zdefiniowaną jak w (10) lub statystykę F3 zdefiniowaną podobnie jak w (11) z m = 3p + 3.

W przypadku funkcji przejścia typu wykładniczego (4) stosuje się regresję pomocniczą postaci:


Yt = β1Xt + β2XtSt + β3XtSt2 + et.                   (13)

Wówczas przeprowadza się test hipotezy H02 : β2 = β3 = 0 na podstawie statystyk LM2 i F2 zdefiniowane jak poprzednio z liczbą restrykcji m = 2p + 2.

Rozstrzygnięcie pomiędzy postaciami analitycznymi funkcji przejścia proponuje się dokonać na podstawie procedury testowej opartej na następującym ciągu zagnieżdżonych hipotez zerowych:


H03 : β4 = 0,


H02 : β3 = 0 | β4 = 0,


H01 : β2 = 0 | β3 = β4 = 0,

testowanych na bazie regresji (12). Analiza współczynników rozwinięcia obu funkcji przejścia w szereg Taylora wskazuje, iż mamy β4 ≠ 0 tylko, gdy badany proces jest procesem LSTAR.

Jeśli H03 nie jest odrzucana, w następnej kolejności testuje się hipotezę warunkową H02. Hipoteza ta jest odrzucana w przypadku procesów ESTAR (lub LSTAR drugiego rzędu), a także procesów LSTAR pierwszego rzędu z c ≠ 0.

Natomiast hipoteza H01 jest odrzucana, jeśli badany proces jest dowolnym procesem LSTAR pierwszego rzędu, a także jeśli jest procesem ESTAR z c ≠ 0.

Spostrzeżenia te prowadzą do praktycznej wskazówki mówiącej, iż jeśli wartość p związana z testem hipotezy H02 jest najmniejsza, należy wybrać model ESTAR (lub LSTAR rzędu drugiego). W pozostałych przypadkach właściwym wyborem jest model LSTAR rzędu pierwszego.

Testy z wyspecyfikowaną hipotezą alternatywną mogą mieć moc również względem innych modeli niż ujęte w tej hipotezie. W szczególności testy względem alternatyw STAR będą wykazywać moc względem swojego przypadku granicznego w postaci modeli (SE)TAR. Potwierdzają to wyniki symulacji prezentowanych w wielu artykułach. Jak piszą C.W.J. Granger i T. Teräsvirta (1993), sytuacja odwrotna, w której testy wobec alternatywy TAR mają wysoką moc względem procesów STAR, wydaje się mniej prawdopodobna.

Testy wobec alternatywy (SE)TAR

Testy liniowości względem progowych procesów autoregresyjnych są w większości oparte na tzw. uporządkowanych regresjach (ang. arranged regressions), które uzyskuje się porządkując wektory obserwacji zgodnie z rosnącymi lub malejącymi wartościami zmiennej progowej. Wówczas testowanie liniowości sprowadza się do weryfikacji hipotezy o braku załamania strukturalnego w modelu opartym na uporządkowanych obserwacjach.

Pierwszym testem wykorzystującym to spostrzeżenie jest propozycja J. Petruccelliego i N. Daviesa (1986) zastosowanie testu stałości parametrów CUSUM do wektorów obserwacji uporządkowanych zgodnie z wartościami zmiennej progowej.

Wśród innych popularnych testów nieliniowości progowej należy wymienić testy R.S. Tsaya (1989) i B.E. Hansena (1996).

Prognozowanie procesów nieliniowych

Oprócz opisu dynamiki badanego procesu celem budowy modelu nieliniowego może być prognozowanie. Prognozowanie z modeli nieliniowych jest zadaniem trudniejszym od ekstrapolacji na podstawie modeli liniowych.

Prognozy jednokrokowe z modeli nieliniowych uzyskuje się bezpośrednio. Rozważmy dla ilustracji ogólny nieliniowy model autoregresji rzędu p postaci:


Yt = g(Zt − 1θ) + εt,                    (14)

gdzie Zt = (Yt, ...,  Yt − p + 1).

Wówczas prognoza jednokrokowa dana jest wzorem:


Yt + 1|t = E(Yt + 1 |Zt)=g(Ztθ).            (15)

Prognoza na dwa okresy do przodu ma natomiast postać:


Yt + 2|t = E(Yt + 2 |Zt)=E[g (Zt + 1;θ)+εt + 2|Zt] = E[g(g(Zt;θ)+εt + 1Yt,…,Yt − p + 2θ)] = ∫εg(Yt + 1|t + ε,  Yt, …, Yt − p + 2;  θ)dF(ε).          (16)

Zakładając znajomość rozkładu składnika losowego, prognozę tę można wyliczyć poprzez całkowanie numeryczne. W przypadku prognoz na kilka okresów w przód postępowanie takie, określane jako metoda dokładna, wymaga złożonych operacji numerycznych.

Inny sposób postępowania zakłada zignorowanie składnika losowego i wyznaczenie prognozy zgodnie z formułą:


Yt + 2|tn = g(Yt + 1|tYt,…,Yt − p + 2θ) = g(Zt + 1|t;θ).                   (17)

Prognoza taka, określana jako naiwna lub szkieletowa (ang. ‘skeleton’ forecast), jest jednak obciążona, co może prowadzić do istotnych strat efektywności procesu predykcji.

Alternatywnym sposobem uniknięcia całkowania numerycznego jest aproksymacja z wykorzystaniem symulacji Monte Carlo lub metod bootstrap, przy czym to drugie podejście nie wymaga znajomości rozkładu składnika losowego. Wówczas prognozę Monte Carlo na dwa okresy w przód definiuje się następująco:


$$Y_{t + 2|t}^{\text{MC}} = \left( \frac{1}{N} \right)\sum_{i = 1}^{N}{g(}Z_{t + 1|t} + \varepsilon_{t + 1}^{(i)};\ \theta)\ \ \ \ \ \ \ \ \ \ \ \ (18)$$

gdzie εt + 1(i) są wektorami wymiaru 1 × p postaci εt + 1(i) = (εt + 1(i), 0, ..., 0), zaś (εt + 1(1),…,εt + 1(N)) jest próbą prostą z rozkładu εt + 1. Analogicznie definiuje się prognozę bootstrapową:


$$Y_{t + 2|t}^{B} = \left( \frac{1}{N} \right)\sum_{i = 1}^{N}{g(}Z_{t + 1|t} + e_{t + 1}^{*(i)};\ \theta),\ \ \ \ \ \ \ \ \ \ \ \ (19)$$

gdzie et + 1*(i) są wektorami wymiaru 1 × p postaci et + 1*(i) = (et + 1*(i),0,…,0), zaś (et + 1*(1),…,et + 1*(N)) jest próbą bootstrapową losowaną spośród reszt modelu. Rozszerzenie tego postępowania na prognozy o dłuższym horyzoncie wymaga wielokrotnego losowania z rozkładu składnika losowego lub ze zbioru reszt przy czym.

Poza technikami numerycznymi (całkowaniem numerycznym i aproksymacją z użyciem symulacji lub metody bootstrap) prognozy wielokrokowe można także generować analitycznie, budując osobne modele dla każdego horyzontu prognozy. Postępowanie takie, określane jako metoda bezpośrednia, jest równoważne wyznaczaniu prognoz na jeden okres w przód z każdego spośród zbudowanych modeli.

Należy też dodać, że w przypadku pewnych modeli nieliniowych, takich jak nieliniowe średnie ruchome, które są liniowe względem parametrów, czy modele SETAR możliwe jest analityczne wyznaczanie prognoz na 2, 3 i więcej okresów w przód. W przypadku modeli SETAR prowadzi to do formuły, w myśl której prognoza na h okresów w przód jest średnią ważoną optymalnych prognoz dla poszczególnych reżimów z wagami będącymi prawdopodobieństwami przebywania przez proces w danym reżimie w momencie t + h − d, skorygowaną o pewien dodatkowy czynnik.

Porównanie jakości prognoz z modeli nieliniowych uzyskiwanych różnymi metodami na podstawie danych symulowanych było przedmiotem pracy J.-L. Lina i C.W.J. Grangera (1994). Prezentowane tam wyniki wskazują, że prognozy Monte Carlo i prognozy bootstrap na dwa okresy w przód są dokładniejsze od prognoz uzyskanych metodą bezpośrednią w terminach średniego błędu prognozy, jeśli w charakterze predyktora użyto parametrycznych modeli STAR lub pewnych nieliniowych modeli autoregresji. Dokładność prognoz bezpośrednich wzrasta jednak w przypadku modeli nieparametrycznych, w tym modeli sieci neuronowych.

Sposobem na podwyższenie dokładności prognoz jest łączenie prognoz z kilku modeli (ang. combining forecasts) z zastosowaniem różnych schematów wag oraz liniowych jak i nieliniowych kombinacji prognoz. Dobrze uzasadnionymi od strony teoretycznej wagami dla prognoz kombinowanych są wynikające z analizy bayesowskiej prawdopodobieństwa a posteriori modeli. W szczególności łączenie prognoz z modeli liniowych i nieliniowych może prowadzić do prognoz bardziej odpornych na sytuacje nietypowe.

Użyteczność specyfikacji nieliniowych w prognozowaniu jest wciąż przedmiotem wielu kontrowersji. Jedni autorzy dokumentują jedynie marginalne korzyści wynikające z wykorzystania jednowymiarowych modeli nieliniowych w charakterze predyktorów procesów makroekonomicznych, inni zaś wskazują na brak jakichkolwiek korzyści np. w odniesieniu do prognozowania kursów walutowych czy wielu innych zmiennych makroekonomicznych.

W szczególności J.H. Stock i M.W. Watson na przykładzie 215 szeregów makroekonomicznych obserwacji miesięcznych pokazują, że prognozowanie z użyciem sieci neuronowych, wygładzania wykładniczego czy modeli STAR nie daje lepszych wyników od prognozowania na podstawie liniowych modeli autoregresyjnych konstruowanych w oparciu o wyniki testów pierwiastków jednostkowych, choć prognozy z modeli liniowych można poprawić stosując w charakterze predyktorów liniowe kombinacje modeli (w tym modeli nieliniowych). Zgoła inne wyniki prezentują T. Teräsvirta, D. van Dijk i M.C. Medeiros (2006), którzy przeanalizowali 47 zmiennych makroekonomicznych dochodząc do wniosku, iż modele STAR dostarczają generalnie lepszych prognoz od liniowych modeli autoregresyjnych. W swoim badaniu podkreślają jednak, że stosują dynamiczną specyfikację modeli prognostycznych, tj. wraz z kolejną obserwacją nie tylko estymują ponownie parametry modelu, ale również dokonują jego respecyfikacji. Ponadto stosują inną metodę wyznaczania prognoz wielokrokowych, opartą na technice bootstrapingu, podczas gdy J.H. Stock i M.W. Watson budują różne modele dla różnych horyzontów prognoz.

Podobne zastrzeżenia można wystosować w stosunku do nieliniowych modeli współzależności, choć znane są również przykłady, gdy modele tego typu okazywały się dostarczać lepszych prognoz makroekonomicznych niż ich liniowe odpowiedniki. Nie zmienia to jednak faktu, iż, jak stwierdzają J.G. De Gooijer i K. Kumar (1992), nie ma wyraźnych dowodów na wyższość prognozowania z modeli nieliniowych nad prognozowaniem z modeli liniowych, zaś M.P. Clements, P.H. Franses i N.R. Swanson (2004) zauważają, że sytuacja ta wygląda bardzo podobnie również kilkanaście lat po publikacji artykułu J.G. De Gooijera i K. Kumara.

15.12.2011

VI wykład

Metoda Największej Wiarygodności (MNW)

Polega na znalezieniu ocen parametrów, gwarantujących największe prawdopodobieństwo uzyskania wartości zaobserwowanych w próbie.

Jako ilustrację wprowadzającą rozważmy klasyczny model regresji z jedną zmienną objaśniającą:

, .

Wówczas funkcja wiarygodności jest funkcją gęstości łącznego rozkładu prawdopodobieństwa zmiennych , traktowaną jako funkcja nieznanych prametrów modelu:

Logarytm funkcji wiarygodności (ang. loglikelihood) dany jest następująco:

.

Poszukując ocen parametrów oraz maksymalizujemy powyższe wyrażenie. W tym celu wyznaczamy pochodne cząstkowe i przyrównujemy je do zera:

,

,

Pierwsze dwa warunki dostarczają ocen parametrów strukturalnych identycznych z ocenami KMNK, zaś z ostatniego otrzymujemy:

.

Estymator wariancji składnika losowego uzyskany MNW jest obciążony, ale obciążenie to zanika wraz ze wzrostem próby. Natomiast oceny parametrów strukturalnych uzyskane MNW i KMNK są identyczne. Podobne wyniki otrzymuje się w przypadku regresji wielorakiej.

Pamiętamy, że metoda najmniejszych kwadratów ma zastosowanie przy mniej restrykcyjnych założeniach (nie wymaga normalności rozkładu składnika losowego). Ilustruje to fakt, że MNW często może być również stosowana przy niespełnieniu założenia odnośnie przyjętego rozkładu – mówimy wówczas o metodzie quasi-największej wiarygodności.

Statystyczne własności estymatora MNW

Przy spełnieniu pewnych warunków regularności:

- estymator MNW jest zgodny,

- estymator ten ma asymptotyczny rozkład normalny postaci:

,

gdzie jest wektorem teoretycznych wartości parametrów, jest wektorem ocen MNW tych parametrów oraz

,

przy czym jest graniczną macierzą informacyjną:

.

Macierz informacyjna zawiera więc (wzięte z przeciwnym znakiem) wartości oczekiwane drugich pochodnych cząstkowych logarytmu funkcji wiarygodności. Jeśli logarytm funkcji wiarygodności jest bardzo zakrzywiony w pobliżu swojego maksimum, drugie pochodne przyjmują duże wartości co do wartości bezwględnej, a wariancja estymatora jest mała – estymator staje się bardziej precyzyjny. Ponadto można wykazać, że odwrotność macierzy informacyjnej dostarcza dolnego ograniczenia dla asymptotycznej macierzy wariancji i kowariancji wszystkich zgodnych estymatorów asymptotycznie normalnych. Jest to tzw. dolne ograniczenie Rao-Cramera. Wiąże się ono z kolejną ważną własnością estymatora MNW:

- estymator MNW jest asymptotycznie najefektywniejszy w klasie wszystkich zgodnych estymatorów o asymptotycznym rozkładzie normalnym.

Ta ostatnia własność jest podstawową zaletą metody największej wiarygodności: ponieważ metoda ta wykorzystuje w pełni informację z próby (na temat rozkładów skończenie wymiarowych dla obserwacji na zmiennej zależnej), otrzymujemy estymatory o minimalnej wariancji w dużych próbach. Należy jednak podkreślić, że dobre własności tej metody nie muszą przejawiać się w małych próbach.

Inną ważną zaletą MNW jest możliwość wygodnego testowania liniowych i nieliniowych restrykcji dotyczących estymowanych parametrów. Wykorzystuje się w tym celu trzy różne zasady konstrukcji testów statystycznych.

Załóżmy dla uproszczenia, że testujemy hipotezę odnośnie pojedynczego parametru:

.

Można wówczas rozważyć następujące testy:

  1. Test ilorazu wiarygodności LR (ang. likelihood ratio test) (Neyman, Pearson, 1928) – dostarcza łatwego w konstrukcji sposobu porównania dwu modeli zagnieżdżonych. Wykorzystuje się tutaj iloraz funkcji wiarygodności i konstruuje statystykę postaci:

, (*)

gdzie jest wartością funkcji wiarygodności wyliczoną dla oceny MNW wyznaczonej przy nieograniczonej estymacji, zaś jest wartością tej funkcji dla oceny wyznaczonej przy założeniu prawdziwości hipotezy zerowej. Statystyka (*) ma asymptotycznie przy założeniu prawdziwości rozkład .

  1. Test Walda W (Wald, 1943) – zasadza się na obserwacji, iż jeśli testowana restrykcja jest prawdziwa, to powinno być w przybliżeniu równe 0, gdzie, jak poprzednio, jest oceną parametru uzyskaną MNW bez nakładania restrykcji. Odrzucenie hipotezy zerowej następuje, jeśli jest istotnie różne od 0. Warto zauważyć, że identyczną zasadę stosujemy, wykonując test t istotności parametrów. Testy Walda wymagają jedynie estymacji modelu nieograniczonego (bez nakładania restrykcji). Są one asymptotycznie równoważne testom LR.

  2. Test mnożnika Lagrange’a LM (ang. Lagrange multiplier test) (Rao, 1948) – korzystamy tu z obserwacji, że ocena parametru wyznaczona przy założeniu prawdziwości restrykcji występującej w hipotezie zerowej powinna znajdować się blisko wartości maksymalizującej funkcję wiarygodności. Z tego powodu pochodna logarytmu funkcji wiarygodności w punkcie powinna być bliska zero, gdzie jest oceną parametru uzyskaną z estymacji MNW przy warunku pobocznym. Test ten wymaga estymacji jedynie modelu z restrykcjami i jest asymptotycznie równoważny testom LR i W.

Rys. 1. Testowanie restrykcji z wykorzystaniem estymacji MNW

(Greene, Econometric Analysis, s. 485)

W przypadku modeli regresji liniowej trzy wspomniane statystyki mają postać:

oraz zachodzi:

.

Stąd wniosek, że test W jest testem najmocniejszym w skończonych próbach. Ponadto widać związek tego testu z testem F postaci:

O tym, która zasada jest stosowana w konkretnej sytuacji decyduje łatwość przeprowadzenia odpowiedniej estymacji. Ponieważ najłatwiejsze do uzyskania są zwykle oceny parametrów w estymacji z restrykcjami, w praktyce dosyć często stosuje się test LM.

Pamiętamy, że do testowania ogólnej hipotezy liniowej w modelu liniowej regresji używaliśmy do tej pory statystyki postaci:

.

Test F jest testem dla małej próby. Teraz widzimy, że w dużych próbach test F można zastąpić asymptotycznie równoważnymi testami LR, W i LM. Przy okazji testy te mają znacznie ogólniejsze zastosowanie (np. do testowania restrykcji nieliniowych).

Poniżej prezentuje się jedno z ważniejszych zastosowań estymacji metodą największej wiarygodności – estymację modeli logitowych i probitowych.

Modele zmiennej jakościowej. Przypadek zmiennej dychotomicznej (zero-jedynkowej)

Informacje wprowadzające:

  1. Liniowy model prawdopodobieństwa (LMP):

Rozważmy przypadek pojedynczej zmiennej objaśniającej. LMP to zwykłe równanie regresji:

, ,

gdzie zmienna zależna jest zmienną dychotomiczną.

Wówczas jest równe prawdopodobieństwu, że zero-jedynkowa zmienna objaśniana przyjmuje wartość 1:

Problemy:

- Heteroskedastyczność składnika losowego – ponieważ składnik losowy przyjmuje tylko dwie wartości: i z prawdopodobieństwami wynoszącymi odpowiednio i , więc można łatwo wyliczyć wariancję:

Wariancja ta nie jest stała (zależy od wartości zmiennej objaśniającej).

- Składnik losowy nie ma rozkładu normalnego (ma rozkład dwupunktowy), co powoduje problemy z wnioskowaniem statystycznym.

- Wartości teoretyczne (oceny prawdopodobieństw,) mogą wychodzić poza przedział [0, 1].

  1. Modele logitowe i probitowe

Rozważamy model regresji, w którym zmienna objaśniana jest nieobserwowalna (inaczej - ukryta, ang. latent variable):

.

Obserwujemy zmienną postaci:

Np. jeśli informuje o tym, czy dana osoba kupiła samochód (zaciągnęła kredyt, podjęła pracę), to informuje o skłonności (zdolności) do kupna samochodu (zaciągnięcia kredytu, podjęcia pracy). Dla obserwowanej zmiennej o rozkładzie dwupunktowym prawdopodobieństwo sukcesu wynosi:

,

gdzie F jest dystrybuantą rozkładu składnika losowego. Jeśli rozkład składnika losowego jest symetryczny, otrzymujemy:

.

Przyjmując, że F jest dystrybuantą rozkładu logistycznego, otrzymujemy model logitowy, podczas gdy przyjęcie dystrybuanty rozkładu normalnego daje model probitowy.

Funkcja gęstości i dystrybuanta rozkładu logistycznego są postaci:

;

.

Stąd dla modelu logitowego:

lub równoważnie

.

Wyrażenie powyższe to tzw. logarytm ilorazu szans (logit). W modelu logitowym logarytm ilorazu szans jest liniową funkcją zmiennych objaśniających. W LMP taką funkcją było samo prawdopodobieństwo.

W przypadku rozkładu normalnego mamy:

;

.

Stąd w modelu probitowym:

.

Wyrażenie jest określane w tym przypadku jako probit.

Estymacja modeli logitowych i probitowych odbywa się najczęściej metodą największej wiarygodności, polegającą na poszukiwaniu takich ocen parametrów, które maksymalizują funkcję wiarygodności przyjmującą w tym wypadku postać:

.

Logarytm funkcji wiarygodności dany jest następująco:

,

Wyznaczając pochodne i przyrównując do 0 mamy:

Wyrażenia występujące pod pierwszym znakiem sumy są to tzw. uogólnione reszty. Warunki pierwszego rzędu stwierdzają, że uogólnione reszty sumują się do 0 i są ortogonalne do zmiennych objaśniających.

W przypadku modelu logitowego łatwo sprawdzić, że warunki powyższe redukują się do:

i uogólnione reszty stają się zwykłymi resztami. W szczególności mamy więc: , tj. rzeczywista częstość względna jest równa przewidywanej częstości względnej (częstości z modelu).

Warunek ten nie zachodzi dla modeli probitowych (zachodzi jedynie w przybliżeniu).

Ponieważ rozkłady logistyczny i normalny są zbliżone, miary dopasowania obu modeli są bardzo podobne. Ponadto mając oceny parametrów modelu logitowego, przybliżone oceny parametrów modelu probitowego otrzymujemy przemnażając te pierwsze przez 1/1,6 = 0,625.

Istnieje także przybliżony związek między ocenami parametrów liniowego modelu prawdopodobieństwa i modelu logitowego postaci:

Predykcja efektów zmian wartości zmiennych objaśniających (inaczej mówiąc – interpretacja parametrów):

  1. w liniowym modelu prawdopodobieństwa parametry informują, o ile wzrośnie średnio prawdopodobieństwo sukcesu, jeśli dana zmienna wzrośnie o jednostkę przy innych zmiennych na tym samym poziomie.

  2. w modelu logitowym wielkość informuje, ilukrotnie wzrośnie iloraz szans przy jednostkowym wzroście danej zmiennej objaśniającej.

  3. w przypadku modeli logitowych i probitowych efekty krańcowe zależą od wartości zmiennych objaśniających i można je wyznaczyć następująco:

gdzie ϕ to funkcja gęstości standardowego rozkładu normalnego.

W programach komputerowych wyznacza się je dla średnich wartości zmiennych objaśniających.

Miary dopasowania:

W ocenie i porównywaniu różnych modeli zmiennych jakościowych stosuje się mierniki takie jak:

a) współczynnik korelacji między wartościami rzeczywistymi i teoretycznymi , tj. ocenami prawdopodobieństw, :

gdzie to dystrybuanta standardowego rozkładu normalnego.

b) pseudo-R2 McFaddena oparty na ilorazie logarytmów funkcji wiarygodności modelu bez restrykcji (U, ang. unrestricted) i z restrykcjami zerowymi na parametrach j , j = 1, …, k, (R, ang. restricted) postaci:

;

c) zliczeniowy R2 (count-R2): po oszacowaniu parametrów modelu logitowego, probitowego lub LMP szacujemy dla każdej obserwacji odpowiednie prawdopodobieństwa, , a następnie wyznaczamy prognozy według reguły:

Trafność prognoz wygodnie jest badać w oparciu o tablicę trafności:

Empiryczne Prognozowane Razem
Y = 1 Y = 0
Y = 1 n11 n10
Y = 0 n01 n00
Razem n.1 n.0

Wówczas

Do weryfikacji modeli szacowanych MNW służy test ilorazu wiarygodności – jego wariant w Gretlu testuje łączną istotność wszystkich parametrów poza wyrazem wolnym i ma rozkład χ2 z k stopniami swobody (k – liczba parametrów).


Wyszukiwarka

Podobne podstrony:
Uzupełnienie do wykładu Cykl koniunkturalny
wykład 1 analiza fundamentalna ( 04 2012
wykład 2 analiza fundamentalna ) 04 2012
RF04 T07 Analiza fundamentalna
Materiały do wykładu 4 (27 10 2011)
MATERIALY DO WYKLADU CZ IV id Nieznany
drPera miedzynarodowe stosunki gospodarcze notatki do wykladow
Analiza fundamentalna Wybieranie i odrzucanie spółek Analiza fundamentalna
Rysunek w poznaniu dziecka mat dodatkowe do wykładu
pytania do wykładow
do wykladni prawa z 01 2010
MATERIALY DO WYKLADU CZ VIII i Nieznany
prezentacja do wykladu obliczenia1
MATERIALY DO WYKLADU CZ V id 2 Nieznany
Materiały do wykładu z Rachunkowości
10 Analiza fin Analiza fundamentalna
Miernictwo Komentarz do wykładów cz2

więcej podobnych podstron