Procesy nieliniowe - wprowadzenie
Nieliniowe procesy stochastyczne poszerzają ramy klasycznej analizy szeregów czasowych za pomocą liniowych modeli ARIMA, prezentowanej w pracy Boxa i Jenkinsa.
W nieliniowej analizie jednowymiarowych szeregów czasowych poszukuje się funkcji wiążącej dany proces z ciągiem niezależnych zmiennych losowych o jednakowym rozkładzie:
,
gdzie
o średniej zero i wariancji jednostkowej.
Powyższa reprezentacja okazuje się być zbyt ogólna. Przyjmuje się najczęściej, że nieliniowy proces ekonomiczny ma postać
. (*)
Ponieważ
,
funkcja g opisuje zmiany wartości średniej procesu Xt warunkowo względem informacji z przeszłości. Natomiast kwadrat funkcji h przedstawia zmiany warunkowej wariancji tego procesu:
Proces Xt będziemy nazywali nieliniowym, jeśli jego warunkowa wartość średnia bądź warunkowa wariancja są nieliniowymi funkcjami zmiennych
Równanie (*) prowadzi do naturalnego podziału ekonomicznych procesów nieliniowych: procesy z nieliniową funkcją g noszą nazwę procesów nieliniowych w wartości średniej, zaś procesy z nieliniową funkcją
nazywamy procesami nieliniowymi w wariancji.
Szeregi generowane według modeli nieliniowych w wartości średniej nie spełniają hipotezy martyngałowej i istnieje teoretyczna możliwość konstrukcji predyktorów nieliniowych o lepszych własnościach niż odpowiednie predyktory liniowe.
Szeregi generowane według modeli nieliniowych w wariancji są różnicami martyngałowymi, ale nie spełniają założenia niezależności, a więc nie są białymi szumami w ścisłym sensie.
Przykładami modeli nieliniowych w warunkowej wartości średniej o potencjalnym zastosowaniu w finansach i makroekonomii mogą być:
modele dwuliniowe (BL, od ang. bilinear model),
nieliniowe modele autoregresji i średniej ruchomej,
modele progowe, przełącznikowe i wygładzonego przejścia,
deterministyczne systemy nieliniowe.
Natomiast modelami o zmiennej wariancji warunkowej są modele z rodziny GARCH oraz modele zmienności stochastycznej.
Oprócz powyższych specyfikacji wykorzystuje się też konstrukcje charakteryzujące się oboma typami nieliniowości, wśród których można wymienić modele GARCH-M (GARCH in mean) oraz modele BL-GARCH.
Modele kawałkami (przedziałami) liniowe
Autoregresyjne modele progowe (SE)TAR, autoregresyjne modele wygładzonego przejścia STAR oraz modele przełącznikowe Markowa zalicza się do grupy szeroko rozumianych modeli `kawałkami liniowych' (ang. piecewise linear), które pozwalają przybliżać dynamikę analizowanego procesu poprzez lokalną aproksymację procesami liniowymi w różnych stanach (reżimach) procesu. Należy zaznaczyć, że przyporządkowanie modeli STAR do grupy modeli `kawałkami liniowych' nie jest postępowaniem ścisłym, gdyż modele te można również traktować jako posiadające continuum reżimów.
Modele te znalazły zastosowanie w opisywaniu i prognozowaniu procesów ekonomicznych takich jak np. pewne procesy makroekonomiczne zależne od fazy cyklu koniunkturalnego (w rodzaju stóp bezrobocia czy indeksów produkcji przemysłowej) czy procesy finansowe, charakteryzujące się np. asymetrią dynamiki.
Autoregresyjne procesy progowe
Podstawowy model SETAR
(ang. self-exciting threshold autoregressive model), gdzie r jest liczbą reżimów zaś p liczbą opóźnień autoregresyjnych, zdefiniowany jest następująco:
(1)
gdzie:
,
,
,
są parametrami progowymi,
,
jest funkcją wskaźnikową Heaviside'a, tj. funkcją postaci:
,
jest zmienną progową,
jest parametrem opóźnienia.
Rozważa się również modele z różnymi rzędami opóźnień w reżimach, które są oznaczane SETAR
.
Ogólniejszą specyfikacją od (1) jest model TAR, w którym zmienną progową może być dowolna funkcja przeszłych obserwacji lub pewna zmienna egzogeniczna, w tym zmienna czasowa. Model ten można więc zapisać następująco:
. (2)
Jeśli
,
, otrzymujemy model TAR, w którym zmiany reżimowe zależne są od stóp wzrostu. Model ten zaproponowali W. Enders i C.W.J. Granger (1998), którzy rozważali przypadek procesu dwureżimowego z parametrem progowym równym wartości średniej zmiennej progowej. W szczególności, w przypadku zerowego progu, model ten zakłada różną dynamikę procesu przy wzrostach i przy spadkach. Dla swojej propozycji Enders i Granger (1998) zasugerowali nazwę model M-TAR (skrót od ang. momentum TAR) - model TAR z impetem.
Inny przypadek szczególny modelu (1) otrzymujemy przyjmując za zmienną przejścia zmienną czasową lub standaryzowaną zmienną czasową, tj.
lub
, gdzie n jest liczbą obserwacji. Wówczas otrzymujemy model autoregresyjny z
egzogenicznymi zmianami strukturalnymi.
Autoregresyjne procesy wygładzonego przejścia
Uogólnieniem procesów SETAR są procesy STAR (ang. smooth transition autoregressive processes), w których funkcję wskaźnikową zastępuje się pewną funkcją ciągłą zmiennej progowej, zwanej tutaj zmienną przejścia (ang. transition variable), na skutek czego przejścia pomiędzy reżimami mają charakter wygładzony a nie gwałtowny.
Podstawowy model STAR ma postać:
(3)
gdzie
,
i
są wektorami parametrów postaci
i
,
,
jest funkcją przejścia (funkcją transformacji),
jest zmienną przejścia.
Odnośnie funkcji
przyjmuje się założenie, iż jest ograniczoną funkcją ciągłą, najczęściej przyjmującą wartości z przedziału
, zależną od skalarnego parametru γ, kontrolującego gładkość przejścia między reżimami, oraz wektora parametrów c, zawierającego parametry progowe.
Najczęściej stosowanymi funkcjami przejścia są:
funkcja wykładnicza:
, (4)
funkcja logistyczna pierwszego rzędu:
, (5)
funkcja logistyczna rzędu drugiego postaci:
. (6)
Przykładowe przebiegi tych funkcji przedstawia rysunek:
Rys. 1. Wykresy funkcji przejścia; (a) funkcja wykładnicza z γ = 0,2 i c = 0; (b) funkcja logistyczna pierwszego rzędu z γ = 2 i c = 0; (c) funkcja logistyczna drugiego rzędu z γ = 2, c1 = -2 i c2 = 2.
Oprócz powyższych rozpatruje się także przypadek uogólnionej funkcji logistycznej rzędu r posiadającej r punktów przegięcia. Istotną własnością funkcji logistycznych jest to, iż wraz z
dążą one do funkcji wskaźnikowych. W konsekwencji model STAR z funkcją przejścia w postaci funkcji logistycznej rzędu r zbiega do modelu SETAR
z restrykcjami zakładającymi, że w co drugim reżimie występuje ten sam zestaw parametrów. W szczególności dla
parametry modelu STAR zmieniają się monotonicznie od
do
w zależności od wartości zmiennej przejścia, a wraz z
model ten zbiega do modelu SETAR
. W przypadku
parametry modelu STAR zmieniają się symetrycznie wokół wartości
, dla której funkcja logistyczna osiąga swoją wartość najmniejszą, zaś wraz z
zmiany reżimowe stają się coraz bardziej gwałtowne i model STAR zbiega do modelu SETAR
z restrykcjami zakładającymi, że reżimy zewnętrzne są identyczne. Stąd rodzina modeli STAR obejmuje jako przypadki graniczne pewne modele SETAR.
Model STAR z funkcją przejścia (4) nosi nazwę wykładniczego modelu autoregresyjnego wygładzonego przejścia (ESTAR, ang. exponential STAR), zaś z funkcją transformacji postaci (5) jest logistycznym modelem STAR (LSTAR, ang. logistic STAR). Najczęściej przyjmuje się, że zmienną przejścia jest opóźniony proces endogeniczny, tj.
,
, ale mogą to być też opóźnienia przyrostów procesu endogenicznego, zmienna czasowa itd.
T. Teräsvirta (1994) zaproponował procedurę modelowania mającą na celu m.in. poprawne rozstrzygnięcie pomiędzy modelem ESTAR a modelem LSTAR dla
. Ta sama strategia modelowania ma zastosowanie do rozstrzygania pomiędzy modelem LSTAR rzędu drugiego a modelem LSTAR rzędu pierwszego. W istocie dokonuje się w ten sposób wyboru pomiędzy dynamiką trzyreżimową z identycznymi reżimami zewnętrznymi a dynamiką dwureżimową. Ta pierwsza umożliwia np. uwzględnienie występowania przedziału wokół wartości w położeniu równowagi analizowanego procesu, który może być wynikiem obecności kosztów transakcyjnych czy ograniczeń płynności, zaś druga jest szczególnie użyteczna do modelowania asymetrii procesów wynikającej np. z obecności wahań koniunkturalnych, przejawiających się różną dynamiką procesów gospodarczych w okresach recesji i ożywienia.
Procesy przełącznikowe Markowa
Innym rodzajem procesów `kawałkami liniowych' są autoregresyjne procesy przełącznikowe Markowa (ang. Markov switching autoregressive processes) postaci:
(7)
gdzie
,
,
,
,
jest funkcją wskaźnikową,
jest nieobserwowalnym jednorodnym łańcuchem Markowa o r stanach.
Przypomnijmy, że jednorodny łańcuch Markowa definiuje się następująco: Niech
będzie ciągiem zmiennych losowych przyjmujących wartości ze zbioru
. Proces ten jest jednorodnym łańcuchem Markowa, jeśli dla każdych i, j, k, ... zachodzi
. Wielkości
, noszące nazwę prawdopodobieństw przejścia, tworzą macierz prawdopodobieństw przejścia, której elementy sumują się w każdym wierszu do 1.
O procesie
w modelach Markow switching zakłada się, że jest on niezależny od
dla każdych t i oraz że jego prawdopodobieństwa przejścia są nieznane i muszą być estymowane łącznie z innymi parametrami modelu.
określa się jako zmienną przełącznikową (ang. switching variable). Model (7) będzie użyteczny do opisu zmiany stanów, które zdają się nie mieć obserwowalnej i mierzalnej przyczyny lub zależą od zmiennej przełącznikowej, realizacjami której nie dysponujemy oraz dla której nie istnieje odpowiednia zastępcza zmienna.
Testy liniowości wobec alternatywy STAR
Rozważmy ogólny proces STAR postaci:
, (8)
gdzie
,
,
oraz F jest funkcją logistyczną pierwszego rzędu, tj.:
,
(LSTAR)
lub funkcją wykładniczą:
,
. (ESTAR)
W celu skonstruowania testu liniowości mającego moc względem procesów LSTAR i ESTAR T. Teräsvirta (1994) zaproponował zastąpienie funkcji przejścia przez jej aproksymację szeregiem Taylora niskiego rzędu. Rozwinięcie w szereg Taylora wokół
funkcji (5) - przypadek LSTAR - prowadzi w przypadku aproksymacji pierwszego rzędu do regresji pomocniczej postaci:
. (9)
Wówczas weryfikując hipotezę
:
na podstawie regresji (9) korzysta się ze statystyki postaci:
(10)
lub preferowanej w małych próbach statystyki F:
(11)
(
jest sumą kwadratów reszt z estymacji modelu (9) z restrykcjami występującymi w hipotezie zerowej, SSR - odpowiednią suma kwadratów reszt
z modelu bez restrykcji, zaś m jest liczbą restrykcji równą
).
Zastosowanie aproksymacji trzeciego rzędu prowadzi natomiast do regresji postaci:
. (12)
Wówczas testuje się hipotezę zerową
:
, którą weryfikuje się w oparciu o odpowiednią statystykę
zdefiniowaną jak w (10) lub statystykę
zdefiniowaną podobnie jak w (11) z
.
W przypadku funkcji przejścia typu wykładniczego (4) stosuje się regresję pomocniczą postaci:
. (13)
Wówczas przeprowadza się test hipotezy
:
na podstawie statystyk
i
zdefiniowane jak poprzednio z liczbą restrykcji
.
Rozstrzygnięcie pomiędzy postaciami analitycznymi funkcji przejścia proponuje się dokonać na podstawie procedury testowej opartej na następującym ciągu zagnieżdżonych hipotez zerowych:
testowanych na bazie regresji (12). Analiza współczynników rozwinięcia obu funkcji przejścia w szereg Taylora wskazuje, iż mamy
tylko, gdy badany proces jest procesem LSTAR.
Jeśli
nie jest odrzucana, w następnej kolejności testuje się hipotezę warunkową
. Hipoteza ta jest odrzucana w przypadku procesów ESTAR (lub LSTAR drugiego rzędu), a także procesów LSTAR pierwszego rzędu z
.
Natomiast hipoteza
jest odrzucana, jeśli badany proces jest dowolnym procesem LSTAR pierwszego rzędu, a także jeśli jest procesem ESTAR z
.
Spostrzeżenia te prowadzą do praktycznej wskazówki mówiącej, iż jeśli wartość p związana z testem hipotezy
jest najmniejsza, należy wybrać model ESTAR (lub LSTAR rzędu drugiego). W pozostałych przypadkach właściwym wyborem jest model LSTAR rzędu pierwszego.
Testy z wyspecyfikowaną hipotezą alternatywną mogą mieć moc również względem innych modeli niż ujęte w tej hipotezie. W szczególności testy względem alternatyw STAR będą wykazywać moc względem swojego przypadku granicznego w postaci modeli (SE)TAR. Potwierdzają to wyniki symulacji prezentowanych w wielu artykułach. Jak piszą C.W.J. Granger i T. Teräsvirta (1993), sytuacja odwrotna, w której testy wobec alternatywy TAR mają wysoką moc względem procesów STAR, wydaje się mniej prawdopodobna.
Testy wobec alternatywy (SE)TAR
Testy liniowości względem progowych procesów autoregresyjnych są w większości oparte na tzw. uporządkowanych regresjach (ang. arranged regressions), które uzyskuje się porządkując wektory obserwacji zgodnie z rosnącymi lub malejącymi wartościami zmiennej progowej. Wówczas testowanie liniowości sprowadza się do weryfikacji hipotezy o braku załamania strukturalnego w modelu opartym na uporządkowanych obserwacjach.
Pierwszym testem wykorzystującym to spostrzeżenie jest propozycja J. Petruccelliego i N. Daviesa (1986) zastosowanie testu stałości parametrów CUSUM do wektorów obserwacji uporządkowanych zgodnie z wartościami zmiennej progowej.
Wśród innych popularnych testów nieliniowości progowej należy wymienić testy R.S. Tsaya (1989) i B.E. Hansena (1996).
Prognozowanie procesów nieliniowych
Oprócz opisu dynamiki badanego procesu celem budowy modelu nieliniowego może być prognozowanie. Prognozowanie z modeli nieliniowych jest zadaniem trudniejszym od ekstrapolacji na podstawie modeli liniowych.
Prognozy jednokrokowe z modeli nieliniowych uzyskuje się bezpośrednio. Rozważmy dla ilustracji ogólny nieliniowy model autoregresji rzędu p postaci:
, (14)
gdzie
. Wówczas prognoza jednokrokowa dana jest wzorem:
. (15)
Prognoza na dwa okresy do przodu ma natomiast postać:
(16)
Zakładając znajomość rozkładu składnika losowego, prognozę tę można wyliczyć poprzez całkowanie numeryczne. W przypadku prognoz na kilka okresów w przód postępowanie takie, określane jako metoda dokładna, wymaga złożonych operacji numerycznych.
Inny sposób postępowania zakłada zignorowanie składnika losowego i wyznaczenie prognozy zgodnie z formułą:
. (17)
Prognoza taka, określana jako naiwna lub szkieletowa (ang. `skeleton' forecast), jest jednak obciążona, co może prowadzić do istotnych strat efektywności procesu predykcji.
Alternatywnym sposobem uniknięcia całkowania numerycznego jest aproksymacja z wykorzystaniem symulacji Monte Carlo lub metod bootstrap, przy czym to drugie podejście nie wymaga znajomości rozkładu składnika losowego. Wówczas prognozę Monte Carlo na dwa okresy w przód definiuje się następująco:
(18)
gdzie
są wektorami wymiaru
postaci
, zaś
jest próbą prostą z rozkładu
. Analogicznie definiuje się prognozę bootstrapową:
, (19)
gdzie
są wektorami wymiaru
postaci
, zaś
jest próbą bootstrapową losowaną spośród reszt modelu. Rozszerzenie tego postępowania na prognozy o dłuższym horyzoncie wymaga wielokrotnego losowania z rozkładu składnika losowego lub ze zbioru reszt.
Poza technikami numerycznymi (całkowaniem numerycznym i aproksymacją z użyciem symulacji lub metody bootstrap) prognozy wielokrokowe można także generować, budując osobne modele dla każdego horyzontu prognozy. Postępowanie takie, określane jako metoda bezpośrednia, jest równoważne wyznaczaniu prognoz na jeden okres w przód z każdego spośród zbudowanych modeli.
Należy też dodać, że w przypadku pewnych modeli nieliniowych, takich jak nieliniowe średnie ruchome, które są liniowe względem parametrów, czy modele SETAR możliwe jest analityczne wyznaczanie prognoz na 2 i więcej okresów w przód. W przypadku modeli SETAR prowadzi to do formuły, w myśl której prognoza na h okresów w przód jest średnią ważoną optymalnych prognoz dla poszczególnych reżimów z wagami będącymi prawdopodobieństwami przebywania przez proces w danym reżimie w momencie
, skorygowaną o pewien dodatkowy czynnik.
Porównanie jakości prognoz z modeli nieliniowych uzyskiwanych różnymi metodami na podstawie danych symulowanych było przedmiotem pracy J.-L. Lina i C.W.J. Grangera (1994). Prezentowane tam wyniki wskazują, że prognozy Monte Carlo i prognozy bootstrap na dwa okresy w przód są dokładniejsze od prognoz uzyskanych metodą bezpośrednią w terminach średniego błędu prognozy, jeśli w charakterze predyktora użyto parametrycznych modeli STAR lub pewnych nieliniowych modeli autoregresji. Dokładność prognoz bezpośrednich wzrasta jednak w przypadku modeli nieparametrycznych, w tym modeli sieci neuronowych.
Sposobem na podwyższenie dokładności prognoz jest łączenie prognoz z kilku modeli (ang. combining forecasts) z zastosowaniem różnych schematów wag oraz liniowych jak i nieliniowych kombinacji prognoz. Dobrze uzasadnionymi od strony teoretycznej wagami dla prognoz kombinowanych są wynikające z analizy bayesowskiej prawdopodobieństwa a posteriori modeli. W szczególności łączenie prognoz z modeli liniowych i nieliniowych może prowadzić do prognoz bardziej odpornych na sytuacje nietypowe.
Użyteczność specyfikacji nieliniowych w prognozowaniu jest wciąż przedmiotem wielu kontrowersji. Jedni autorzy dokumentują jedynie marginalne korzyści wynikające z wykorzystania jednowymiarowych modeli nieliniowych w charakterze predyktorów procesów makroekonomicznych, inni zaś wskazują na brak jakichkolwiek korzyści np. w odniesieniu do prognozowania kursów walutowych czy wielu innych zmiennych makroekonomicznych.
W szczególności J.H. Stock i M.W. Watson na przykładzie 215 szeregów makroekonomicznych obserwacji miesięcznych pokazują, że prognozowanie z użyciem sieci neuronowych, wygładzania wykładniczego czy modeli STAR nie daje lepszych wyników od prognozowania na podstawie liniowych modeli autoregresyjnych konstruowanych w oparciu o wyniki testów pierwiastków jednostkowych, choć prognozy z modeli liniowych można poprawić stosując w charakterze predyktorów liniowe kombinacje modeli (w tym modeli nieliniowych). Zgoła inne wyniki prezentują T. Teräsvirta, D. van Dijk i M.C. Medeiros (2006), którzy przeanalizowali 47 zmiennych makroekonomicznych dochodząc do wniosku, iż modele STAR dostarczają generalnie lepszych prognoz od liniowych modeli autoregresyjnych. W swoim badaniu podkreślają jednak, że stosują dynamiczną specyfikację modeli prognostycznych, tj. wraz z kolejną obserwacją nie tylko estymują ponownie parametry modelu, ale również dokonują jego respecyfikacji. Ponadto stosują inną metodę wyznaczania prognoz wielokrokowych, opartą na technice bootstrapingu, podczas gdy J.H. Stock i M.W. Watson budują różne modele dla różnych horyzontów prognoz.
Podobne zastrzeżenia można wystosować w stosunku do nieliniowych modeli współzależności, choć znane są również przykłady, gdy modele tego typu okazywały się dostarczać lepszych prognoz makroekonomicznych niż ich liniowe odpowiedniki. Nie zmienia to jednak faktu, iż, jak stwierdzają J.G. De Gooijer i K. Kumar (1992), nie ma wyraźnych dowodów na wyższość prognozowania z modeli nieliniowych nad prognozowaniem z modeli liniowych, zaś M.P. Clements, P.H. Franses i N.R. Swanson (2004) zauważają, że sytuacja ta wygląda bardzo podobnie również kilkanaście lat po publikacji artykułu J.G. De Gooijera i K. Kumara.
Wśród wyjaśnień tego fenomenu podaje się:
- mniejszą wrażliwość prognoz `naiwnych' otrzymywanych z modeli błądzenia przypadkowego lub modeli adaptacyjnych na obecność załamań strukturalnych i obserwacji nietypowych;
- błędy specyfikacji i dużą wariancję estymatorów parametrów strukturalnych, które znacznie redukują potencjalną przewagę predyktorów nieliniowych;
- nadmierne dopasowanie (ang. overfitting) - zbyt wysokie dopasowanie modelu w obrębie próby wiążące się z lokalną charakterystyką szeregu, podczas gdy prognozowanie (szczególnie w dłuższym horyzoncie) powinno eksplorować globalne własności procesu.
Uogólnione funkcje odpowiedzi impulsowych
Funkcje odpowiedzi impulsowych (reakcji na bodziec) pozwalają ocenić własności oszacowanych modeli poprzez zbadanie wpływu zakłócenia losowego (szoku) na ewolucję generowanych z modelu szeregów czasowych. Funkcje te wykorzystuje się między innymi do oceny asymetrii i trwałości reakcji na impulsy losowe.
Tradycyjna funkcja odpowiedzi impulsowej (ang. impulse response function) definiowana jest następująco:
(20)
gdzie δ jest wielkością zakłócenia w momencie t,
, zaś
jest realizacją (historią) procesu do momentu
. Wielkość (20) przedstawia więc sobą różnicę między dwiema realizacjami zmiennej
: jedną zakładającą występowanie zakłócenia w momencie t i drugą, zwaną profilem wzorcowym, przyjmującą, że zakłócenie nie wystąpiło, przy czym w obu przypadkach zakłada się brak występowania zakłóceń losowych we wszystkich moment pośrednich.
W przypadku modeli liniowych funkcje odpowiedzi impulsowych są symetryczne (tj. reakcja na zakłócenie -δ jest dokładnym przeciwieństwem reakcji na zakłócenie δ, liniowe (tj. proporcjonalne do wielkości szoku) oraz niezależne od historii procesu
. Własności te nie przenoszą się jednak na modele nieliniowe, w przypadku których reakcja na zakłócenie zależy zarówno od wielkości i znaku impulsu losowego, jak i wcześniejszego przebiegu procesu. Ponadto założenie o zerowych impulsach losowych w okresach pośrednich może prowadzić do błędnych wniosków na temat charakteru mechanizmu propagacji impulsów. Ilustrują to najlepiej własności modeli `kawałkami liniowych' - w szczególności modeli SETAR i STAR - w których przejścia między reżimami zachodzą właśnie na skutek występowania szoków, a przyjęcie założenia o braku zakłóceń prowadzi do pozostawania przez proces w jednym reżimie.
Rozwiązanie tego problemu stanowi propozycja G. Koopa, M.H. Pesarana i S.M. Pottera (1996), którzy wprowadzili tzw. uogólnione funkcje odpowiedzi impulsowych GIRF (ang. generalized IRF). Funkcje te eliminują problem wpływu szoków pośrednich poprzez `uśrednienie' ich oddziaływania w obu rozważanych realizacjach. Ponadto `uśrednia się' także wpływ bieżącego zakłócenia w profilu wzorcowym. Formalna definicja jest następująca:
(21)
Tak więc GIRF jest różnicą dwóch prognoz optymalnych: jednej uzyskanej przy założeniu wystąpienia zakłócenia w momencie t i drugiej - `zwykłej' prognozy
, wyznaczonej w momencie
.
Uogólniona funkcja odpowiedzi zdefiniowana wzorem (21) może być traktowana jako realizacja zmiennej losowej postaci:
. (22)
Należy dodać, że GIRF można także definiować warunkowo względem pewnych podzbiorów realizacji procesu lub szoków (np. rozważać tylko zakłócenia dodatnie, osobno reżimy dodatnie i ujemne, etc.).
Aby ocenić asymetrię reakcji na zakłócenia losowe, można wykorzystać miarę asymetrii odpowiedzi zdefiniowaną następująco:
. (23)
Wielkość powyższa jest więc wyliczana dla konkretnej realizacji i przy założonym poziomie zakłócenia. W wariancie warunkowym miara asymetrii odpowiedzi ma postać:
. (24)
Miary powyższe pozwalają stwierdzić, czy zakłócenia dodatnie i ujemne mają podobny wpływ na dynamikę procesu. Jeśli tak właśnie jest, to gęstość rozkładu zmiennej losowej (24) jest symetryczna wokół zera.
Warunkowe wersje GIRF są także pomocne w ocenie trwałości zakłócenia. Jeśli badany proces jest stacjonarny, efekt zakłócenia zanika wraz z wydłużaniem się horyzontu prognozy dla wszystkich trajektorii procesu. Tym samym rozkład zmiennej losowej (22) zbiega do rozkładu skoncentrowanego w zerze. W przypadku skończonego horyzontu pewnej informacji na temat trwałości zakłócenia będzie dostarczać dyspersja rozkładu (22).
W praktyce uogólnione funkcje odpowiedzi impulsowych i ich wersje warunkowe szacuje się z wykorzystaniem symulacji Monte Carlo, w których wykorzystuje się te same realizacje zakłóceń losowych przy wyznaczaniu obu składowych GIRF.