Agnieszka Majewska
Katedra Ubezpieczeń i Rynków Kapitałowych
Modelowanie procesów autoregresujnych
Porównanie metod szacowania zmienności cen walorów bazowych opcji
Zmienność (chwiejność) - mówi jaki jest możliwy przeciętny wzrost bądź spadek ceny
danego waloru, a więc jest miarą niepewności co do przyszłych zmian jego cen. Należy przy
tym zaznaczyć, że wraz ze wzrostem zmienności rośnie zarówno prawdopodobieństwo
korzystnej, jak i niekorzystnej zmiany ceny. Dla posiadacza opcji kupna zysk będzie się
zwiększał wraz ze wzrostem ceny waloru bazowego, natomiast dla właściciela opcji sprzedaży –
wraz ze spadkiem. W obu przypadkach będzie on tym wyższy, im większą zmiennością będą
charakteryzowały się walory bazowe.
Przyczyny zmienności - jedni doszukują się ich w informacjach docierających do
inwestorów, inni w samym fakcie zawierania transakcji. Pierwsi, broniący hipotezy
efektywności rynku, uważają, że przypadkowe wiadomości odbierane przez inwestorów
wpływają na przyszłe stopy zwrotu, a co za tym idzie, na zmienność walorów. Drudzy natomiast
są zdania, że jest ona przede wszystkim efektem rynkowego obrotu walorami.
1. Zmienność wyznaczana jako odchylenie standardowe
Najczęściej wykorzystywanym przez inwestorów sposobem wyznaczania zmienności, i
zarazem najprostszym, jest metoda historyczna polegająca na statystycznej estymacji wariancji
cen danego waloru, z której wyznacza się odchylenie standardowe. W celu wyznaczania
względnych zmian cen instrumentów do szacowania zmienności wykorzystuje się logarytmy
naturalne ze względnych przyrostów cen danego instrumentu, co zapisuje się następująco
∑
=
−
−
=
n
i
i
p
u
u
n
s
1
2
_
)
(
1
1
,
(1)
gdzie u
i
to logarytmiczna stopa zwrotu cen analizowanych walorów.
Do otrzymania zmienności rocznej (
σ
) z odchylenia standardowego (s
p
) liczonego dla
wybranego okresu wykorzystuje się następujący wzór:
Y
s
σ
p
=
,
(2)
gdzie Y oznacza liczbę rozpatrywanych okresów w roku.
1
Por. A.D. Aczel [2000], s. 23-28.
Do najczęściej wykorzystywanych czynników czasowych zalicza się:
− dzienny uwzględniający dni kalendarzowe:
365
,
− dzienny uwzględniający dni notowań:
250
,
252
lub
260
,
− tygodniowy:
52
,
− miesięczny:
12
,
− kwartalny:
4
.
Głównym problemem – jaka ma być długość przedziału czasowego, który należy
uwzględnić? Generalnie większa precyzja pomiaru zmienności - im więcej informacji zostanie
uwzględnionych w szacunku. Z drugiej strony wydłużenie okresu estymacji, gdzie uwzględnia
się zdarzenia „zbyt historyczne”, może doprowadzić do błędnego oszacowania, w którym wpływ
nowych wydarzeń jest zmniejszany przez te bardzo odległe. C. Butler nazywa to efektem
cienia
. Dodatkowo różne wyniki uzyskuje się szacując zmienność na podstawie dni kalen-
darzowych i roboczych. Konieczne jest zbadanie, czy występuje dodatkowe ryzyko wolnych dni.
2
Zob. C. Butler [2001], s. 209.
2. Zmienność wyznaczana w oparciu o procesy ARCH i GARCH
Badania K. Kronera, K.P. Kneafsey’ego i S. Claessensa
dowodzą, że najnowsze procedury
prognozowania na podstawie danych historycznych, zakładające niestałość wariancji (ARCH,
GARCH), charakteryzują się większą precyzją niż zmienność wyznaczana klasycznie jako
odchylenie standardowe.
Prekursor modeli dynamicznych - R. Engla, który w 1982 roku rozwinął pierwszy z nich
ARCH (autoregressive conditional heteroscedascity)
. Jest to proces oparty na założeniu
autoregresji stóp zwrotu badanego instrumentu finansowego. Założenie główne procesu mówi o
tym, że wartość stopy zwrotu w badanym okresie jest funkcją stóp zwrotu w okresach
wcześniejszych. Ogólnie proces można zapisać w następujący sposób
,...)
,
(
2
t
1
t
t
Z
Z
f
Z
−
−
=
,
(3)
3
Zob. K. Kroner, K.P. Kneafsey, S. Claessens [1995].
4
Zob. R.F. Engle [1982], s. 987-1008.
5
Zob. J. Mills [1993].
z czego wynika:
∑
=
−
⋅
+
=
q
i
i
t
i
t
Z
c
c
h
1
2
0
,
(4)
zatem można zapisać, że:
ε
⋅
=
t
t
h
Z
,
(5)
gdzie:
Z
t
– szacowane warunkowe odchylenia standardowe stop zwrotu w okresie t,
Z
t-i
– warunkowe odchylenia standardowe opóźnione w stosunku do okresu t o i,
h
t
– szacowana warunkowa wariancja stóp zwrotu w okresie t,
c
i
– współczynniki regresji modelu,
q – stopień modelu.
W przypadku, gdy oszacowane parametry modelu ARCH(1) są dodatnie oraz
ε
t
∈ N(0,1) i jest niezależne od Z
t
, to
ε
t
jest białym szumem.
Estymacji parametrów modelu ARCH(q) można dokonywać metodą największej
wiarygodności. Dla badanej próby stóp zwrotu od Z
1
do Z
N
należy zmaksymalizować
następującą funkcję
∑
∑
=
=
⋅
−
⋅
−
⋅
−
=
N
t
t
t
N
t
t
c
h
Z
c
h
N
L
1
2
1
)
(
2
1
)
(
ln
2
1
2
ln
2
ln
π
,
(6)
gdzie:
lnL – logarytm funkcji wiarygodności,
h
t
(c) – szacowana funkcja wariancji warunkowej z parametrami c
i
.
6
Zob. A. Weron, R. Weron [1998], s. 302.
Model przyjmuje tym większe wartości, im większą wartość q przyjmiemy do budowy modelu.
Wiąże się to z mnogością szacowanych parametrów funkcji, a co za tym idzie, wzrasta
prawdopodobieństwo popełniania błędów dokładności szacunków. W celu wyeliminowania
takiej zależności można do funkcji celu dodać warunki brzegowe, tworząc w ten sposób
podstawy optymalizacji modelu. Warunkami takimi mogą być kryteria Akaikego [1974] –
AIC(q) lub Schwarza [1978] – SC(q)
N
q
L
q
SC
q
L
q
AIC
ln
ln
2
)
(
2
ln
2
)
(
⋅
+
⋅
−
=
⋅
+
⋅
−
=
,
(7)
W obu tych kryteriach należy dążyć do uzyskania jak najmniejszej wartości AIC(q) oraz SC(q).
7
Zob. A. Weron, R. Weron [1998], s. 303.
W przypadku modeli ARCH często zdarza się jednak, że nie można uniknąć problemu
związanego z najlepszym dopasowaniem modelu przy dużych wartościach q. Jest to przyczyną
powstania modeli uogólnionych GARCH (Generalised AutoRegressive Conditional
Heteroscedastic). Po raz pierwszy GARCH(p,q) został zaproponowany w 1986 roku przez
ucznia R.F. Engla, T. Bollersleva. Jego zasadniczą postać można przedstawić za pomocą
funkcji
∑
∑
=
−
=
−
⋅
+
⋅
+
=
p
i
i
t
i
q
i
i
t
i
t
h
b
Z
c
c
h
1
1
2
0
,
(8)
gdzie c
i
i b
i
– są dodatnie.
W tej sytuacji należy zaznaczyć, że warunkowa wariancja h
t
zależy nie tylko od poprzednich
wartości szeregu, ale również od wariancji warunkowych h
t-i
. Estymacji tego modelu dokonuje
się na podstawie metod analogicznych do estymacji ARCH, na przykład metody największej
wiarygodności.
8
Zob. A. Weron, R. Weron [1998], s. 303.
3. Zmienność wyznaczana w oparciu o proces EWMA
Mniej skomplikowane w zastosowaniu od procedur ARCH i GARCH, a dające równie dużą
dokładność, jest podejście wykorzystujące wykładnicze średnie ruchome tak zwane EWMA (ang.
Exponentialy Weighted Moving Average), które zostało opracowane i jest stosowane przez
amerykański bank J.P. Morgan pod ogólną nazwą RiskMetrics
. Polega ono przypisaniu średnim
ruchomym wykładniczego systemu wag, co powoduje, że przyszłe prognozy opierają się na
najbardziej aktualnych danych i nie są zniekształcane przez nieaktualne bądź historycznie
nieistotne. Wygładzanie za pomocą funkcji wykładniczej nadaje zatem bieżącym danym wyższe
wagi niż zdezaktualizowanym.
9
Por. J.P. Morgan [1996].
Zmienność otrzymywaną na podstawie algorytmu EWMA opisuje następująca formuła
rekurencyjna
2
2
0
1
)
1
(
)
1
(
t
i
i
t
i
t
r
r
λ
λσ
λ
λ
σ
−
+
=
−
=
∑
∞
=
−
+
, (9)
gdzie:
λ – parametr wagowy (współczynnik wykładniczy),
r
t
– logarytm naturalny zmiany ceny danego instrumentu.
W odniesieniu do parametru r
t
zakłada się, że
− wariancje cechy {r
t
}
są heteroscedastyczne i zautokorelowane,
− kowariancje cech {r
it
}
są zautokorelowane i mają własności dynamiczne,
− rozkłady cech {r
it
} można aproksymować rozkładem normalnym,
− w modelach dynamiki dla krótkich okresów można założyć, że wartość oczekiwana zmiany
równa jest zeru.
10
Zob. S. Grzesiak, P. Konieczny [1998].
11
Zob. S. Grzesiak, J. Maliszewski [1999], s. 12.
Praktycznym problemem pojawiającym się przy korzystaniu z algorytmu EWMA jest
określenie początkowej wariancji szeregu czasowego. Niezbędne jest do tego wyznaczenie
minimalnej liczby obserwacji, na których podstawie będzie ona szacowana. W tym celu stosuje
się metrykę
∑
∞
=
∞
−
=
Ω
K
t
t
K
λ
λ
)
1
(
.
(10)
Przyrównując
do poziomu tolerancji
λ
∞
Ω
K
L
, po rozwiązaniu równania (10) ze względu na K
otrzymuje się efektywną liczbę obserwacji niezbędną do wyznaczenia poczatkowej wariancji:
λ
λ
ln
ln
L
K
=
.
(11)
12
Zob. S. Grzesiak, P. Konieczny [1998].
Współczynnik wagowy
λ
, często określany jako czynnik wygasania, ustalany jest
indywidualnie. Twórcy RiskMetrics jego wartość dla danych dziennych ustalili na poziomie
0,94, a dla danych miesięcznych – 0,97. Swoje obliczenia oparli na metodzie statystycznej
znanej jako „błąd metody najmniejszych kwadratów”
. Bazując na tej metodzie, parametr
λ
ma
minimalizować średni błąd kwadratowy prognozy (Root Mean Square Error):
(
)
∑
=
+
+
−
=
T
t
t
t
t
r
T
RMSE
1
2
2
/
1
2
1
)
(
ˆ
1
λ
σ
,
(12)
gdzie:
T – liczba budowanych prognoz,
2
/
1
ˆ
t
t
+
σ
– prognoza wariancji na okres t+1 sporządzona w okresie t przy danym parametrze
λ
.
13
Zob. J.P. Morgan [1996], s. 90-100.
W praktyce optymalną wielkość czynnika wagowego określa się w sposób iteracyjny przez
szukanie najmniejszych wielkości RMSE dla różnych wartości
λ
. Wagi otrzymane przez
twórców RiskMetrics zostały skrytykowane przez C. Alexander, której zdaniem waga równa
0,97 może wzmocnić efekt cienia, a nie osłabić
. W rezultacie pojedyncze zawirowania na
rynku kapitałowym uwzględniane są w prognozowanych wartościach przez dłuższy czas. Efekt
cienia w znacznym stopniu ogranicza utrzymywanie współczynnika wykładniczego na niskim
poziomie, między 0,5 a 0,7. Ma to jednak znaczącą wadę – występuje błąd w próbkowaniu,
przejawiający się w oparciu prognozy wyłącznie na najnowszych danych.
14
Zob. C. Alexander [1996], s. 237.
4. Implikowany parametr zmienności
Implikowany parametr zmienności, w przeciwieństwie do wcześniej opisanych metod,
wyznaczany jest w oparciu o bieżące dane, stąd często określany jest jako zmienność przyszła
lub wynikowa
. Pierwsze wzmianki o tej metodzie można znaleźć w pracach H.A. Latané i R.J.
Rendlemana
oraz R. Schmalensee i R.A. Trippi’ego
Jest to metoda wykorzystująca równanie określające cenę opcji, czyli opierająca się
zarówno na instrumentach rynku natychmiastowego, jak i terminowego. Traktując zmienność
jako niewiadomą, przy pozostałych wszystkich elementach dokładnie określonych, wyznacza się
tak zwany implikowany parametr zmienności wynikający z rynkowej ceny opcji. Przedstawić go
można jako funkcję ceny opcji, ceny wykonania, ceny waloru bazowego, czasu i stopy
procentowej:
σ
= f (v, S, X, t, r). Dla opcji akcyjnych dodatkową zmienną jest dywidenda, a dla
walutowych – zagraniczna stopa procentowa wolna od ryzyka.
15
Zob. Ch.L. Dunis [2001], s. 174-176.
16
Zob. H.A. Latané, R.J. Rendleman [1976], s. 369-381.
17
Zob. R. Schmalensee, R.A. Trippi [1978], s. 129-147.
Wyznaczając zmienność w oparciu o model Blacka-Scholesa iteracyjne wyszukuje się
najlepsze rozwiązanie dla równania opisującego cenę opcji kupna (c) lub sprzedaży (p):
)
(
)
(
2
)
(
1
d
N
e
X
d
N
S
c
t
T
r
−
−
⋅
−
⋅
=
(13)
(14)
)
(
)
(
1
2
)
(
d
N
S
d
N
e
X
p
t
T
r
−
⋅
−
−
⋅
=
−
−
gdzie:
)
(
)
(
)
2
(
)
(
ln
2
1
t
T
t
T
r
X
S
d
−
−
⋅
+
+
=
σ
σ
)
(
)
(
)
(
)
2
(
)
(
ln
1
2
2
t
T
d
t
T
t
T
r
X
S
d
−
−
=
−
−
⋅
−
+
=
σ
σ
σ
S – wartość waloru bazowego w chwili t,
X – cena wykonania opcji,
r – krajowa stopa procentowa wolna od ryzyka,
T – okres ważności opcji,
σ
– zmienność ceny waloru bazowego,
N(x) – dystrybuanta standaryzowanej zmiennej o rozkładzie normalnym.
W przypadku zmienności implikowanej największą wadą jest niedoskonałość modeli
wyceny, które mogą zafałszować cenę opcji, a tym samym szacunek zmienności. Konsekwencją
braku spełnienia pewnych ich założeń oraz braku przejrzystości danych, jak podaje C. Butler
są następujące słabości:
− założenie o stałości wariancji pomija zmienność samej zmienności,
− uwzględnienie marży zysku oraz kosztu zawarcia transakcji powoduje przeszacowanie opcji,
co prowadzi do wyższego poziomu zmienności od rzeczywiście występującej,
− zmienność wyznaczana jest dla konkretnego dnia i często nie powinno jej się przenosić na
dłuższe okresy,
− występuje ograniczona liczba opcji giełdowych, na których podstawie można szacować
zmienność.
18
Zob. C. Butler [2001], s. 205-207.
W wyniku niedoskonałości modeli wyceny pojawia się efekt nazywany „uśmiechem volatility”.
Polega on na tym, że wartość implikowanego parametru zmienności dla opcji mocno out-of-the-
money jest nieco wyższa od zmienności dla opcji at-the-money.
Pomimo wielu ograniczeń uważa się, że jakość danych otrzymywanych poprzez kalkulację
zmienności implikowanej jest lepsza od prostych procedur dla danych historycznych. Stąd
zasadne jest ich stosowanie w każdym przypadku, gdy tylko są osiągalne. Nie oznacza to jednak,
że zmienności szacowane na podstawie danych historycznych nie mogą być precyzyjne, czego
dowiodły wspominane wcześniej badania K. Kronera, K.P. Kneafsey’ego i S. Claessensa.
5. Badanie empiryczne
Porównanie metod szacowania zmienności objęło indeks WIG 20. Wybór instrumentu
podyktowany był najdłuższą historią opcji indeksowych, które występują w obrocie na Giełdzie
Papierów Wartościowych w Warszawie od 20 września 2003 roku. W porównaniu do opcji
akcyjnych, które zostały wprowadzone do obrotu 17 października 2005 roku charakteryzują się
większa liczbą notowań, co ma szczególne znaczenie przy wyznaczaniu implikowanego
parametru zmienności. Przy wyznaczaniu zmienności na podstawie danych historycznych
zgodnie z wcześniej prowadzonymi badaniami przyjęto, że:
− zmienność roczna szacowana jest w oparciu o dni notowań
− zmienność szacowana była na podstawie okresu półrocznego Wyniki przeprowadzonych
badań dla walorów bazowych analizowanych instrumentów pochodnych wskazują, że zasadne
jest przyjęcie n = 180
19
Sposobem weryfikacji, czy zmienność jest taka sama w dniach sesyjnych i roboczych, może być porównanie różnic między kursami w kolejnych dniach tygodnia z różnicami między
poniedziałkiem a piątkiem. Przeprowadzone badania różnic potwierdzają zasadność przyjęcia dni sesyjnych – por. A. Majewska [1999a]. Połowa zmian między kursami w kolejnych dniach
tygodnia jest większa od zmian weekendowych, zatem nie występuje zwiększona zmienność w okresie wolnym od pracy.
Do wyznaczenia zmienności według procedury EWMA parametr wagowy
λ
został przyjęty
na czterech poziomach: 0,95, 0,90, 0,7, 0,5. Dwa pierwsze ustalono na podstawie metodologii
J.P. Morgana, natomiast dwa kolejne to propozycje C. Alexander. W przypadku modeli
ekonometrycznych do szacowania zmienności posłużyły modele: ARCH(1), ARCH(2),
GARCH(1,1) oraz GARCH(2,2). Nie estymowano parametrów modeli z większą liczbą
opóźnień, ponieważ błędy estymacji byłyby zbyt duże.
W
przeciwieństwie do zmienności wyznaczanej na podstawie danych historycznych,
implikowany parametr zmienności możliwy był tylko do określenia dla dni, w których notowane
były opcje na WIG 20. Wyniki otrzymane dla poszczególnych metod przedstawiono na
wykresach 1-3. Na wykresach 1 i 2 przedstawiono zmienność oszacowaną na podstawie danych
historycznych w porównaniu do klasycznej, natomiast na wykresie 3 implikowany parametr
zmienności w porównaniu do klasycznej.
20
Wyniki przeprowadzonych badań dla walorów bazowych instrumentów pochodnych wskazują, że zasadne jest przyjęcie n = 180 – por. A. Majewska [2000d], s. 161-170. Wartości
otrzymane dla n = 180 nie zmieniają się tak gwałtownie jak to ma miejsce przy n = 10. Ponadto od n = 90 parametr zmienności zaczyna być stabilny i wraz ze zwiększaniem liczby obserwacji
mniej reaguje na zmiany.
Wykres 1. Zmienność wyznaczona procedurą EWMA w porównaniu do klasycznej.
0,18
0,2
0,22
0,24
0,26
0,28
0,3
0,32
0,34
200
6-0
6-1
9
20
06
-0
6-2
6
200
6-
07
-0
3
20
06
-0
7-1
0
20
06-
07
-1
7
200
6-
07
-2
4
20
06
-0
7-3
1
200
6-
08
-0
7
20
06
-0
8-1
4
200
6-
08
-2
1
200
6-0
8-2
8
200
6-
09
-0
4
200
6-
09
-1
1
20
06
-0
9-1
8
200
6-
09
-2
5
200
6-
10
-0
2
odchylenie standardowe
waga 0,5
waga 0,7
waga 0,9
waga 0,95
Źródło: opracowanie własne.
Na podstawie powyższego wykresu można zauważyć, że niezależnie od przyjętego poziomu
wagi zmienność wyznaczona na podstawie procedury EWMA była niższa od klasycznej.
Ponadto, im wyższa była stała wygładzania, tym wyższy był poziom zmienność. Najbardziej
zbliżony do odchylenia standardowego otrzymano dla
λ
= 0,95. Jest to zgodne z teorią,
ponieważ dla klasycznej zmienności
λ
= 1. Wysokie wagi powodują, że zmienność szacowana
jest w dużej mierze na podstawie wcześniejszych danych i pojedyncze zawirowanie powodujące
nagły wzrost zmienności utrzymuje ją przez dłuższy czas na podwyższonym poziomie.
Wykres 2. Zmienność wyznaczona modelami ekonometrycznymi w porównaniu do klasycznej.
0,27
0,275
0,28
0,285
0,29
0,295
0,3
0,305
0,31
0,315
20
06
-06
-2
2
20
06
-06
-2
9
20
06
-0
7-0
6
20
06
-0
7-1
3
20
06-0
7-20
20
06-0
7-27
20
06-0
8-03
20
06-0
8-10
20
06
-0
8-1
7
20
06
-0
8-2
4
20
06-0
8-31
20
06-0
9-07
20
06-0
9-14
20
06-0
9-21
20
06-0
9-28
20
06-1
0-05
odchylenie standardowe
ARCH (1)
ARCH (2)
GARCH (1,1)
GARCH (2,2)
Źródło: opracowanie własne.
W porównaniu do procedury EWMA zmienność wyznaczona na podstawie modeli
ekonometrycznych była bardziej zbliżona do odchylenia standardowego. Pomiędzy
zastosowanymi modeli nie wystąpiły również tak duże różnice, jak w przypadku przyjęcia
różnych wag w procedurze EWMA. Podobnie do wcześniejszej metody szacunki zmienności
otrzymane na podstawie modeli ekonometrycznych ogólnie były niższe od odchylenia
standardowego. Analizując jednak poszczególne modele wystąpiły już znaczące różnice:
− dla modelu ARCH (1): 73% przypadków niższych poziomów zmienności,
− dla modelu ARCH (2): 57% przypadków niższych poziomów zmienności,
− dla modelu GARCH (1,1): 52% przypadków niższych poziomów zmienności,
− dla modelu GARCH (2,2): 53% przypadków niższych poziomów zmienności.
Wykres 3. Implikowany parametr zmienności w porównaniu do klasycznej.
0,2
0,25
0,3
0,35
0,4
0,45
20
06-
06
-1
9
20
06-
06
-26
20
06
-07
-0
3
20
06-
07
-1
0
20
06-
07
-17
20
06
-07
-2
4
20
06-
07
-31
20
06
-08
-07
20
06-
08
-1
4
20
06-
08
-21
20
06
-08
-28
20
06-
09
-0
4
20
06-
09
-11
20
06
-09
-18
20
06-
09
-2
5
20
06-
10
-02
odchylenie standardowe
implikowana
implikowana (opcje kupna)
implikowana (opcje sprzedaży)
Źródło: opracowanie własne.
Porównując zmienność implikowaną z pozostałymi metodami dla większości przypadków
osiągała ona większe wartości od pozostałych szacunków. Wskazywałoby to, że wyceniając
opcje, giełda zakładała większe prawdopodobieństwo zmian walorów bazowych.
Charakterystyczne jest, że wyznaczając implikowany parametr zmienności w oparciu o ceny
opcji sprzedaży we wszystkich przypadkach był on wyższy od odchylenia standardowego.
Opierając się na opcjach kupna, sytuacja była odwrotna: w 82% badanych przypadków
zmienność implikowana kształtowała się poniżej klasycznej. Większe zróżnicowanie między
analizowanymi zmiennościami wystąpiło dla szacunków wyznaczanych na podstawie opcji
sprzedaży, dla których średnia różnica między zmiennością implikowaną a klasyczną wyniosła
18%. W przypadku opcji kupna była ona dwukrotnie mniejsza.
Decydujący wpływ na wyniki zmienności implikowanej miały ceny opcji. Dla opcji kupna
większość cen (81%) była niedoszacowana, w przeciwieństwie do opcji sprzedaży, w przypadku
których aż 96% cen była przeszacowanych. Ponadto większe różnice między ceną teoretyczną a
rynkową wystąpiły dla opcji sprzedaży.
Podsumowanie
Podsumowując, nie ma jednoznacznej odpowiedzi na pytanie, jaka zmienność powinna być
zastosowana w procesie wyceny instrumentów pochodnych. Wyniki przeprowadzonych badań
wskazują, że powszechnie stosowane odchylenie standardowe jest miarą bardzo nieprecyzyjną –
różna liczba obserwacji wpływa na różne jego szacunki. W przypadku modeli typu ARCH, poza
złożonym procesem obliczeniowym, występowanie poziomu, poniżej którego zmienność nie
spada, może powodować znaczące błędy. Z kolei wyznaczając implikowany parametr
zmienności, należy pamiętać, że dobre rezultaty daje on wówczas, gdy zarówno rynek kasowy
jak i terminowy charakteryzuje się dużą płynnością. W Polsce, gdzie rynek terminowy dla
niektórych walorów nie jest jeszcze dostatecznie płynny, zastosowanie tej metody może
doprowadzić więc do błędnych szacunków. Przeprowadzone badania wskazują, że w większości
przypadków najlepszą metodą szacowania zmienności okazała się procedura EWMA.