PI 08 DOCPoprawiony DOC


10 -

INWESTOWANIE

Kamila i Krzysztof Najman

Sieci neuronowe - wykorzystanie do prognozowania WIG

Sieci neuronowe wyrosły z badań prowadzonych nad sztuczną inteligencją.Próbują naśladować wysoką tolerancję na uszkodzenia i zdolność samouczenia biologicznego systemu neuronowego. W wielu przypadkach stały się one podstawą zastosowania w tak nietypowych (z biologicznego punktu widzenia) dziedzinach, jak finanse, inżynieria, geologia czy fizyka. Gdziekolwiek pojawia się problem predykcji, klasyfikacji lub kontroli, sieci neuronowe są brane pod uwagę jako alternatywne względem innych metod analitycznych. Rezultaty są często znakomite.

Ten sukces może być przypisany pewnym kluczowym czynnikom, jak odporność i zdolność uczenia. Sieci neuronowe są skomplikowaną techniką, zdolną do modelowania niezmiernie złożonych systemów. Można je traktować jako nowoczesne systemy obliczeniowe, które przetwarzają informacje, wzorując się na zjawiskach zachodzących w mózgu człowieka. Informacje mają tu jednak charakter danych numerycznych.Zalety sieci neuronowych.Sieć neuronowa działa na matematycznych zbiorach danych (wektorach, macierzach), które przybierają postać określonych porcji informacji. W odróżnieniu od mózgu, gdzie dane wejściowe są odbierane za pośrednictwem pięciu zmysłów, sztuczne sieci neuronowe odbierają te dane za pomocą liczb. W wielu zastosowaniach sztucznych sieci neuronowych operują one jedynie zerami i jedynkami, które oznaczają, że dana zmienna jest obecna lub nie.W praktyce sztuczna sieć neuronowa (SN) to program komputerowy, który naśladuje zdolność ludzkiego mózgu do klasyfikacji, rozpoznawania wzorców, analizy i kompresji obrazów, sporządzania prognoz lub podejmowania decyzji na bazie przeszłych doświadczeń. SN to uproszczony model mózgu, składający się z dużej liczby elementów przetwarzających informacje. Elementy nazywane są neuronami, choć w stosunku do rzeczywistych komórek nerwowych ich funkcje są bardzo ograniczone. Topologia połączeń oraz ich parametry stanowią program działania sieci, a sygnały pojawiające się na jej wyjściach, w odpowiedzi na określone sygnały wejściowe, są rozwiązaniami stawianych jej zadań.Rozmaitość badanych sztucznych sieci neuronowych jest obecnie ogromna. Poszczególne neurony można modelować jako proste sumatory ważone, złożone układy równań różniczkowych lub dowolne modele pośrednie. Połączenia między neuronami mogą być zorganizowane w warstwy tak, aby informacje przepływały tylko w jednym kierunku albo aby mogły krążyć po całej sieci w sposób cykliczny. Wszystkie neurony mogą zmieniać stan jednocześnie albo można wprowadzić opóźnienia. Wszystkie odpowiedzi mogą być ściśle deterministyczne albo dopuszcza się zachowanie przypadkowe. Warianty można mnożyć...SN bywają na ogół lepsze od innych metod analitycznych przy spełnieniu następujących warunków:1. Dane, z których trzeba wyciągnąć wnioski, są „rozmyte”. W przypadku kiedy danymi wejściowymi są ludzkie opinie, źle określone kategorie lub dane są obarczone dość dużymi błędami, odporne zachowanie sieci neuronowych jest ich ważną zaletą.2. Jedną z głównych zalet sieci neuronowej jest jej zdolność do odkrywania w zbiorze danych wzorców, które są tak niejasne, że nie wykrywają ich zmysły badaczy i tradycyjne metody statystyczne (np. przy przewidywaniu wypłacalności pożyczkobiorców na podstawie historii ich wydatków i wpływów wykazano, że SN lepiej „podejmują decyzje” niż doświadczony personel).3. Dane wykazują znaczną, nieoczekiwaną nieliniowość. Sieci neuronowe mają bardzo duże zdolności adaptacyjne.4. Dane są chaotyczne. Chaos można wykryć w wahaniach cen na giełdzie. Takie zachowanie nie daje szans większości innych metod, ale SN są na ogół odporne na tego rodzaju sygnały wejściowe.Nie ma sensu stosowanie sieci, gdy są znane dokładne, klasyczne (deterministyczne) rozwiązania badanych problemów. Wówczas włożony w ich budowę trud się nie opłaci. Otrzymamy bowiem, co najwyżej, rezultaty identyczne z uzyskanymi w metodach klasycznych. Wiele sieci neuronowych charakteryzuje się zarówno mocnymi podstawami teoretycznymi, jak i użytecznością w praktyce. Ich wadą jest natomiast to, że w porównaniu z ludzkim mózgiem, który składa się z miliardów neuronów, sieć ma ich zaledwie kilkaset. Sieć mechanicznie rozwiązuje tylko zadane problemy, i to tylko jedno zadanie w danym czasie. Można więc raczej mówić o specjalizacji sieci neuronowych.Budowa sieci neuronowych.Dodatkowym atutem SN jest wygoda ich programowania przez uczenie. Zamiast projektować algorytm wymaganego przetwarzania informacji i dzielić go na moduły, nadające się do współbieżnego wykonywania - stawia się sieci przykładowe zadania i automatycznie, zgodnie z założoną strategią uczenia, modyfikuje się połączenia elementów sieci w ich współczynniki wagowe.W ten sposób sieć programuje się sama, co czasem prowadzi do rozwiązań w bardzo krótkim czasie, a innym razem może wymagać tysięcy iteracji. Zawsze jednak przebiega w sposób samoczynny, a więc nie absorbujący dla człowieka, poszukującego określonych rozwiązań1. Większość współcześnie tworzonych sieci neuronowych ma budowę warstwową, przy czym ze względu na dostępność w trakcie procesu uczenia wyróżnia się warstwy: wejściową, wyjściową oraz tzw. warstwy ukryte2.Na rys. 1. przedstawiona jest przykładowa struktura sieci neuronowej, budowana dla potrzeb prognozowania WIG na podstawie przeszłych notowań. 80% wszystkich zastosowań sieci neuronowych dotyczy tzw. sieci wielowarstwowych, które charakteryzują się brakiem sprzężeń zwrotnych. Przesyłają one sygnały od warstwy wejściowej, przez warstwy ukryte (jeśli występują), do warstwy wyjściowej. Składają się one z trzech bądź większej liczby warstw neuronów.Pierwsza warstwa, określana mianem wejściowej, zawiera tyle neuronów, ile jest zmiennych wejściowych. Warstwa ta otrzymuje dane z zewnątrz sieci. Każdy jej neuron łączy się ze wszystkimi neuronami z obszaru ukrytego. Obszar ukryty składa się niekiedy z więcej niż jednej warstwy; każdy neuron z pierwszej warstwy ukrytej powiązany jest wówczas ze wszystkimi neuronami warstwy drugiej. Jeżeli tworzą go więcej niż dwie warstwy, neurony z drugiej łączą się ze wszystkimi neuronami z warstwy trzeciej. Najkrócej można powiedzieć, że warstwy te stanowią narzędzie służące do takiego przetwarzania sygnałów wejściowych, by warstwa wyjściowa mogła łatwiej znaleźć potrzebną odpowiedź.Działanie neuronów warstw pośrednich nie jest bezpośrednio widoczne dla użytkownika sieci - w tym właśnie sensie można mówić, że są one ukryte. Neurony warstwy ukrytej pełnią rolę pośredników (pośredniczą między wejściem i wyjściem oraz wypracowują zestawy wstępnie przetworzonych danych wejściowych, z których będą korzystać neurony dalszych warstw przy określeniu końcowego wyniku). Ostatnia warstwa wchodząca w skład obszaru ukrytego połączona jest z warstwą wyjściową.Istnieje także jeden lub więcej neuronów wyjściowych. Dzięki nim otrzymujemy wynik działania sieci. Każdy neuron wyjściowy przyjmuje sygnały wejściowe, przetwarza je i opracowuje sygnał wyjściowy. Sygnały te stanowią rozwiązania zadań stawianych sieci.Jak to się dzieje, że sieć zdobywa i gromadzi wiedzę? To siła powiązań między różnymi neuronami sprawia, że na pozór identyczne sieci różnią się od siebie. Siła powiązań między dwoma neuronami to waga. Mocne powiązanie ma większą wagę niż słabe. Ważne zmienne wejściowe otrzymują duże wartości wag. Wyrażają one stopień ważności informacji docierających wejściem. Gdy waga jest większa od 1, to sygnał wchodzący określonym wejściem jest wzmocniony, gdy ma wartość mniejszą od 1 - jest stłumiony bądź też można mówić o wejściu hamującym (gdy waga ma wartość ujemną).Neurony są powiązane w sieć za pomocą połączeń (wag) modyfikowanych w trakcie uczenia. Każdy neuron ma wiele wejść, za pomocą których odbiera sygnały od innych neuronów oraz sygnały wejściowe podawane do sieci jako dane do obliczeń. Sztuka polega na tym, aby tak dobrać wagi, by wszystkie neurony wykonywały dokładnie takie czynności, jakich się od nich wymaga. W sieci jest jednak tyle neuronów, że nie jesteśmy w stanie zdefiniować wag potrzebnych dla wszystkich wejść.Możemy jednak rozpocząć działanie sieci z przypadkowym zestawem wag i stopniowo je poprawiać. Neuron sam potrafi określić, które ze swoich wag ma zmienić, w którą stronę i o ile. Proces zmiany wag przebiega w każdym neuronie sieci w sposób spontaniczny i niezależny. Proces uczenia może być prowadzony równocześnie we wszystkich neuronach sieci.Pewne elementy w sieci neuronowej są zdeterminowane, m.in. liczba elementów wejściowych i wyjściowych oraz zasada połączeń między kolejnymi warstwami. Są jednak również elementy zmienne, które trzeba określić samemu: liczba warstw ukrytych (jedna czy kilka) oraz liczba elementów w warstwach (warstwie) ukrytych. Elementy te ustala się zwykle arbitralnie.Nie można jednak zaprojektować sieci o zbyt małej liczbie elementów. Jeżeli występuje za mało neuronów, proces uczenia może się definitywnie nie udać, gdyż sieć nie ma szans odwzorować w swojej strukturze wszystkich niuansów rozwiązywanego zadania. Nie można także „przedobrzyć”. Zastosowanie zbyt wielu warstw ukrytych prowadzi do znacznego pogorszenia sprawności procesu uczenia, dlatego często lepsze wyniki daje sieć o mniejszej liczbie warstw ukrytych niż sieć z większą ich liczbą. Również ustalenie nadmiernej liczby neuronów w warstwie ukrytej prowadzi do niekorzystnego efektu nazywanego „uczeniem się na pamięć”. Sieć w ten sposób, zamiast uogólniania nabywanych wiadomości, zapamiętuje reguły.Cykl działania sieci neuronowej można podzielić na:l etap nauki, kiedy sieć gromadzi informacje potrzebne jej do określenia, co i jak ma robić,l etap normalnego działania (nazywany czasem egzaminem), kiedy na podstawie zdobytej wiedzy sieć musi rozwiązywać konkretne nowe zadania.Sieć neuronowa uczy się na dwa sposoby. Najczęstsze jest uczenie pod nadzorem. Polega ono na tym, że sieci podaje się przykłady poprawnego postępowania, które powinna potem naśladować w swoim bieżącym działaniu. Zbieramy wiele próbek odgrywających rolę przykładów. Każda próbka zbioru uczącego całkowicie określa zarówno wszystkie wejścia, jak i wyjścia wymagane przy prezentacji tych danych wejściowych. Następnie wybieramy podzbiór zbioru uczącego i podajemy próbki z tego podzbioru na wejście sieci. Dla każdej próbki porównujemy aktualny sygnał wejściowy sieci z sygnałem wyjściowym, który chcielibyśmy otrzymać. Po przetworzeniu całego podzbioru próbek uczących korygujemy wagi łączące neurony w sieci, w celu zmniejszenia miary błędu jej działania.Jedna prezentacja podzbioru próbek uczących wraz z odpowiednią korekcją wag jest nazywana EPOKĄ. Liczba próbek podzbioru jest nazywana rozmiarem epoki. Epoki uczenia powtarzamy aż do osiągnięcia zadowalającej jakości przetwarzania sieci.Inną podstawową metodą uczenia jest uczenie bez nadzoru. W tym przypadku proces uczenia sieci polega na wykryciu istotnych cech zbioru uczącego i wykorzystaniu ich do grupowania sygnałów wejściowych na klasy, które sieć potrafi rozróżniać. Sieć potrafi wykorzystać same obserwacje wejściowe i zbudować na ich podstawie algorytm działania automatycznie wykrywający klasy powtarzających się sygnałów wejściowych i rozpoznawać te typowe wzorce sygnałów.Proces sprawdzania użyteczności sieci nazywamy weryfikacją. Polega on na rozdzieleniu zbioru znanych przypadków na dwa zbiory rozłączne. Jeden to zbiór uczący, wykorzystywany do uczenia sieci, drugi - to zbiór testowy, używany do egzaminowania sieci po zakończeniu uczenia.Uczenie i stosowanie sieci wymaga postępowania według etapów:1) określenie prognozowanej zmiennej,2) gromadzenie zbiorów danych lub szeregów czasowych związanych z prognozowanym zjawiskiem,3) wstępne przetwarzanie danych tak, aby łączyły informacje lub przedstawiały je w bardziej użyteczny sposób (skalowanie, normalizacja, standaryzacja, zmniejszanie wymiarowości problemu),4) wyodrębnienie uczącego i testowego zbioru danych, czyli danych do jej uczenia i do przyszłego testowania,5) wybór odpowiedniej architektury sieci: ustalenie liczby warstw, liczby neuronów w warstwach ukrytych,6) wybór odpowiedniego algorytmu uczenia (treningowego) i ustalenie jego parametrów,7) uczenie sieci,8) weryfikacja jakości nauczonej sieci,9) zastosowanie sieci. Do nauczonej sieci wczytujemy nowe zbiory danych lub dane bieżące w celu otrzymania prognozy czy dokonania klasyfikacji3.Jeżeli przestrzegamy tych zasad i mamy trochę szczęścia, uda nam się zbudować poprawnie działającą sieć.Prognozowanie kierunku zmian WIGBadania empiryczne zastosowań sieci neuronowych na rynkach kapitałowych są prowadzone od bardzo dawna. Zwykle, budując model do celów prognostycznych, możemy zastosować dwa podejścia. Pierwsze to podejście autoregresyjne, które oznacza, że badany proces będziemy modelowali jedynie na podstawie jego własnych opóźnień. A więc prognozujemy WIG jedynie na podstawie przeszłych jego notowań. Drugie podejście to wprowadzenie do modelowania dodatkowych zmiennych objaśniających, np. wartości wskaźników technicznych. W dalszej części artykułu rozpatrzymy oba przypadki.Dobrym wstępem do badań nad możliwościami zastosowania sztucznych sieci neuronowych na GPW jest próba prognozowania kierunku zmian WIG. Jest to z pewnością informacja wielce pożądana. Spróbujmy więc zbudować prognozę kierunku zmian na następną sesję. Danymi wejściowymi będą notowania WIG z poprzednich sesji. Liczba notowań, które trzeba uwzględnić, jest osobnym problemem i powinna być optymalizowana.Dane należy przygotować tak, aby były one dogodne dla wybranego typu sieci. W przeciwieństwie do Gately'ego uważamy, że nie należy stosować wartości -1 i 1 czy 0 i 1 dla oznaczania wzrostu i spadku w sieciach warstwowych uczonych algorytmem propagacji wstecznej. Funkcje aktywacji (logistyczna czy tangens hiperboliczny) nie mogą bowiem osiągnąć takich skrajnych wartości. Skutkuje to zwykle tym, że sieć nie nauczy się badanego problemu.Dla problemu klasyfikacyjnego, za jaki można uznać tego typu prognozę, proponujemy wykorzystać sieć probabilistyczną. Dane przygotowujemy więc następująco: sesja wzrostowa: klasa 1, sesja spadkowa: klasa 2. Sesji o identycznych kolejnych wartościach WIG można nie uwzględniać. W całej historii warszawskiej GPW było ich bardzo mało.Analizie poddajemy 1000 próbek począwszy od 3514 sesji. Ponieważ nie wiadomo z góry, ile opóźnień uwzględnić w próbce uczącej, znajdziemy ją doświadczalnie. Rozpoczniemy od uwzględnienia jedynie notowań „wczorajszych”, a zakończymy biorąc pod uwagę 200 poprzednich sesji. Prognozujemy zmiany kierunku WIG dla kolejnych 20 sesji. Sieć neuronowa na wyjściu poda nam, czy „jej zdaniem” następna sesja będzie wzrostowa czy spadkowa. Nie powinno się ustalać poziomów braku wyraźnego sygnału. Jest to bowiem trzeci wariant odpowiedzi, którego sieć się nie uczyła. Takie poziomy są zresztą zawsze subiektywne5 i bardzo ryzykowne.Widać, że najlepsze prognozy popełniały 25% błędów (rys. 2). Takie wyniki uzyskiwały sieci o 100, 108 i 172 uwzględnionych opóźnieniach WIG. Zdając się na ślepy los, mielibyśmy 50% szans na wskazanie prawidłowego kierunku zmian. Sieć pozwoliła nam zyskać dodatkowe 25%.Tu ważna uwaga. Należy pamiętać, że sieć uczy się na przykładach. Jeżeli obserwujemy istotne zmiany jakościowe w kształtowaniu się prognozowanego szeregu w stosunku do przeszłości, to nie wymagajmy od SN, aby umiała je trafnie klasyfikować. W takiej sytuacji należy sieć wytrenować na nowym, poszerzonym zbiorze danych. W praktyce warto to zrobić raz na miesiąc (czyli po ok. 20 sesjach).Nie ma więc sensu badanie zdolności sieci w dłuższym horyzoncie czasowym - daleko wybiegającym poza okres uwzględniony w zbiorze danych uczących. Jest to jedna z przyczyn, dla której gotowe oprogramowanie, budujące strategie inwestycyjne na bazie SN, najpierw sprawdza się, później nie, następnie znowu działa dobrze itd...Bardzo przydatna dla inwestora może być informacja o spodziewanym kierunku zmian na rynku w najbliższym tygodniu. Spróbujemy więc zrobić prognozę na najbliższy tydzień. Jest to miara bardzo ogólna, wyrażająca jedynie „skłonności” rynku.Poszukiwania optymalnej sieci rozpoczniemy od przygotowania danych. W tym celu możliwe są dwa podejścia. Po pierwsze, możemy robić prognozy średniej wartości WIG na następny tydzień lub na następnych 5 sesji. Różnica jest istotna. W pierwszym przypadku wyznaczamy średnie wartości WIG dla każdego tygodnia. W drugim - wyznaczamy średnie 5-sesyjne.Należy zwrócić uwagę, że posługując się średnimi możemy znacznie skrócić liczbę dostępnych próbek uczących i testowych. Gdybyśmy szacowali średnie tygodniowe, próbek będzie tyle, ile tygodni, a więc liczba danych zmniejszy się pięciokrotnie! Przy średnich 5-sesyjnych strata będzie równa 4 sesje, a więc nieistotnie mało.Skupimy się na tym pierwszym podejściu. Postaramy się zrobić prognozy średniego poziomu WIG na kolejny tydzień. Optymalizację przeprowadzamy podobnie jak poprzednio. Ze względu na znacznie mniejszy zbiór danych uczących udało się uwzględnić maksymalnie 120 opóźnień. Próba ucząca liczyła 200 tygodni. Prognozy były szacowane na kolejnych 10 tygodni.Na rys. 3 widzimy procent błędów, jaki popełniały budowane sieci przy prognozach kierunku zmian przeciętnego tygodniowego poziomu WIG. Udało się zbudować kilkanaście sieci popełniających jedynie 10% błędów. Jedna sieć (o 14 opóźnieniach) nie popełniła ani jednego błędu na przestrzeni 10 tygodni! Analogicznie jak poprzednio, należy co ok. 10 tygodni wytrenować sieć ponownie.Prognozowaniewartości WIGDrugi - obok prognoz kierunku zmian - problem to prognozowanie wartości badanego waloru. Jest to uzupełnienie wcześniejszych analiz o wskaźnik skali zmian. Staramy się nie tylko ustalić kierunek zmian, ale i ich wielkość. Jest to zadanie dużo trudniejsze, ze względu na wymaganą wysoką precyzję.Przeciętne zmiany WIG w badanym okresie wynosiły średnio 190 pkt. z sesji na sesję (co do wartości bezwzględnej). Rozproszenie tych zmian wyniosło 287 pkt. Gdyby wyrazić te wartości w procentach, byłoby to odpowiednio 1,28% i 2,01%. Aby prognozy miały istotną wartość, błędy w dłuższych okresach powinny być mniejsze niż 1%, z mniejszym niż 2-proc. rozproszeniem! Jak widać, już z tego powodu jest to zadanie bardzo trudne.Analizy poprowadzimy w następujący sposób. Budujemy sieć (rys. 5) na podstawie wartości WIG z poprzednich sesji. Optymalna liczba uwzględnionych opóźnień będzie wyznaczona eksperymentalnie. Będziemy jej poszukiwać uwzględniając kolejno od 1 do 50 opóźnień. Tym razem zastosujemy sieć jednokierunkową, bez sprzężeń zwrotnych z jedną warstwą ukrytą. Jako algorytm uczący zastosujemy propagację wsteczną w szybko zbieżnej wersji Lavenberga-Marquardta. Ponieważ WIG przyjmuje jedynie wartości dodatnie, dane przeskalujemy do przedziału (0, 1). Jako że wszystkie wartości są dodatnie, wybierzemy funkcję aktywacji logistyczną.Liczbę neuronów ustalamy jako pierwiastek kwadratowy z liczby danych wejściowych. Liczbę tę możemy zwiększyć, gdyby nie udało się uzyskać zadowalających wyników. Krok uczenia ustalamy na 0,02, maksymalny czas uczenia pojedynczej sieci na 15 minut, maksymalną liczbę epok na 507. Sieć uczymy na 1000 próbkach. Prognozy wykonujemy na 50 kolejnych sesji. Każdą próbę uczenia i prognoz powtarzamy 10 razy. Jest to niezbędne, ponieważ sieć rozpoczyna naukę od losowych wartości wag. Jedne kombinacje będą „szczęśliwsze”, inne - mniej. Kolejne rysunki wyjaśnią to dokładnie.Rys. 4 ukazuje zależności między liczbą danych wejściowych a MAPE8. Niebieskie słupki prezentują strukturę statystyczną prognoz uzyskiwanych dla 10 sieci zbudowanych przy identycznych parametrach. Zaznaczone są (licząc od dołu): minimum, kwartyl pierwszy, mediana, kwartyl trzeci i maksimum uzyskanych błędów. Słupek niski oznacza, że w 10 próbach uzyskiwano podobne prognozy. Słupek wysoki oznacza, że wyniki te różniły się znacznie. Ponieważ wiele z nich wskazuje na istotną asymetrię prognoz, dodatkowo linią czerwoną oznaczono mediany prognoz.Minimalny błąd równy 0,81% uzyskano dla 26 opóźnień. Wynik jest znacznie lepszy niż założone minimum - 1,28%. Należy zauważyć, że prognozy dla 26 opóźnień są bardzo zróżnicowane (wysoki słupek), a mediana jest „nisko”. Oznacza to, że zdarzały się nieliczne prognozy znacznie gorsze.Sieci z jedną warstwą ukrytą są dość szybkie, jednak mogą być stosunkowo mało czułe. Aby zwiększyć czułość sieci (czyli jej zdolność do uchwycenia delikatnych zmian), można zwiększyć liczbę warstw ukrytych. Niekorzystną konsekwencją takiego zabiegu jest gwałtowne zwiększenie czasu uczenia sieci i jej wymagania co do ilości pamięci w komputerze. Sieć może się zacząć uczyć „szumu”, a więc losowych i nieistotnych zmian w danych uczących.Sprawdźmy więc, czy dodanie drugiej warstwy ukrytej nie pozwoli opracować lepszych prognoz. Wszystkie parametry uczenia sieci pozostają bez zmian. Dodajemy drugą warstwę ukrytą z liczbą neuronów równą liczbie w pierwszej warstwie ukrytej.Jak widzimy na wykresie 6, nie udało się uzyskać istotnej poprawy prognoz. Minimalny błąd 0,79% uzyskano dla 37 opóźnień. Również i tym razem rozproszenie prognoz jest spore. Czas analizy zwiększył się jednak trzykrotnie.Prognozy wartości WIG na podstawie wskaźników technicznych.Nawet podstawowe badania byłyby niepełne, gdybyśmy nie spróbowali przetestować użyteczności danych technicznych w prognozowaniu wartości WIG. Podstawową trudnością jest tutaj dobór wskaźników i ich parametrów. Uznaliśmy, że w prezentowanych badaniach zastosujemy jedynie najpopularniejsze wskaźniki z klasycznymi parametrami podawanymi przez Murphy'ego w jego „Analizie technicznej”9. Zbiór wskaźników jest następujący: 1) wstęga Bollingera (9, 2, -2), 2) CCI (20, 10, 100, -100), 3) MACD (12, 26, 9), 4) momentum (10), 5) średnie kroczące (4, 8, 9, 12, 18, 24) okresowe, 6) ważona średnia krocząca (9), 7) przesunięta średnia krocząca (9, 5), 8) wykładnicza średnia krocząca (9), 9) OBV,10) ROC (10),11) RSI (14, 20, 80),12) Ultimate Osc. (7, 14, 28),13) Volume Osc. (14, 34).Z szeregów wyeliminowano stałe (np. progi RSI 20 i 80, które stanowią dwa szeregi o powtarzających się wartościach, odpowiednio 20 i 80). W ten sposób pozostało 20 zmiennych objaśniających. Dodatkowo wprowadzono opóźnienia o 2 i 3 okresy wszystkich szeregów. W sumie poddano analizie 60 zmiennych oraz sesje od 400 do 1650.Zbiór danych podzielono na trzy części. Sesje 402, 406, 410, 414... potraktowano jako zbiór testowy (25% obserwacji), a sesje 404, 408, 412, 416... jako zbiór próbek korygujących uczenie sieci (25% obserwacji). Pozostałe sesje posłużyły jako zbiór uczący (50% obserwacji).Zbudowano sieć o jednej warstwie ukrytej, gdzie na wejściu było 60 neuronów. Liczbę neuronów warstwy ukrytej optymalizowano w przedziale (1, 50). Sieć o bieżącej liczbie neuronów uczono 10-krotnie. Na wyjściu jest jeden neuron. Wszystkie dane przeskalowano na przedział (0, 1). Jako funkcję aktywacji zastosowano funkcję logistyczną. Krok uczenia ustalono na 0,02.Proces uczenia był przerywany jeżeli:1) przekroczony został limit 50 epok (nie zdarzyło się to ani razu),2) przekroczony został czas 10 minut uczenia sieci (nie zdarzyło się to ani razu),3) został osiągnięty maksymalny dopuszczalny błąd sieci ustalony na poziomie 0,0001.4) po kolejnych pięciu epokach, mimo dalszego uczenia sieci, nie uzyskiwano poprawy generalizacji sieci (jakości prognoz).Przy tak dużej sieci gwałtownie wzrosły wymagania co do mocy i pamięci komputera. Pełna analiza zajęła 51 minut. Jednak maksymalny czas, jaki mogła ona zająć, wynosił 50 × 10 × 10/60 = 83,33 godziny10. Należy pamiętać, że tak krótki czas uczenia pojedynczej sieci można ustalić na komputerze wyposażonym w olbrzymią pamięć. Przy zastosowaniu 64MB, gdy większość operacji jest buforowanych na dysku, czas ten należy wydłużyć przynajmniej 4-krotnie. W przeciwnym wypadku SN nie będzie miała szans na nauczenie się czegokolwiek.Wyniki osiągnięte przez najlepszą uzyskaną sieć są jednak gorsze niż poprzednio (rys. 7). Zwiększanie liczby neuronów nie dawało żadnej systematycznej poprawy. Sieć o 27 neuronach uzyskała błąd na poziomie 1,4%. Jak widać, był to raczej „dobry traf”. Średnia z 10 prób jest tu jedną z najgorszych ze wszystkich uzyskanych. Mimo to zgodność przebiegów WIG i jego prognoz była bardzo dobra. Na rys. 8 widzimy WIG i uzyskane tu prognozy. Prognozowana jest co czwarta sesja od 401. począwszy.Widzimy tu typowy fragment prognoz. Wiele z nich jest niemal idealnych (punkty 27, 34, 40, 47, 49, 50). Jednak znajdują się także serie prognoz zupełnie nieudanych (28-35).Na rys. 9 zaprezentowano rozkład procentowych błędów prognoz dla najlepszej uzyskanej w optymalizacji sieci. Widać, że zdecydowana większość błędów zawiera się w przedziale (-1,5, 1,5)%. Jest poniżej 10% błędów przewyższających ±3%. Linia czerwona pokazuje, jak powinny się kształtować liczebności błędów, gdyby miały one rozkład Gaussa.Wyniki próby poprawienia wyników przez dodanie drugiej warstwy ukrytej przedstawione są na rys. 10. W drugiej warstwie ukrytej zastosowano tę samą liczbę neuronów, co w warstwie pierwszej.Jak widzimy, nie udało się uzyskać żadnej poprawy. Minimalny błąd wyniósł 1,43% przy 9 neuronach. Gwałtowny wzrost błędów powyżej 36 neuronów jest spowodowany brakiem pamięci komputera. Gdy sieć zajęła całą dostępną pamięć, czas uczenia pojedynczej epoki wzrasta wielokrotnie. Z łatwością przekracza całkowity czas uczenia sieci. W związku z tym sieć nie uczy się „prawie nic” i takie też generuje prognozy. Dane te nie mogą być interpretowane.Podsumowując, możemy powiedzieć, że sieć oparta na wskaźnikach technicznych11 nie dała znaczącej poprawy w prognozowaniu WIG w stosunku do sieci uwzględniającej jedynie własne opóźnienia WIG.System inwestycyjnyPrezentowane powyżej zestawy prognoz krótko- i średnioterminowych pozwalają zbudować wiele mechanicznych systemów inwestycyjnych. Najprostszym rozwiązaniem byłoby potraktowanie tych prognoz jako oscylatorów (prognozy krótkoterminowe jako oscylator wolny, a średnioterminowe - szybki). Ta nie intuicyjna kolejność spowodowana jest tym, że przeciwnie niż przy innych wskaźnikach oba te oscylatory są równie wrażliwe. Prognoza na 5 sesji naprzód będzie zawsze „szybsza” niż na jedną sesję. Tak więc jeżeli linia prognoz średnioterminowych przetnie z dołu krótkoterminową o zadaną liczbę punktów, będzie to sygnał kupna. Jeżeli przecięcie nastąpi z góry, będzie to sygnał sprzedaży.Aby wykluczyć przypadkowe słabe sygnały, należy ustalić wartość progową, kiedy sygnał uważamy za ważny. Wysokość progu jest sprawą indywidualną i będzie ustalana arbitralnie. Np. inwestując w WIG na przestrzeni roku, począwszy od sesji 1301, ustalając wartości prognoz optymalnymi sieciami uzyskanymi w powyższej analizie, przyjmując wartość progową mocy sygnału na 150 pkt., uzyskano sygnały pokazne w tabeli 1.W analizowanym okresie przy powyższych założeniach uzyskaliśmy 23 sygnały. Można było uzyskać 32,57% zysku. Zdecydowana większość transakcji dawała małe zyski, a czasem straty. Trzy transakcje były wysokie, w tym dwie „udane”. Wyliczenia te nie uwzględniają prowizji maklerskich. Kilka „małych udanych” transakcji w rzeczywistości byłoby „nieudanych”. Rzeczywista efektywność brutto byłaby oczywiście nieco niższa niż 30%.Ocena tego rezultatu to już indywidualna sprawa każdego inwestora. Niewątpliwie jest to znacznie lepszy wynik niż obligacje państwowe czy lokaty bankowe. Z pewnością da się jednak znaleźć bardziej efektywne strategie.WnioskiPrzedstawiliśmy wyniki prostych badań nad zdolnościami sieci neuronowych w prognozowaniu WIG. Dostarczają one dość obiecujących informacji. Udało się zbudować prognozy kierunku zmian indeksu o ponad 80-proc. skuteczności w krótkim i średnim horyzoncie. Prognozy wartości WIG również są zadowalające. Oczywiście, należy zdawać sobie sprawę, że pokazane tu ujęcie jest tylko jednym z bardzo wielu możliwych. Wyniki te nie są ostateczne, a mają jedynie zachęcić do samodzielnych badań.Istnieje wiele innych typów sieci, które należałoby przetestować. Powinno się optymalizować również inne parametry, a nie tylko liczbę neuronów w warstwach ukrytych. Należałoby zoptymalizować wartości współczynników technicznych analizowanych w ostatnim przykładzie, sprawdzić wpływ informacji fundamentalnych na możliwości prognostyczne. Można by zbudować sieć „rozpoznającą” formacje techniczne - do wspomagania prognoz długoterminowych. Dróg poprawy prezentowan

19 - TECHNIKI INWESTYCYJNE

Cykle na rynku złotego i akcji

Grzegorz Zalewski

Narzędzia i techniki inwestycyjne podlegają przeróżnym modom.W pewnych okresach inwestorzy skłaniają się do analizy technicznej, w innych - do fundamentalnej.Z kolei ci, którzy już zdecydowali się na któryś z wymienionych sposobów oceny rynku,flirtują z różnymi technikami w ramach danej dziedziny.

W przypadku analityków technicznych raz będzie to teoria Carolana, innym razem elliottowskie fale, jeszcze innym - korelacja z rynkami zagranicznymi, kiedy indziej znów cykle. Właściwie można powiedzieć, że popularność danej metody zależy od tego, czy w danym momencie sprawdza się ona dostatecznie dobrze (lub przynajmniej jej użytkownicy tak uważają).Być może niektórzy obserwatorzy rynku pamiętają, że jeszcze przed dwoma laty większość analityków próbowała znaleźć odpowiedź na pytanie, jaki rodzaj cyklu rządzi rynkiem akcji. Jedni wskazywali na 9-miesięczny, inni na kilkunastotygodniowe, jeszcze inni poszukiwali cykli opartych na ciągu liczb Fibonacciego. Krótko mówiąc, jeśli w cyklu pojawiała się któraś z ciągu liczb: 1, 2, 3, 5, 8, 13, 21, 34...., tym bardziej cykl uznawany był za wiarygodny.Obecnie popularność cykli wśród rodzimych analityków znacznie zmalała. Prawdopodobnie niektórzy z nich w zaciszu swoich biur nadal stosują tę metodę, jednak przeciętny inwestor nie zwraca na to tak wielkiej uwagi, tak samo jak na fakt, czy Nasdaq spadł w czasie ostatniej sesji, czy też wzrósł.Cyklicznośćprawdopodobnienie jest związanaz racjonalnymi czynnikami decyzyjnymi.(J.M. Hurst)1Zwolennicy teorii cykliczności rynków podkreślają, że tak jak zjawiska naturalne charakteryzuje pewien powtarzalny porządek, tak samo ruchy cen poddane są pewnym sekwencjom. Zasada ta działa na każdym poziomie - od dziennych fluktuacji, dotyczących poszczególnych akcji, aż po wieloletnie globalne cykle gospodarcze.Oczywiście, dla inwestorów najważniejsze są cykle kilkunastotygodniowe lub kilkunastomiesięczne - tylko na takich można przyzwoicie zarobić. Ci, którzy skłaniają się do tej teorii, chcieliby umieć poznać, kiedy na rynku nastąpi ważny szczyt lub ważny dołek, żeby jak najlepiej to wykorzystać. Metoda ta jest prawdopodobnie równie skuteczna, jak inne metody analizy technicznej - czyli w pewnych okresach działa lepiej, w innych - gorzej. Niemniej przyjemnie jest raz na jakiś czas pokazać, że rynki poruszają się według jakiegoś porządku.Inwestowanie w waluty nie jest jeszcze popularne na polskim rynku. Po pierwsze, jest to związane z niewielką liczbą atrakcyjnych instrumentów (np. opcji, kontraktów terminowych), po drugie zaś - z zadziwiającym mitem rozpowszechnionym wśród osób związanych z rynkiem akcji, że waluty nie bardzo poddają się metodom analizy technicznej (co stoi w ewidentnej sprzeczności z założeniami tego rodzaju analizy). Miejmy jednak nadzieję, że w pewnym momencie rodzimi inwestorzy będą mogli równie aktywnie, jak na kontraktach na indeks WIG20, grać na kontraktach na euro, dolara, a może nawet na jena. Na razie, pewne kwestie muszą być rozważane teoretycznie, bez możliwości wykorzystania ich w praktyce.Wszystkie fluktuacje cenw ramachtrendów długoterminowychsą przejawami cykliczności.(J.M. Hurst)Spójrzmy na tygodniowy wykres złoty/dolar (skala odwrócona)2 w okresie od stycznia 1998 r. Co na nim zauważy analityk techniczny? Z całą pewnością szeroki trend spadkowy (złotego), przerywany silnymi wzrostowymi korektami. Dalszą konsekwencją rozpoczętej analizy może być wyznaczenie dość regularnego kanału trendowego, dzięki któremu (gdyby istniały takie możliwości) można by próbować określić momenty zajmowania długich i krótkich pozycji. Dla praktyków, stosujących metodę „podążania za trendem”, istotna byłaby również relatywnie niska zmienność rynku - pojawiające się korekty rzadko są słabe i krótkotrwałe; mało jest również ruchów, które można by uznać za pułapki.W dalszej kolejności można rozpoznać pewną regularność w formowaniu się dołków - cykliczność rynku. Na wykresie pionowymi liniami zaznaczono punkty zwrotne, rozpoczynające wzrostowe fale rynku - umacnianie się złotego (wykres 1). Do końca października można zaobserwować pięć takich wyraźnych fal: I połowa 1998 r., wrzesień-grudzień 1998 r., kwiecień-sierpień 1999 r., listopad 1999-marzec 2000 r., maj-sierpień 2000 r. Kolejne dołki dzieli od siebie ok. 33 tygodni. Podobna regularność występuje w przypadku szczytów (wykres 2) - odległość między kolejnymi istotnymi szczytami wynosi ok. 35 tygodni.Do konsekwencji cyklicznościnależy możliwy równoczesny wpływna procesy decyzyjne rzeszy inwestorów.Jeśli tak jest, należy wystrzegać siępodlegania tym samym wpływom.(J.M. Hurst)Jeśli sekwencja miałaby się utrzymać, to na przełomie grudnia 2000 r. i stycznia 2001 r. powinno nastąpić kolejne ważne dno rynku. Czy tak się rzeczywiście stanie - dowiemy się wkrótce. Na razie spróbujmy odpowiedzieć sobie na jedno pytanie: czy tego rodzaju sekwencje mogą być w praktyce wykorzystane przez inwestorów giełdowych?Napisaliśmy wcześniej, że z uwagi na brak odpowiednich instrumentów rozważania na temat rynku walutowego mają dla praktyków w Polsce znikomą wartość. Czy jednak rzeczywiście inwestor działający na rynku akcji nie może skorzystać z sygnałów płynących z rynku walutowego?Klasyczne porównanie rynku walutowego i rynku akcji pokazuje, że słabnięcie waluty zwykle poprzedza spadek cen akcji (w danym kraju). Oczywiście, między punktami zwrotnymi na tych dwóch rynkach istnieją znaczne przesunięcia. Nierzadko jest to kilkanaście, a nawet kilkadziesiąt tygodni.Oddajmy na chwilę głos J.J. Murphy'emu, który w swojej „Międzyrynkowej analizie technicznej” szeroko zajmował się związkami między różnymi segmentami rynków finansowych: „Ze względu na wpływ stóp procentowych na dolara... (w oryginale mowa o dolarze, gdyż omawiany jest rynek amerykański; w naszym przypadku będzie chodziło o złotego) ...i rynek akcji, istnieje również bezpośredni związek między poziomem dolara a cenami akcji. Zależność ta rzeczywiście występuje, często jednak zmiany trendów na jednym i drugim rynku oddzielone są długą przerwą. Wzrost dolara jest korzystny dla akcji, gdyż stanowi czynnik deflacyjny i powoduje spadek stóp procentowych. Z kolei zniżkujący dolar pobudza inflację, przyczyniając się do wzrostu stóp procentowych, i tym samym pociąga za sobą w dół rynki akcji. Jednak stwierdzenie, że wzrost dolara zawsze prowadzi do hossy akcji, jego spadek zaś kończy się zawsze bessą na tym rynku, jest zbyt daleko idącym uproszczeniem”. Musimy pamiętać, że Murphy omawia wielki, płynny rynek, na którym ruchy nie zależą od jednego lub grupy inwestorów. Nieco inna sytuacja jest na rodzimym rynku - zarówno akcji, jak i walutowym, który jest stosunkowo mały.Spójrzmy więc na diagram, pokazujący wykres kursu złotego do dolara oraz kontraktów terminowych na WIG20 (wykres 3). Dodatkowo zaznaczono na nim pionowymi liniami wspomniany wcześniej cykl (od dołka do dołka) na walucie. Pewna zbieżność, zachodząca między tymi wykresami, jest ewidentna.Choć trendy na obu rynkach różnią się kierunkiem, łatwo zauważyć, że okresom umacniania się złotego towarzyszą zwyżki cen akcji, słabnącemu złotemu zaś - spadek cen akcji. Co ciekawe, szczyty na obu rynkach występują niemal jednocześnie (zaznaczono je strzałkami w dół) - raczej nie można powiedzieć, że rynek walutowy poprzedza zachowanie się cen akcji. W przypadku dołków jest podobnie (strzałki w górę). Taka sytuacja jest prawdopodobnie konsekwencją płytkości naszego rynku walutowego.Co więcej, podczas gdy autorzy zachodni sugerują, aby istotne zmiany trendu waluty traktować jako sygnał długoterminowy, w naszym przypadku jest to często wiarygodny sygnał krótkoterminowy. Wielu inwestorów zauważyło prawdopodobnie, że często, gdy następuje wyjątkowo silny ruch złotego w czasie jednej sesji, bardzo szybko (nierzadko już dzień później) gwałtowne zmiany cen dotykają akcje.W chwili, gdy będą Państwo czytali te rozważania, będzie już wiadomo, czy po raz kolejny (piąty przez dwa lata) cykl, którego działaniu poddane jest zachowanie się naszej waluty, sprawdzi się. Jeśli rzeczywiście taka sytuacja nastąpi, a dodatkowo fali wzrostowej waluty będzie towarzyszyła zwyżka cen akcji, możemy mieć do czynienia z wyjątkowo ładnym „efektem stycznia”. nBibliografia:J.J. Murphy, Analiza techniczna rynków finansowych,Wyd. WIG-Press, Warszawa 1995J.J. Murphy, Międzyrynkowa analiza techniczna,Wyd. WIG-Press, Warszawa 1998J. Bernstein, Cykle giełdowe,Wyd. WIG-Press, Warszawa 19961 J.M. Hurst, The Profit Magic of Stock Transaction Timing, za: J. Bernstein, Cykle giełdowe, Wyd. WIG-Press, Warszawa 1996.2 Z uwagi na odwrócenie skali należy pamiętać, że w tym momencie białe świece oznaczają spadek złotego, czyli wzrost dolara, czarne zaś - odwrotnie.

22 - TECHNIKI INWESTYCYJNE

Podstawy kalendarza spiralnego Carolana

Ireneusz Adamczyk

Kalendarz spiralny Carolana powstał, co nie jest przypadkiem, w latach 1987-88.W październiku 1987 roku rynek giełdowy w USA przeszedł wstrząs podobny do krachu z 1929 roku.Właśnie porównanie wydarzeń z lat 1929 i 1987 doprowadziło C. Carolanado ciekawej teorii opartej na innej, niż powszechnie przyjęta, jednostce czasu.

K siężyc jest od wieków uznawany za sprawcę wielu zdarzeń na Ziemi. Najbardziej chyba znanym takim zjawiskiem są przypływy i odpływy. Cykl płodności kobiet jest również zbliżony do miesiąca księżycowego, który różni się od kalendarzowego o kilka dni. Nic więc dziwnego, że jednostką bardziej „naturalną” wydaje się właśnie miesiąc księżycowy (zwany po prostu księżycem) mający 29,5306 dnia.Carolan zaintrygowany podobieństwem wykresów z lat 1929 i 1987 ze zdumieniem zauważył, że cztery istotne szczyty i dołki na obu diagramach wystąpiły w podobnym czasie. Odpowiadające sobie punkty były oddalone od siebie zawsze o tę samą odległość czasową - średnio o 717,03 księżyca! Na szczęście, jego podejrzliwość nie zakończyła się w tym momencie. Jak napisał, czuł, że ma do czynienia z jakimś większym porządkiem i ta liczba nie jest przypadkowa. Skierował się w stronę ciągu Fibonacciego, którego cechy są znane z opisywania porządku w naturze. Jednak 717,03 nie była wprost elementem ciągu Fibonacciego - był to pierwiastek kwadratowy jego 29. wyrazu (514 229). Wynosi on dokładnie 717,0976. Od tego momentu sprawy potoczyły się już szybciej.Jak zatem powstaje prognoza okienek czasowych? Po zbudowaniu arkusza kalkulacyjnego z datami historycznych punktów zwrotnych, zawartych w pierwszej kolumnie, dodajemy do tych dat (w kolejnych kolumnach) liczbę dni wynikających z liczby księżyców dla danego wyrazu ciągu Fibonacciego (a dokładniej - jego pierwiastka kwadratowego). Np. 10. element ciągu (10. kolumna) ma wartość 55. Pierwiastek kwadratowy z 55 wynosi 7,416. Jest to liczba księżyców. Po pomnożeniu liczby księżyców przez czas trwania księżyca otrzymujemy liczbę dni: 7,416 × 29,5306 = 219,00 dni. Data w dziesiątej kolumnie od daty zwrotu (10. element ciągu) będzie się zawsze różniła od daty w pierwszej kolumnie o 219 dni.W ten sposób wyznaczyliśmy tabelę z datami w przyszłości. Analizując ją zauważymy, że pewne daty są oddalone od siebie o zaledwie kilka dni lub wręcz się pokrywają. One właśnie będą podstawą do zbudowania okienka czasowego.Daty leżące blisko siebie tworzą skupisko. Każda leżąca w skupisku data tworzy ramy czasowe: 3 dni przed datą i 3 dni po dacie. Razem daje to 7 dni (3 + 1 + 3) kalendarzowych lub 5 dni sesyjnych. Część wspólna ram czasowych dat leżących w skupisku jest okienkiem czasowym.Jak teraz zastosować tę teorię w praktyce? Kalendarz spiralny składa się z dwóch ciągów elementów opartych na pierwiastkach kwadratowych kolejnych liczb Fibonacciego. Są to elementy o indeksach parzystych i elementy o indeksach nieparzystych. Tak zestawione ciągi charakteryzują się tym, że dwa kolejne jego elementy tworzą tzw. złoty podział.Najlepsze prognozy są tworzone przy wykorzystaniu elementów, które są oddalone od siebie o dwa lub cztery numery indeksów, czyli np. 7 i 9 lub 7 i 11 - należące oczywiście do ciągu o tym samym rodzaju indeksów (parzystych bądź nieparzystych). Dla dat wyznaczonych według elementów pochodzących z różnych ciągów zakłada się bardziej rygorystyczne kryteria, aby można było przyjmować prognozę otrzymaną na ich podstawie za wiarygodną.Nie wszystkie daty leżące blisko siebie możemy jednak uwzględnić w prognozach. Poniżej podane są kryteria kwalifikacji według Carolana.Dla dat należących do tego samego ciągu różnica indeksów nie może być większa niż 8, a różnica dzieląca daty nie może przekraczać 6 dni. Dla dat pochodzących z różnych ciągów ostrzejsze kryteria zakładają różnicę indeksów 5 i różnicę 3 dni. Im wyższy indeks elementów ciągu, tym ważniejszy będzie punkt zwrotny (zasada proporcjonalności ważności indeksu).Jednak podstawowym kłopotem w wykorzystaniu okienek czasowych jest ich wielość. Istnieją bowiem okresy, w których właściwie w każdym tygodniu jest okienko. Od tego, czy one się sprawdzą, zależy charakter ruchów rynku w najbliższym czasie. Jeśli uważać je za wiarygodne, to z dużym prawdopodobieństwem można założyć, że będziemy mieli do czynienia z nerwowymi falami. Jeśli nie wierzyć we wszystkie punkty zwrotne - można przynajmniej zachować czujność, emocje bowiem są silne i zwrot może nastąpić w każdym momencie.Brak dużej liczby okienek może z kolei sugerować dosyć jednokierunkowy ruch. Z taką sytuacją mieliśmy do czynienia w pierwszej połowie kwietnia 2000 roku. Ostry spadek bez specjalnych korekt dał się wówczas we znaki niejednemu inwestorowi.Należy tu, oczywiście, wspomnieć, że okienka czasowe nie są idealnym i cudownym narzędziem określania punktów zwrotnych na rynku. Konieczne jest stosowanie go razem z innymi, pokazującymi wyprzedanie/wykupienie rynku, wskaźnikami emocji (np. indeks Armsa) lub falami Elliotta.Punkty zwrotne (szczególnie szczyty) dokonują się przy znacznym zaangażowaniu emocji. Dlatego przy wyborze dat historycznych warto znajdować także te, które charakteryzowały się skrajnymi emocjami - nawet jeśli nie będą to właściwe punkty zwrotne, a tylko leżące w ich bezpośredniej bliskości.Carolan zaleca badanie rynku w okresie około 60 lat. Minimum to - według niego - 20 lat. Nasz rynek będzie dopiero świętować 10-lecie. Dlatego nie mamy szans na wykorzystanie indeksów wyższych niż 21. Tabela, której używam, uwzględnia indeks 24. jako najwyższy. Daje to i tak prognozy do 2017 roku!Użyteczność tych prognoz każdy powinien indywidualnie przeanalizować. Metody idealne nie istnieją. Okienka czasowe są tylko kolejnym punktem widzenia na ten sam obraz - obraz rynku.W prognozach stosuję uproszczoną notację. Okienko utworzone np. w dniach od 12.09.2000 do 14.09.2000 przez elementy ciągów 12. i 14., zapisuję po prostu jako 12-14.09 (12,14).Ostatni rok na GPWa okienka czasowe dla WIGNa załączonych wykresach są podane okienka czasowe wyznaczone na podstawie zwrotów historycznych dla WIG od początku istnienia giełdy w Warszawie. Można się na ich przykładzie przekonać co do słuszności przewidywań okienek. Kilka z nich było ostrzeżeniem przed dużymi spadkami. Kilka też zapoczątkowało nowe fale wzrostowe. Chciałbym podkreślić również, że było kilka nietrafionych, co dodatkowo powinno skłaniać do ostrożności w używaniu tej techniki.Na wykresie pierwszym widzimy, że prognozowane okienka wyznaczały przede wszystkim szczyty. Dwa z nich - położone bardzo blisko - precyzyjnie wyznaczyły formację podwójnego szczytu, który miał miejsce 12 i 15 lipca. O tym, że drugie z okienek powinno mieć większe znaczenie, można było wnioskować po jego wyższych stopniach indeksów (11,19 vs. 8,12). W niecałe dwa tygodnie później, 27 lipca, wypadło pierwsze dno korekty. Niestety, drugiego, ważniejszego, dna nie udało się przewidzieć. Za to już miesiąc później (26 sierpnia) okienko o relatywnie wysokich indeksach (13,17) zapowiedziało kolejny istotny zwrot.Zauważmy, że w omawianym okresie wystąpiło tylko jedno fałszywe okienko. Ponadto indeksy wyznaczające okienka należały do tego samego typu ciągu (parzystego lub nieparzystego).Odmienną sytuację mamy na drugim wykresie, na którym, dzięki okienkom, mogliśmy przewidzieć przede wszystkim dołki. Szczególnie warte uwagi jest wyjątkowe skupisko występujące pod koniec września. Emocje sięgały tu zenitu. Formowanie się dna rynkowego przez ponad miesiąc było sygnalizowane aż czterema okienkami, z których trzy wyznaczały rzeczywiste, istotne punkty zwrotne.Ciekawe okienko występuje pod koniec października. Mamy w nim lokalny szczyt i lokalne dno. Może się to wydawać pewną niekonsekwencją, lecz kiedy uświadomimy sobie, że okienka przede wszystkim prognozują emocje, czarno na białym widać, że wtedy ich nie brakowało. Taki układ okienek czasami się pojawia. I - mimo że nie wyznacza punktów zwrotnych na rynku - jest bardzo pomocny w zrozumieniu rozchwiania emocji, które w takich momentach dominują na rynku i zaburzają trzeźwą ocenę sytuacji.I w tym wypadku mieliśmy do czynienia tylko z jednym fałszywym okienkiem, choć równie dobrze może ono być potraktowane jako właściwe, gdyż szczyt lokalny pojawił się jedną sesję po nim. Również indeksy ciągów dat, które tworzyły okienka, w zdecydowanej większości były dwucyfrowe, choć niekoniecznie należały do tego samego typu.Wykres trzeci to przykład wyjątkowo dobrych prognoz. Silny trend wzrostowy przerywany był chwilowymi korektami. Szczyty podfal wzrostowych realizowały się w okienkach o niższych indeksach, jak na przykład szczyt 14 stycznia prognozowany okienkiem o indeksach (5,7).Widzimy tu również dwa okienka, wyznaczające podwójny szczyt: 25 lutego i 27 marca. O ich większej randze znowu mogły świadczyć wyższe indeksy: analogicznie (15,18) i (14,18). Muszę przyznać, że prognoza tego ostatniego okienka stale zadziwia mnie swoją precyzją.Jednak moje zauroczenie wyjątkowością metody kalendarza spiralnego miało dopiero nadejść. Sytuację, o której piszę, widzimy na wykresie czwartym. Okienko o tak wysokich indeksach, jak to miało miejsce w połowie kwietnia, zdarza się tylko kilka razy w roku. Chodzi o okienko 16-20.04 (18,20). Krach, który nastąpił 17 kwietnia, wielu posiadaczy długich pozycji na kontraktach terminowych na WIG20 będzie pamiętać bardzo długo.W dalszym okresie mamy kilka okienek, które niezbyt wiele wnosiły do obrazu rynku. Jednak szczyt z 17 maja i dna z 24 i 26 maja znalazły swoje miejsce w prognozach.ZamiastpodsumowaniaKalendarz spiralny Carolana, stosowany wraz z innymi narzędziami analizy technicznej i poparty obserwacją rynku wraz z panującymi na nim emocjami, może pomóc w prawidłowej ocenie możliwości wystąpienia punktu zwrotnego. Sceptycy patrzą z nieufnością na prognozy wybiegające nieraz bardzo w przyszłość. Jednak przypadek, który zdarzył mi się parę lat temu, wzbudził we mnie silne przekonanie o wysokiej prognostycznej wartości tej teorii.Otóż kiedy jesienią 1996 roku sięgnąłem po pierwsze polskie wydanie „Kalendarza spiralnego” C. Carolana, postanowiłem sprawdzić przydatność tej teorii, budując arkusz kalkulacyjny na bazie punktów zwrotnych na WIG. Pamiętam, że jedyne ważne okienko, które wtedy znalazłem, występowało dopiero we wrześniu następnego roku, a dokładnie 12-17.09.1997 (17,19).Jako że była to bardzo odległa data, zapomniałem o niej szybko. Późną wiosną 1997 roku kupiłem akcje Elektrimu po około 26 złotych. Od tego momentu - ze zmiennym szczęściem - papier ten zaczął systematycznie rosnąć. Kiedy na początku września kurs przekroczył 35 złotych, przypomniałem sobie o kalendarzu spiralnym...Sprzedałem Elektrim dokładnie ostatniego dnia okienka czasowego (17.09.) po 36,50 złotego, myśląc, że robię wspaniały interes. Fakt, zarobiłem ponad 40 procent.Kurs jednak ponownie zaczął rosnąć! I tak doszedł do 41,20 złotego 24.09.1997 roku. Potem nastąpiła gwałtowna przecena: po dwóch sesjach kurs spadł do 36 złotych, by 14.11.1997 roku dojść do poziomu 30 złotych. Ja jednak siedziałem już na gotówce... Od tego czasu zawsze zwracam uwagę na kalendarz spiralny. nWykresy wykonano przy użyciu Omega SuperCharts

30 - ANALIZA TECHNICZNA

Akumulacja i dystrybucja w praktyce inwestora

Marcin Mrowiec

Bardzo popularne jest twierdzenie, jakoby wzrost obrotów, towarzyszący zwyżkom na rynku akcji, był zjawiskiem bezwzględnie pozytywnym. Moim zdaniem, jest ono prawdziwe tylko na etapie akumulacji walorów w „silnych rękach”, natomiast na późniejszych etapach cyklu akumulacja-wzrost-dystrybucja-spadek przyczynia się do przyspieszenia całego procesu, a więc w konsekwencji - przybliżenia spadków.

Tezy tej postaram się dowieść na przykładach notowań akcji, ukazując także jej komplementarność w stosunku do innych metod analizy technicznej, a w szczególności w stosunku do przedstawionej w czerwcowym numerze „PI” analizy cykli giełdowych.Założenia i opis metodyJako podstawę rozumowania przyjmiemy szeroko akceptowane stwierdzenie, iż akcje każdej firmy przechodzą cztery fazy: akumulację, wzrost oraz dystrybucję, po której następuje spadek. Kolejnym założeniem, na którym bazuje cała analiza techniczna, a które będzie przydatne w tych rozważaniach, jest to, iż wszelkie istotne dla danego papieru informacje znajdą odbicie w cenach i wolumenie obrotu, zanim staną się one publicznie dostępne.Wskaźniki fundamentalne, zyski i pozycja spółki na rynku są czynnikami jak najbardziej istotnymi, warunkują one bowiem poziom kursu w długim okresie. Jednak - jak wskazują wyniki funduszy, które inwestują wyłącznie na podstawie tej metody - jest ona dalece niewystarczająca do tego, aby być lepszym od rynku.Praktyka inwestycyjna dowodzi, iż w momencie, kiedy dane fundamentalne stają się powszechnie znane (np. ogłoszenie zysków bądź popularne ostatnio w USA zapowiedzi niedotrzymania prognoz), jest już za późno, aby podjąć działanie przynoszące zysk bądź chroniące przed poniesieniem straty. Kiedy zaś „fundamenty” znajdują się jeszcze w sferze prognoz analityków i zarządu firmy, w zbyt dużym stopniu podatne są one na tzw. myślenie życzeniowe oraz ekstrapolację istniejących trendów, które jednak co jakiś czas ulegają zmianie. Wtedy właśnie najczęściej zawodzi analiza fundamentalna, a wywołane rozczarowaniem reakcje powodują drastyczne zmiany kursu.Istotną trudność dla inwestora indywidualnego stanowi także to, iż nigdy nie będzie on w stanie posiąść tak dokładnej i aktualnej wiedzy na temat danej branży i poszczególnych spółek, jak zajmujący się tym zawodowo analitycy oraz doradcy inwestycyjni. Ci z kolei zawsze będą o pół kroku za zarządami spółek i ich pracownikami - osobami, które nierzadko całe swoje życie zawodowe związały z daną branżą i znają ją na wylot tak w teorii, jak i w praktyce (stąd tak dużą wagę przywiązuje się do transakcji kupna - sprzedaży akcji danej firmy przez jej zarząd).Niemniej jednak pozycja inwestora wcale nie jest beznadziejna. Zarówno zarząd spółki, jak i doradcy inwestycyjni zarządzający dużymi funduszami pośrednio udzielają nam odpowiedzi na najbardziej interesujące pytanie. Otóż, wynikiem netto analiz fundamentalnych, technicznych, wskaźnikowych i branżowych, a także wiedzy niedostępnej jeszcze ogółowi graczy, jest decyzja inwestycyjna: kupna bądź sprzedaży akcji. Ta z kolei zostanie odnotowana w statystyce sesji giełdowej i całkowicie za darmo dostępna jest dla inwestora w biurze maklerskim bądź w Internecie.Tak naprawdę, tylko i wyłącznie ta część procesu inwestycyjnego jest istotna - stwierdzenie, czy akcje są kupowane czy sprzedawane przez „smart money” („sprytne pieniądze”). Firma może się cieszyć wspaniałymi perspektywami wzrostu zysków, być w powszechnej opinii „tania” pod względem wskaźników wyceny - jeśli jednak nie znajdą się chętni, aby ją kupować, na rynku nie zagości trend wzrostowy.Z taką sytuacją mamy do czynienia w czasie bessy - czynnik psychologiczny blokuje decyzje kupna, a brak akumulacji akcji w silnych rękach uniemożliwia jakąkolwiek dłuższą aprecjację kursu - wzrosty są ograniczone do krótkich zrywów, w czasie których wstrzymuje się podaż, a popyt jest w stanie podnieść kurs na czas kilku -kilkunastu sesji. Później jednak znów przeważa podaż.Aby na rynku mogły na dłużej zagościć wzrosty, niezbędna jest akumulacja walorów w silnych rękach, które zazwyczaj są rękami inwestorów instytucjonalnych. Kupują oni akcje w dużych ilościach, a czas inwestycji (ze względu na wielkość swojej pozycji w stosunku do płynności danego papieru) to kilka miesięcy (jeśli nie lat). Celem zaś jest osiągnięcie przynajmniej kilkudziesięcioprocentowego zysku.Swoje analizy i przekonania przełożą oni na wzmożony obrót danymi papierami, które spokojnie będą „zbierane”, tym samym uszczuplając tymczasowo pulę akcji dostępnych w obrocie. Kiedy odpowiednia ich liczba zostanie „zaparkowana” na długoterminowych rachunkach inwestycyjnych, stosunkowo niewielki popyt będzie w stanie przełożyć się na wzrost ceny.Wtedy też zazwyczaj pojawiają się pierwsze „dowody” na to, że spółka jest w coraz lepszej sytuacji - rosną przychody, zyski, pojawiają się jak grzyby po deszczu rekomendacje kupna. Spółka wybija się z poziomów akumulacji i przechodzi w fazę wzrostu (stąd jedna z zasad analizy technicznej mówi, aby akcje kupować albo krótko sprzedawać dopiero po wybiciu się z konsolidacji - gdyż wtedy bierzemy udział w najbardziej dynamicznej fazie ruchu cen, nie tracimy zaś czasu i nie blokujemy środków inwestycyjnych w obrębie konsolidacji, która może trwać znacznie dłużej, niż zakładamy, a ruchy cen są stosunkowo niewielkie).Faza wzrostu cen akcji może trwać miesiącami (bądź nawet latami), przerywana co jakiś czas korektami technicznymi. Jej długość zależna jest także od tego, czy spółka tylko i wyłącznie wydostaje się z poziomów niedowartościowania na poziomy przewartościowania - czy też dodatkowego impetu we wzroście dodaje jej np. fakt, iż jest liderem na szybko rozwijającym się rynku.Nieuchronnie jednak kurs zbliża się do poziomów, gdzie walory stają się już przewartościowane i rozpoczyna się ich dystrybucja. Odbywa się ona po ustanowieniu szczytu notowań - gdy na rynku występuje niezbędny optymizm, ciągle dużo jest „spóźnialskich”, którzy dokupują akcje w nadziei, iż znaleźli dobrą okazję do otwarcia pozycji, która zaraz ruszy ku nowym szczytom notowań.Właśnie w tym miejscu warto zwrócić uwagę na obroty. Jeżeli strona popytowa musi płacić coraz wyższe ceny za kupowane walory, to wszystko jest w porządku i istotnie akcje mogą ruszyć ku nowym szczytom. Taka sytuacja oznacza, że „mocne ręce” nie sprzedają, ciągle liczą na jeszcze wyższe ceny (dobrym przykładem są tutaj walory ComArchu, które praktycznie całą swoją zwyżkę odbyły przy niskich obrotach). Kiedy jednak wzmagają się obroty, nie należy liczyć na nowe szczyty (choć te mogą się pojawić, ale tylko nieznacznie wyżej od poprzednich) - należy raczej przygotować się do zajęcia krótkiej pozycji.Inną oznaką dystrybucji jest redukcja portfeli przez zarządy notowanych spółek, który to fakt zgodnie z prawem musi być ogłaszany publicznie, jeśli transakcja osiąga pewien rozmiar. Dobrym przykładem jest tutaj rynek amerykański, gdzie od kilku miesięcy notuje się pozbywanie się walorów przez szefów dużych firm zaliczanych do nowej gospodarki. Co bardziej łatwowierni inwestorzy za dobrą monetę biorą wyjaśnienia, iż chodzi tutaj o chęć „dywersyfikacji portfela” - prawdziwe znaczenie tych wiadomości jest jednak nieco inne.Osoby mające najlepsze wyczucie rynku, branży i konkurencji doszły do wniosku, że możliwości ekspansji z zachowaniem dotychczasowej dynamiki wyczerpały się, a zwalniająca gospodarka oraz wyceny ich firm na poziomach właściwych dużemu nasileniu manii inwestycyjnej (P/E >100) sugerują ostrą przecenę, kiedy tylko szerokie rzesze inwestorów pojmą to, co dla nich jest już oczywistością. Świeżymi przykładami na dynamiczne przejście akcji z fazy dystrybucji do okresu spadków są spółki Intel oraz Apple. Ich przypadki dowodzą, że po tym, jak dokona się dystrybucja, pojedyncza wiadomość jest w stanie przecenić akcje nawet o 50 procent podczas jednej sesji giełdowej.Na poprzednich etapach omawianego cyklu nie brakowało wiadomości negatywnych, wtedy jednak powodowały one korektę, która była wykorzystywana do kupowania walorów po niższych cenach - teraz zaś jest sygnałem do wzmożonej wyprzedaży. Kiedy zaś akcje na dobre wybijają się z przedziałów dystrybucji, należy spokojnie poczekać, aż znów przejdą w „silne ręce” i będzie mógł się rozpocząć kolejny wzrost. Wszelkie próby „łapania dołka” zazwyczaj kończą się niepomyślnie, jak to zaraz zaobserwujemy na przykładzie walorów Agrosu.Wady i zaletyomawianej metodyTa metoda analizy - jak każda inna - ma swoje wady i zalety. Po pierwsze, nie wszystkie spółki poddają się jej z równą łatwością - niektóre papiery mają w zwyczaju ustanawiać zarówno „ostre” dołki, jak i szczyty - w takim przypadku trudno mówić o zdecydowanie wyróżniającej się fazie akumulacji czy dystrybucji. Kolejnym czynnikiem, który może być traktowany jako wada, jest to, iż skupiamy się tu na analizie długoterminowej, podstawą są dla nas wykresy tygodniowe bądź nawet miesięczne - i zajmujemy pozycje licząc na to, że trendy tego rzędu będą dla nas pracować. Jest to pewna niedogodność dla spekulantów, którzy lubią szybko otwierać i zamykać pozycje.Niezaprzeczalną zaletą jest jednak to, że jeśli prawidłowo przeprowadzimy analizę wolumenu, a dodatkowo posługujemy się analizą cykli, która określa decyzje o momentach kupna i sprzedaży, jesteśmy w stanie z dużą dokładnością określić, kiedy i na jakich poziomach należy zająć pozycję, a także kiedy ją zamknąć w ten sposób, aby wziąć udział w najbardziej dynamicznej fazie zmiany kursu. Cecha ta jest szczególnie przydatna w przypadku zajmowania pozycji w opcjach czy lewarowania się kredytem. Prześledźmy więc historię notowań Agrosu, bliżej przyglądając się towarzyszącym im obrotom.Przykład: AgrosSpółkę tę wybrałem nieprzypadkowo - była ona już „bohaterką” artykułu w czerwcowym numerze „PI” - wtedy jednak zwracałem uwagę na dominujące na tym rynku cykle. Jeśli jednak nasze oczekiwania „cykliczne” jesteśmy w stanie poprzeć statystyką wolumenu, to - w moim przekonaniu - dysponujemy wystarczającą pewnością co do rozwoju sytuacji na danym rynku, aby wesprzeć się kredytem bądź zająć pozycję w opcjach.W początkowym okresie notowań Agrosu (aż do dołka w grudniu 1995 r.) właściciela zmieniło 4,2 mln akcji. Później dodatkowy popyt przekładał się już na wzrost kursu, co spowodowało wybicie z konsolidacji w lutym 1996 r. i dynamiczną zwyżkę, która wyniosła kurs do 85 zł we wrześniu 1996 r. (czyli 275% w stosunku do poprzedniego rekordu z kwietnia 1995 r.). To właśnie była najbardziej dynamiczna część całego ruchu, w czasie której właściciela zmieniło 4,26 mln akcji - czyli niemal tyle samo, ile w czasie akumulacji.Odtąd kurs poruszał się już w rytmie cykli opisanych w czerwcowym numerze „PI” - jednak podskórnie odbywała się już dystrybucja. Gdybyśmy w tym czasie dokładnie śledzili przebieg wolumenu, okazałoby, iż kolejnym miesiącem, w którym właściciela zmieniło „zaczarowane” 4,2 mln akcji był.... tak, wrzesień 1997 roku, kiedy notowania ustanowiły maksimum swoich notowań na poziomie 115 złotych. Później nastąpiło dotkliwe załamanie - jednak, śledząc cykle, można było zająć pozycję dokładnie w dołku cyklu (w grudniu 1997 r.) i zarobić około 33 procent w sposób opisany w czerwcowym artykule. Nieudana próba ataku na szczyt i następujące po niej załamanie nie powinny stanowić zaskoczenia - jeśli wziąć pod uwagę fakt, iż do czasu tego ataku właściciela zmieniło blisko 7 mln akcji, które przeszły z „mocnych” w „słabe” ręce.Znając rozkład cykli, nie spieszymy się z zajmowaniem pozycji w czasie, kiedy walory spadają z ponad 100 zł do kilkunastu. W tym czasie wielu mniej doświadczonych inwestorów ponosi straty, gdyż uważają oni, że skoro akcja była zupełnie niedawno notowana powyżej 100 zł, to po 70, 50, 30... zł jest już „tania”. Zwracamy jednak uwagę na fakt, iż coraz bardziej nasila się obrót akcjami - wnioskujemy więc, iż są tacy, którym nie przeszkadza negatywne postrzeganie spółki przez ogół inwestorów - i gotowi są rozpocząć jej akumulację.W okresie od lutego 1998 r. do grudnia 1998 r. właściciela zmieniło prawie 11 mln walorów Agrosu, co stanowi wskazówkę, iż kolejny dołek, opisywanego w czerwcowym numerze „PI” cyklu 54-tygodniowego (grudzień 1998 r.), może być znaczący, jeśli chodzi o cenę akcji spółki. Tak się istotnie stało, i akcje zakupione w okolicach dołka po około 11-13 zł można w kilka tygodni później sprzedać z ok. 100-proc. zyskiem. Jeśli zaś zdecydowalibyśmy się podjąć dodatkowe ryzyko i zaciągnąć kredyt na zakup walorów bądź też kupilibyśmy wyemitowane przez BRE warranty (notowane wówczas out-of-the money), zysk mógłby być jeszcze większy.PodsumowanieOpisana metoda to próba systematycznego i kwantytatywnego podejścia do kwestii akumulacji i dystrybucji akcji na rynku giełdowym, jak również oddzielających te fazy okresów szybkiego wzrostu bądź spadku notowań akcji. Właśnie ta jej właściwość - możność określania, kiedy ceny walorów pokonają największą „drogę” w jednostce czasu - stanowi o jej wartości, szczególnie dla inwestorów zajmujących pozycje w opcjach bądź też kredytujących swe zakupy, dla których czynnik czasu (i jego kosztu - w sensie premii opcyjnej bądź odsetek od kredytu) jest sprawą szczególnie istotną.Przytoczony przykład Agrosu (w połączeniu z cyklicznym spojrzeniem na te akcje, zaprezentowanym w czerwcowym „PI”) wskazuje, że ten sposób analizy sprawdza się w praktyce inwestycyjnej. Jeśli chodzi o ww. przykład, obecnie analiza wolumenu jest nieco utrudniona ze względu na wejście do spółki inwestora strategicznego i zmniejszenie się liczby akcji w obrocie. Niemniej jednak wydaje się, że kolejny (przypadający w listopadzie-grudniu br.) dołek cyklu, w połączeniu z dokonaną akumulacją, powinien przynieść kolejną dobrą okazję do zajęcia pozycji. nAutor jest doktorantem Wydziału Zarządzania i Komunikacji Społecznej Uniwersytetu Jagiellońskiego w Krakowie, na GPW inwestuje od 1992 r.

34 - TEORIE RYNKU

Chaos na polskiej giełdzie

Marek Wierzbicki

Hipoteza rynku fraktalnego sugeruje, że akcje zachowują się w sposób chaotyczny. Jej podstawą są jednak jedynie tezy bazujące na opisowej analizie rozprzestrzeniania się informacji i sposobie zachowania większości inwestorów. Warto byłoby sprawdzić, czy chaos, jako oczekiwany efekt tej teorii, da się zaobserwować w polskich warunkach.

Główną cechą charakteryzującą zachowania chaotyczne jest nadmierna wrażliwość układu na warunki początkowe. Spróbuję przedstawić jej znaczenie na przykładzie podobnym do tego, który w latach 50. odkrył Lorenz. Przypomnę, że zajmował się on badaniem problemów długoterminowego prognozowania pogody z wykorzystaniem symulacji komputerowych. Zwrócił uwagę na to, że symulacje, bazujące na niemal identycznych danych wejściowych (dane o temperaturze, ciśnieniu, sile wiatru i opadach zaokrąglone do czterech cyfr znaczących i nie zaokrąglone), dawały zupełnie różne prognozy długoterminowe, mimo że w krótkim okresie były niemal jednakowe.Spróbuję powtórzyć to doświadczenie w realiach giełdowych. Przyjmijmy, że udało nam się ustalić, iż zależność jutrzejszej zmiany ceny od dzisiejszej wynika z układu równań opisujących ruch chaotyczny (jest to zmodyfikowane przeze mnie odwzorowanie Czyrikowa): xt+1: = xt + vt vt+1: = vt + 4,7 × cos(xt) + 0,1 × cos(10 × xt)gdzie:xt+1 - wyznaczona z układu przyszła (jutrzejsza) zmiana cenyxt - dzisiejsza zmiana cenyvt, vt+1 - zmienne pomocniczeNa tej podstawie jutrzejsza cena może być wyznaczona z równania:jutrzejsza cena: = dzisiejsza cena × (1 + xt+1)przy czym xt+1 zostało przeskalowane do zakresu stosowanego na polskiej giełdzie, czyli ±10%.Oczywiście, nie jest to prawda, ale proszę popatrzeć na przebieg szeregu czasowego (rys. 1, górna część) powstałego w ten sposób. Może nie przypomina on do złudzenia przebiegu giełdowego, ale wiele mu nie brakuje. Warto pamiętać, że jest to jednak tylko bardzo prosty opis zjawiska deterministycznego. Lorenz przewidywał, że prognozę kształtuje przynajmniej 12 układów równań. Z giełdą zapewne jest podobnie, przy czym dodatkowo podlega ona zachowaniom niedeterministycznym, czyli nie dającym się opisać za pomocą równań.A teraz środkowa część przebiegu szeregu czasowego. Zupełnie inny wygląd. A powstał przy użyciu dokładnie tego samego wzoru i przy niemal tych samych parametrach startowych. Gdyby przełożyć różnicę wartości początkowej na cenę akcji, wtedy okazałoby się, że wynosi on 1/10 grosza przy cenie 100 zł (przypomnę, że poniżej 100 zł ceny na GPW ustalane są z dokładnością 10 gr, a powyżej 100 zł - z dokładnością do 50 gr). Różnica jest więc znacznie mniejsza niż dokładność ustalenia ceny.Czy to możliwe, że niemal te same wartości startowe dały aż tak różne przebiegi wynikowe? Otóż tak. Aby w pełni uzmysłowić, jak to się stało, prezentuję w tabeli 1 kilkanaście początkowych wartości przyrostów zarówno górnego, środkowego, jak i dolnego szeregu czasowego (o dolnym napiszę dalej). Podobnie jak w przypadku wykresu, kolejne wartości numerowane są z użyciem dat notowań. Aby zmniejszyć wielkość tabeli, usunąłem z niej mało znaczące fragmenty, zastępując je pustymi miejscami. Trzecia kolumna odpowiada środkowemu wykresowi na rys. 1 i uznałem ją za wzorcową - wszystkie porównania dokonywane są właśnie w stosunku do niej.Dopiero teraz widać, jak rodziła się odmienność przebiegów. Początkowo przyrosty cen były niemal identyczne. Wszystkie kolejne wartości rozbiegały się jednak coraz bardziej. Siódma pozycja drugiej kolumny była zgodna z trzecią kolumną jeszcze z dokładnością do trzech pierwszych cyfr znaczących. Jednak już ósma jest całkowicie inna - doszło więc do sytuacji, że kolejne wartości liczone na podstawie dwóch nieznacznie różniących się wartości początkowych nie mają ze sobą nic wspólnego.I to jest właśnie cecha chaotyczna układu deterministycznego - długoterminowe zachowanie zależy od nieznacznych różnic w warunkach początkowych. Oczywiście, nie wpływa to na możliwość tworzenia prognoz krótkoterminowych, ale tym problemem nie będę zajmował się w tym artykule.Innym problemem, ujawniającym się w układach chaotycznych, jest wrażliwość na dokładność obliczeń. Na rys. 1 dwa górne wykresy powstały przy wykorzystaniu obliczeń bazujących na liczbach tzw. podwójnej precyzji (liczby te mają 15 do 16 cyfr znaczących). Wykres dolny powstał przy użyciu obliczeń bazujących na liczbach rozszerzonej precyzji (19-20 cyfr znaczących) z parametrami dokładnie takimi, jak wykres środkowy. A przebieg jest inny. To jest kolejna cecha układu chaotycznego - znamy dokładny wzór opisujący zjawisko oraz wartości początkowe, a ze względu na dostępną dokładność obliczeń nie możemy w dłuższym okresie przewidywać jego zachowania.Warto zwrócić uwagę na czwartą kolumnę w tabeli 1. Również tam początkowe wartości są niemal identyczne jak w trzeciej, wzorcowej kolumnie. Jakkolwiek zgodność trwała dłużej, ale też ostatecznie (po 45 sesjach) przyrosty całkowicie się rozbiegły.Analiza tabeli 1 pokazuje, jak trudne jest modelowanie zjawisk (w szczególności prognozowanie cen na giełdzie) przy użyciu teorii chaosu. Im szybciej rozbiegają się kolejne wartości prognoz (w zależności od nieznacznych różnic w wartościach początkowych czy dokładności obliczeń), tym bardziej chaotyczne jest zjawisko. Jeśli w ruchu jest mniej chaosu, kolejne wartości są podobne do siebie przez dłuższy czas. Miernikiem chaosu oraz sposobem na wykrywanie go jest więc powtarzanie doświadczeń z nieznacznie różniącymi się warunkami początkowymi i sprawdzanie wyników - czy i jak bardzo się różnią.Miarą bazującą na szybkości powstawania różnic w zjawisku, która umożliwia nam syntetyczną ocenę, czy dany przebieg jest chaotyczny i w jak wielkim stopniu, są wykładniki Lapunowa, a konkretnie - największy wykładnik. Nie wdając się w szczegóły techniczne, spróbuję przybliżyć znaczenie tego parametru.Dodatnia wartość największego wykładnika oznacza, że układ jest chaotyczny, czyli powtórzenie doświadczenia w bardzo podobnych warunkach doprowadzi do całkiem różnych efektów. Im większa jest wartość największego wykładnika, tym szybciej rozbiega się analizowane zjawisko. Określenie „wykładnik” wynika z natury zjawiska, tzn. wykładniczego wpływu tego parametru na odległość między dwoma analizowanymi, początkowo sąsiednimi punktami.Przykładowo: dla układu o wykładniku ok. 0,693 dwa punkty odległe o jedną jednostkę będą w kolejnych iteracjach odległe o 1, 2, 4, 8, 16, 32,... jednostek. Dla wykładnika ok. 1,099 kolejne odległości to 1, 3, 9, 27, 81, 243,... Jak widać, większy wykładnik skutkuje większą szybkością oddalania się. Np. dla wykładnika ok. minus 0,693 kolejne odległości to 1, 1/2, 1/4, 1/8, 1/16, 1/32,... czyli dla ujemnego wykładnika odległości między punktami maleją.Wykładniki Lapunowa umożliwiają ocenę zjawiska chaotycznego w tzw. przestrzeni fazowej. Przestrzeń fazowa to inny sposób obrazowania wielowymiarowych zjawisk dynamicznych. W zwykłym przebiegu czasowym oś pozioma wykresu obrazuje upływający czas (w przypadku giełdy są to kolejne sesje), natomiast oś pionowa odpowiada za stan zjawiska w danej chwili (na giełdzie są to ceny akcji). W przestrzeni fazowej możemy ocenić wszystkie możliwe stany systemu, w każdej chwili czasowej. Każda z osi reprezentuje wpływ pojedynczej zmiennej na stan układu.Gdyby założyć, że jutrzejsza zmiana ceny zależy wyłącznie od dzisiejszej zmiany, przestrzeń fazowa miałaby tylko 2 wymiary: zmiana ceny w dniu k (oś K) oraz w dniu k-1 (oś L). Wykres umożliwiający odczytanie dzisiejszego stanu układu i ocenę jego przyszłych wartości mógłby mieć np. wygląd przedstawiony na rys. 2 (ze względów poglądowych wykres ten nie reprezentuje zachowania opisanego równaniem przedstawionym na początku artykułu).Ósemki, które możecie tam Państwo zobaczyć, to fragment trajektorii. Trajektoria to obraz wszystkich możliwych stanów, które przyjmuje układ w kolejnych chwilach. Jeśli trajektoria jest zamkniętą krzywą, to przebieg jest cykliczny, tzn. układ (np. cena akcji na giełdzie) wróci kiedyś do takiej samej wartości i rozpocznie się dokładnie taki sam przebieg, jaki kiedyś już wystąpił. Jeśli trajektoria nie jest zamknięta (tak jak w moim przykładzie), to mimo lokalnego podobieństwa przyszłe wartości mogą być zupełnie różne.Opisywane rozbieganie jest zaznaczone w postaci odcinków krzywej a-A oraz b-B. Jak widać, mimo że punkty a i b znajdują się bardzo blisko siebie, wartości po pewnym czasie (A i B) są już oddalone. Wykładniki Lapunowa opisują, jak szybko poszczególne punkty oddalają się od siebie (ewentualnie zbliżają).Dla każdego wymiaru występuje osobny wykładnik. Może się bowiem zdarzyć, że oddalanie następuje wyłącznie wzdłuż niektórych wymiarów. Tak np. dzieje się w zaprezentowanej na rys. 2 hipotetycznej trajektorii. Po pewnym czasie punkty oddaliły się od siebie wzdłuż osi reprezentującej zmienną K, natomiast wzdłuż osi L leżą dalej blisko siebie.Wystarczy, że punkty rozbiegają się tylko wzdłuż jednej osi. Wtedy wykładnik Lapunowa dla tego wymiaru jest dodatni. Dla drugiego wymiaru może on być równy zero (punkty nie oddalają się od siebie) lub nawet ujemny (bez względu na początkową odległość w tym wymiarze, zbliżają się do siebie). Jako że oddalanie następuje znacznie szybciej niż zbliżanie się, jeden dodatni wykładnik Lapunowa, odpowiedzialny za oddalanie się, powoduje zwiększanie się globalnej odległości, nawet jeśli we wszystkich pozostałych wymiarach zjawisko charakteryzuje się ujemnymi wykładnikami.Jeśli mamy do czynienia ze zjawiskiem deterministycznym (określonym wzorem matematycznym) lub badamy układ fizyczny, w którym możemy wielokrotnie powtarzać to samo doświadczenie w niemal identycznych warunkach, sprawa jest dość prosta. Istnieją niezbyt skomplikowane algorytmy, które umożliwiają wyznaczenie wszystkich wykładników Lapunowa w sposób analityczny bądź doświadczalny.Badanie giełdy jest jednak znacznie trudniejsze, albowiem nie jest to miejsce, w którym można powtórzyć dwa razy to samo doświadczenie w dokładnie takich samych warunkach. 9 sierpnia 2000 r. cena spółki IGROUP osiągnęła 7,70 zł po 10-proc. wzroście. Nigdy się nie dowiemy, jaka byłaby dzisiejsza cena tej spółki, gdyby wtedy cena wyniosła 7,65 zł, po wzroście 9,3%. W takich sytuacjach trzeba korzystać z przybliżonych algorytmów szacujących największy wykładnik Lapunowa.Najczęściej bazują one na analizie rozwoju podobnych sytuacji (różniących się jak najmniej, jednak różnice występują we wszystkich zmiennych początkowych, a nie - jak to się modelowo zakłada - tylko w jednej). Jeden z takich algorytmów został zaproponowany przez czterech autorów w 1985 r. Znany jest jako algorytm Wolfa, gdyż to on napisał program komputerowy (w języku FORTRAN) korzystający z tego algorytmu. W tym miejscu muszę z żalem zwrócić uwagę, że translacja tego programu na język BASIC, zaprezentowana przez Edgara Petersa w książce „Teoria chaosu a rynki kapitałowe” (WIG Press, Warszawa 1997), zawiera tyle błędów, że nie nadaje się do wykorzystania (moje uwagi dotyczą wyłącznie, niepotrzebnego zresztą, przekładu programu z FORTRANU na BASIC, a nie samej książki, która jest rewelacyjna!).Korzystając z algorytmu Wolfa, wyznaczyłem przybliżone wartości największych wykładników Lapunowa dla polskich akcji notowanych na giełdzie (do 19 września 2000 r.) dłużej niż 1400 sesji. Warto wspomnieć, że wartości te są bardzo dużymi przybliżeniami. Wynika to z kilku faktów. Aby otrzymać w miarę wiarygodne wyniki, potrzebna jest bardzo duża liczba danych doświadczalnych. Według doświadczeń Petersa, dla większości indeksów i akcji różnych giełd, aby badania były wiarygodne, potrzeba przynajmniej 10 000 notowań.Liczba potrzebnych notowań wynika z wymiaru fraktalnego przebiegów giełdowych oraz oczekiwanej dokładności wyliczeń. Wymiary fraktalne polskich akcji nie odbiegają znacząco od zachodnich. Jednak najdłużej notowana polska spółka nie ma nawet historii 2000 dni (kolumna 2 prezentuje liczbę uwzględnionych sesji). Liczba danych nie jest więc wystarczająca. Ponadto wyniki mocno zależą od ustawień kilku parametrów algorytmu Wolfa. Starałem się dobrać je w taki sposób, aby analiza znanych mi odwzorowań o zbliżonych cechach w podobnych warunkach generowała wyniki jak najbliższe wyznaczonym innymi metodami.Otrzymane wyniki są zgodne z oczekiwaniami, tzn. największe wykładniki Lapunowa akcji są dodatnie. Oznacza to, że ceny akcji, w szczególności polskich, zachowują się w sposób chaotyczny. Na tej podstawie można wnioskować, że bazująca na niesformalizowanych tezach Hipoteza Rynku Fraktalnego ma potwierdzenie w zachowaniu cen akcji. Gdyby hipoteza ta była prawdziwa we wszystkich swoich szczegółach, okazałoby się, że inwestycje długoterminowe, bazujące na przesłankach zewnętrznych w stosunku do samych cen (np. na analizie fundamentalnej), mają szansę na pozytywne wyniki.Należy jednak pamiętać, że prognozowanie długoterminowe wyłącznie na podstawie wcześniejszych zmian nie jest możliwe, ze względu na podstawową cechę chaosu, jaką jest nadmierna wrażliwość na warunki początkowe. Nie wyklucza to możliwości zarabiania w krótkim terminie. Co więcej, w świetle reguł chaosu, im szybsze reakcje inwestorów, tym większe są szanse na zyskowne inwestycje.Jest to zgodne z ogólnym przekonaniem większości inwestorów, pozostaje natomiast w jawnej sprzeczności z Hipotezą Rynku Efektywnego, która sugeruje, że aktywne inwestycje nie mogą być lepsze od inwestycji pasywnej. W praktyce może się jednak okazać, że poziom szumu dla bardzo krótkich (np. jednosesyjnych) okresów inwestycyjnych, w systemie analizującym wyłącznie ceny zamknięcia, jest tak wysoki, że utrudnia rekonstrukcję zjawiska i obniża zdolności prognostyczne w horyzoncie jednodniowym. Na podstawie tych spostrzeżeń można oczekiwać, że prognozy, bazujące na dotychczasowych cenach akcji (np. analiza techniczna), będą miały najlepszą trafność, jeśli będą dotyczyły od 3 do 5 sesji naprzód.Poznajemy zjawisko chaosu coraz lepiej. Wiemy już, że można zarabiać na akcjach. No, to do roboty - szukajmy najlepszych recept. N

39 - INSTRUMENTY POCHODNE

Modele wyceny opcji

Symulacja Monte Carlo

Albert Gock

Pisać o modelach w sposób prosty nie jest rzeczą łatwą. Większość artykułów, jakie znam,zawiera ogromną liczbę równań różniczkowych i skomplikowanych matematycznych przekształceń.Był jednak kiedyś człowiek, który pisał o tym w sposób prosty. Mam do niego za to wielki szacunek,bo widać było, że zależy mu, aby być zrozumianym, a nie aby zaszokować czytelnika swoją wiedzą.Umarł w 1995 r. Był jednym z autorów najbardziej dziś powszechnego modelu do wyceny opcji.Nagrodę Nobla za jego opracowanie przyznano dopiero po jego śmierci dwóm pozostałym twórcom.

J eżeli chodzi o jasność pisania o trudnych sprawach jest on moim guru i dlatego obiecuję nie użyć żadnego wzoru w tym artykule. A człowiek ten nazywał się Fisher Black.Warrant a opcjaNa GPW oraz na CeTO funkcjonują warranty. I właściwie pisząc o modelach wyceny powinienem to robić na przykładzie choćby tych warrantów, ale znaczyłoby to, że naginam się do naszego wyjątkowo niedoskonałego rynku kapitałowego.Będąc ostatnio na targach „Twoje Pieniądze” uczestniczyłem w spotkaniu z przedstawicielem GPW, który prezentował plany giełdy dotyczące instrumentów pochodnych. Powiedział, że emitowane będą coraz to nowe warranty na akcje (głównie kupna) przez różne biura maklerskie, z różnymi datami i cenami realizacji i że to bardzo fajnie, bo inwestorzy będą mieli coraz więcej instrumentów. A przecież różne warranty kupna na tę samą akcję to jeden i ten sam instrument - w cywilizowanych krajach nazywa się go opcją, tylko tam giełda narzuca pewne standardy (no i - oczywiście - opcję można sprzedać nie mając jej wcześniej).Zapytałem dlaczego, jeżeli GPW jest w stanie obsłużyć taką liczbę różnych warrantów, nie uruchomi rynku opcji z prawdziwego zdarzenia - choćby tylko rynku opcji kupna. Odpowiedział, że nie mają do tego odpowiedniego systemu i że jeszcze w najbliższym czasie mieć nie będą.No to co oni przez ten czas robili? Już prawie dziesięć lat, jak GPW rozpoczęła działalność i nie potrafią ruszyć z opcjami? Ja do takiej instytucji naginać się nie będę - to oni powinni się nagiąć i dlatego będę używał słowa opcja, a nie warrant. Przy okazji - zadziwiające jest to, że w miarę zbliżania się debiutu systemu WARSET zaczyna okazywać się, że nie jest on tak rewelacyjny i doskonały, jak to mówiono choćby rok temu.Ze świeczkąw ciemnym pokojuSheldon Natenberg był kiedyś traderem na parkiecie CBOT. Miałem przyjemność poznać człowieka, który w połowie lat 80. zaczynał handel na CBOT i pamięta „Shelly'ego” z tamtych czasów. Ponoć nie był zbyt dobrym traderem i po pewnym czasie zrezygnował z handlu na parkiecie. Zebrał jednak pewien zasób doświadczeń i napisał ciekawą książkę o wycenie opcji, zmienności i strategiach. Jest ona wprawdzie pisana z punktu widzenia tradera giełdowego, ale nawet dla dealerów bankowych ma duże wartości poznawcze. Jest w niej dużo mądrych zdań i od nich chciałbym rozpocząć te krótkie rozważania o modelach.„...Nowy trader opcyjny jest jak człowiek wchodzący do ciemnego pokoju po raz pierwszy w życiu. Bez przewodnika, potykając się w ciemnościach, być może w końcu znajdzie to, czego szuka. Trader, wyposażony w choćby podstawowe zrozumienie teoretycznego modelu wyceny, wchodzi do tego samego pokoju z małą świeczką. Dzięki niej może generalnie zorientować się w rozkładzie pokoju, ale słabość światła świeczki uniemożliwia mu wychwycenie każdego detalu. Ponadto, niektóre rzeczy, które widzi, mogą być zniekształcone przez drgający płomień. Pomimo tych ograniczeń trader ze świeczką ma dużo większe szanse znalezienia tego, czego szuka, niż ten bez żadnego światła. Prawdziwy problem z modelami wyceny pojawia się, kiedy trader zdobył już pewne doświadczenie. W miarę jak nabiera wiary w swoje możliwości, może zacząć zwiększać nominały swoich transakcji. Kiedy to się stanie, jego niemożność wychwycenia każdego detalu w pokoju oraz zniekształcenie spowodowane migającym płomieniem zaczynają mieć coraz większe znaczenie. Teraz zła interpretacja tego, co wydaje mu się, że widzi, może prowadzić do finansowej katastrofy, ponieważ każdy błąd w ocenie będzie wielokrotnie powiększony”. Pomówmy więc o modelach.Zacznijmy od podstawJednak nie od takich zupełnych podstaw - zakładam, że Czytelnik „PI” wie, co to jest opcja i jakie parametry ją charakteryzują - to można znaleźć w każdej broszurce lub książce o opcjach. Będziemy nasze rozważania prowadzili w oparciu o opcje na kontrakty futures na indeks WIG20. Tutaj krótka dygresja - dlaczego na futures, a nie na sam indeks? I dlaczego na większości światowych giełd handluje się opcjami na kontrakty futures, a nie na sam instrument bazowy?Wyobraźmy sobie, że mamy 3-miesięczną europejską opcję kupna na kurs USD/zł z ceną realizacji 4,8 zł, a aktualna cena spot USD/zł na rynku międzybankowym wynosi 4,7 zł. Czy taka opcja jest coś warta? Jak to wycenić?Wydawać by się mogło, że opcja ta jest niewiele warta, bo cena realizacji znajduje się sporo powyżej ceny spot, a więc po co kupować dolara po 4,8 zł, jeżeli możemy zapłacić tylko 4,7 zł? Ale pamiętajmy, że kupić dolara po 4,8 zł będziemy mogli dopiero za trzy miesiące - co jest więc tańsze: kupno dziś po 4,7 zł czy za trzy miesiące po 4,8 zł? Jak to porównać?Porównania możemy dokonać na dwa sposoby - samemu obliczyć, jakie będą koszty sfinansowania zakupu naszego dolara i trzymanie tej pozycji przez trzy miesiące albo po prostu sprawdzić, jaka jest aktualna cena terminowa dolara z dostawą za trzy miesiące. Obie metody dadzą nam podobny wynik, ale ta druga jest prostsza - to rynek wycenia, ile kosztuje 3-miesięczny dolar i nie musimy się zastanawiać, jakich stóp procentowych użyć do obliczeń, bo żadnych obliczeń dokonywać nie musimy.Tak więc szczególnie w przypadku rynków, na których proste i jednaznaczne obliczenie ceny terminowej nie jest możliwe (dotyczy to rynków, na których istnieją ograniczone możliwości przechowywania - najlepszy przykład to rynki rolne albo ograniczenia w krótkiej sprzedaży - tu daleko szukać nie trzeba), łatwiej się posługiwać funkcjonującym rynkiem terminowym. Spada z nas wówczas cały ciężar obliczenia ceny terminowej, no i - oczywiście - na takim rynku traderzy opcyjni łatwo mogą te opcje zabezpieczać (po co i jak je zabezpieczać to temat na całą serię artykułów).Zresztą - tak ŕ propos naszego rynku - warranty na WIG20 wyemitowane przez BRE Bank to są tak naprawdę warranty na kontrakt futures na WIG20 (proszę uważnie przeczytać specyfikację kontraktu, finalną ceną rozliczeniową jest tam cena rozliczeniowa kontraktów futures z ostatniego dnia obrotu danym warrantem, a nie sam indeks). Nie wiem, dlaczego BRE tak zrobił - czy jest to pomyłka i w specyfikacji tak naprawdę powinno być, że jest to rozliczane bezpośrednio do indeksu WIG20, czy po prostu nazwanie tych warrantów warrantami na WIG20, a nie na futures na WIG20 byłoby zbyt nowatorskim i rewolucyjnym posunięciem?DrzewkoWróćmy jednak do naszych rozważań. Wyobraźmy sobie, że jesteśmy szczęśliwymi posiadaczami europejskiej opcji kupna na kontrakt futures na WIG20 (to samo można zrobić z opcją sprzedaży) z datą realizacji wypadającą za 4 dni i z ceną realizacji 1700. Przyjmijmy też, że w momencie wyceny cena futures wynosi także 1700.Pokażemy, jak dokonać takiej wyceny za pomocą drzewka - tzw. modelu dwumianowego. Ponieważ jednak szczegółowe zbudowanie drzewka nie jest przedmiotem tego artykułu, dokonam pewnego grubego nadużycia - przyjmę arbitralnie, że możliwe ruchy cen instrumentu bazowego to ±50 pkt. oraz że prawdopodobieństwa ruchu w górę i w dół są sobie równe i wynoszą 50%. Żeby choć trochę udobruchać ekspertów, którzy zarzucą mi niestosowne dla modelu założenia, przyjmę jeszcze, że stopy procentowe są równe zero.I do dzieła. Jak może się zachować nasz kontrakt futures? Jego poziom jutro może z równym prawdopodobieństwem wynosić minimum 1650 lub maksimum 1750.Po czterech dniach, w dniu realizacji opcji, cena kontraktu futures może wynosić 1900, 1800, 1700, 1600, 1500. Ponieważ nasza opcja kupna ma cenę 1700, więc jej wartość będzie równa odpowiednio 200, 100, 0,0.Jak więc wygląda nasze drzewko (rysunek 1)? Widzimy na nim, ile będzie warta opcja w dniu jej realizacji, w zależności od tego, jaki będzie poziom ceny kontraktu futures. Ale jaka będzie wartość w dniu wyceny?Najpierw odpowiedzmy sobie na pytanie, jaka jest wartość opcji na jeden dzień przed realizacją, np. w węźle A. Tak więc w dniu realizacji (wychodząc od węzła A) będzie ona równa albo 200, albo 100. Czyli w węźle A jest ona warta 50% × 200 + 50% × 100 = 150. Podobnie obliczamy wartość w węźle B - wynosi ona 50. Mając wartości węzłów A i B, możemy obliczyć wartość węzła C - będzie ona równa 100. I tą metodą, poruszając się wstecz do pierwszego węzła, obliczamy wartość opcji w dniu wyceny (rysunek 2). Tak więc nasza opcja na cztery dni przed realizacją jest warta 37,51.A co na to wszystko Black i Scholes? Otóż, gdybyśmy zaczęli zagęszczać liczbę węzłów w drzewku, doszlibyśmy w końcu do modelu Blacka-Scholesa. Model ten ma jednak sporo „twardych” i niewygodnych założeń. Generalnie jest jak nasze drzewko, ale zamknięte w skrzynce, do której wrzuca się pewne wartości i która wypluwa inne, ale w jej środku niewiele można zmienić. Tymczasem w przypadku typowego drzewka każdy węzeł to jakaś odrębna decyzja.Wycena oparta na drzewku jest jednak dosyć pracochłonna - trzeba zrobić dużo obliczeń albo napisać program, który będzie to liczył za nas. Tymczasem wzór Blacka-Scholesa (B&S) można zastosować posługując się właściwie najprostszym kalkulatorem i tablicami statystycznymi. Dla giełdowych traderów opcyjnych w 1973 r. stał się nieoceniony - oprócz ceny opcji dawał im także od razu niezwykle ważny parametr - deltę. W niedługim czasie po ogłoszeniu przez Blacka i Scholesa ich wzoru firma Texas Instruments wprowadziła go do swoich kalkulatorów.Ale ponarzekajmy jeszcze trochę na Blacka i Scholesa. Po pierwsze, wzór ten nie nadaje się do wyceny opcji amerykańskich. W przypadku drzewka można sprawdzić w każdym węźle, co się bardziej opłaca - natychmiastowa realizacja opcji czy też dalsze jej trzymanie. Niestety, do „węzłów” Blacka i Scholesa nie możemy się dostać. Po drugie, przy wycenie używa się stałej zmienności - a nie jest ona zazwyczaj stała.Monte CarloTo małe piękne państewko-miasto położone jest na wybrzeżu Morza Śródziemnego wśród niesamowitych skał i przepaści. I raczej właśnie to, a nie jego sława jako miasta hazardu, zrobiło na mnie największe wrażenie. Kasyna (są tam właściwie tylko dwa) nawet mnie rozczarowały, a ze względu na moją przeszłość zawodową, na kasynach znam się bardzo dobrze.Kilkadziesiąt lat temu wymyślono metodę badań polegającą na losowym generowaniu możliwych ścieżek, według których mógłby zachodzić badany proces - losowym, ale oczywiście pod pewnymi warunkami. I ze względu na ten związek - jak los, to hazard, a jak hazard, to Monte Carlo - metoda ta uzyskała taką a nie inną nazwę.Jak wykorzystuje się Monte Carlo do wyceny opcji? Wyobraźmy sobie, że w dniu realizacji opcji instrument bazowy może przyjąć wartość A (rysunek 3). Ale co się działo przedtem? Jaką drogą cena instrumentu bazowego osiągnęła tę wartość? Czy była to droga I czy II? A może jeszcze inna?W przypadku standardowych opcji europejskich z płaską krzywą zmienności nie ma to znaczenia. Problem pojawia się jednak w przypadku opcji amerykańskich lub niektórych opcji egzotycznych przy zakrzywionej zmienności. Tu konieczne jest krótkie wyjaśnienie. Zakrzywionej względem czego? I dlaczego w ogóle zakrzywionej? Otóż to jest temat na zupełnie odrębny artykuł. O strukturach krzywej czy nawet płaszczyzny zmienności powstały całe wielkie opracowania i książki, ale my musimy znać tylko jej kształt. Model Blacka Scholesa zakłada, że krzywa zmienności jest linią prostą - tzn., bez względu na położenie ceny realizacji opcji w stosunku do ceny terminowej wartość zmienności jest stała. Na rysunku jest to krzywa I (rysunek 4). Przy czym mowa tu o zmienności rynkowej - czyli oczekiwanej, implikowanej. Ale zmienność zazwyczaj nie jest stała i może wyglądać tak, jak krzywa II (tzw. uśmiech zmienności) lub krzywa III (typowa krzywa na rynku walutowym na złotym). I proszę się nie denerwować, że ten temat jest potraktowany trochę po łebkach i tyle spraw pozostanie niejasnych. Opowiemy o tym przy okazji, a teraz prosimy przyjąć na wiarę, że tak jest. Generalnie metoda Monte Carlo może służyć do wyceny takich opcji, których wartość w dniu realizacji będzie zależeć od ścieżki, jaką poruszał się instrument bazowy w okresie życia opcji.Polega ona na generowaniu odpowiednio dużej liczby ścieżek oraz badaniu, ile warta byłaby opcja, gdyby instrument bazowy poruszał się daną ścieżką. Ścieżek musi być relatywnie dużo, a ponieważ procedura losowego generowania jednej ścieżki przy uwzględnieniu pewnych warunków także trwa jakiś czas, nie jest to metoda bardzo szybka. Oczywiście, robi to komputer, ale nawet dla niego zwiększenie analizowanego zakresu o jeden poziom powoduje duże spowolnienie procesu. A jaki poziom? Już mówię.Przypomnijmy sobie nasze drzewko. Drzewko o dwóch poziomach zawiera cztery możliwe ścieżki - o trzech już osiem. Analizowane przez nas wyżej drzewko miało 16 możliwych ścieżek. Gdybyśmy chcieli pokryć 100-poziomowe drzewko maksymalną możliwą liczbą ścieżek, zmusilibyśmy komputer do bardzo intensywnej pracy - liczba generowanych ścieżek równa byłaby liczbie składającej się z 30 cyfr.Spróbujmy wyobrazić sobie, jak wyglądałby taki proces Monte Carlo, np. dla opcji egzotycznej up and out w przypadku krzywej zmienności pokazanej na rysunku 4 (linia III). Jedyna rzecz, którą musimy wiedzieć o tej opcji, to to, że oprócz ceny realizacji ma ona drugą charakteryzującą ją cenę - tzw. trigger. Po przekroczeniu tej ceny przez instrument bazowy opcja znika - staje się bezwartościowa. Narzućmy sobie dodatkowe założenie, takie jak w standardowym drzewku, że w każdym nowym węźle możemy poruszać się tylko w górę lub w dół o maksymalne dopuszczalne poziomy.I to była tylko jedna ścieżka, a takich ścieżek mamy zrobić przynajmniej 10 lub 20 tysięcy. Ale może Państwu tego oszczędzę. Każdej takiej ścieżce przypisujemy prawdopodobieństwo i mnożymy je przez wartość opcji otrzymanej w wyniku przejścia tej ścieżki (w powyższym przypadku wartość wyszła zero). A potem sumujemy wszystkie otrzymane wyniki i mamy teoretyczną wartość opcji.A standardowa opcja europejska i opcja up and in tak się do siebie mają, jak osoba nietrzeźwa, idąca do domu szerokim polem, i osoba nietrzeźwa, idąca do domu na skraju przepaści.Jaki model wybraćMożemy sobie narzekać na modele, a model i tak zawsze będzie tylko oszacowaniem rzeczywistości. Tak więc możemy śmiało trzymać się takich zasad, że: jak opcja europejska - to Black&Scholes, jak amerykańska - to Cox&Rubinstein albo Whaley. Jak jakaś egzotyczna, to zależy jaka egzotyczna - ale przy wykręconej płaszczyźnie zmienności warto poradzić się Monte Carlo.Wracając do analogii z osobą wchodzącą do pokoju ze świeczką - w Blacku i Scholesie widzimy część pokoju - bardziej „wykręcone” fragmenty krzywej zmienności są dla nas niewidoczne. Monte Carlo to jak wykorzystanie piłeczki tenisowej do zbadania pokoju - musimy rzucić wiele razy, żeby mieć o pokoju naprawdę dobre pojęcie.Generalnie, dobrze mieć jednak pewne wartości, których możemy być pewni. Traderzy opcyjni na rynku międzybankowym uznają transakcję za zawartą w momencie uzgodnienia zmienności - dopiero potem ustalają, jaka to będzie premia - wszyscy oni traktują Blacka&Scholesa (a właściwie jego modyfikację dokonaną przez Garmana i Kohlhagena) jako pewnik.Istnieją wprawdzie „kombinatorzy”, którzy coś w modelach próbują zmieniać - nie zawsze to się jednak kończy dla nich dobrze - kilka lat temu pewien znany bank (nie pamiętam, czy był to UBS, Credit Swiss czy jeszcze jakiś inny) stracił duże pieniądze z winy błędnego modelu. Tak się może skończyć kombinowanie przy modelach. No, ale przecież Fisher Black, Myron Scholes i Robert Merton (trzeci, którego uważa się za ojca modelu) też byli takimi kombinatorami, i chwała im za to.Niech więc żyją kombinatorzy! n1 Wygląda to wszystko chyba dosyć prosto, ale nawet o drzewkach można dużo mówić i wcale nie musi to być takie proste - inne jest choćby drzewko Coxa i Rubinsteina, a inne - drzewko o równych prawdopodobieństwach.

43 - WYWIAD

Wziąć głęboki oddech

Z Wojciechem Eichelbergerem o nadziejach, emocjach i uzależnieniu inwestorów rozmawia Grzegorz Zalewski

48 - ANALIZA TECHNICZNA

Wolumen i otwarte pozycje

Grzegorz Uraziński

Skuteczne inwestowanie w oparciu o analizę techniczną wymagaodpowiedniego przetworzenia informacji o cenach, wolumenie i otwartych pozycjach.Cena jest tu oczywiście najważniejsza, gdyż to na jej podstawie inwestorzy podejmują decyzje,jednak wydaje się, że zbyt często ograniczają się tylko do niej.Zapominają o pozostałych dwóch niezwykle istotnych czynnikach,a tylko one mogą dostarczyć danych o sile i zaangażowaniu graczyoraz o łatwości ruchu cenowego, który wystąpił.

Podczas każdej sesji giełdowej dochodzi do spotkania podażowej i popytowej strony rynku, a jego wynik jest odzwierciedlany w cenach akcji i instrumentów pochodnych. Malejące ceny świadczą o tym, że przewaga leży po stronie sprzedających, jeśli ceny rosną - kontrolę przejmują kupujący. W wyniku takiej konfrontacji na wykresach powstają trendy i przeróżne formacje, które służą inwestorom do prognozowania przyszłych ruchów cen.Aby prognozy te były bardziej dokładne i wiarygodne, warto wspomóc się wolumenem. Wskaźnik ten to liczba kontraktów lub akcji, które były w danym okresie przedmiotem obrotu (zmieniły właściciela). Wolumen, informując o zaangażowaniu inwestorów, pozwala na prostą ocenę łatwości i siły ruchu cenowego, a dzięki temu pomaga określić, czy większe jest prawdopodobieństwo kontynuacji trendu, czy też jego zmiany.Mimo że wolumen jest zdecydowanie najbardziej popularną i najlepszą formą prezentacji aktywności inwestorów, jednak wielu analityków zastępuje go wartością obrotów. Wartość obrotu otrzymuje się po przemnożeniu liczby akcji lub innych instrumentów przez ich cenę (dodatkowo na GPW otrzymaną wartość mnoży się przez dwa). Wskaźnik ten nie oddaje jednak pełnej prawdy o liczbie akcji, które zmieniły właściciela.Wyobraźmy sobie sytuację, że na jednej sesji, przy cenie 10 zł, wolumen na akcjach pewnej spółki wyniósł 5000 szt. (wartość wolumenu to 10 zł × 5000 akcji, czyli 50 000 zł). Kilka dni później akcje te kosztują już 14 zł, a wolumen maleje do 4000 szt. (wartość wolumenu: 14 zł × 4000 szt. = 56 000 zł).Analityk posługujący się wolumenem, widząc, że zmalał on o 20%, otrzymuje ostrzegawcze sygnały, świadczące o malejącym zainteresowaniu danymi walorami, i może podjąć odpowiednie działania inwestycyjne. Natomiast przy interpretacji wartości wolumenu okazuję się, że wskaźnik ten cały czas rośnie (na skutek wzrostu cen akcji) i nie ma podstaw do niepokoju. Na niektórych giełdach wolumen podawany jest też jako liczba zawartych transakcji, jednak taka informacja wydaje się zdecydowanie najgorszym rozwiązaniem, gdyż na równi traktuje transakcje np. na 5 i 10 000 akcji.Interpretacja (wykres 1)Wolumen, aby można go było łatwo porównywać z cenami, umieszcza się najczęściej zaraz pod wykresem cenowym, w postaci histogramu (pionowych słupków).Podstawowa zasada mówi, że wolumen jest wskaźnikiem wyprzedzającym cenę. Ogólnie rzecz biorąc, oznacza to, że wolumen wcześniej niż ceny sygnalizuje kontynuację lub zmianę trendu. Kontynuacja trendu wzrostowego jest bardziej prawdopodobna, jeżeli towarzyszy mu rosnący wolumen - kolejne szczyty w trendzie wzrostowym powinny kształtować się przy coraz wyższych obrotach, a w trakcie ruchów korekcyjnych należy spodziewać się niższego wolumenu. Jeżeli dzieje się odwrotnie - istnieje spore prawdopodobieństwo zmiany trendu.Niższy wolumen oznacza, że coraz mniej inwestorów jest zainteresowanych kupnem akcji po aktualnych cenach - malejącej liczbie zleceń kupna w pewnym momencie może braknąć siły, by pchać kursy coraz wyżej. W takim przypadku zazwyczaj ceny docierają jeszcze w pobliże ostatniego szczytu, ale zaraz potem spadają przy znacznie większym wolumenie - wtedy już niemal na pewno trend wzrostowy się skończył.Także zbyt gwałtowny wzrost aktywności inwestorów daje sygnały zmiany trendu. Bardzo duże obroty są charakterystyczne dla punktów zwrotnych - oznaczają, że została zrealizowana znacznie większa niż do tej pory liczba zleceń kupna i może ich braknąć, aby kontynuować trend. Z podobnych względów znaczny wzrost wolumenu w trendzie spadkowym może oznaczać jego koniec. Po utworzeniu szczytu lub dołka przy bardzo dużym wolumenie ceny zazwyczaj testują to ostatnie ekstremum jeszcze raz, przy znacznie mniejszych obrotach.W trendzie spadkowym rosnący wolumen nie jest regułą. Jeżeli maleje on wraz z cenami, to jest całkiem naturalna sytuacja i wcale nie oznacza końca dotychczasowego trendu - istnieje bowiem przekonanie, że ceny mogą spadać pod własnym ciężarem. Dzieje się tak zwłaszcza na mało płynnych rynkach oraz tam, gdzie brak krótkiej sprzedaży, co w dużej mierze ogranicza aktywność krótkoterminowych spekulantów.Wolumen - oprócz cech wyprzedzających ceny - jest też wskaźnikiem potwierdzającym. Praktycznie każdy układ cen identyfikowany z kontynuacją lub zmianą trendu musi być potwierdzany odpowiednimi zmianami w obrotach. Najczęściej bywa tak, że aktywność inwestorów maleje wraz z tworzeniem się formacji (zwłaszcza gdy są to formacje korekcyjne), by gwałtownie wzrosnąć podczas jej opuszczania - takie zachowanie znacznie zwiększa prawdopodobieństwo ruchu zgodnego z kierunkiem wybicia. Jeżeli natomiast w omawianych momentach wolumen nie podlega większym zmianom, musimy liczyć się z tym, że wartość prognostyczna wcześniejszego układu cen jest znacznie mniejsza (wykres 1).są trzecią (po cenach i wolumenie), istotną informacją, jaka dociera do inwestorów po zakończeniu sesji. Informują o liczbie kontraktów, które w danej chwili znajdują się w posiadaniu graczy. Wskaźnik ten występuje tylko na rynkach instrumentów pochodnych i oznacza się go skrótem OI (Open Interest).Aby otworzyć jedną pozycję, na rynku muszą pojawić się dwa podmioty, z których jeden chce kupić kontrakt (otworzyć długą pozycję), a drugi - sprzedać krótko (otworzyć krótką pozycję). Oznacza to, że na rynku jest zawsze tyle samo pozycji długich, co krótkich. Jeżeli OI wynosi 1000, to znaczy, że otwartych jest zarówno 1000 pozycji długich, jak i 1000 pozycji krótkich. Rosnąca wartość tego wskaźnika informuje, że są otwierane nowe pozycje długie i nowe pozycje krótkie. Analogicznie - OI maleje tylko wtedy, gdy zamykane są już istniejące pozycje długie i krótkie. Jeżeli na rynku pojawi się tylko jedna nowa strona, kupująca lub sprzedająca od uczestnika, który zamyka stare pozycje, liczba otwartych pozycji się nie zmienia.InterpretacjaInterpretując liczbę otwartych pozycji, najlepiej nanieść ten wskaźnik w postaci linii ciągłej na ten sam wykres, gdzie znajduje się wolumen. Taka konstrukcja nie jest oczywiście konieczna, ale wydaje się najwygodniejsza, gdyż lepsze wyniki stosowania analizy otwartych pozycji uzyskuje się, porównując je właśnie z wolumenem. Ponieważ na rynku istnieje zazwyczaj kilka kontraktów na ten sam towar lub indeks, z różnymi terminami rozliczenia, bardzo popularna jest metoda sumowania wolumenu i otwartych pozycji dla wszystkich serii danego kontraktu i analizowanie ich na podstawie kontraktu z najbliższą datą wygaśnięcia lub kontraktu, który w danym momencie charakteryzuje się najwyższym wolumenem.Ogólnie przyjmuje się, że rosnąca liczba otwartych pozycji przemawia za kontynuacją dotychczasowego trendu, jeżeli natomiast wartość ta nie zmienia się, pojawiają się pierwsze ostrzegawcze sygnały przemawiające za końcem dotychczasowej tendencji. Malejąca liczba otwartych pozycji informuje o dużym zagrożeniu dla obecnego trendu.Kontynuacja trendu wymaga z kolei, aby na rynku cały czas pojawiali się nowi uczestnicy - zarówno optymiści, jak i pesymiści. Nowy optymista spodziewa się wzrostów i kupuje kontrakty od nowego pesymisty, próbującego „złapać” szczyt - liczba otwartych pozycji wówczas się zwiększa. Jeżeli ceny rosną, pesymista, posiadając krótką pozycję, ponosi straty i jest zmuszony ją zamknąć. Wystawia zlecenie kupna i tym samym przyczynia się do dalszych wzrostów cen.Dopóki na rynku pojawiają się dwie nowe strony, sytuacja się powtarza i wygląda to jak samonapędzająca się maszyna. Jeżeli natomiast zabraknie którejś ze stron (np. pesymistów), nowy optymista zmuszony jest do kupowania kontraktów od realizującego zyski posiadacza długiej pozycji (kontrakt zmienia właściciela - nowy się nie pojawia, a więc otwarte pozycje pozostają bez zmian). W takim przypadku część optymistów opuszcza rynek - zapala się wówczas ostrzegawcze światło, sygnalizujące możliwość zmiany trendu.Odwrócenie trendu staje się dużo bardziej prawdopodobne, jeżeli liczba otwartych pozycji maleje. Dochodzi do tego wtedy, gdy transakcje zawierają tylko istniejący już na rynku inwestorzy. Posiadacz długiej pozycji na kontraktach, chcąc ją zamknąć - wystawia zlecenie sprzedaży, odkupuje je inwestor zamykający pozycje krótkie. Starzy uczestnicy opuszczają rynek, a nowi się na nim nie pojawiają, zaczyna brakować „paliwa”, aby kontynuować obecny trend, i zwiększa się szansa jego odwrotu. Analogicznie wygląda sytuacja w trendzie spadkowym.Analiza wolumenu i otwartych pozycji nie zawsze pozwala na łatwe wyłapanie i rozszyfrowanie sygnałów płynących z rynku. Czasami niewielkie zmiany wartości obrotów i cen wydają się mieć neutralne znaczenie, ale po dokładniejszym przeanalizowaniu okazuje się, że właśnie z tych niepozornych ruchów płyną istotne sygnały, przemawiające za kontynuacją lub odwróceniem trendu.Aby ułatwić i udoskonalić badanie wolumenu i otwartych pozycji, analitycy techniczni stworzyli sporą gamę wskaźników uwzględniających te informacje. Do najpopularniejszych należą: Herrick Payoff Index (HPI), Easy of Movement (EOM), Demand Index (DI) oraz kilka wskaźników bazujących na akumulacji wolumenu.Ze względu na sposób obliczania (potrzebne są ceny maksymalne, minimalne i zamknięcia), wskaźniki te należy stosować w odniesieniu do instrumentów notowanych w trybie ciągłym. Trzeba oczywiście pamiętać, że są to wskaźniki oparte na wolumenie i najlepiej stosować je na rynkach, które charakteryzują się dużą, stabilną płynnością. W przeciwnym wypadku będziemy otrzymywać wiele mylących sygnałów, generowanych przez przypadkowe ruchy wskaźnika. Zazwyczaj dopuszczalne są dłuższe niż jednodniowe ramy czasowe (tygodniowe, miesięczne), ale wyjątek stanowi HPI, który analizuje się tylko na wykresach dziennych (nie można sumować otwartych pozycji).Herrick Payoff IndexKonstrukcja:HPI = HPIp+(K-HPIp)Otrzymane wartości należy wygładzić za pomocą średniej ruchomej (standardowo przyjmuje się okres 10 dni)gdzie:HPIp - wczorajsza wartość Herrick Payoff Index (HPI),K = ((S-Sp*10*V)*(1 (+/-) ((OI*2)/MINOI))),(+/-) - wstawiamy „+” jeżeli S>Sp, w przeciwnym przypadku „-”S = średnia cen z dzisiejszego dnia (najwyższa cena + najniższa cena) / 2Sp = średnia cena z dnia wczorajszegoV = dzisiejszy wolumenOI = bezwzględna wartość różnicy między liczbą otwartych pozycji z dnia dzisiejszego a liczbą otwartych pozycji z dnia wczorajszegoMINOI = mniejsza z dwóch wartości (liczba otwartych pozycji z dnia dzisiejszego lub wczorajszego)InterpretacjaJest to najpopularniejszy wskaźnik, służący do analizy rynków terminowych na podstawie zmian cen, wolumenu i otwartych pozycji. Obrazując presję popytu i podaży, dobrze potwierdza trendy i sygnalizuje możliwość ich zwrotu.Interpretując ten wskaźnik, należy zwrócić uwagę na trzy podstawowe cechy. Najbardziej istotne i najpewniejsze sygnały pojawiają się wtedy, gdy między cenami a HPI powstają dywergencje. Wyróżnić można dwa rodzaje dywergencji - pozytywną (byka) i negatywną (niedźwiedzia). Jeżeli ceny tworzą nowy szczyt, a HPI nie jest w stanie przebić poprzedniej górki i zaraz potem zaczyna zniżkować, pojawia się sygnał końca trendu (negatywna dywergencja). Odwrotnie sytuacja wygląda podczas bessy. Gdy ceny spadają do nowego dołka, a sztuka ta nie udaje się wskaźnikowi, pojawia się pozytywna dywergencja, świadcząca o malejącej sile obecnego trendu i możliwości jego zakończenia.Kolejne ważne sygnały płyną z przecięć poziomu równowagi - „0”. Jeżeli HPI porusza się w strefie wartości ujemnych - przewaga na rynku należy do niedźwiedzi i najlepszym rozwiązaniem jest sprzedaż. Wzrosty ponad linię równowagi sygnalizują, że na rynku dochodzi do znaczących zmian i przewagę zaczynają przejmować kupujący, zdecydowanie większa szansa zarobku istnieje wtedy na pozycjach długich. Bardzo silny sygnał zajęcia pozycji pojawia się, jeżeli do przecięcia zera dochodzi po utworzeniu dywergencji. Wtedy z bardzo dużym prawdopodobieństwem można stwierdzić, że dochodzi do zmiany trendu i zajęcie pozycji zgodnej z wcześniejszą dywergencją i kierunkiem przebicia poziomu równowagi powinno przynieść spore zyski.Bardzo przydatne w poszukiwaniu zwrotów na rynku jest analizowanie linii trendu na wykresie HPI - ich przełamanie jest sygnałem ostrzegawczym. Często bowiem bywa tak, że zanim ceny przełamią linię trendu, wcześniej do takiej sytuacji dochodzi na HPI (wykres 2).Easy of MovementKonstrukcja:EMV = S/WSgdzie:S = (dzisiejsze maksimum + dzisiejsze minimum)/2 - (wczorajsze maksimum + wczorajsze minimum)/2WS = (dzisiejszy wolumen/10 000)/(dzisiejsze maksimum - dzisiejsze minimum)Otrzymane wartości należy wygładzić za pomocą średniej ruchomej (standardowo przyjmuje się okres 14 dni).InterpretacjaEasy of Movement został skonstruowany przez Richarda W. Armsa. Początkowa koncepcja była taka, by analizować ten wskaźnik z wykresami equivolume, jednak gdy się okazało, że bardzo dobre wyniki daje także w połączeniu z innymi wykresami (świecowymi, słupkowymi), stał się bardzo popularny i obecnie jest dołączany do większości programów do analizy technicznej.Wskaźnik ten, opierając się na średnich kursach i towarzyszącym im obrocie, określa łatwość, z jaką poruszają się ceny. Im większy wzrost cen i mniejszy wolumen, tym większa łatwość ruchu, a tym samym większe wartości EOM. Bardzo duży obrót przy niewielkich zmianach cen świadczy o tym, że ruch odbywa się bardzo ciężko i szybko może zabraknąć siły na jego kontynuację.Analizując Easy of Movement, największą wagę należy przyłożyć do pozycji tego wskaźnika względem poziomu równowagi. Wartości ujemne są charakterystyczne dla bessy, dodatnie - dla hossy. Sygnał kupna pojawia się w momencie wzrostu ponad poziom zera, świadczy to o tym, że ceny z łatwością ustalają nowe szczyty i prawdopodobnie rozpoczynają trend wzrostowy. Do sprzedaży należy przystąpić, gdy wrtość wskaźnika powróci do strefy wartości ujemnych (wykres 3).Demand IndexTo zdecydowanie najbardziej zaawansowany wskaźnik badający relację między popytem i podażą. Jego twórcą jest James Sibbet. Do głównych zadań Demand Index należy zidentyfikowanie, czy przewaga na rynku należy do byków czy niedźwiedzi. Wynik takiego „rozpoznania” sygnalizowany jest dodatnimi lub ujemnymi wartościami indykatora. Jeżeli DI znajduje się poniżej poziomu równowagi, kierunek rynku ustalają sprzedający i należy się im podporządkować, otwierając krótkie pozycje na kontraktach lub pozbywając się akcji. Wzrost DI powyżej zera jest równoznaczny z sygnałem kupna - oznacza, że narasta presja popytu i prawdopodobnie powstaje nowy trend wzrostowy.Analizując wykres Demand Index warto poszukiwać dywergencji. Zasada jest tu podobna, jak w przypadku Herrick Payoff Index. Jeżeli nowe szczyty w trendzie wzrostowym nie są potwierdzane przez nowe szczyty na wykresie DI - pojawia się negatywna dywergencja (formacja zapowiadająca spadki). Odwrotnie jest w falach spadkowych. Kolejnym dołkom na akcjogramie powinny towarzyszyć nowe dołki na DI, w przeciwnym razie pojawi się dywergencja pozytywna. W przypadku Demand Index z zajęciem pozycji lepiej poczekać, aż dywergencja zostanie potwierdzona przez przecięcie poziomu zera. Jeżeli na wykresie cenowym zdecydowanie panuje trend wzrostowy lub spadkowy, to każde odbicie DI od poziomu równowagi jest bardzo dobrym sygnałem powiększenia pozycji (wykres 4).Konstrukcja większości najpopularniejszych wskaźników bazujących na wolumenie polega na uzależnieniu zachowania się tych narzędzi od relacji cen (zamknięcia - otwarcia, maksymalnej - minimalnej, średniej dzisiejszej - średniej wczorajszej itp.). Podstawowe wskaźniki tak obliczane to On Balance Volume (OBV - równowaga wolumenu) Josepha Granville'a i Accumulation/Distribution Line (A/D Line - akumulacja/dystrybucja) Larry'ego Williamsa. W przypadku tego drugiego wskaźnika, trzeba uważać, aby nie pomylić go z Advance Decline Line. W wielu źródłach są one tak samo oznaczane (A/D Line), ale pełnią całkiem inne role. Advance Decline Line jest wskaźnikiem sentymentu, który prezentuje stosunek spółek rosnących do malejących dla całego rynku.Różnica między nimi polega na tym, że Granville codziennie zwiększał (jeżeli cena zamknięcia była wyższa niż otwarcia) lub zmniejszał (cena zamknięcia niższa niż otwarcia) wartość OBV o cały wolumen, natomiast Williams ważył wolumen udziałem różnicy między ceną zamknięcia a otwarcia w całym dziennym zakresie ruchowym (cena maksymalna - cena minimalna). Ta druga metoda wydaje się skuteczniejsza, gdyż lepiej uwzględnia fakt istnienia na rynku byków i niedźwiedzi w trakcie jednej sesji.Wyobraźmy sobie, że notowania jakiegoś instrumentu otwierają się na poziomie 20 zł (wyżej niż dzień wcześniej), w trakcie sesji cena dochodzi do 22 zł, ale na zakończenie wraca do 20,2 zł. Ceny wzrosły nieznacznie, ale wzrosły, więc OBV jest zwiększany o cały dzisiejszy wolumen, mimo że spora jego część przypadła na spadki w trakcie sesji. Lepiej z taką sytuacją radzi sobie wskaźnik A/D Line, który wykorzystuje tylko nieznaczną część wolumenu (cały tylko wtedy, gdy cena otwarcia będzie równa minimalnej, a cena zamknięcia - maksymalnej, lub odwrotnie).On Balance VolumeKonstrukcja:OBV = OBVp +/- Vgdzie:OBVp - wczorajsza wartość OBVV - dzisiejszy wolumen+/- - jeżeli dzisiejsza cena zamknięcia jest większa od wczorajszej, to dajemy „+”, w przeciwnym przypadku „-”. Jeżeli cena dzisiejsza jest równa wczorajszej, OBV przyjmuje wartość wczorajszą.Accumulation/Distribution LineIstnieją dwie wersje linii A/D. Pierwsza uwzględnia ceny otwarcia, druga powstała do analizy instrumentów, dla których ceny otwarcia nie są publikowane.        1. A/D = A/Dp+(((C-O)/(H-L))*V)        2. A/D = A/Dp+((((C-L)-(H-C))/(H-L))*V)gdzie:A/Dp - wczorajsza wartość A/DV - wolumenC - cena zamknięciaO - cena otwarciaH - cena maksymalnaL - cena minimalnaInterpretacjaWskaźniki te przyjmują rolę wyprzedzającą ceny. Interpretując je, należy zwracać uwagę przede wszystkim na trendy, w jakich się poruszają i dywergencje tworzone z cenami. Praktycznie wcale nie mają znaczenia wartości, jakie przyjmują. Najprościej mówiąc - wskaźniki te informują, czy na rynku panuje większa chęć kupna, czy też sprzedaży.Generalna zasada mówi, że jeżeli ceny poruszają się w trendzie wzrostowym, to taką samą wzrostową tendencję powinno być widać na wykresie omawianych wskaźników. I odwrotnie - malejące ceny powinny być potwierdzane coraz mniejszymi wartościami wskaźników. Przełamanie linii trendu na wykresie zarówno OBV, jak i A/D jest poważnym sygnałem ostrzegawczym, i zazwyczaj niedługo po nim dochodzi do załamania trendu cenowego. Czasami zdarza się też, że między omawianymi wskaźnikami a cenami tworzą się dywergencje - są to najsilniejsze sygnały informujące o zmianie trendu, a zasada interpretacji jest tu taka sama, jak w przypadku Herrick Payoff Index czy Demand Index.O sporej użyteczności OBV i A/D Line może świadczyć to, że na ich podstawie powstało wiele innych wskaźników uwzględniających wolumen. Zaliczyć do nich możemy: Trade Volume Index (służy do analizy wykresów „intraday” - oparty na OBV), Price Volume Trend (konstrukcja podobna do OBV i A/D, z tym, że wolumen ważony jest procentową zmianą ceny dzisiejszej do wczorajszej), Chaikin Money Flow (zsumowana wartość A/D z 21 dni podzielona przez 21-dniową sumę wolumenu) czy Chaikin A/D Oscillator (średnia z 10 wartości A/D odjęta od średniej z trzech wartości A/D) [wykres 5].Niewątpliwie wolumen jest bardzo cenną informacją, jaka dociera do inwestorów z rynku akcji. Potwierdza, ostrzega, pozwala wybrać najpłynniejsze walory. Istnieje jednak jeden problem, który dotyczy także polskich inwestorów, a mianowicie - brak krótkiej sprzedaży, co automatycznie eliminuje krótkoterminowych spekulantów zwiększających siłę podażowej strony rynku w trakcie bessy. Dopóki taka możliwość w pełni nie zagości na warszawskim parkiecie, interpretacja wolumenu (a przede wszystkim wskaźników na nim opartych) będzie znacznie mniej efektywna niż tam, gdzie inwestorzy mają możliwość zarabiania na spadkach. nLiteratura:Richard W. Arms, Znaczenie wolumenu, WIG-Press, Warszawa 1998Dr Aleksander Elder, Zawód inwestor giełdowy,Dom Wydawniczy ABC, Warszawa 1998Charles LeBeau, David W. Lucas, Komputerowa analiza rynków terminowych,WIG-Press, Warszawa 1998

54 - ABC ANALIZY TECHNICZNEJ

Teoria Dowa Po stu latach wciąż aktualna

Tomasz Jóźwik

Teorię opisującą trendy giełdowe Charles Dow stworzył na początku XX wieku.Rzeczywistość była wtedy dużo prostsza - mniej było na rynku spółek, mniej instrumentów, o Nasdaq nikt nie miał usłyszeć jeszcze przez siedemdziesiąt lat z okładem.Nie ulega wątpliwości, że - pomimo napisania w zupełnie innych warunkach - teoria Dowa przetrwała próbę czasu. Ale czy gdyby autor żył dziś, napisałby ją tak samo?

Teorię Dowa streszczają na wstępie wszystkie chyba książki do analizy technicznej, w tym w Polsce podręczniki autorstwa Johna J. Murphy'ego i Martina Pringa. Jej podstawowe zasady dają się streścić w sześciu punktach:1) Średnie giełdowe dyskontują wszystko. To fundamentalna zasada, zgodnie z którą wszystkie emocje, oczekiwania i wiedza inwestorów zawarte są w cenach akcji. Wszelkie wydarzenia, które mają wpływ na kursy, są dyskontowane przez średnie rynkowe. Przypadki losowe, takie jak trzęsienia ziemi, są przez średnie szybko uwzględniane.2) W każdym momencie na rynku występują trzy stopnie trendu. Zgodnie z definicją Dowa, z trendem wzrostowym mamy do czynienia wtedy, kiedy kolejne szczyty i dołki usytuowane są na coraz wyższym poziomie. W trendzie spadkowym minima i maksima są położone coraz niżej.Najważniejszy jest trend główny, który trwa od roku do kilku lat. Właśnie badaniem takich trendów był przede wszystkim zainteresowany Dow i zgodnie z nimi radził inwestować.Trend wtórny (zwany również trendem średnioterminowym) stanowił korektę trendu głównego i trwał od trzech tygodni do trzech miesięcy. Ruchy wtórne znoszą z reguły od 1/3 do 2/3 poprzedzającego ich ruchu cen.Trendy krótkoterminowe trwają od kilku godzin do trzech tygodni i nie mają żadnego znaczenia dla inwestorów długoterminowych.3) Trend ma trzy fazy. Zgodnie z teorią Dowa, trend główny ma trzy fazy. Główny rynek byka to szeroki ruch wzrostowy, przerywany spadkowymi korektami. W pierwszej fazie (fazie akumulacji) w zwyżkę wierzą nieliczni i chętnych do kupowania jest niewielu. Średnie giełdowe już zdyskontowały wszystkie negatywne informacje, ale na rynek wciąż jeszcze napływają niekorzystne wiadomości fundamentalne. W kolejnym etapie trendu grono optymistów powiększa się, poprawiają się także uwarunkowania gospodarcze. Rynek jest szeroki, a trend dynamiczny. Trzecią, ostatnią fazę trendu cechuje masowy udział inwestorów, wszechobecny optymizm i nadmierne oczekiwania, mocno oderwane od rzeczywistości.Główny rynek niedźwiedzia zaczyna się wtedy, gdy nadzieje, z jakimi były kupowane akcje w ostatniej fazie hossy, rozwiewają się. W drugiej fazie spadków znacznie pogarszają się „fundamenty”, a zyski spółek spadają. W trzeciej i ostatniej fazie nikt już nie wierzy w możliwości poprawy sytuacji, zdecydowana większość jest gotowa sprzedać akcje za bezcen, z otoczenia rynku napływają skrajnie pesymistyczne wiadomości.Í Wolumen powinien potwierdzać trend. Zgodnie z prezentowaną teorią, wolumen powinien wzrastać wraz z ruchami cen zgodnymi z trendem głównym. Dow traktował wolumen jedynie jako czynnik pomocniczy, a sygnały kupna i sprzedaży otrzymywane były tylko i wyłącznie na podstawie analizy cen zamknięcia.Î Trend jest kontynuowany dopóty, dopóki nie pojawią się sygnały jego definitywnego zakończenia. To jedno z fundamentalnych założeń teorii Dowa, przynajmniej z punktu widzenia taktyki zawierania transakcji, zgodnie z którym należy oczekiwać, że trend wykazuje większą ochotę do kontynuacji niż do odwrócenia.4) Średnie giełdowe muszą się nawzajem potwierdzać. O ile pięć pierwszych głównych założeń teorii Dowa nie budzi zastrzeżeń, o tyle co do tego ostatniego można mieć wątpliwości. Do zasady potwierdzenia Charles Dow używał średniej przemysłowej i transportowej. Zgodnie z nią, istotny sygnał zapowiadający bessę lub hossę musi być potwierdzony przez obie średnie. Jeśli trend wtórny kończy się przebiciem poziomu ostatniego szczytu na średniej przemysłowej, powinno to mieć również miejsce na średniej transportowej. Sygnały nie muszą wystąpić jednocześnie, ale powinny być blisko siebie. Wprawdzie kiedy średnie dają rozbieżne sygnały należy założyć, że dotychczasowy trend będzie kontynuowany, ale nie jest on już tak wiarygodny.Ciekawe, czy gdyby Dow dziś pisał swoją teorię, widząc niemal całkiem odmienne zachowanie obu średnich, włączyłby również i tę prawidłowość do swoich zasad? Chyba nie, bo zasada potwierdzenia jest dość trudna do interpretacji, chyba trudniejsza, niż założył to Dow na początku wieku.Autor teorii nie zostawił jasnych wskazówek, po jakim czasie można uznać, że średnie nie potwierdzają się. Czy po tygodniu, czy może dopiero po miesiącu? Nawet jeśli stwierdzimy rozbieżności między dwoma indeksami, to i tak bardzo trudno oszacować, czy rynek osiągnął właśnie istotny szczyt, czy też rozpoczyna jedynie mało ważną korektę. Stosując teorię Dowa, jeśli inwestujemy na prawej stronie wykresu, jest to praktycznie nie do stwierdzenia w chwili ustanawiania szczytu. Dopiero kiedy pojawia się jakaś formacja typowa dla zmiany trendu, możemy przypuszczać, iż mamy do czynienia z poważnym zwrotem.Dlatego zasada potwierdzenia nie nadaje się raczej do przełożenia na mechaniczny system transakcyjny, ani też do wykorzystania w codziennej praktyce inwestycyjnej. To raczej metoda wizualnej oceny wykresów, na podstawie której można próbować stwierdzić, czy trend długoterminowy jest silny, czy też nie. W tym artykule spróbuję ocenić, czy analiza prostych sygnałów technicznych, jak przełamanie analizy trendu czy wybicie z konsolidacji na jednej ze średnich, może jakoś ułatwić zrozumienie rzeczywistości inwestycyjnej.Średnia przemysłowa i średnia transportowaw czasie hossy.Hossa na amerykańskim rynku akcji rozpoczęła się wraz z zakończeniem przez Dow Jones Industrial Average kilkunastoletniej konsolidacji wybiciem ponad poziom 1000 pkt. na przełomie października i listopada 1982 r. Ten bardzo pozytywny sygnał wyprzedzony został przez indeks Dow Jones Transportation Average o ponad dwa lata. Już bowiem w lipcu 1980 r. średnia transportowa za drugim podejściem przełamała szczyt z końca lat 60., odpowiadający wierzchołkowi średniej przemysłowej na poziomie 1000 pkt. (wykres 1). Kiedy sygnał kupna potwierdzał indeks przemysłowy, DJTA zdążył „zarobić” ponad 50%.Do pierwszej ważnej rozbieżności „technicznej” między obu indeksami doszło w 1986 r. (wykres 2). Wtedy to średnia transportowa spadła poniżej dwuletniej linii trendu, zachęcając tym samym do sprzedaży akcji. DJIA nie przełamał analogicznej linii, a nawet więcej - w 1987 r. zadziałała ona jako wsparcie. Sugerowanie, że wydarzenia z 1986 r. w jakikolwiek sposób zapowiadały późniejsze załamanie rynku, byłoby nadużyciem. Również w samym 1987 r. żadna ze średnich nie dała jakiejś czytelnej wskazówki przed drugą średnią, tak żeby z analizy rozbieżności można było wysnuć wniosek o zagrożeniu rynku krachem.Indeksy zachowały się odmiennie już po załamaniu. Średnia transportowa powróciła do trendu wzrostowego w lutym 1988 r. w oparciu o odwróconą głowę z ramionami, która na wykresie DJIA wystąpiła w postaci mocno szczątkowej. Zwyżka po wybiciu z formacji była krótka i gwałtowna: zakończyła się po pięciu tygodniach negatywną dywergencją na wykresie średniej transportowej w stosunku do indeksu „przemysłowego” (wykres 3).Interesująco z punktu widzenia analizy porównawczej indeksów giełdy nowojorskiej wypadło zakończenie pierwszej fali wzrostowej po załamaniu rynku w 1987 r. Średnia transportowa osiągnęła maksimum już we wrześniu 1989 r., kształtując formację podwójnego szczytu, a poniżej wzrostowej linii trendu spadła w październiku. W tym czasie na wykresie DJIA ukształtował się jedynie korekcyjny trend boczny - wskaźnik osiągnął szczyt w połowie lipca 1990 r., a przełamał linię trendu dopiero w sierpniu.Można zatem stwierdzić, że DJTA dał wyprzedzający sygnał sprzedaży. Pozostaje tylko oszacować jego użyteczność. Sygnał wystąpił dziewięć miesięcy wcześniej, na dodatek, kiedy średnia przemysłowa osiągała maksimum, naprawdę niezmiernie trudno było „podejrzewać”, że jest to jakiś istotny szczyt. Zwrot na rynku był gwałtowny i tak naprawdę nawet przełamanie linii trendu na DJIA było spóźnioną wskazówką, bo główna część spadku już się dokonała (wykres 4).Kolejna „dywergencja” miała miejsce na przełomie lat 1991 i 1992. Wtedy średnia przemysłowa gwałtownie przełamała opór w okolicach 3 tys. pkt., kończąc tym samym trwający blisko rok trend boczny. Zwyżka nie została potwierdzona przez średnią transportową, która nie zdołała przebić poziomu szczytu z 1991 r. I było to rzeczywiście skuteczne ostrzeżenie, bowiem niedługo po wybiciu wzrost na DJIA zgasł, a indeks ponownie znalazł się w korekcie trendu wzrostowego (wykres 4).We wspólnym trendzie wzrostowym indeksy znalazły się tak naprawdę dopiero w 1995 r., kiedy to na początku marca średnia przemysłowa wybiła się z rocznej tendencji bocznej, przekraczając poziom 4 tys. pkt. Dwa miesiące wcześniej sygnał kupna wygenerował Dow Jones „transportowy”, przełamując linię trendu spadkowego. Od tamtej pory aż do kwietnia 1998 r. trwał najbardziej dynamiczny trend wzrostowy, zgodnie potwierdzany przez oba indeksy.Wskaźnik Dow Jones Transportation Average zakończył hossę przełamaniem przyspieszonej linii trendu wzrostowego w lipcu 1998 r., po wcześniejszej wyraźnej negatywnej dywergencji ze średnią przemysłową. Te negatywne sygnały długoterminowe potwierdził DJIA miesiąc później, przecinając analogiczne wsparcie. Z tym że... ta potwierdzona przez obie średnie zachęta do sprzedaży okazała się fałszywa, bowiem DJIA zakończył bessę miesiąc po przebiciu wzrostowej linii trendu.Rekord z lipca 1998 r. wskaźnik pobił w styczniu 1999 r., bez potwierdzenia ze strony DJTA, który w maju zeszłego roku odbił się od szczytu na poziomie 3800 pkt. i pogrążył w głębokiej bessie. Kto wtedy sprzedał akcje, tego nie ominęły jakieś spektakularne wzrosty, bo choć zwyżka na wykresie DJIA trwała jeszcze do stycznia br., to jej dynamika wyraźnie osłabła.Wielka dywergencjaOd szczytu z maja 1999 r. do dołka bessy z lutego br. wartość indeksu DJTA spadła prawie o 40%. W tym samym czasie DJIA stracił niewiele ponad 10%, zmieniając trend długoterminowy ze wzrostowego na boczny (wykres 5). Czy zatem spadek średniej transportowej był tylko objawem słabości wyłącznie tego sektora rynku i sygnalizował jedynie trend boczny (linię, zgodnie z nazewnictwem Dowa) na wskaźniku przemysłowym? Czy też długoterminowa dywergencja jest zapowiedzią bessy, jakiej jeszcze nie było?Na razie wiele wskazuje na to, że ta megadywergencja okaże się niewypałem. Wykres indeksu utrzymał się na razie wewnątrz 26-letniego kanału, broniąc wsparcia na wysokości 2275 pkt. (wykres 6). Jednak do długoterminowego sygnału kupna, z punktu widzenia teorii Dowa, jest jeszcze bardzo daleko, bowiem dopiero przełamanie szczytu znajdującego się na wysokości 3833 pkt. będzie zachętą do kupowania akcji.Warto obserwować zachowanie indeksu transportowego, gdyby wspomniane wsparcie na wysokości 2275 pkt. było ponownie testowane. Jego przełamanie będzie dopełnieniem sygnałów zmiany długoterminowego trendu wzrostowego i choć nie nadaje się do wykorzystania w praktyce inwestycyjnej, jednak warto o tym fakcie pamiętać. Zresztą wykres DJTA pokazuje jedno - jeśli tym razem korelacja między indeksami zadziała, to średnia przemysłowa powinna spaść do 8 tys. pkt., gdzie przebiega 18-letnia linia trendu wzrostowego.Jeśli decydować się na prognozę opartą o teorię Dowa w stosunku do jego indeksów, to nie sposób pominąć faz kształtowania się trendu.To, co obserwujemy teraz, to nic innego jak dystrybucja akcji. Na samym szczycie umarły nadzieje internetowe tych, którzy sądzili, że ten rodzaj biznesu nie podlega prawom ekonomii. Teraz wciąż jeszcze tli się nadzieja, iż trend zostanie utrzymany, nikt jednak w długoterminową bessę nie wierzy. A przed nami dopiero druga faza - spadki poparte niskimi zyskami spółek.Zamiast podsumowaniaNie ulega wątpliwości, że dziś Charles Dow napisałby swoją teorię tak samo. Przynajmniej w pięciu punktach, być może zastanowiłby się nad tym mówiącym o potwierdzaniu średnich i zamiast indeksów DJTA i DJIA użyłby jednego ze wskaźników Nasdaq? N

58 - FUNDUSZE INWESTYCYJNE

Jak efektywnie zarządzać portfelem funduszy zamkniętych

Beata Kielan

W listopadowym numerze „Profesjonalnego Inwestora” została zaprezentowana prosta strategia inwestycyjna, wykorzystująca dyskonto ceny funduszu do jego wartości aktywów netto WAN. Dzisiaj przedstawimy bardziej zaawansowane kryteria konstruowania portfela funduszy, wykorzystujące dyskonto funduszy do WAN.Strategia powrotudo średniejDo skonstruowania portfela funduszy przyjęto założenie, iż cena/WAN jest zmienną losową, charakteryzującą się rozkładem normalnym. W takim przypadku najbardziej prawdopodobną wartością jest średnia wartość zmiennej losowej, co oznacza, iż jeśli w danym momencie zmienna losowa przyjmie ekstremalnie odległą od swej średniej wartość, będzie dążyła do powrotu do niej.W naszym przypadku oznacza to, iż jeśli dyskonto/premia będą wystarczająco wysokie w stosunku do średniej wartości z określonego odcinka czasu, to można spodziewać się zmniejszenia jej wartości w czasie, w jakim została wyznaczona średnia. Strategia ta polega więc na nabywaniu/sprzedawaniu funduszy charakteryzujących się odpowiednio wysokim dyskontem/premią w stosunku do WAN.Peter Juhl w swojej pracy „Does it mean reversion strategy really work?” (Czy strategia nawrotu do średniej w rzeczywistości przynosi pozytywne rezultaty?) zbadał, czy istnieją realne podstawy do zastosowania tej strategii. Wyniki przedstawione na rysunku 1 wskazują na ścisłą zależność trzymiesięcznej względnej zmiany ceny w stosunku do wartości dyskonta/premii.Z uwagi na to, iż rezultat inwestycji zależy od wartości wskaźnika cena/WAN wobec jej historycznego poziomu, uzyskanie wysokiej względnej stopy zwrotu nie jest zdeterminowane inwestowaniem w fundusze o niskiej wartości cena/WAN. W rzeczywistości jest to uniwersalna zależność, polegająca na wyższym wzroście względnym ceny funduszu niż względny wzrost WAN, wynikający ze zmniejszenia premii lub dyskonta. Innymi słowy, cena/WAN zarówno drogiego, jak i taniego funduszu (w sensie dyskonta/premii) może powrócić do średniej wartości premii i dyskonta.Podobny związek został zaobserwowany między zmianą dyskonta/premii funduszu do zmiany odpowiedniego benchmarku (indeksu) określonego dla tego funduszu, przy czym poszukiwanie takiego związku ma sens dla funduszy indeksowych oraz dla funduszy o ściśle określonym benchmarku i w miarę pasywnej polityce inwestycyjnej (rysunek 2). Wyniki tego testu sugerują raczej użycie funduszy o odpowiednim stosunku ceny/WAN niż kupno rynku (co możemy osiągnąć nabywając indeks poprzez kontrakty terminowe) lub akcji wchodzących w skład indeksu.W tabeli 1 pokazano efekt zmniejszenia dyskonta w okresie inwestycji. Zmniejszenie/zwiększenie dyskonta powoduje zawsze zmianę ceny funduszu w następujący sposób:% ceny = % WAN × % dyskontaStosując obie te strategie należy pamiętać o następujących ograniczeniach:H prezentowane dane dotyczą średniej z funduszy, a więc nie będą miały zastosowania do poszczególnych funduszy, ale do portfela funduszy,H portfel funduszy, dla którego można zaobserwować prezentowaną zależność, zmienia się w sposób ciągły, gdyż w taki sposób zmienia się relacja cena/WAN dla poszczególnych funduszy.Dlatego też konieczne jest aktywne monitorowanie zbioru dostępnych funduszy, gdyż tylko wtedy można mieć pewność, iż stosujemy strategię do właściwej grupy funduszy.Konstruowanieoptymalnego portfelafunduszy zamkniętychW cytowanej pracy Peter Juhl szczegółowo zbadał portfele funduszy zamkniętych i wyselekcjonował kilka kryteriów, pozwalających na konstruowanie optymalnego portfela.Są to:H maksymalizacja stopy zwrotu z funduszu/stopy zwrotu z WAN w procesie zawężenia dyskonta/premii,H optymalizacja wysokości stopy zwrotu z funduszu/stopy zwrotu z indeksu (benchmarku),H maksymalizacja bezwzględnej stopy zwrotu - odpowiedź na pytanie, czy przy zastosowaniu strategii powrotu do średniej najbardziej prawdopodobna wielkość stopy zwrotu jest dodatnia.Badano przy tym następujące czynniki:H aktualny poziom cena/WAN,H cenę docelową,H zmienność cena/WAN, zmienność cena/WAN w stosunku do zmienności 52-tygodniowej średniej (cena/WAN),H czas, w jakim cena/WAN wraca do średniej.Rezultaty- rekomendowane strategie:1. Dla maksymalizacji stopy zwrotu z funduszu/stopy zwrotu rekomendowany portfel składał się z funduszy niedowartościowanych względem WAN (notowanych z dyskontem), a wskaźnik cena/WAN wynosił 2 odchylenia standardowe poniżej 52-tygodniowej średniej wartości.Prawie cały zysk wynikający ze zmniejszenia się dyskonta do WAN pojawia się w ciągu trzech miesięcy od aktualnego poziomu. Większość funduszy traci następnie cały osiągnięty zysk w kolejnych trzech miesiącach - dyskonto/premia rozszerzały się, dlatego też rekomendowana jest sprzedaż po upływie trzech miesięcy i reinwestycja w inne fundusze spełniające to kryterium. Osiągana stopa zwrotu funduszu/stopy zwrotu z WAN z tytułu zmniejszenia dyskonta wynosiła 11,6%.2. Rekomendowany portfel funduszy pozwalający maksymalizować stopę zwrotu z funduszu/stopy zwrotu z indeksu składał się z funduszy kwotowanych z dyskontem, których cena/WAN znajdowała się poniżej 1 odchylenia standardowego od 52-tygodniowej średniej ceny/WAN.Podobnie jak poprzednio, rekomendowany okres inwestycji to trzy miesiące, po których zalecana jest sprzedaż funduszu i reinwestycja w inny fundusz spełniający podane kryteria. Osiągany rezultat wynosił 14,7%, przy 3,7% dla indeksu (jest to indeks hipotetyczny, skonstruowany ze zbioru indeksów, na których rozpięto fundusze). Ryzyko tego portfela mierzone zmiennością było porównywalne do ryzyka benchmarku (indeksu). Należy podkreślić, iż strategia ta generuje znacznie więcej sygnałów kupna niż strategia 1 i dodatkowo jest zalecana dla zarządzających na wielu rynkach, gdyż pozwala na uzyskanie stóp zwrotu lepszych niż bezpośrednie inwestowanie oparte na indeksach.3. Bezwzględne rezultaty poprzednich dwóch strategii wskazują, iż rekomendowany portfel generuje zysk niezależnie od stanu rynku (niezależnie od tego, czy sprzedajemy na rynku spadkowym i kupujemy na rynku wzrostowym).Podsumowując można wyciągnąć następujące wnioski: portfel składający się z funduszy niedowartościowanych o stosunku cena/WAN poniżej 2 odchyleń standardowych 52-tygodniowej średniej ceny/WAN pozwala na osiągnięcie wysokiej stopy zwrotu zarówno względem WAN funduszu, indeksu, jak i bezwzględnej stopy zwrotu.DługoterminowestrategieOpisana strategia jest strategią krótkoterminową. Ciekawe rezultaty można otrzymać, jeśli portfel spółek zawęzimy do składającego się z funduszy o dyskoncie przekraczającym 35% przez 6, 12, 18, 24 miesięcy. W takim przypadku fundusze uzyskiwały dochód przekraczający 30% w stosunku do stopy zwrotu z indeksu, jednak czas trwania inwestycji wynosił co najmniej 6 miesięcy. Ze względu na długi okres obserwacji, akumulacji oraz wyjścia z inwestycji nawet niepłynne fundusze mogą tutaj być dobrymi kandydatami.Rekomendowane czasy trzymania inwestycji wynosiły: 18 miesięcy dla funduszy o dyskoncie co najmniej 50% i 6 miesięcy - dla tych o dyskoncie 30-35%.Jeśli dodatkowo zwiększy się wymagania do poziomu, aby co najmniej 50% aktywów funduszu było lokowanych w aktywa znajdujące się w publicznym obrocie, średnia stopa zwrotu z indeksu przekraczała średnią stopę z indeksu o 65,3%. Dla funduszy o dyskoncie z zakresu 30-35% tylko w dwóch przypadkach na rezultaty trzeba było czekać aż 12 miesięcy.Strategie arbitrażoweStrategie arbitrażowe polegają na kupnie funduszu z dużym dyskontem i krótkiej sprzedaży funduszu o dużej premii. Oba powinny być funduszami o takiej samej (zbliżonej) becie do wybranego indeksu.Motywacją do wykorzystania techniki arbitrażu jest chęć wyeliminowania ryzyka rynku. W takim przypadku pozostaje tylko ryzyko, iż dyskonto/premia nie zachowają się w określony sposób (zawężą lub rozszerzą). Wadą tej strategii są trudności ze znalezieniem odpowiednich kandydatów spełniających takie kryteria. Przykład zastosowania strategii arbitrażu został przedstawiony w tabelach 2 i 3.Jak wykorzystać strategiedo inwestycji w FunduszSkarbiec-Gwarancja 2002?Skarbiec-Gwarancja 2002 jest pierwszym w Polsce funduszem zamkniętym o określonym czasie życia (do października 2002 r.) oraz o wartości certyfikatu odnoszącym się do wartości indeksu na koniec trwania funduszu. Na zakończenie funkcjonowania tego funduszu lokujący w nim środki inwestor ma możliwość uzyskania 180-proc. wzrostu średniego indeksu z okresu trwania. Natomiast w okresie życia funduszu cena giełdowa powinna odzwierciedlać ruchy indeksu, choć wycena certyfikatu przez TFI nie do końca odzwierciedla wartość rynkową ze względu na stosowanie księgowych zasad wyceny.Dla osiągnięcia założonego celu Skarbiec-Gwarancja 2002 ok. 73% środków ulokował w obligacje Skarbu Państwa i ok. 22% w opcję typu call na indeks DJ Eurostoxx 50 (o czasie trwania porównywalnym z czasem trwania funduszu).Wycena jest następująca: opcja jest wyceniana w cenie nabycia, jeśli indeks znajduje się powyżej wartości początkowej indeksu, oraz w cenie zero - jeśli indeks spadnie poniżej wartości początkowej. Oczywiście, jest to tylko wartość teoretyczna opcji, gdyż jej wartość realna składa się jeszcze z premii za czas, która ze względu na długi okres do wygaśnięcia jest bardzo wysoka.W październiku 2000 r. również cena giełdowa certyfikatu Skarbiec-Gwarancja 2002 znajdowała się w pobliżu wartości księgowej. A co to oznacza dla posiadaczy certyfikatu lub ich ewentualnych nabywców?Na księgową cenę z października (83 zł) składała się aktualna wartość nabytych obligacji oraz wartość księgowa opcji, która ze względu na to, iż indeks 29 września znajdował się poniżej wartości, przy jakiej opcja była nabywana, wynosi zero (z przyczyn opisanych powyżej). DJ Eurostoxx 50, do którego odnosi się opcja oraz Skarbiec Gwarancja 2002, spadł o ok. 0,92%, natomiast wartość księgowa Skarbiec-Gwarancja 2002, odzwierciedlona w notowaniach giełdowych, zmalała o ok. 22%.Mamy tu do czynienia ze swoistym przypadkiem bardzo dużego dyskonta zmian ceny funduszu w stosunku do zmian indeksu, na który fundusz opiewa. Ponieważ przy rosnącym indeksie DJ Eustox 50 w efekcie będzie musiało nastąpić zrównanie zmian wartości certyfikatu Skarbca-Gwarancji 2002 ze zmianami DJ Eurostoxx 50, to przy uwzględnieniu wielkości indeksu z 29 września wartość certyfikatu była zaniżona o ok. 16%. Dysproporcja ta pogłębiła się, gdy DJ Eurostoxx 50 wzrósł do 5200 pkt. 2 listopada. Przy wartości rynkowej 85 zł niedowartościowanie certyfikatu Skarbiec-Gwarancja 2002 wynosiło 18,5%.Zatem każdy nabywca certyfikatu po aktualnej cenie (z października br.) zwiększa swój wskaźnik udziału we wzroście indeksu na koniec trwania funduszu praktycznie do nieskończoności, gdyż kupuje długoterminową opcję o wartości zero. Dlatego też zakup z dyskontem certyfikatów Skarbiec Gwarancja 2002 wydaje się godny polecenia. nLiteratura:Peter Juhl,Does the mean reversion strategy really work,Flemings Research, February 2000.

68 - NARZĘDZIA INWESTORA

Programowanie w MetaStocku

Jarosław Kilon

Nowoczesna analiza techniczna nie może obejść się bez komputera. Coraz popularniejsze staje się budowanie własnych systemów transakcyjnych, opartych na rozmaitych narzędziach technicznych, do których testowania komputer jest praktycznie niezbędny. W artykule tym postaram się przedstawić podstawy języka pozwalającego konstruować własne narzędzia techniczne za pomocą najpopularniejszego chyba w Polsce programu MetaStock.W kolejnych częściach znajdą się również omówienia sposobów optymalizacji parametrów wskaźników, testowania systemów transakcyjnych oraz pisania eksploracji, pozwalających porządkować bądź wyszukiwać walory według określonych kryteriów.

Język programowania formuł pakietu MetaStock został stworzony w celu umożliwienia użytkownikowi konstruowania m.in. własnych wskaźników technicznych i systemów transakcyjnych. Jest on w dużej mierze zgodny z rozwiązaniami spotykanymi w najpopularniejszych arkuszach kalkulacyjnych (najnowsza wersja programu umożliwia również tworzenie wskaźników bezpośrednich, np. w arkuszu Microsoft Excel).PodstawyPierwszą sprawą przy konstruowaniu własnego wskaźnika jest wyselekcjonowanie danych, na podstawie których będzie on wyliczany. Główne grupy danych wykorzystywane do obliczeń przedstawia tabela 1:Niezbędne jest również zapoznanie się z zestawem operatorów matematycznych, koniecznych do skonstruowania jakiejkolwiek formuły. MetaStock zachowuje standardową kolejność wykonywania działań matematycznych. Hierarchię tę można, oczywiście, zmienić poprzez zastosowanie nawiasów. Przykładowo wyrażenie „O+C/2” zostanie zinterpretowane jako suma połowy ceny zamknięcia (C/2) i ceny otwarcia (O). Aby wyliczyć wartość średnią z cen otwarcia i zamknięcia, należy powyższe zdanie sformułować: „(O+C)/2”.Operatory dostępne w programie przedstawia tabela 2:Umieszczanie własnego wskaźnikaw menu Indicator QuickListZ menu Narzędzia (Tools) należy wybrać opcję Indicator Builder. Po wyświetleniu okna dialogowego wybieramy opcję „New”, a następnie w odpowiednich polach wpisujemy nazwę wskaźnika (np. Próbka) i zaznaczamy opcję „Display in QuickList”. Spowoduje to automatyczne umieszczenie wskaźnika w zestawie dostępnych funkcji.W okienku „Formula” należy wpisać wzór wskaźnika, np.:mov(close,13,weighted)-mov(close,45,weighted)     (1)Formuła (1) dokona wyliczenia różnicy między 13- a 45-dniową ważoną liniowo średnią cen zamknięcia (jest to rodzaj oscylatora).Całość operacji kończymy naciskając przycisk OK. Od tego momentu możemy nasz wskaźnik umieścić na wykresie tradycyjną metodą „przeciągnij i upuść”.Umieszczanie standardowych formuł we wzorze wskaźnikaPoza czterema podstawowymi działaniami matematycznymi MetaStock oferuje ponad 200 gotowych formuł matematycznych. Aktualna biblioteka dostępnych funkcji sięga kilku tysięcy (są one dostępne w internecie).Umieszczenie formuły we wzorze wskaźnika polega na wybraniu jej nazwy z listy dostępnej po włączeniu opcji „Functions”. Lista ta zawiera wszystkie dostępne funkcje uporządkowane tematycznie. Zaznaczenie opcji „Paste arguments” spowoduje umieszczenie we wzorze symboli wymaganych parametrów funkcji [np. przy RSI konieczne jest podanie okresu (periods), z jakiego jest wyliczany].Niektóre z gotowych funkcji nie wymagają żadnych parametrów, tak jak np. macd(); niektóre mogą wymagać podania kilku, oddzielonych przecinkami - np. średnia: mov(identyfikator kursu, okres, sposób wyliczania). Parametry mogą mieć postać liczb (i takie występują najczęściej) bądź liter (wyrazów), jak np. parametr „E” we wzorze średniej kroczącej wskazuje na to, iż jest to średnia wykładnicza.W miejsce parametrów liczbowych można również wstawiać zmienne oraz inne funkcje (tzw. zagnieżdżanie funkcji). Przykład taki podaję poniżej:mov(rsi(13),8,E)                    (2)Funkcja (2) ma na celu wyliczenie 8-dniowej średniej wykładniczej z 13-dniowego RSI.Umieszczanie komentarzyAby zapewnić przejrzystość konstruowanej formuły, korzystne jest zamieszczenie we wzorze komentarzy, które określają znaczenie poszczególnych jej członów. Umieszczenie ich ułatwia także ewentualną edycję wzoru przez potencjalnych użytkowników. Możliwość taka w MetaStocku istnieje - słowa komentarza należy wstawić w nawiasach: {komentarz}.Funkcją wymagającą osobnego omówienia jest funkcja if(). Osobom, które zetknęły się z podstawami programowania, jej działanie jest doskonale znane. Oparte jest na trzech parametrach, z których jeden to warunek [test logiczny, którego wynikiem może być prawda (1) bądź fałsz (0)], natomiast dwa pozostałe to, w kolejności, polecenie wykonania określonego działania, w przypadku gdy test logiczny = 1 oraz polecenie wykonania innego działania, gdy test logiczny = 0.W zapisie MetaStocka przyjmuje ona postać:if(test logiczny, wykonaj gdy prawda, wykonaj gdy fałsz)Funkcja ta jest jedną z najczęściej używanych. Pozwala bowiem na skonstruowanie wskaźnika nawet o stosunkowo rozbudowanym algorytmie, dostosowującego się np. do zakresu względnej zmienności kursu analizowanego instrumentu (przykład 3).if(stdev(close,5)/mov(close,5,simple)>0.02,rsi(13),rsi(8))  (3)Wzór ten można „przetłumaczyć” następująco: jeżeli odchylenie standardowe cen zamknięcia ostatnich pięciu dni stanowi więcej niż 2 proc. średniej ceny zamknięcia z tego okresu, wykreśl 13-dniowy RSI, w przeciwnym razie wykreśl 8-dniowy RSI.Przy tej okazji należy zapoznać się z działaniem wybranych operatorów logicznych. W tabeli 3 symbol 1 oznacza prawdę, 0 - fałsz. Przykładowo: jeżeli prawdziwe jest zdanie a i prawdziwe jest zdanie b, to prawdziwe jest również zdanie a and b.Zasady używania zmiennychW celu ułatwienia pracy ze złożonymi formułami, a także rozszerzenia pakietu dostępnych możliwości (w tym optymalizacji parametrów wskaźnika) korzystne jest używanie przy ich budowie zmiennych. Zmienne (ang. variables) muszą posiadać nazwę składającą się maksymalnie z 20 znaków (liter lub cyfr, np. okres1). W jednym wskaźniku można użyć do 20 zmiennych. Muszą one być określone na początku formuły (przed właściwym wzorem, w którym są wykorzystywane). Każda linia programu, w której następuje przyporządkowanie określonej wartości danej zmiennej, musi kończyć się średnikiem.Nazwy poszczególnych zmiennych nie mogą zawierać nawiasów, przecinków, kropek, spacji, znaków podkreślenia itp. Nie mogą również przyjmować nazw zarezerwowanych dla wcześniej określonych funkcji (np. mov, rsi) ani parametrów w nich występujących (np. open, high, low, close, O, H, L, C, E, W, S, T itp.). Nazwa zmiennej jest interpretowana identycznie bez względu na to, czy jest pisana małymi, czy wielkimi literami (np. okres1 = OKRES1).Zmiennym mogą być również przyporządkowywane wyrażenia matematyczne. Przyporządkowanie wyrażeń zmiennym, szczególnie w przypadku długich, złożonych formuł, czyni je łatwiejszymi do odczytania, modyfikacji oraz przyspiesza ich wyliczanie.Przyporządkowanie określonej wartości zmiennej może odbywać się na poziomie formuły, tj. poprzez zastosowanie wyrażenia:okres1:=15;bądź poprzez użycie funkcji input. To drugie rozwiązanie jest w zdecydowanej większości przypadków korzystniejsze (przy zmianie np. okresu, z jakiego wyliczany jest wskaźnik, nie zachodzi potrzeba edycji wzoru). Funkcja input wymaga kilku argumentów i przyjmuje postać:input(„tekst”, min, max, def)gdzie:tekst - określenie zmiennej bądź pytanie podawane w oknie dialogowym przy nanoszeniu wskaźnika na wykres (np. podaj długość średniej),min - wartość minimalna, jaką może przyjmować zmienna,max - wartość maksymalna,def - wartość typowa (np. wynik przeprowadzonej optymalizacji).Formuły samopowtarzające sięJedną ze specyficznych formuł jest funkcja prev. Nie wymaga ona żadnych argumentów, daje jedynie możliwość odwołania się we wzorze wskaźnika do poprzedniej jego wartości. Pozwala to w wielu przypadkach na skrócenie zapisu matematycznego wskaźnika kosztem jednak zdecydowanie dłuższego czasu, potrzebnego na jego wyliczenie (szczególnie przy długoterminowej analizie walorów i związanej z tym konieczności przetwarzania dużej liczby danych).Używanie funkcji prev nie zawsze daje jednak pożądane rezultaty. Dobrym przykładem jest formuła średniej wykładniczej, przy czym argumentem średniej nie jest okres, z jakiego jest ona wyliczana, a procentowa waga bieżącej ceny (przykład poniżej). Doświadczalne sprawdzenie efektów działania formuły i ich interpretację pozostawiam Czytelnikom.waga:=input(„Udział ostatniej ceny %”,1,100,80);(close*waga/100)+(prev*(100-waga)/100)        (4)Budowa wskaźnika - przykład kompleksowyNa zakończenie proponuję zapoznać się z kolejnymi etapami powstawania wskaźnika określanego jako filtr efektywności rynku Kaufmana. Jest on godny polecenia wszystkim graczom, mającym konserwatywne podejście do inwestowania, wybierającym spokojne inwestowanie z trendem. Zgodnie z prawdą, Kaufman stwierdził, iż najbardziej wiarygodne są trendy długoterminowe, ale wskaźniki informujące o takich trendach zbyt wolno reagują na sygnały zapowiadające zmianę charakteru rynku.Szybkość stosowanego wskaźnika trendu jest ograniczona wielkością obecnego na rynku szumu. Gdy zmienność rynku (czyli szum) rośnie, należy spowolnić wskaźnik w celu ograniczenia liczby mylnych sygnałów. Jednak im szybciej zmienia się kurs, tym mniejsze staje się znaczenie szumu. Dlatego potrzebna jest jakaś miara efektywności rynku, uwzględniająca zarówno szum, jak i szybkość ruchu w kierunku trendu.Wskaźnik efektywności Kaufmana oblicza się dzieląc ruch cenowy (wartości bezwzględne zmian cenowych) między dwoma punktami czasu przez sumę pojedynczych ruchów. Jest to więc stosunek szybkości ruchu do szumu.Wzory służące do obliczania wskaźnika mają postać:szybkość ruchu = bezwzględna różnica między ceną zamknięcia dziśa ceną zamknięcia sprzed n dni (A)zmienność = suma bezwzględnych różnicmiędzy zamknięciem dzisiejszyma wczorajszym w okresie n dni (B)wskaźnik efektywności = iloraz szybkości ruchu przez zmienność (C)Wartość wskaźnika efektywności zmienia się między 0 a 1, warunkiem reakcji (zidentyfikowania wyraźnego trendu) jest przebywanie wskaźnika w określonym przedziale wartości (np. 0 - 0,33 - brak wyraźnego trendu (szum); 0,34 - 0,67 trend wyraźny; 0,68 - 1,00 - trend bardzo silny).Jak przełożyć powyższe wzory na język MetaStocka? Formuła wskaźnika wymaga sumowania bezwzględnych wartości różnic między zamknięciem dwóch kolejnych sesji w zadanym okresie (wzór B). Skonstruujemy więc osobny wskaźnik wyliczający tę różnicę (według procedury podanej poniżej):Krok 1. Konstrukcja wskaźnika pomocniczegoNazwa wskaźnika: modulWczorajszą cenę zamknięcia uzyskamy wykorzystując funkcję ref(), która wymaga argumentów jak poniżej:ref(określenie kursu, przesunięcie czasowe)Przesunięcie czasowe podaje się w dniach (-5 powoduje podawanie wartości kursu bądź funkcji sprzed 5 dni).Różnica między dzisiejszą a wczorajszą ceną przyjmuje więc postać:close - ref(close,-1)Aby otrzymać wartość bezwzględną tej różnicy, należy użyć funkcji abs(). Kompletny wzór wskaźnika pomocniczego modul wygląda następująco:abs(close - ref(close,-1))               (5)Krok 2. Konstrukcja wskaźnika efektywnościKaufmanaNazwa wskaźnika: Kaufman's effWskaźnik przy wykreślaniu powinien wymagać podania okresu, z jakiego ma być wyliczany. Zastosujmy tu funkcję input(), definiując za jej pomocą zmienną okres:okres:=Input(„Okres”,3,100,15);Niech zmienna speed reprezentuje wzór A. Ponownie wykorzystamy tu znaną już funkcję ref():speed:=Abs(CLOSE-Ref(CLOSE,-okres));Wzór B, czyli sumę wartości funkcji modul w zadanym okresie czasu (zm. okres), przyporządkujmy zmiennej volat:volat:=Sum(Fml(„modul”),okres);Teraz pozostaje już jedynie wykreślenie linii, będącej ilorazem zmiennych speed i volat. Kompletny wskaźnik przyjmie więc postać:         okres:=Input(„Okres”,3,100,15);         speed:=Abs(CLOSE-Ref(CLOSE,-okres));         volat:=Sum(Fml(„modul”),okres);         speed/volatEfekty naszej pracy przedstawia wykres 1.Jak widać na wykresie, istotnie pozostawanie wskaźnika Kaufmana w przedziale oznaczającym brak właściwego trendu (szum) jest ściśle związane z utrzymywaniem się na rynku trendu bocznego.ZakończenieWszystkich zainteresowanych tworzeniem własnych narzędzi technicznych zapraszam do samodzielnego eksperymentowania. W następnych częściach cyklu przedstawię konstrukcję bardziej zaawansowanych wskaźników, ich działanie i interpretację. Omówię również zasady optymalizacji parametrów zarówno własnych, jak i standardowych wskaźników, pisania systemów transakcyjnych w języku MetaStocka oraz tworzenia eksploracji. Wszelkie uwagi i pytania można również kierować na adres jkilon@wena.edu.pl nLiteratura:J.J. Murphy, Analiza techniczna, WIG-Press, Warszawa 1994S.A. Achelis, Analiza techniczna od A do Z, LT&P, Warszawa 1998V.K. Tharp, Giełda, wolność i pieniądze, WIG-Press, Warszawa 2000M. Czekała, Analiza fundamentalna i techniczna, WAE Wrocław 1998C. LeBeau, D. Lucas, Komputerowa analiza rynków terminowych,WIG-Press, Warszawa 1998



Wyszukiwarka

Podobne podstrony:
PROFESJONALNY INWESTOR, PI 08, 10 -
MSG 08 ISMZ doc
PI 08 C
Mikroby 08 Stomatologia doc
NA PRZYJ, PI W POWITRZ LU DOC
PI KA R CZNA DOC
Lensman 08 Smith, E E Doc & David A Kyle The Dragon Lensman
Test 08 doc
Operat wodnoprawny PI 277253 08
Kolokwium nr1, wodkan 08[1].10.2007. doc, 08
Doc Zajkowska 28 08 2007[1]
08 PEiM Zasilacze doc (2)
232 625 08 zm sposobu u 277ytkowania pismo Wioli doc) w27a
Test 08 doc
08 (7) DOC
PI 04 DOC

więcej podobnych podstron