POLITECHNIKA SZCZECIŃSKA
WYDZIAŁ INFORMATYKI
Marcin Tomasz Piotrowicz
KLASYFIKACJA POD WZGLĘDEM RYZYKA SPÓŁEK NOTOWANYCH NA GIEŁDZIE PAPIERÓW WARTOŚCIOWYCH W WARSZAWIE
Pracę niniejszą wykonałem
w Instytucie Inżynierii Finansowej i
Systemów Wspomagania Decyzji
pod kierunkiem
dr Małgorzaty Machowskiej Szewczyk
Szczecin 2003
SPIS TREŚCI
WSTĘP
ROZDZIAŁ 1. OPIS POWSTANIA I FUNKCJONOWANIA GIEŁDY
1.1. POCZĄTKI GIEŁDY I JEJ FUNKCJONOWANIE W STAROŻYTNOŚCI
1.2. HISTORIA ROZWOJU GPW W WARSZAWIE
1.3. PSYCHOLOGICZNY ASPEKT GIEŁDY
1.4. RYZYKO ZWIĄZANE Z GIEŁDĄ
ROZDZIAŁ 2. METODY KLASYFIKACJI
2.1. POJĘCIE METODY
2.2. POJĘCIE TAKSONOMII
2.3. PODZIAŁ METOD TAKSONOMICZNYCH
2.3.1. Opis algorytmów wybranych metod.
2.3.2. Graficzna prezentacja danych wielowymiarowych
2.4. WYKORZYSTANIE VAR W ZARZĄDZANIU RYZYKIEM.
2.4.1. Metody obliczania VaR
2.4.2. Zarządzanie ryzykiem przy wykorzystaniu VaR
ROZDZIAŁ 3. OPIS METODY WARDA ORAZ DZIAŁANIA PROGRAMU
3.1. METODA WARDA
3.2. OPIS DZIAŁANIA PROGRAMU
ROZDZIAŁ 4. KLASYFIKACJA SPÓŁEK NOTOWANYCH NA GIEŁDZIE
ZAKOŃCZENIE
SŁOWNICZEK
SPIS TABLIC I RYSUNKÓW
BIBLIOGRAFIA
WSTĘP
Ryzyko wynika z faktu podejmowania decyzji dotyczących przyszłości. Rozpoczynając jakiekolwiek działania, nigdy nie możemy być pewni przyszłych wyników. Gdy stykamy się ze zjawiskami, które mają wpływ na wyniki działalności gospodarczej, a są niezależne od woli podmiotu gospodarującego, mówimy wówczas
o niepewności, odmianą niepewności jest ryzyko.
Ryzyko towarzyszy ludziom od początku ich istnienia. Każda decyzja podejmowana przez człowieka wiąże się z ryzykiem nie spełnienia podejmowanych działań zgodnie z naszymi oczekiwaniami. Każdy podmiot istniejący na rynku działa
w warunkach ryzyka gospodarczego, rynkowego czy inwestycyjnego. Według porzekadła: „kto nie ryzykuje, ten nic nie ma”. Ludzi od zarania dziejów fascynuje i pociąga ryzyko, nie tylko w kwestiach materialnych. Gra na giełdzie to ciągłe ryzyko, albowiem nigdy nie da się przewidzieć skutków naszego wyboru. Giełda to nic innego jak wielkie kasyno. Poniższa praca składa się z czterech rozdziałów.
Rozdział I to opis powstawania i funkcjonowania giełdy. Przedstawiono historię kształtowania się giełd na świecie począwszy od samego zalążku giełdy do którego zaliczamy jarmark, a skończywszy na giełdzie sformalizowanej w określonych strukturach organizacyjnych. Ponadto opisany jest psychologiczny aspekt giełdy, czyli mentalność i świadomość jaka towarzyszy uczestnikom obrotu giełdowego, ze szczególnym uwzględnieniem ryzyka, oraz miarami owego ryzyka.
Rozdział II ma charakter teoretyczny, zaprezentowane są wybrane metody klasyfikacji, wyjaśnione zostały również pojęcia: metody i taksonomii. Przedstawiono tutaj podział metod taksonomicznych oraz algorytmy ich działania. Opisano również miarę ryzyka VaR, która jest pomocna w zarządzaniu ryzykiem.
Rozdział III opisuje metodę Warda, która należy do grupy metod hierarchicznych. Metody hierarchiczne należą do najpopularniejszych i najczęściej wykorzystywanych metod. Rozdział ten przedstawia również program umożliwiający klasyfikację zbioru dowolnych obiektów.
Rozdział IV opisuje przebieg klasyfikacji na przykładzie spółek z przemysłu elektromaszynowego wg kolejnych etapów badania taksonomicznego.
ROZDZIAŁ 1. OPIS POWSTANIA I FUNKCJONOWANIA GIEŁDY
POCZĄTKI GIEŁDY I JEJ FUNKCJONOWANIE W STAROŻYTNOŚCI
Przodkiem giełdy był jarmark . Marek Terencjusz Varro pisał o corocznym jarmarku w Rzymie, na którym sprzedawano szynki, kiełbasy i słoninę z Galii. Upadek Cesarstwa Rzymskiego oznaczał jednak również upadek handlu. Niebezpieczne, źle utrzymane drogi odstraszały wielu kupców od podejmowania ryzykownych w takiej sytuacji wypraw. Dopiero w późniejszych wiekach, w miarę umacniania się państw feudalnych
i rozwoju miast, ruch na traktach handlowych zaczął rosnąć. Aby przyciągnąć kupców,
a także zwiększyć zyski płynące z handlu, poszczególne miasta organizowały w określone dni roku jarmarki. Niektóre z nich szybko zaczęły nabierać rozgłosu. W XII wieku słynne były na przykład jarmarki w Szampanii. Odbywały się one regularnie, przyciągając wiele osób. Na niektórych pojawił się nowy zwyczaj. Otóż zaczęto handlować towarem, którego na nim nie było. Dotychczas kupiec jechał na jarmark z całym towarem i wystawiał go tak, aby nabywca mógł go obejrzeć, dotknąć, potargować się. Kupował bowiem konkretny towar. W tym zaś przypadku było inaczej. Kupujący płacił za towar, którego nie widział, bowiem znajdował się on daleko od miejsca zawarcia transakcji. Towar ten musiał odpowiadać pewnym standardom. W ten sposób dokonał się pierwszy krok w kierunku powstania giełdy towarowej. Przedmiotem handlu przestał bowiem być konkretny towar, a stał się towar który posiadał ściśle określone cechy, tzw. towar standaryzowany.
Ten rodzaj handlu, chociaż ograniczony na początku tylko do nielicznych artykułów, szybko znalazł zwolenników. Zyskiwano bowiem zarówno na czasie jak i na kosztach transportu. Towar nie musiał być przecież wieziony na jarmark, od razu mógł być transportowany do odbiorcy. Z czasem spotkania kupców zainteresowanych tego rodzaju transakcjami zaczęły odbywać się częściej, do poszczególnych miast zaczęli zjeżdżać wszyscy ci, którzy chcieli kupić bądź sprzedać dany towar. Wiadomo bowiem było, że właśnie tam o niego najłatwiej. Skoro zaś nie było potrzeby oglądania towaru przed zawarciem umowy, to nie koniecznie musiał ją też zawierać właściciel lub nabywca towaru. Stąd też coraz częściej targi odbywały się między pośrednikami. Kolejna z cech charakterystyczna dla giełdy: kupno i sprzedaż na zlecenie. Wykształcały się również zwyczaje handlowe dotyczące np. terminów płatności obowiązujących na tych pragiełdach.
Mniej więcej w ten sposób doszło do sytuacji, że w połowie XIV wieku działała
w Antwerpii giełda zbożowa już z prawdziwego zdarzenia. Było to możliwe również dlatego, że władze miasta przyznały zagranicznym kupcom prawo wolnego handlu nie tylko
w czasie jarmarku, ale w ciągu całego roku.
Giełdom pieniężnym początek dał jednak handel wekslami i pośrednictwo w wymianie pieniędzy w krajach śródziemnomorskich. Ludzi zajmujących się handlem i wymianą pieniędzy nazywano wekslarzami. Wekslarze mieli określony punkt głównego placu miejskiego ze specjalnie ustawioną ladą lub ławami. Nieraz były to loggie domów. Były one także miejscem spotkań miejscowych i przyjezdnych kupców, bankierów, kapitanów statków. Niejednokrotnie zawierając transakcje między sobą, korzystali oni z wiedzy wekslarzy i ich znajomości kursów różnych walut2.
Współczesna nazwa giełdy, jaką spotykamy w literaturze powstała nieco później. Jak można przeczytać w broszurce wydanej z okazji 100-lecia giełdy warszawskiej powszechnie narzucał się domysł, że włoska “borsa", czy holenderska „beurs” wywodzi się z łacińskiego słowa: „bursa”, oznaczającego sakiewkę na pieniądze. Historycy dowodzą, że nazwa „giełda” pochodzi od nazwiska wekslarzy w Burges, którzy byli tam najpoważniejszą firmą maklerską. Nazywali się oni według jednych Van der Beurse, według innych Van der Burse. Przed ich domem, ozdobionym godłem trzech sakiewek, była w Bruges największa „loggia” wekslarska. Oczywiście przypuszczać należy, że samo nazwisko wekslarzy wywodziło się od ich zawodu..
Tak czy inaczej, już w XV i XVI wieku dominuje “bursa" i “bourse" (...) z wyjątkiem języka angielskiego, w którym z pobudek narodowych Tomasz Gresham nadał pierwszej królewskiej giełdzie nazwę “Royal Exchange" (exchange znaczy wymiana) i stąd we wszystkich krajach, zostających pod wpływem tego języka, miano “exchange" dla oznaczenia giełdy się utrzymało.
Nie tylko jednak sama nazwa weszła w obieg. W XVI wieku powstały w różnych miastach Europy coraz to nowe giełdy, przede wszystkim pieniężne, na których zajmowano się handlem wekslami, wymianą pieniędzy oraz pośrednictwem w pożyczkach. Pojawiały się pierwsze ceduły3.
Szczególne znaczenie zyskała giełda w Antwerpii, która w 1531 roku otrzymała nawet osobny budynek, nad wejściem do którego umieszczono następujący napis: „in usum negotiatorum cujuscunque nationis ac linguae”4. Szybko stało się to rzeczywistością. Jak zanotował jeden ze zwiedzających tę giełdę: “Słyszano tam szum z pomieszania wszystkich języków, widziano pstrą ciżbę, ubraną w przeróżne stroje. Giełda w Antwerpii wyglądała jak: „mały świat, w którym wszystkie części świata były złączone5".
Założenie w 1602 roku holenderskiej Kompanii Wschodnio-Indyjskiej oznaczało nowy etap w rozwoju giełd, z których coraz większe znaczenie zyskuje amsterdamska. Na niej to właśnie pojawiły się po raz pierwszy akcje tych kompanii. Zyski jakie przyniosły spowodowały, że ich ceny na giełdzie szybko szły w górę, zaś ludzi opanowała gorączka spekulacji. Jak pisał Joseph de Vega w 1688 r.: „Kto raz stanie się właścicielem akcji, ten będzie je już ciągle kupował i sprzedawał.” „Obojętnie, gdzie ci ludzie się znajdują. Myślą
i rozmawiają tylko o nich. Nawet we śnie o nich marzą. (...) Jest to źródło wszelkich oszustw, pogrzebywania pożytecznych spraw i źródło niezdrowia6".
Faktem jest, że na giełdzie amsterdamskiej doszło wówczas do realizacji pierwszej transakcji terminowej. Otóż część giełdziarzy zaczęła sprzedawać w znacznych ilościach akcje, których nie posiadała w momencie zawierania transakcji. Ich realizacja miała bowiem nastąpić po pewnym czasie. Na giełdzie w Amsterdamie zapoczątkowano także szereg innych, spotykanych obecnie operacji giełdowych. W ten sposób stała się ona pierwszą
z prawdziwego zdarzenia giełdą pieniężną.
Szybko zaczęła pojawiać się konkurencja. Niedaleko, w Londynie powstała również giełda, na której pod koniec XVII wieku pojawiły się pierwsze pożyczki państwowe
z zabezpieczeniem.
Pierwsza połowa XVIII stulecia w historii giełd zaznaczyła się wprowadzeniem nowych papierów wartościowych oraz okresem szalonych spekulacji. W Londynie była to m.in. tzw. afera ,,South Sea Bubbles". Otóż w 1712 roku wypuszczone zostały akcje utworzonej rok wcześniej Kompanii Mórz Południowych. Początkowo emisja miała opiewać na dwieście tysięcy funtów, ale pod wpływem ogromnego powodzenia akcji, wręcz wymuszania zmiany gotówki na nie, rozpoczęto przyjmowanie zapisów do sumy półtora miliona funtów. W tym czasie ich kurs podskoczył na ponad tysiąc funtów przy nominalnej wartości stu. Jednocześnie, korzystając z gorączkowych prób zakupu akcji tej kompanii przez wiele osób, zaczęto zakładać fikcyjne przedsiębiorstwa, które natychmiast wypuszczały swoje akcje. Pod wpływem ogólnego rozgorączkowania także i ich ceny szybko rosły, co pozwalało w krótkim czasie zbić ogromny majątek. Kiedy ta fala opadła, specjalną ustawą tzw. „Bubbles Act" parlament rozwiązał dwieście dwie tego rodzaju firmy.
Podobna gorączka spekulacyjna miała również miejsce na giełdzie paryskiej, za sprawą Szkota Johna Lawa. Otóż w pierwszej dekadzie XVIII wieku zwrócił się on do władz Francji z memorandum. Przedstawił w nim propozycję uzdrowienia fatalnego stanu finansów publicznych, na których ciążyły ogromne długi Ludwika XIV. Po wielu kłopotach, dopiero przy poparciu w 1715 roku zyskał on zezwolenie na uruchomienie prywatnego banku. Właścicielem banku była specjalnie utworzona w tym celu kompania. Zgodnie z poglądami Lawa, głównym zadaniem gospodarki było zapewnienie szybkiego obiegu pieniądza, zwłaszcza papierowego. Z tego też powodu jego bank zamieniał przede wszystkim złoto na banknoty. Ze względu m.in. na wysokie koneksje, pieniądze te cieszyły się dużym powodzeniem. Początkowo akcje kompanii, która prowadziła bank, nie zyskiwały nabywców. Law jednakże zaczął podbijać ich kurs, wypuszczając jednocześnie nowe akcje. Osiągnął
w końcu cenę osiemnastu tysięcy liwrów za nominalnie pięćset - liwrową akcję. Tak duży wzrost kursu przy stale nowych emisjach zaczął jednakże budzić nieufność i mimo np. podniesienia dywidendy z 12 do 40 procent (miało to zapewnić zwiększenie atrakcyjności akcji), doszło do wielkiego skandalu. Kiedy w lipcu 1720 roku państwowi urzędnicy podsumowali stan finansów obydwu instytucji Lawa okazało się, że ogólna wartość wyemitowanych akcji wyniosła 3 miliardy liwrów, podczas gdy w kasie znalazły się wartości na łączną kwotę 120 milionów liwrów, w tym 21 milionów w gotówce. Law uciekł za granicę, natomiast gospodarka Francji przez dłuższy czas nie mogła sobie poradzić ze skutkami jego działalności7.
XIX wiek, zwłaszcza jego druga połowa, to z kolei okres szybkiego rozwoju giełd. Jednocześnie z krystalizowaniem się zasad ich funkcjonowania, rosło znaczenie giełd
w gospodarce, tak światowej jak i poszczególnych krajów. Szczególną rolę odgrywała wówczas giełda w Londynie, a to przede wszystkim ze względu na rolę Wielkiej Brytanii
w gospodarce i handlu światowym, tak w XIX wieku jak i na początku obecnego.
W odróżnieniu od giełd na kontynencie, nad którymi nadzór sprawowały w mniejszym lub większym stopniu władze państwowe, giełdy angielskie powstały jako instytucje początkowo całkowicie autonomiczne. Pierwsza giełda pieniężna powstała w Anglii w roku 1554. Mimo braku rygorów narzuconych z zewnątrz, rządziły się one swoimi, niejednokrotnie bardzo surowymi regułami wewnętrznymi. Zostać na przykład członkiem giełdy w Anglii nie było łatwo. Jeżeli o członkostwo ubiegała się osoba, która wcześniej niewiele miała wspólnego z giełdą, to musiała przedstawić rekomendację trzech członków giełdy. Byli oni również odpowiedzialni finansowo w pewnych sprawach za jej działalność. Nieco łatwiej było uzyskać członkostwo osobom, które zatrudnione były już na giełdzie. Członek giełdy musiał przy tym, pod warunkiem wykluczenia z niej, zajmować się wyłącznie handlem giełdowym i nie mógł podejmować jakiejkolwiek innej działalności. Regulamin przewidywał również wykluczcie z giełdy na przykład w przypadku zawarcia małżeństwa z osobą trudniącą się handlem.
Charakterystycznymi postaciami giełdy w Wielkiej Brytanii byli jobberzy i brokerzy. Pierwsi z nich mogli dokonywać transakcji wyłącznie na własny rachunek, a drudzy tylko na zlecenie osób trzecich. Każdy członek giełdy musiał przy tym zadeklarować, jakiego rodzaju działalnością pragnie się zajmować. Podział ten powodował wiele zatargów, bowiem niejednokrotnie zdarzało się, że przychodzący na giełdę ze zleceniami broker, nie znajdując odpowiednich kontrahentów i przekonany, że kurs będzie kształtował się korzystnie, zawierał transakcję faktycznie na własny rachunek. Tego typu zarzuty wysuwali przeciwko brokerom jobberzy. Tamci też nie pozostawali dłużni, twierdząc, iż jobberzy dokonują po cichu transakcji również na zlecenie.
Inne charakterystyczne dla giełdy londyńskiej postacie, to byki i niedźwiedzie. Określenie byk oznaczało (i dalej oznacza) osobę grającą na zwyżkę kursu, natomiast niedźwiedź — na zniżkę. Licząc na wzrost kursu byki zaczynały kupować papiery, co przy
w miarę stabilnej podaży prowadziło do wzrostu ceny. Powstawała wówczas hossa, czyli tzw. „bullish market8”. Teraz należało tylko wybrać odpowiedni moment sprzedaży, aby zarobić. Niedźwiedzie postępowali natomiast odwrotnie tworząc bessę tj. „bearish market9". Na giełdzie londyńskiej powstały jeszcze inne określenia na oznaczenie osób trudniących się charakterystycznymi transakcjami np. „kulawy jeleń" - kupujący papiery przed ich wprowadzeniem na giełdę.
O ile jednak giełda w Londynie była instytucją samodzielną, chociaż faktycznie kontrolowaną przez administrację, to giełdy na kontynencie objęte były kontrolą państwową. Zgodnie np. z niemieckim prawem giełdowym z 1896 roku do założenia giełdy potrzebne było zezwolenie rządu, który sprawował nad nią nadzór.
W ten sposób wyłonił się pierwszy podział giełd. Jedna grupa to właśnie giełdy, dla których utworzenia potrzebna jest zgoda władz państwowych i które poddane są kontroli jego organów, ustawowo określonych. Tego typu giełdy istniały np. w RFN i Francji. Do drugiej grupy należą giełdy organizowane czy to przez zrzeszenia kupców, czy też samorząd terytorialny, często w formie spółki akcyjnej. Tego typu giełdy spotyka się głównie w USA i w Wielkiej Brytanii, przy czym są one również poddane nadzorowi ze strony organów państwowych.
Historia bodajże najsławniejszej giełdy nowojorskiej na Wall Street 68 sięga niemal Rewolucji Amerykańskiej. Nastąpiło po niej, jak po każdej wojnie, skonsolidowanie długu publicznego. W tym przypadku wyemitowano "akcje" o oprocentowaniu 6% na sumę 80 milionów dolarów. Po wojnie powstały także banki, zarówno w Nowym Jorku jak i w Filadelfii. Nieuchronnym tego następstwem było powstanie rynku dla rządowych papierów wartościowych i akcji banków10. Wkrótce pierwsi maklerzy pośredniczyli pomiędzy sprzedającymi a kupującymi te papiery wartościowe. Zupełnie przypadkowo zaczęli oni spotykać się pod starym platanem, który stał na Wall Street, pod dzisiejszym nr 68. Niewątpliwie niektórzy z nich dążyli do zdobycia nowych klientów dzięki coraz mniejszym prowizjom. Być może to nakłoniło maklerów do stworzenia jakiejś prostej organizacji. Dlatego 17 maja 1792 roku dwudziestuczterech z nich podpisało następujące porozumienie: „My, niżej podpisani, maklerzy zakupu i sprzedaży Akcji Publicznych, niniejszym solennie przyrzekamy i zobowiązujemy się wobec siebie nawzajem, od dziś nie kupować i nie sprzedawać komukolwiek, jakichkolwiek akcji z prowizją mniejszą niż ćwierć procenta. Zobowiązujemy się także do wzajemnego uprzywilejowania w negocjacjach.”
Po tym symbolicznym początku rozwój przez długi czas był powolny. Przez 25 lat maklerzy nie czuli potrzeby zapewnienia sobie dachu nad głowami. Z wczesnego okresu giełdy pozostały bardzo skromne archiwa. Raczkująca instytucja zajmowała różne siedziby, kiedyś po pożarze chwilowo mieściła się nawet na strychu na siano. Początki giełdy, mieszczącej się dziś w marmurowych wieżach na Broad i Wall Street, były zatem skromne. Jej rozwój był nieuchronnym skutkiem rozwoju Stanów Zjednoczonych. Giełda, jako rynek instrumentów kredytowych i własności, jest absolutnie nieodzowna dla nowoczesnej cywilizacji. Giełda pieniężna jest to organizacja mająca na celu ułatwianie transakcji kupna-sprzedaży oraz ustalanie (w wyniku ześrodkowanej podaży i popytu) właściwej w danej chwili ceny określonego przedmiotu transakcji. Giełdy pieniężne są powoływane przez państwo lub organizacje gospodarcze, niekiedy stanowią zrzeszenia zainteresowanych osób i instytucji, głównie banków. Przedstawiciele członków giełdy pieniężnej zbierają się w ustalonym miejscu i czasie celem zawierania transakcji kupna-sprzedaży wartościami dopuszczonymi do obrotu - papierami wartościowymi o stałym oprocentowaniu, akcjami, dewizami i pieniędzmi zagranicznymi.
Podstawowym rozróżnieniem giełd, ze względu na przedmiot obrotu, jest jednak ich podział na towarowe, papierów wartościowych oraz usług. Poza tym można wyróżnić giełdy wyspecjalizowane i uniwersalne. Spotyka się również podział na giełdy o znaczeniu światowym i lokalnym.
Najstarsze światowe giełdy jak te w Londynie, Zurichu, Nowym Jorku, Amsterdamie są historycznym dowodem i przykładem organizacji rodzących się spontanicznie, tzn. takich, których struktury tworzą się naturalnie, bez dominacji planowego rozdziału kompetencji i procedur działania.
HISTORIA ROZWOJU GPW W WARSZAWIE
Pierwsza giełda papierów wartościowych w Polsce otwarta została w Warszawie 12 maja 1817 roku (Jednak w zalążku, jako bractwo kupieckie zwane konfraternią kupiecką, istniała już dawniej, co najmniej od połowy XVII wieku). Sesje odbywały się w godzinach 12.00 - 13.00. W XIX wieku przedmiotem handlu na giełdzie warszawskiej były przede wszystkim papiery wartościowe jak: weksle i obligacje. Handel akcjami rozwinął się na szerszą skalę w drugiej połowie XIX wieku. Zwierzchnikiem giełdy kupieckiej był „prezydent municypalności i policji”. Na wniosek „starszych” giełdy określał on wysokość składek na jej utrzymanie oraz przedstawiał kandydatów na maklerów giełdowych i dopilnowywał składania przez nich kaucji. Utrzymywanie porządku na giełdzie należało do obowiązku „starszych”. Ponadto zbierali oni od maklerów wiadomości o kursie weksli i pieniędzy zagranicznych oraz o cenach towarów i zawartych transakcjach, a zebrane informacje zamieszczali w cedułach kursowych i ogłaszali publicznie11.
Początkowo zakres działalności giełdy, stanowiącej w istocie tylko część cechu kupieckiego, był bardzo ograniczony. Ustawa giełdowa nie wspominała o jakiejkolwiek inicjatywie, dotyczącej spraw handlowych, przemysłowych lub z dziedziny bankowości. Giełda kupiecka nie posiadała nawet własnych funduszów. Momentem zwrotnym w rozwoju handlu giełdowego w Warszawie było zatwierdzenie w roku 1872, dzięki staraniom Leopolda Kronenberga, nowej ustawy giełdowej, nadającej giełdzie szeroką autonomię. Wprawdzie giełda warszawska pozostawała nadal pod bezpośrednim nadzorem gubernatora carskiego, jednakże jej władzy wykonawczej, Komitetowi Giełdowemu, przysługiwało prawo bezpośredniego uzgadniania spornych spraw z ministerstwem finansów w Petersburgu.
W tym okresie zaszły istotne przemiany w życiu gospodarczym Królestwa Kongresowego, zwiększające rolę giełdy warszawskiej. Do 1894 roku przedmiotem handlu giełdowego były przede wszystkim weksle oraz papiery przynoszące stały dochód, po tej dacie zaś rozwinął się znacznie handel akcjami, mający charakter spekulacyjny. Na giełdzie warszawskiej powstała tzw. kulisa, zajmująca się prawie wyłącznie akcjami. Oprócz maklerów przysięgłych pośrednictwem, zwłaszcza w spekulacji akcjami, trudnili się liczni agenci pokątni, którym od roku 1900 zakazano wstępu na giełdę w godzinach urzędowych12.
Z chwilą wybuchu I wojny światowej urzędowa giełda warszawska została zamknięta, a jej działalność reaktywowano z dniem 1.01.1921 r. już w Polsce niepodległej. Została ona poddana ścisłemu nadzorowi ministra skarbu. W statucie określony został zakres przedmiotowy obrotów i notowań giełdowych, ograniczony do papierów wartościowych, dewiz i pieniędzy zagranicznych oraz kruszców szlachetnych, dopuszczonych do obrotu przez organ wykonawczy giełdy - Radę Giełdową. W rzeczywistości podstawowe znaczenie miał handel dewizami i pieniędzmi zagranicznymi, stanowiący ponad 80% obrotów giełdy pieniężnej w Warszawie. W handlu giełdowym papierami wartościowymi przeważały natomiast zdecydowanie walory przynoszące stały dochód. Na giełdzie warszawskiej przeprowadzane były oficjalnie jedynie transakcje natychmiastowe.
W okresie międzywojennym giełdy w Polsce działały na podstawie rozporządzenia Prezydenta o organizacji giełd. Warunki działalności maklerów giełdowych regulowało rozporządzenie Ministra Skarbu oraz Przemysłu i Handlu z dnia 25. sierpnia 1921 r13. Autorzy rozporządzenia starali się utrzymać dawne tradycje giełdy stołecznej, w formie nieco zmodernizowanej, wychodząc z założenia, że urząd maklera należy się podupadłym kupcom.
Kandydat na maklera musiał spełnić kryteria niekaralności oraz odpowiednich kwalifikacji - obowiązywała znajomość języka polskiego w słowie i piśmie, natomiast makler, który w okresie pełnienia przez siebie obowiązków uległ karno-sądowemu zasądzeniu, podlegał natychmiastowemu zwolnieniu z urzędu. Ponadto istniały granice wieku - nie mniej niż 35 i nie więcej niż 70 lat. Maklerów mianowała Rada giełdowa i przedkładała Komisarzowi do zatwierdzenia. Kandydaci powinni zgłosić się do złożenia egzaminu z wymaganych od nich wiadomości przed komisją egzaminacyjną złożoną z trzech członków Rady giełdowej, starszego maklera i sekretarza Giełdy, pod przewodnictwem Komisarza giełdowego. O dostateczności wykazanych wiadomości rozstrzygała komisja większością głosów, a w razie równości głosów rozstrzygał Komisarz giełdowy natychmiast, lub zarządzał powtórny egzamin kandydata w terminie 28-dniowym. Instalację maklera przeprowadzała Rada giełdowa wraz z Komisarzem giełdowym14.
Zużytkowane księgi maklerskie składali maklerzy w archiwum giełdy. Wysokość kurtażu ustalała samoistnie Rada giełdowa i obowiązana była jedynie swoje postanowienia podać do wiadomości Ministra Skarbu. Władze rządowe, które korzystały z usług maklera nie płaciły kurtażu. Rozporządzenie przewidywało możliwość tworzenia korporacji maklerów oraz określało prawa i obowiązki przełożonego tej korporacji, starszego maklera, któremu zastrzeżono głos doradczy w ogólnych zgromadzeniach członków giełdy i posiedzeniach Rady Giełdowej.
Rok 1929 przyniósł najgroźniejszy i największy kryzys ekonomiczny w dotychczasowej historii systemu kapitalistycznego. W Stanach Zjednoczonych już latem i wczesną jesienią dawał się dostrzec stopniowy spadek kursów papierów wartościowych, ale nie pociągnął on za sobą poważniejszych następstw. Jednakże we wtorek 29 października nastąpił gigantyczny krach na giełdzie nowojorskiej, który pociągnął za sobą panikę na innych giełdach i zapoczątkował okres wielkiego kryzysu. Obejmował on w skali międzynarodowej lata 1929-1933 osiągając apogeum w roku 1932. Jednak w Polsce, podobnie jak w innych krajach o strukturze bardziej zacofanej (rolniczo-przemysłowej), kryzys trwał aż do 1935 r. Obejmował przemysł, rolnictwo, finanse i handel15.
Autorzy stwierdzają, że ciężki stan gospodarczy kraju odbił się ujemnie na stanie rynku pieniężnego, znajdując tam swe wierne odbicie. Trudne zaś położenie na rynku pieniężnym odbiło się bardzo dotkliwie na rynku giełdowym. Nastąpiło znaczne zmniejszenie obrotów oraz obniżenie się kursów poszczególnych papierów wartościowych. W rozgoryczeniu usiłowano niejednokrotnie błędnie szukać winy w samej organizacji giełdy. Charakteryzując stan rynku giełdowego jako niepomyślny, autorzy sprawozdania zaznaczają jednak, że ciężkie przesilenie, jakie dotknęło kilka giełd europejskich i giełdę w New-Yorku, ominęło giełdy krajowe, które nie odczuły wstrząsu giełdowego.
Tym niemniej na rynku papierów dywidendowych trwało systematyczne zamieranie obrotów przy stałej deprecjacji kursów, będące przyczyną apatycznego usposobienia giełdy i braku wiary jej uczestników w poprawę stanu rzeczy w najbliższym czasie. Uważając, że koniunktura giełdowa nie zapowiada poprawy w roku 1930, Rada Giełdowa wystąpiła do Ministra Skarbu z prośbą o utrzymanie zniżonej w latach 1928 i 1929 stawki stemplowej od transakcji akcjami w wysokości 0,1%.
Mimo wszystko autorzy sprawozdania, opierając się na zasadzie powtarzania okresów dobrej i złej koniunktury przypuszczają, że „trwające w tej dziedzinie już tak długo warunki niepomyślne ustąpią wreszcie miejsca koniunkturze lepszej”16.
W roku 1929 czynnych było 23 maklerów przysięgłych. Liczba ta wobec systematycznego kurczenia się obrotów giełdowych od dłuższego czasu nie odpowiadała potrzebom Giełdy, natomiast odbijała się w sposób ujemny na zarobkach maklerów. Mając na względzie niemożność zarobkowania maklerów na żadnym innym polu oraz konieczność zabezpieczenia im pewnego poziomu materialnego jako ludziom zaufania publicznego, Rada Giełdowa po dłuższym badaniu tej sprawy doszła do wniosku, że jedynie zmniejszona liczba maklerów dałaby rozwiązanie problemu. Ze względu na dożywotni charakter stanowiska maklera mogło to nastąpić jedynie drogą dobrowolnych rezygnacji.
Rok 1930 pod względem gospodarczym był dalszym pogłębieniem kryzysu ekonomicznego. Nadzieje, iż rok ten będzie punktem zwrotnym do stopniowej poprawy stosunków, nie ziściły się. Ogólna suma obrotów na Giełdzie Warszawskiej była nawet większa od sumy roku poprzedniego, lecz znaczna część tej przewyżki przypada na obroty walutami. Pewna jej część przypadła też na obroty papierami procentowymi. Na rynku papierów dywidendowych obroty uległy znacznej redukcji, która dochodziła do około 27% w porównaniu z rokiem poprzednim. Zniżce uległy również kursy wszystkich niemal akcji. Utrzymano zniżoną stawkę stemplową od transakcji akcjami w wysokości 0,1%.
Jak widać, nawet dość powierzchowna analiza sprawozdań giełdy warszawskiej z początkowego okresu wielkiego kryzysu pozwala dostrzec wyraźną jej reakcję na całokształt procesów gospodarczych o skali zarówno krajowej, jak i ogólnoświatowej. Wpływają one bezpośrednio na działalność giełdy jako całości, a pośrednio również na losy poszczególnych ludzi z nią związanych17.
W 1938 roku na warszawskiej giełdzie notowano sto trzydzieści papierów wartościowych: obligacje (państwowe, bankowe, municypalne), listy zastawne oraz akcje. Z chwilą wybuchu II wojny światowej giełda w Warszawie została zamknięta. Wprawdzie po roku 1945 podjęto próby reaktywowania działalności giełd w Polsce, jednak ich istnienie było nie do pogodzenia z narzuconym systemem gospodarki centralnie planowanej.
We wrześniu 1989 roku nowy, niekomunistyczny rząd rozpoczął program zmiany ustroju i odbudowy gospodarki rynkowej. Głównym motorem zmian strukturalnych była prywatyzacja i rozwój rynku kapitałowego. W przeciwieństwie do doświadczeń innych krajów, gdzie prywatyzacja prowadzona była w ramach istniejącej już struktury instytucji finansowych, w Polsce - równocześnie z prywatyzacją - konieczne było stworzenie niezbędnej infrastruktury rynku kapitałowego. Pięćdziesięcioletnia przerwa
w funkcjonowaniu polskiego rynku kapitałowego stworzyła sytuację pustki prawno
- instytucjonalnej. Oznaczało to w praktyce brak doświadczeń i wiedzy fachowej, ale również ogromne możliwości rozwoju. Rozważając kilka alternatywnych rozwiązań, zdecydowano się na bezpośrednie nawiązanie do wzorców zagranicznych rynków kapitałowych, a więc przeniesienie nowoczesnych rozwiązań regulacji prawnych i organizacyjnych. Obserwowana standaryzacja i globalizacja rynków kapitałowych na świecie nie stwarzała większych szans oryginalnym modelom krajowym. Zaletą takiego wyboru było zdecydowane przyspieszenie procesu i przyjęcie od razu rozwiązań docelowych.
Opracowanie szczegółowych procedur nowoczesnego obrotu giełdowego w okresie zaledwie kilku miesięcy było możliwe dzięki pomocy merytorycznej i finansowej Francji,
a konkretnie Spółki Giełd Francuskich (Société de Bourses Françaises) i Centralnego Depozytu SICOVAM. Niezmiernie ważnym elementem powstającego rynku kapitałowego była regulacja prawna, którą należało opracować od początku. Pierwsza wersja projektu ustawy regulującej publiczny obrót papierami wartościowymi została opracowana w lipcu 1990 roku. W dniu 22 marca 1991 roku Sejm uchwalił ustawę Prawo o Publicznym Obrocie Papierami Wartościowymi i Funduszach Powierniczych. Powstały w ten sposób podstawy prawne głównych instytucji rynku kapitałowego: domów maklerskich, giełdy, funduszy powierniczych, jak również Komisji Papierów Wartościowych jako organu administracji rządowej, kontrolującego i promującego rynek papierów wartościowych. Ustawa ta określa że giełda powinna zapewniać:
koncentrację podaży i popytu na papiery wartościowe dopuszczone do obrotu giełdowego w celu kształtowania powszechnego kursu,
bezpieczny i sprawny przebieg transakcji i rozliczeń,
upowszechnianie jednolitych informacji umożliwiających ocenę aktualnej wartości papierów wartościowych dopuszczonych do obrotu giełdowego18.
W niecały miesiąc po uchwaleniu przez Sejm Prawa o Publicznym Obrocie Papierami Wartościowymi i Funduszach Powierniczych, dnia 12 kwietnia 1991 roku, Minister Przekształceń Własnościowych i Minister Finansów reprezentujący Skarb Państwa podpisali akt założycielski Giełdy Papierów Wartościowych w Warszawie. Cztery dni później, 16 kwietnia odbyła się pierwsza sesja giełdowa z udziałem 7 domów maklerskich, na której notowano akcje 5 spółek. Wpłynęło wówczas 112 zleceń kupna i sprzedaży, a łączny obrót giełdy wyniósł 1990 zł.
Uznanie zastosowanych w Polsce rozwiązań znalazło swój wyraz w przyjęciu w grudniu 1991 roku Giełdy Papierów Wartościowych w poczet członków korespondentów Międzynarodowej Federacji Giełd Papierów Wartościowych (FIBV). W październiku 1994 r. polska giełda została pełnym członkiem tej organizacji, grupującej wszystkie najważniejsze giełdy świata. Zadaniem FIBV jest koordynacja współpracy między giełdami poszczególnych krajów, wprowadzanie nowoczesnych rozwiązań, ujednolicanie standardów i poszerzanie zasięgu transakcji międzynarodowych. Od 1992 roku giełda warszawska jest również członkiem korespondentem Federacji Europejskich Giełd Papierów Wartościowych (FESE).
Rysunek 1. Struktura Giełdy Papierów Wartościowych w Warszawie
Źródło: GPW w Warszawie, 1992 rok
PSYCHOLOGICZNY ASPEKT GIEŁDY
„Nie znam podobnego miejsca, w którym na metr kwadratowy przypada tylu idiotów, co na parkiecie giełdy”19. Andrè Kostolany ostentacyjnie obnosi się ze swym lekceważeniem wobec wszystkich zawodowych spekulantów. Jego rada: „trzeba być nieufnym, cynicznym, nawet zarozumiałym, trzeba umieć powiedzieć:- Jesteście bandą durniów, tylko ja TO wiem, a w każdym razie MAM O TYM WIEKSZE POJĘCIE!!!”20. Czy faktycznie tak jest i czy giełda jest tak skomplikowanym do zrozumienia zagadnieniem? Zapewne tak jest. Giełda składa się w 90 procentach z psychologii.
Psychologia giełdowa jest „nauką”, do której trzeba umieć podejść z ogromnym wyczuciem, albowiem jest ona niemal sztuką. Najczęściej używanymi na giełdzie słowami są: być może, miejmy nadzieję, możliwe, można by, mimo to, chociaż, wprawdzie, wierzę, myślę, ale, prawdopodobnie, wydaje mi się ... .Wszystko, w co się wierzy i o czym się mówi, jest względne i może być widziane zupełnie inaczej. Często powtarza się opinię, że giełda stała się dzisiaj zupełnie nieprzejrzysta. Gdyby jednak była przejrzysta, wówczas nie byłaby giełdą. Gracze giełdowi łowią w mętnej wodzie, którą sami czynią jeszcze bardziej mętną. Często na giełdzie grają ludzie którzy są zafascynowani pieniędzmi. „Pieniądze to jeszcze nie wszystko, ale dużo pieniędzy to już coś”21. Filozofowie często namiętnie roztrząsali problem, czy pogoń za pieniędzmi da się moralnie usprawiedliwić, czy też nie. Aczkolwiek obiektywna ocena tego zagadnienia jest niemożliwa, to jedno jest pewne: zafascynowanie pieniędzmi i pogoń za nimi jest motorem postępu gospodarczego.
Gra na giełdzie wydaje się zwodniczo łatwa. Kiedy początkujący inwestor odnosi sukces, czuje się wielki i niezwyciężony. Wówczas podejmuje nadmierne ryzyko i traci wszystko. Ludzie przeprowadzają transakcje z wielu powodów - racjonalnych
i irracjonalnych. Gra na giełdzie oferuje możliwość zarobienia dużych pieniędzy
w szybkim tempie. Dla wielu ludzi pieniądze symbolizują wolność, nawet jeśli nie wiedzą, jak z niej korzystać. Jeżeli usłyszy się od niedoświadczonego w pracy na roli przyjaciela, że zamierza się wyżywić plonami zebranymi z ćwierćakrowej działki, można pomyśleć: „Na pewno będzie chodził głodny”. Wszyscy wiemy, co jest, a co nie jest realne. Gra na giełdzie to jedyne pole, na którym mogą rosnąć marzenia. Z drugiej strony gra na giełdzie jest bardzo ostra22. Jeśli inwestor w dłuższej perspektywie chce odnieść sukces, musi niezwykle poważnie traktować swoje zajęcie. Nie może sobie pozwolić na naiwność ani na przeprowadzenie transakcji według tajnego, psychologicznego terminarza. Niestety gra na giełdzie często przyciąga ludzi impulsywnych i hazardzistów oraz tych, którzy czują, że świat jest im coś winien. Jeżeli inwestujesz po to, by odczuć dreszczyk emocji, oznacza to, że masz skłonności do angażowania się w transakcje, dające małe szanse na wygraną i masz tendencję do podejmowania niepotrzebnego ryzyka. Rynki nie są pobłażliwe i transakcje zawierane pod wpływem emocji zawsze kończą się stratami.
Hazard oznacza robienie zakładów w grach losowych lub zręcznościowych. Gry tego typu mają swoje miejsce w każdej społeczności i większość ludzi uprawia hazard w pewnym momencie swojego życia. Neurotyczny hazardzista uważa, że ma szczęście, albo chce przetestować swoje szczęście. Wygrana daje mu poczucie władzy. Jest wtedy zaspokojony, podobnie jak niemowlę, nakarmione piersią. Neurotyczny hazardzista zawsze przegrywa. Zamiast skoncentrować się na realistycznym, długoterminowym planie gry, próbuje odtworzyć wszechogarniające uczucie błogości, jakie daje wygrana. Uczucia mają bezpośredni wpływ na stan rachunku. Sukces albo porażka na rynku zależą od Twojej zdolności do kontrolowania własnych emocji. Rynki oferują nieskończoną liczbę pokus, podobnie jak spacer po skarbcu pełnym złota lub wędrówka po haremie. Wywołują w nas tęsknotę za większymi zarobkami i uczucie strachu, że stracimy to co mamy. Te emocje zaciemniają nasze pole widzenia. Sprawiają, że trudniej nam dostrzec okazje i niebezpieczeństwa na rynku. W związku z tym zwiększa się jednocześnie ryzyko.
Ludzie handlują od zamierzłych czasów. Wraz z rozwojem cywilizacji środkiem wymiany stały się pieniądze. Rynki kapitałowe i rynki towarowe należą do znaków szczególnych krajów rozwiniętych. Jednym z pierwszych przejawów rozwoju ekonomicznego, który nastąpił w Europie Wschodniej po upadku komunizmu, było powstanie giełd kapitałowych i towarowych. Marco Polo poświęcił 15 lat na wyprawę z Włoch do Chin. Obecnie europejski inwestor, chcąc kupić złoto w Hongkongu, może zrealizować swoje zlecenie w ciągu minuty. W dzisiejszych czasach rynki kapitałowe
i rynki kontraktów terminowych oraz opcji obejmują cały świat. Wszystkie giełdy muszą spełniać trzy kryteria, ustalone w starożytnej Grecji i na średniowiecznych jarmarkach w Zachodniej Europie: stała lokalizacja, zasady klasyfikacji towarów i zdefiniowane warunki kontraktów.
Prywatni inwestorzy zwykle przychodzą na giełdę mając za sobą udaną karierę zawodową. Większość ludzi gra na giełdzie częściowo z pobudek racjonalnych,
a częściowo irracjonalnych. Do racjonalnych należy na przykład pragnienie osiągnięcia dużego zwrotu kapitału. Do irracjonalnych pobudek można zaliczyć hazard
i poszukiwanie wrażeń. Przeważnie inwestorzy nie zdają sobie sprawy ze swoich irracjonalnych motywacji. Nauka gry na giełdzie wymaga ciężkiej pracy, czasu, energii
i pieniędzy. Niewielu inwestorów indywidualnych wspina się na poziom zawodowców, którzy są w stanie utrzymać się z gry. Profesjonaliści bardzo poważnie traktują swoje zajęcie. Irracjonalne pragnienia zaspokajają z dala od giełdy, natomiast amatorzy robią to na parkiecie.
Średniowieczni rycerze chcieli mieć najlepsze miecze, a nowocześni inwestorzy starają się kupić najlepsze narzędzia do gry na giełdzie. Rosnący dostęp do danych, komputerów i programów komputerowych sprawił, że plac zabaw inwestorów wzniósł się na wyższy poziom. Ceny komputerów spadają niemal z miesiąca na miesiąc,
a oprogramowania są ciągle ulepszane. Nawet osoba nie znająca się na komputerach może bez problemów wynająć konsultanta i skonstruować system inwestycyjny. Komputer pozwala szybciej przeprowadzać analizy, dzięki niemu można brać pod uwagę więcej wskazówek. Nie zastąpi nikogo jednak przy podejmowaniu decyzji inwestycyjnych. Komputer pomaga analizować więcej rynków, w sposób bardziej dogłębny, ale ostateczną odpowiedzialność za każdą transakcję ponosi się samemu.
Istnieje pewna zabawna definicja giełdy - „Monte Carlo bez muzyki”. Gra na giełdzie wprawia kapitał w ruch. Podnieta wygranej przyciąga do nowych gałęzi przemysłu oraz do nowych projektów naukowych zarówno miliony najbogatszych kapitalistów, jak i grosze uciułane przez mikrokapitalistów. Czy istniałyby koleje żelazne XIX wieku, samochody XX wieku, przedsiębiorstwa elektroniczne, komputerowe i wiele innych rewolucyjnych przedsięwzięć, gdyby spekulacje giełdowe nie dostarczyły potrzebnych na te cele miliardów? A jeśli nawet dzikie spekulacje giełdowe prowadzą czasami do monumentalnych krachów, to na ich gruzach zawsze powstaje jakaś wspaniała nowa gałąź przemysłu. Mówiąc krótko, spekulanci, owe pasożyty gospodarki, odgrywają swoją specyficzną rolę w liberalnym kapitalizmie.
Gracze giełdowi są tacy i owacy. Jest wśród nich doktor sztuki giełdowej, informatyk, gracz grający z dnia na dzień, a nawet z godziny na godzinę. Są amatorzy i półamatorzy, są spekulanci i inni. A poza tym istnieje jeszcze cała armia ludzi obsługujących giełdową infrastrukturę: bankierów ze swoimi urzędnikami, maklerów, reemitentów, agentów i subagentów, pozbawionych środków do życia doradców inwestycyjnych, których profesja bardziej przypomina sprzedawców odkurzaczy aniżeli zarządców majątku oraz całej rzeszy ludzi żyjących wyłącznie na giełdzie i z giełdy, prowizji, opłat za pośrednictwo i tak dalej.
Giełda jest barwnym światem, jest pewnego rodzaju dżunglą, w której silniejszy pożera słabszego. Vae victis!23. Wśród profesjonalistów trwa nieustanna walka w ramach najlepiej nadającego się do tego systemu dwupartyjnego. Są grający na zwyżkę, jak
i grający na zniżkę albo, jak to w malowniczy sposób jest określane, bulls and bears (byki i niedźwiedzie).
Byk jest symbolem spekulanta, który atakuje z przodu i swymi rogami ciska wszystko w górę, w pierwszej kolejności oczywiście kursy. Spekulant grający na zniżkę jest myśliwym, który sprzedaje skórę na niedźwiedziu. Może mu się bowiem zdarzyć, że nie trafi w niedźwiedzia i sprzedaną przedwcześnie skórę będzie musiał odkupić ze stratą. Na wszystkich giełdach na świecie byki nie lubią niedźwiedzi tak jak
i niedźwiedzie nie lubią byków. Ich sposób myślenia jest tak diametralnie różny, że nie istnieje żadne wydarzenie polityczne czy gospodarcze, na temat którego mieliby takie samo zdanie. Spekulant grający na zniżkę każdą wiadomość komentuje pesymistycznie, natomiast grający na zwyżkę - optymistycznie.
Spekulant grający na zniżkę jest osobliwym dziwakiem, którego motywy postępowania wywodzą się z różnych źródeł. Poza „intelektualistami”, którzy opierają swoje spekulacje na przemyśleniach istnieją także grając na bessę spekulanci „psychologiczni”.
RYZYKO ZWIĄZANE Z GIEŁDĄ
Ryzyko jest jednym z najbardziej popularnych pojęć pojawiających się w ekonomii. Podejmując decyzję, zawsze wiąże się ją z ryzykiem. Najprostsza definicja ryzyka to określenie go jako możliwości wystąpienia pewnego zaburzenia w przyszłości. Ryzyko istnieje zawsze, ale poprzez odpowiednie działania można zmniejszyć prawdopodobieństwo wystąpienia niekorzystnych zdarzeń będących jego następstwem24.
Działanie w warunkach ryzyka jest nieodłącznym atrybutem każdej gospodarki. Ryzyko towarzyszy człowiekowi w każdym okresie jego życia. Ryzyko towarzyszy realizacji określonych zamierzeń związane jest także z podjęciem lub zaniechaniem określonych działań.
Najczęściej ryzyko jest ujmowane jako możliwość poniesienia straty. Jest to zgodne
z intuicyjnym rozumieniem ryzyka i do takiej definicji odnoszą się miary zagrożenia. W teorii finansów często przyjmuje się, że ryzyko jest to możliwość osiągnięcia wyniku innego niż oczekiwany. Zgodnie z tym podejściem, ryzykiem jest osiągnięcie strat jak
i również możliwość osiągnięcia zysków większych niż przewidywane. Na tej definicji ryzyka opierają się miary zmienności i miary wrażliwości.
Słowo „ryzyko” pochodzi od starowłoskiego risicare, które oznacza odważyć się.
W związku z tym ryzyko jest raczej związane z wyborem a nie z losem. Wiążąc ryzyko z wyborem, potwierdzamy nierozerwalny związek ryzyka z czasem. W praktyce często łączy się dwa pojęcia: ryzyko i niepewność. Różnicę między nimi jako pierwszy określił w 1901 roku Willett, twierdząc, że ryzyko jest obiektywnie współzależne od subiektywnej niepewności. Natomiast Pfeffer twierdził, że ryzyko jest hazardem i jest mierzone prawdopodobieństwem, a niepewność jest mierzona poziomem wiary. Wywnioskował on stwierdzenie, że ryzyko jest stanem świata, a niepewność stanem umysłu. Współcześnie większość autorów definiuje niepewność jako stan, w którym przyszłe możliwości i szanse ich wystąpienia nie są znane. Pojęcia ryzyka używamy gdy:
rezultat, jaki będzie osiągnięty w przyszłości, nie jest znany, ale możliwe jest zidentyfikowanie przyszłych sytuacji,
znane jest prawdopodobieństwo zrealizowania się poszczególnych możliwości w przyszłości25.
Niepewność dotyczy zmian, które są trudne do oszacowania lub wręcz nie ma możliwości oszacowania prawdopodobieństwa ich zajścia. Terminy ryzyko i niepewność są używane zamiennie, często też ryzyko definiuje się poprzez niepewność. Jeżeli przyjmie się, że głównym atrybutem ryzyka jest niepewność, to należy stwierdzić, że czas ma zasadniczy wpływ na jego poziom. Niepewność przewidywań rośnie zawsze
z wydłużaniem ich horyzontu czasowego.
Inwestowanie w akcje jest bardzo ważnym rodzajem działalności w gospodarce rynkowej. Uzyskanie określonej stopy zwrotu z inwestycji w akcje jest nierozerwalnie związane z niepewnością i ryzykiem. W analizie ryzyka poddaje się ocenie z reguły wynik końcowy, który jest efektem wpływu wielu czynników. Tym wynikiem końcowym mogą być zmiany cen akcji lub zmiany stopy zwrotu w czasie. Inwestycji dokonuje się dzisiaj najczęściej na podstawie informacji z przeszłości oraz prognoz dotyczących przyszłości, spodziewana stopa zwrotu będzie obciążona pewnym ryzykiem.
Najważniejsze rodzaje ryzyka które mają wpływ na zmiany kursów akcji, to:
ryzyko inflacji,
ryzyko stopy procentowej,
ryzyko płynności,
ryzyko wycofania kapitału,
ryzyko bankructwa26.
Jednym z elementów skutecznego zarządzania ryzykiem jest jego pomiar. W tym celu wykorzystywanych jest wiele miar. Jednym z podziałów miar ryzyka jest podział na miary: zmienności, wrażliwości i zagrożenia.
Miara zmienności (volatility measures)
Miary zmienności opierają się na definicji ryzyka, jako możliwości osiągnięcia wyniku innego niż oczekiwany. Ryzykiem jest więc osiągnięcie wyniku gorszego niż zakładany, jak
i równiej lepszego. Miarami mierzącymi takie ryzyko są miary dyspersji stosowane powszechnie w statystyce. Najpowszechniej stosowane są następujące miary:
odchylenie standardowe
gdzie:
n - liczba badanych okresów,
- wariancja stopy zwrotu papieru wartościowego,
- prawdopodobieństwo osiągnięcia i-tej możliwej wartości stopy zwrotu,
- i-ta możliwa wartość stopy zwrotu,
- oczekiwana stopa zwrotu danego papieru wartościowego.
Odchylenie standardowe stopy zwrotu akcji wskazuje, o ile odchylają się przeciętne możliwe stopy zwrotu od oczekiwanej stopy zwrotu. Im wyższe odchylenie standardowe, tym większe ryzyko związane z danym papierem wartościowym.
semioodchylenie standardowe
Przyjmując że ryzyko powinno być określane na podstawie elementów niepożądanych dla inwestora, czyli ujemnych odchyleń od stopy zwrotu, za miarę ryzyka należy uznać semioodchylenie standardowe akcji (SV), które wyznacza się następująco:
gdzie:
- prawdopodobieństwo osiągnięcia i-tej możliwej wartości stopy zwrotu,
- ujemna część odchylenia od stopy zwrotu zdefiniowana według wzoru:
gdzie:
- i-ta możliwa wartość stopy zwrotu,
- oczekiwana wartość stopy zwrotu.
Wartości semiodchylenia standardowego akcji są zawsze mniejsze od wartości odchylenia standardowego. Jest tak dlatego, że przy obliczaniu semiodchylenia uwzględnia się jedynie ujemne odchylenia, których jest zawsze mniej niż wszystkich odchyleń.
współczynnik zmienności akcji
Wyznacza się go ze wzoru:
gdzie:
S - odchylenie standardowe akcji,
R - stopa zwrotu akcji.
Zdefiniowany w ten sposób współczynnik jest relatywną miarą ryzyka względem stopy zwrotu. Zasadniczą wadą współczynnika zmienności akcji jest to, że może być stosowany jedynie dla dodatniej i różnej od zera stopy zwrotu27.
Miara wrażliwości (sensitivity measures)
W grupie miar wrażliwości najważniejszym narzędziem jest równanie regresji, w którym stopa zwrotu z akcji jest objaśniana stopą zwrotu z indeksu giełdowego opisującego rynek. Model ten jest znany jako model W.F. Sharpe`a. Opiera się on na założeniu, że kształtowanie się poszczególnych cen akcji jest zdeterminowane kształtowaniem się cen całego rynku. Niektórzy uważają, że indeks giełdowy może być traktowany jako portfel rynkowy, w skład którego wchodzą wszystkie notowane akcje. W modelu tym zależność między stopą zwrotu z akcji a stopą zwrotu z rynku wyraża się następująco:
gdzie:
Ri - stopa zwrotu z i - tej akcji,
Rm - stopa zwrotu z rynku mierzona stopą zwrotu z indeksu giełdowego,
αi , βi - parametry strukturalne równania,
Ut - składnik losowy równania.
Wartość współczynnika βi można wyznaczyć, korzystając z następującej relacji:
,
gdzie:
t - okres, na którego podstawie wyznacza się parametry równania,
Ri , Rm - średnie tygodniowe stopy zwrotu, odpowiednio z akcji i rynku.
Ocenę parametru αi wyznacza się na podstawie następującego wzoru:
Z punktu widzenia pomiaru ryzyka model Sharpe`a jest bardzo użyteczny, ponieważ pozwala na oszacowanie ryzyka dla danego waloru. Ryzyko akcji składa się
z ryzyka dywersyfikowalnego oraz niedywersyfikowalnego. Całkowite ryzyko można zapisać za pomocą następującego wzoru:
gdzie:
- wariancja i - tej akcji (ryzyko całkowite akcji),
- wariancja wskaźnika rynku ( indeksu giełdowego),
- wariancja składnika losowego i - tej akcji28.
Miara zagrożenia (downside risk measures)
Miary zagrożenia opierają się na definicji ryzyka traktującej ryzyko jedynie jako możliwość zaistnienia sytuacji niekorzystnej. Miary te stają się coraz bardziej popularne,
i zdobywają coraz więcej zwolenników. Formalnie Value at Risk (VaR) jest to strata wartości rynkowej taka, że prawdopodobieństwo osiągnięcia jej lub przekroczenia jest równe zadanemu poziomowi tolerancji (wartości bliskiej 0)29.
Prawdopodobieństwo starty pozwala pośrednio określić ryzykowność danego papieru wartościowego i praktycznie ma zastosowanie do akcji, które mają rozkład normalny lub zbliżony do normalnego. Prawdopodobieństwo straty określa, jak duża jest szansa, że stopa zwrotu z akcji będzie mniejsza lub równa zeru. Prawdopodobieństwo takie można zapisać następująco:
gdzie:
P(R
0) - prawdopodobieństwo uzyskania ujemnej lub zerowej stopy zwrotu,
N(R,S) - funkcja gęstości rozkładu normalnego.
Zarządzanie ryzykiem
Zmiany na rynkach finansowych i w technologii produkcji oraz w sposobie prowadzenia biznesu spowodowały wzrost ryzyka finansowego, na które przedsiębiorstwa są narażone. Dlatego zasadne jest wprowadzenie skutecznego systemu zarządzania ryzykiem. Proces ten polega na określeniu i implementacji optymalnej struktury czasowej i wartościowej przepływów finansowych, w celu uzyskania określonego poziomu ryzyka. Niestety całego ryzyka nie da się wyeliminować. Jest to związane z faktem, że niektórych ryzyk nie da się przewidzieć bądź całkowite ich ograniczenie jest zbyt kosztowne.
Rozwój nowoczesnych finansów umożliwia zabezpieczenie się przed różnymi rodzajami ryzyka. Poniżej skoncentruję się głównie na ograniczeniu ryzyka wynikającego ze zmian cen na rynkach finansowych.
Metody zarządzania ryzykiem dzielimy na:
metody tradycyjne - zarządzanie aktywami i pasywami (ALM - Asset Liability Management),
metody nowoczesne - hedging30.
Do metod tradycyjnych należą sposoby minimalizacji pewnej miary ryzyka lub osiągnięcie pożądanej wartości miary wrażliwości. Pierwszy sposób wiąże się np.
z minimalizacją odchylenia standardowego stopy zwrotu przy zadanej stopie zwrotu. Druga technika określa pewien poziom wrażliwości wartości portfela instrumentów finansowych lub wyniku finansowego, na zmiany sytuacji rynkowej. Zalicza się tu głównie:
tworzenie portfela akcji o zerowej lub zadanej wartości współczynnika ၢ,
immunizacja portfela instrumentów dłużnych,
operacje depozytowo-pożyczkowe w przypadku ryzyka walutowego.
Nowoczesne metody hedgingowe oparte na instrumentach pochodnych można podzielić na:
hedging polegający na transferze ryzyka,
hedging polegający na wymianie ryzyka31.
Transfer ryzyka oznacza przekazywanie części ryzyka innej stronie w zamian za opłatę. Można go dokonać poprzez tradycyjne ubezpieczenie lub zajęcie odpowiedniej pozycji
w opcjach. Zalicza się tu przede wszystkim zajęcie długiej pozycji w opcji kupna (call)
w przypadku zabezpieczenia przed wzrostem ceny instrumentu bazowego. W przypadku ryzyka związanego ze spadkiem kursu, należy kupić opcję sprzedaży (put). Transfer ryzyka związany jest również z bardziej skomplikowanymi strategiami opcyjnymi lub wykorzystaniem opcji egzotycznych. Wiąże się on także z delta-vega-gamma hedgingiem, stosowanym w celu zabezpieczenia portfela opcji.
Wymiana ryzyka dokonuje się między dwoma podmiotami chcącymi się zabezpieczyć. Polega ona na przekazaniu i otrzymaniu od drugiej strony części ryzyka. Long hedge używa się w celu zabezpieczenia przed wzrostem wartości instrumentu bazowego. Short hedge pozwala na ochronę przed spadkiem kursu instrumentu bazowego. Oczywiście i tu można wykorzystać bardziej skomplikowane metody zabezpieczenia np. hedging wielookresowy (swap) i zmodyfikowany hedging wynikający z ryzyka bazy.
Powyższe metody można stosować w procesie zarządzania ryzykiem rynkowym, który złożony jest z czterech etapów:
identyfikacji obszarów występowania ryzyka - w tym etapie należy określić rodzaj zajmowanych pozycji, ich wartość oraz źródła ryzyk,
zarządzanie otwartymi pozycjami narażonymi na ryzyko rynkowe - w tym etapie następuje ustalenie wykorzystywanych instrumentów w celu ograniczenia ryzyka rynkowego, określa się strategie hedgingowe oraz osoby odpowiedzialne za proces minimalizacji ryzyka, ustala się również limity zaangażowania
w instrumenty pochodne,
kontrola prawidłowości przeprowadzonych operacji zabezpieczających pod względem formalnym i merytorycznym - analizujemy zawarte transakcje, kontrolujemy ich wartość oraz możliwe zmiany na rynku, ważne jest również prowadzenie przejrzystej dokumentacji oraz systemu raportowania procesu zabezpieczania,
ocena efektywności stosowanych strategii hedgingowych - polega na analizie zmian wartości pozycji zabezpieczanej oraz odpowiadającej jej pozycji zabezpieczającej32.
Na podstawie wymienionych założeń należy zbudować system zarządzania ryzykiem rynkowym, który najlepiej odpowiada prowadzonej przez firmę działalności oraz prognozowanym przepływom finansowym narażonym na ryzyko. System powinien spełniać następujące cechy:
brak spekulacji,
dynamiczne zarządzanie ryzykiem rynkowym, aktywnie reagujące na sytuację rynkową,
zapewnienie bezpieczeństwa strategii hedgingowych, poprzez oddzielenie funkcji realizacji strategii od funkcji kontrolnych,
duża elastyczność, pozwalająca na rozbudowanie systemu w ramach potrzeb.
Nowoczesne systemy zarządzania ryzykiem coraz częściej wykorzystują instrumenty pochodne, które zastępują tradycyjne metody zarządzania aktywami i pasywami. Dzięki temu horyzont zarządzania ryzykiem znacznie mógł się skrócić. Dzięki temu można było na bieżąco zarządzać pozycjami narażonymi na ryzyko. Stosowanie tych metod wiąże się także z wykorzystaniem coraz bardziej wyrafinowanych instrumentów finansowych oraz narzędzi technologicznych i informatycznych. Dzięki temu systemy zarządzania ryzykiem mogą jednocześnie chronić przed wieloma ryzykami, co pozwala na efektywniejszą
i skuteczniejszą ochronę.
W zależności od prowadzonej działalności przyjmuje się różną politykę zabezpieczenia przed ryzykiem. Wyróżniamy dwa podstawowe rozwiązania:
zarządzanie ryzykiem od góry do dołu (top-down) - polega na ustaleniu przez zarząd instytucji określonego całkowitego poziomu ryzyka finansowego,
a następnie określeniu limitów dla poszczególnych jednostek organizacji,
zarządzanie ryzykiem od dołu do góry (bottom-up) - polega na określeniu miejsc powstawania ryzyka, a następnie konsolidacji jego wartości w celu ustalenia całkowitego poziomu ryzyka33.
Firmy i instytucje finansowe w celu określenia ryzyka stosują wiele technik, najpopularniejsze z nich to:
metodologia VaR,
metoda luki,
analiza scenariuszy,
symulacje Monte Carlo.
Skonstruowanie i wdrożenie systemu zarządzania ryzykiem finansowym pozwala na uniezależnienie wyniku finansowego, wartości bilansowej oraz struktury przepływów pieniężnych od zmian na rynkach finansowych bądź innych czynników. Dzięki temu systemowi przedsiębiorstwo może także dokładniej planować przyszłe projekty inwestycyjne, poprzez zagwarantowanie sobie konkretnych cen czynników produkcji oraz kosztu pieniądza. Kolejną zaletą zarządzania ryzykiem finansowym jest zwiększenie stabilności
i wiarygodności firmy, co czyni ją atrakcyjniejszą dla partnerów handlowych oraz instytucji finansowych.
ROZDZIAŁ 2. METODY KLASYFIKACJI
2.1. POJĘCIE METODY
Metoda jest to ogół reguł stosowanych przy badaniu rzeczywistości, czyli sposób naukowego badania rzeczy i zjawisk1. Metoda jest sposobem badania przedmiotu -
w przypadku przedsiębiorstwa sposobem badania jego stanu i wyników finansowych2.
Metody badania wykorzystane w analizie można podzielić według różnych kryteriów m.in.:
z uwagi na stosowaną kolejność oceny zjawisk szczegółowych i ogólnych,
ze względu na formę opisu.
Z uwagi na stosowaną kolejność oceny zjawisk szczegółowych i ogólnych można wyodrębnić:
Metodę indukcyjną - scalania - polega ona na analizowaniu zjawisk szczegółowych, elementarnych i przyczynowych, a następnie na stopniowym przechodzeniu do uogólnień w postaci wniosków i oceny jako syntezy procesu analitycznego. Metoda ta pozwala na uzyskanie dokładnej i pełnej informacji analitycznej o działalności przedsiębiorstwa. Pozytywną cechą tej metody jest dość duża obiektywność wyników, gdyż w czasie prowadzenia badań analityk nie zna ostatecznych rezultatów przedsiębiorstwa, co przeciwdziała tendencyjnemu ustosunkowaniu się do ocenianych zjawisk gospodarczych.
Metodę tę przedstawić można w następujący sposób:
od przyczyn do skutków,
od czynników do wyników,
od szczegółu do ogółu.
Metodę dedukcyjną - rozdrabniania - polega ona na ogólnym sformułowaniu tez charakteryzujących wyniki syntetyczne i stopniowym przechodzeniu do szczegółów w poszukiwaniu przyczyn, ich związków ze skutkami. Metoda ta jest bardzo użyteczna praktycznie. Już na wstępie analityk wyrabia sobie pogląd dotyczący ostatecznych wyników działalności przedsiębiorstwa, ponieważ rozpoczyna on analizę od wyceny syntetycznych wskaźników charakteryzujących całokształt jego działalności. Ma on na celu wykrycie nieprawidłowości i określenie stopnia ich wpływu na stwierdzone odchylenia.
Metodę tę przedstawić można w następujący sposób:
od skutków do przyczyn,
od wyników do czynników,
od ogółu do szczegółu.
Metodę redukcji - weryfikacji - polega ona na wyodrębnieniu 3 części opisu danej analizy:
Sformułowanie tez i wniosków o cechach syntezy wstępnej,
zweryfikowanie prawdziwości tez i wniosków,
podsumowanie ustaleń z weryfikacji.
Metodę tę przedstawić można w następujący sposób:
Metoda indukcji jest najczęściej stosowana w analizach ekonomiczno - finansowych, szczególnie w analizach średnio- i krótkookresowych. Metoda dedukcji ma największe zastosowanie w analizach rocznych i wieloletnich. Metody redukcji można zastosować we wszystkich rodzajach analiz, w tym również ekonomiczno - finansowych.
Ze względu na formę opisu - metody występujące w analizie ekonomicznej dzielimy na:
metody analizy jakościowej;
metody analizy ilościowej.
Metody analizy jakościowej3 - są to metody opisowe, które badają rzeczywistość
i ujmują badane związki w formie opisowej, werbalnej, bez prób nadawania im ilościowego, mierzalnego wyrazu. Polegają głównie na porównawczej analizie dynamiki szeregów czasowych. Niewątpliwą zaletą omawianych metod jest ich prostota
i związana z tym duża łatwość w praktycznym stosowaniu. Wadą prezentowanych metod jest natomiast to, że nie pozwalają na dokładną kwantyfikację zależności istniejących pomiędzy badaną zmienną ekonomiczną, a określającymi ją czynnikami co utrudnia w konsekwencji precyzyjne prognozowanie. Metody te polegają głównie na porównawczej analizie dynamiki szeregów czasowych. Często spotykaną w analizie ekonomicznej metodą jakościową jest metoda graficzna. Metody jakościowe posiadają określone wady i zalety. Zaletą jest duża łatwość i prostota w praktycznym zastosowaniu tych metod. Wadą jest, że nie można sprawdzić zależności istniejących pomiędzy badaną zmienną a określającymi ją czynnikami. Ma to istotne znaczenie
w zakresie precyzyjnego rozpoznania tych zależności, uściślenia zbioru czynników
i uporządkowania ich według siły i kierunku oddziaływania na badaną zmienną ekonomiczną, co utrudnia w konsekwencji precyzyjne prognozowanie kształtowania się tej zmiennej w przyszłych okresach4.
Metody analizy ilościowej ujmują badane procesy gospodarcze w formie liczb. Są częściej wykorzystywane w analizie efektywności gospodarowania, ponieważ mają istotną przewagę nad jakościowymi, pozwalając na kwantyfikację zależności istniejących pomiędzy badaną zmienną a określającymi ją czynnikami.
W literaturze ekonomicznej istnieje szereg metod ilościowych, które z powodzeniem mogą być wykorzystywane w analizie ekonomiczno - finansowej. Są to:
metody deterministyczne5,
metody stochastyczne6.
Metody deterministyczne polegają na posługiwaniu się różnymi schematami algorytmów. Są one z reguły proste i nie nastręczają większych trudności w technice obliczeniowej. Deterministyczne pojmowanie zależności w procesach gospodarczych nie jest w pełni precyzyjne. Na poziom badanych zmiennych ekonomicznych wpływają zarówno czynniki o charakterze głównym jak i losowym. Jednakże w metodach deterministycznych nie ma możliwości jednoczesnego uwzględniania wpływu zarówno czynników głównych jak i przypadkowych. Obniża to wartość poznawczą otrzymanych wyników. Najczęściej stosowane metody deterministyczne to:
metoda logarytmowania,
metoda funkcyjna,
metoda podstawień krzyżowych,
metoda kolejnych podstawień,
metoda różnic cząstkowych,
metody proporcjonalnego podziału odchyleń,
metoda podziału odchyleń łącznych,
metoda współczynnikowa,
metoda średniej arytmetycznej - nieważonej.
Metody deterministyczne, np. metoda logarytmowania może być przydatna w badaniach o charakterze retrospektywnym (ex post). Dzięki jej wynikom można wyjaśnić zmiany
w przedsiębiorstwie i w poszczególnych wycinkach jej działalności. Można także zapobiegać w przyszłości zmianom niepożądanym, utrwalać korzystne tendencje
w zarządzanych przedsiębiorstwach.
Metody stochastyczne7 są to metody, które dużo wnoszą w analizę ekonomiczno - finansową. Metody te uwzględniają nie tylko główne czynniki, ale także wyodrębniają czynniki mniej istotne tzw. czynniki losowe, które w procesie budowy modelu analizowanej zmiennej są pomijane w metodach deterministycznych. W tym rozumieniu metody stochastyczne stanowią istotne uzupełnienie i pogłębienie deterministycznych metod analizy ekonomicznej. Wśród metod stochastycznych na szczególne wyróżnienie zasługują ekonometryczne metody analizy przyczynowo - skutkowej. Do najważniejszych metod stochastycznych należą:
metody ekonometryczne,
metody taksonomiczne,
metody addytywne,
metody dyskryminacyjne.
Metody stochastyczne nie wykluczają się ze stosowanymi obecnie metodami jakościowymi i deterministycznymi, wręcz przeciwnie mogą się wzajemnie uzupełniać. Tym samym mogą przyczynić się do znacznego wzbogacenia wartości poznawczej wyników analizy. Metody stochastyczne pełnią „rolę służebną” w analizie antycypacyjnej (ex ante), która pozwala ustalać wyniki przewidywanych procesów gospodarczych we wszystkich dziedzinach działalności przedsiębiorstwa. Analiza ta uwzględnia czynniki, które działały wcześniej, jak i te, które mogą pojawić się w przyszłości. W rezultacie działań analitycznych metodą stochastyczną ustala się wartość wskaźników ekonomicznych w danej perspektywie z uwzględnieniem powiązań przyczynowo skutkowych jakie między nimi występują. Dzięki niej można ustalać szczegółowe skutki rozpatrywanych wariantów planistycznych i nakreślać dość wyraźny obraz gospodarczy przedsiębiorstwa dla każdego wariantu działania. Można również przewidzieć skutki ewentualnych zmian kierunku i siły działania założonych w planie czynników wewnętrznych i zewnętrznych. Opisane zestawienie metod przedstawione jest na rysunku 2.
Rysunek 2. Systematyka metod analizy przyczynowej efektywności gospodarowania. (źródło: [6])
2.2. METODY TAKSONOMICZNE
Przez taksonomię8 rozumie się dyscyplinę naukową zajmującą się zasadami
i procedurami klasyfikacji, czyli porządkowania, grupowania, dyskryminacji, delimitacji, podziału. W zależności od charakteru wykorzystywanych informacji wyjściowych wyróżnia się jakościowe i ilościowe metody taksonomiczne. Metody ilościowe składają się na taksonomię numeryczną, taksonometrię lub taksonomię matematyczną. Taksonometria ma również inne nazwy, takie jak analiza wielowymiarowa, wielowymiarowa analiza porównawcza, teoria rozpoznawania obrazów, analiza skupień czy też teoria grupowania obiektów wielocechowych9.
Klasyfikacja to:
dział metodologii ogólnej, który obok gromadzenia informacji i modelowania zjawisk jest jednym z podstawowych narzędzi badania rzeczywistości,
podział danego zbioru przedmiotów na rozłączne i wyczerpujące podzbiory z punktu widzenia określonego kryterium opartego na cechach klasyfikowanych przedmiotów,
zespół zasad, na podstawie których dokonuje się podziału,
wytwór procesu klasyfikacji.
W taksonomii numerycznej szczególnie użyteczna jest definicja klasyfikacji oparta na teorii mnogości. Zgodnie z tą definicją klasyfikacja jest to niepusta rodzina podzbiorów Si ( i=1,...,p) określona na zbiorze obiektów Ω = {ω1, ..., ωn} i spełniająca dwa warunki : rozłączności i zupełności. Konieczność klasyfikowania zbiorów wynika m.in. z następujących przesłanek:
zredukowanie dużej ilości nagromadzonych informacji do kilku podstawowych kategorii, co pozwala na łatwe zorientowanie się
w różnorakiej masie zjawisk, wyciągnięcie wniosków uogólniających oraz ustalenie typologii w zakresie badanej problematyki,
określenie jednorodnych przedmiotów analizy, w których łatwiej jest wyodrębnić czynniki systematyczne oraz ewentualne związki przyczynowo - skutkowe,
zmniejszenie nakładów czasu i kosztów badań przez ograniczenie rozważań do najbardziej typowych faktów, zjawisk, obiektów, przy stosunkowo niewielkich stratach informacji i niewiele większym prawdopodobieństwie otrzymania zniekształconych rezultatów analizy.
Problemy klasyfikacji pojawiły się w naukach przyrodniczych, przy systematyzacji świata roślin i zwierząt. Jednakże wtedy posługiwano się jedynie metodami analizy opisowej. Dopiero na początku XX wieku ukazała się praca J. Czekanowskiego, która wykorzystywała metody ilościowe w klasyfikacji. Na początku rozwijała się tzw. taksonomia bezwzorcowa. W 1936 roku metodę regresji i korelacji R.A. Fishe połączył z problematyką klasyfikacji i stworzył tzw. taksonomię wzorcową. Rozwijano także analizę czynnikową, za pomocą której można rozwiązywać zagadnienia taksonomiczne. W psychologii, geologii, medycynie, astronomii, socjologii, kryminalistyce itp. naukach
w latach pięćdziesiątych i sześćdziesiątych na szeroką skalę stosowano numeryczne metody klasyfikacji. W następnych latach oprócz kontynuowania dotychczasowych badań, klasyfikacją zainteresowali się specjaliści z dziedziny cybernetyki i teorii informacji. Zajmowali się oni głównie identyfikacją obiektów. Numeryczne metody klasyfikacji pojawiły się także w ekonomii. Niektóre zagadnienia ekonomiczne,
w których stosowano metody taksonomiczne to m.in.10:
ustalenie najkrótszej sieci połączeń,
grupowanie statystyczne,
wybór zmiennych objaśniających w modelach ekonometrycznych,
interpolacja danych statystycznych,
konstrukcja mierników rozwoju gospodarczego,
analiza struktur organizacyjnych,
modelowanie procesów demograficznych,
określenie wzorców rozwoju w predykcji przez analogię.
Badania które wykorzystują metody taksonomiczne, można podzielić na kilka stałych etapów:
sformułowanie celu analizy oraz wstępnych hipotez badawczych,
określenie zakresu merytorycznego, terytorialnego i czasowego badań,
a w szczególności wyspecyfikowanie elementów zbioru obiektów oraz zbioru cech wyjściowych,
zebranie kompletnych i adekwatnych danych statystycznych:
ustalenie i zebranie źródeł danych,
doprowadzenie danych do wzajemnej porównywalności,
eliminacja obserwacji o anormalnych poziomach,
interpolacja brakujących obserwacji,
utworzenie maszynowych nośników informacji,
wyznaczenie procentowych udziałów, współczynników dynamiki, wskaźników ekonomicznych,
analiza statystyczna danych wejściowych:
wyznaczenie średnich arytmetycznych, odchylenia standardowego, współczynników zmienności, asymetrii i koncentracji,
ocena stopnia i kierunku współzależności między zmiennymi wyjściowymi,
empiryczna weryfikacja postaci analitycznej rozkładu jedno -
i wielowymiarowych zmiennych,
dobór optymalnego podzbioru zmiennych diagnostycznych:
wyeliminowanie zmiennych stałych,
analiza struktury macierzy korelacji,
ustalenie wag zmiennych,
określenie końcowej listy zmiennych,
porządkowanie i grupowanie obiektów w ramach analizowanych układów zmiennych:
wybór algorytmów klasyfikacyjnych,
ustalenie metryk odległości,
określenie sposobu normalizacji i agregacji zmiennych,
analiza i interpretacja wyników, sformułowanie wniosków końcowych:
identyfikacja charakteru wyróżnionych skupisk obiektów,
testowanie istotności wyników grupowania,
ustalenie typologii badanych zjawisk.
W zadaniach taksonomicznych można wyróżnić trzy schematy:
porządkowanie,
grupowanie,
wybór.
Do najważniejszych zadań taksonomicznych należą11:
porządkowanie obiektów,
grupowanie obiektów,
grupowanie zmiennych,
wybór reprezentantów grup obiektów,
wybór reprezentantów grup zmiennych,
wybór algorytmu klasyfikacyjnego obiektów,
wybór algorytmu klasyfikacyjnego zmiennych,
wybór miernika poprawności algorytmu klasyfikacyjnego obiektów,
wybór miernika poprawności algorytmu klasyfikacyjnego zmiennych.
Zadania te można określić jako elementarne, przyjmuje się w nich, że nieznaną jest tylko jeden element modelu taksonometrycznego oraz że dysponuje się pełną informacją o wszystkich pozostałych elementach. Zadania te często się upraszcza, pomija się pewne elementy modelu taksonometrycznego co ułatwia znacznie analizę. Jednak zwiększa się prawdopodobieństwo wyciągnięcia błędnych wniosków.
Większość algorytmów taksonomicznych opiera się na właściwie zdefiniowanych miernikach odległości między klasyfikowanymi obiektami lub zmiennymi. Wybór takiego miernika ma istotny wpływ na uzyskane wyniki grupowania lub porządkowania. Mierniki odległości można podzielić w zależności od tego, czy12:
opierają się na informacjach wyrażonych w skalach mocnych czy w skalach słabych,
są przeznaczone do pomiaru odległości obiektów w przestrzeni cech, czy cech w przestrzeni obiektów,
służą do oceny odległości między pojedynczymi punktami, między punktem a grupą punktów, czy między grupami punktów.
Najczęściej wykorzystywane w badaniach ekonomicznych, są mierniki opierające się na informacjach wyrażonych w skalach mocnych.
Wybór konkretnej postaci funkcji d nie jest prosty i wymaga m.in.:
ustalenia merytorycznego charakteru zmiennych,
wyboru systemu wag,
określenia metody normalizacji zmiennych,
przyjęcia odpowiedniej formuły odległości obiektów lub agregacji zmiennych.
Problem określenia charakteru zmiennych jest ważny przy porządkowaniu obiektów. Określenie charakteru zmiennych powinno się opierać na przesłankach merytorycznych. Przy braku odpowiedniej teorii można się posłużyć metodą ocen ekspertów. Poprawność można sprawdzić przez określenie kierunku skorelowania poszczególnych zmiennych.
W wyborze systemu wag można wyróżnić dwa rodzaje. Jedno bazuje na informacjach merytorycznych i realizowane jest metodą indywidualną. Natomiast drugie bazuje na informacjach zawartych w analizowanym materiale statystycznym. Najczęściej stosuje się drugi rodzaj. Współczynniki wagowe powinno się ustalać odwrotnie proporcjonalnie do błędu pomiaru zmiennych albo wprost proporcjonalnie do ich wariancji.
Celem normalizacji zmiennych jest:
doprowadzenie różnoimiennych cech do wzajemnej porównywalności,
ujednolicenie charakteru zmiennych,
wyeliminowanie z obliczeń wartości niedodatnich,
zastąpienie zróżnicowanych zakresów zmienności poszczególnych cech zakresem stałym.
Formuły odległości obiektów wykorzystywane są również do agregacji zmiennych w celu uzyskania zmiennej syntetycznej, która jest podstawą liniowego porządkowania obiektów. Wyróżnia się wzorcowe i bezwzorcowe formuły agregacji zmiennych.
2.3. PODZIAŁ METOD TAKSONOMICZNYCH
W literaturze można znaleźć opis wielu metod taksonomicznych. Są one oparte na różnych założeniach i posiadają różne algorytmy. Ażeby skonstruować jakikolwiek system klasyfikacji metod można sformułować następujące kryteria klasyfikacji procedur taksonomicznych13:
wzorcowe i bezwzorcowe,
obszarowe i czynnikowe,
hierarchiczne i niehierarchiczne,
aglomeracyjne i podziałowe,
liniowe i nieliniowe.
We wszystkich tych metodach można założyć, że przedmiotem porządkowania lub grupowania są obiekty ujmowane w wielowymiarowej przestrzeni zmiennych.
Metody wzorcowe i bezwzorcowe
W metodach wzorcowych prowadzi się rozgraniczenia badanego materiału na klasy (grupy) na podstawie z góry znanych charakterystyk. W wyniku stosowania metod bezwzorcowych, zbiór elementów zostaje uporządkowany ze względu na dobrane cechy, a następnie podzielony na klasy zawierające elementy w danych warunkach najbardziej do siebie podobne. Doboru cech należy dokonywać zgodnie ze stawianymi im wymaganiami. Cechy są diagnostyczne gdy:
ujmują konieczne i istotne właściwości badanej zbiorowości, należy więc brać pod uwagę jedynie cechy niezbędne,
są proste i logiczne ze sobą powiązane,
są jasno sprecyzowane i bezpośrednio lub pośrednio mierzalne oraz wyrażalne za pomocą wielkości bezwzględnych, jak i względnych,
mają wyraźną zmienność przestrzenną i niełatwo ulegają zmianom oraz wpływom środowiska,
w ramach zbiorowości wyjściowej współczynniki zmienności dla poszczególnych cech są możliwie wysokie, a w obrębie klas możliwie niskie,
są niezależne od siebie, ale jednocześnie wykazują silne skorelowanie z cechami nie uwzględnionymi w klasyfikacji.
Jeżeli liczba m cech przyjętych do badania jest znaczna, to podział zbioru
n obiektów może być dokonany ze względu na niewielką liczbę cech - reprezentantów. Wyboru cech reprezentujących m-elementowy zbiór zmiennych, stanowiących podstawę delimitacji zbioru obiektów, dokonuje się po uprzednio przeprowadzonym grupowaniu cech. Z danych wyjściowych tworzy się macierz nxm dla n wierszy reprezentujących obiekty oraz m kolumn reprezentujących cechy. Po standaryzacji zmiennych oblicza się różnice między poszczególnymi cechami zgodnie ze wzorem:
(1)
lub
(2)
przy czym:
j,k = 1,2,...,m; i=1,2,...,n,
gdzie:
aij,aik - standaryzowana wartość j-tej i k-tej cechy dla i-tego obiektu.
Normalizacji dokonuje się na podstawie wzoru:
(3)
gdzie:
- zaobserwowana wartość zmiennej j dla każdego elementu i (i=1,2,...,n),
- średnia arytmetyczna zmiennej xj,
- odchylenie standardowe zmiennej xj.
Otrzymane różnice, występujące między każdą parą cech, zestawia się w macierz
o wymiarach mxn, zwaną tablicą różnic, odległości czy dystansów. Dalsze postępowanie prowadzi do otrzymania podzbiorów cech podobnych. Z każdego podzbioru należy wybrać cechę o znacznej zmienności przestrzennej, a jednocześnie mającą istotne znaczenie z merytorycznego punktu widzenia. W ten sposób zbiór cech zostanie ograniczony do liczby k zmiennych, równej liczbie otrzymanych podgrup. Wybrane
w ten sposób cechy, reprezentujące zbiór m-elementowy, charakteryzują się stosunkowo małym współczynnikiem korelacji.
Punktem wyjścia jest macierz danych empirycznych w postaci:
X
.
Wartości zawarte w poszczególnych wierszach i kolumnach macierzy X mogą charakteryzować strukturę przestrzenną, rodzajową lub czasową. Pierwotne informacje liczbowe są najczęściej wyrażane w jednostkach absolutnych, więc należy przeprowadzić ich normalizację. Powadzi to do usunięcia wpływu przypadkowych wag wynikających z różnych wielkości absolutnych przyjętych cech, a więc doprowadzenia cech różnoimiennych do ich wzajemnej porównywalności. Normalizacji dokonuje się
w różny sposób. Najczęściej jednak korzysta się ze wzoru (3). Dalsze kroki w procesie podziału zależą od stosowanych procedur14.
Metody niehierarchiczne
Sens tych metod polega na poprawie pewnej funkcji, która charakteryzuje jakość klasyfikacji. W tych metodach powinien zachodzić fakt, że dyspersja wewnątrzklasowa powinna być jak najmniejsza, a dyspersja międzyklasowa jak największa. Wykorzystuje się tutaj równanie15:
T=W+B
gdzie:
T
,
W
,
B=
,
,
,
gdzie: T - macierz dyspersji całego zbioru obserwacji,
W - macierz dyspersji wewnątrzklasowej,
B - macierz dyspersji międzyklasowej,
Metody które wykorzystują dane zależności zaproponowali H.P. Friedman i J.Rubin.
Wśród metod rozbudowaną grupę stanowią metody obszarowe, zaliczyć do nich można: metodę Hartigana, kul, kostek, taksonomii stochastycznej, procedura Sebestyena. Wśród metod tych wyróżnia się metody, w których iteracyjnie poszukuje się podziału zbioru na skupienia, który zoptymalizuje kryterium grupowania. Można tutaj usuwać niektóre obiekty ze skupień już utworzonych,
W metodach tych zakłada się:
losowe wybieranie obiektów i porównywanie odległości pozostałych punktów do centrów;
przyjęcie podziału wstępnego;
wykorzystanie przedmiotu badania.
Dalsze postępowanie wygląda następująco:
Dla każdej grupy wstępnego podziału oblicza się środki ciężkości oraz odległości każdego obiektu od środka ciężkości tych grup.
Zmienia się przyporządkowanie obiektów do grup o najbliższym środku ciężkości.
Dla nowo utworzonych grup oblicza się ponownie środki ciężkości.
Powtarza się kroki drugi i trzeci aż do momentu, gdy nie nastąpią przesunięcia między grupami.
Metody hierarchiczne
Hierarchiczne metody grupowania są jednymi z najczęściej wykorzystywanych
w praktyce procedur taksonometrycznych. Prowadzą one do wyodrębnienia pełnej hierarchii skupień z monotonicznie wzrastającym współczynnikiem ich podobieństwa. Uzyskiwane grupy wyższego rzędu zawierają w sobie rozłączne grupy niższych poziomów. Metody hierarchiczne przeciwstawia się niehierarchicznym, które prowadzą do nieuszeregowanych konfiguracji zachodzących na siebie grup. Oznacza to że skupienia niższego rzędu nie muszą być elementami skupień wyższego rzędu. W zależności od techniki grupowania wśród metod hierarchicznych wyróżnia się procedury aglomeracyjne i podziałowe. W procedurach grupowania zakłada się, że każdy obiekt stanowi początkowo odrębne skupienie, a następnie w sposób sekwencyjny zmniejsza się ich liczbę przez łączenie w tzw. grupy wyższego rzędu. Łączenie to kończy się kiedy otrzymamy jedną grupę obejmującą wszystkie obiekty analizowanego zbioru. Metody hierarchiczne należą do najpopularniejszych metod grupowania.
Punktem wyjścia w tych metodach jest macierz odległości D między klasyfikowanymi obiektami ω1, ω2,..., ωn. Każdy obiekt tworzy oddzielne skupienie S1,S2,...,Sn.
Algorytm grupowania w metodach hierarchicznych wygląda następująco:
Mając macierz odległości między skupieniami S1,...,Sn:
D=[dij] (i,j=1,2,...,n),
Szuka się w nich par najmniej odległych od siebie.
.
Skupienia Sp i Sq łączy się w jedno nowe skupienie i nadaje się mu numer p:
Sp:=Sp∪Sq.
Z macierzy D usuwa się wiersz i kolumnę o numerach q oraz podstawia się:
n:=n-1.
Wyznacza się odległości dpj (j=12,...,n) utworzonego skupienia Sp od wszystkich pozostałych skupień. Wartości dpj wstawia się do macierzy D w miejsce p-tego wiersza.
Powtarza się kroki 1-4 aż do momentu gdy wszystkie obiekty utworzą jedno skupienie16.
Wzór dla wyznaczania odległości podczas łączenia skupień Sp i Sq w nowe skupienia to:
.
Wartości ap,aq,b,c to parametry przekształcenia, są one różne dla różnych metod tworzenia skupień.
TABLICA 1
Parametry charakteryzujące hierarchiczne metody grupowania obiektów.
Metoda |
ap |
aq |
b |
c |
Najbliższego sąsiedztwa |
0,5 |
0,5 |
0 |
-0,5 |
Najdalszego sąsiedztwa |
0,5 |
0,5 |
0 |
0,5 |
Mediany |
0,5 |
0,5 |
-0,25 |
0 |
Średniej grupowej |
|
|
0 |
0 |
Środka ciężkości |
|
|
|
0 |
Warda |
|
|
|
0 |
Źródło: W. Ostasiewicz: Statystyczne metody analizy danych, Wrocław 1998 r.
Metoda średniej grupowej
Odległość między grupami jest definiowana jako średnia ze wszystkich indywidualnych odległości między obiektami należącymi do różnych grup17.
Metoda mediany
W metodzie tej odległość między dwiema grupami jest definiowana jako środkowa (mediana) spośród trzech wielkości:
odległości środka pierwszej podgrupy od środka nowej podgrupy,
odległość środka drugiej podgrupy od środka nowej podgrupy,
odległość między środkiem pierwszej podgrupy a środkiem drugiej podgrupy18.
Metoda środka ciężkości
W tej metodzie na każdym etapie aglomeracji oblicza się współrzędne środka nowo utworzonej grupy jako średnie arytmetyczne współrzędnych obiektów wchodzących w skład danej grupy. Odległości między środkami ciężkości przyjmowane są jako odległości między grupami19.
Metoda najdalszego sąsiedztwa
W tej metodzie odległość między grupami jest definiowana jako odległość między najdalszymi obiektami wchodzącymi w skład różnych grup20.
Metody podziałowe należą do grupy hierarchicznych procedur grupowania. Stosuje się tutaj algorytm odwrotny niż w metodach aglomeracyjnych. Polega on na stopniowym podziale aktualnie występujących skupień, przy czym początkowo zbiór obiektów traktowany jest jako jedna grupa. Algorytm postępowania w tych metodach wygląda następująco:
Początkowo zakłada się , że wszystkie obiekty tworzą jedno skupienie.
Dla każdego skupienia wyznacza się parę obiektów najbardziej oddalonych od siebie, a następnie wybiera się w której z tych par odległość jest największa. Para obiektów to ωr i ωs należą one do skupienia S.
Skupienie S dzieli się na dwa skupienia S1 i S2. Obiekt ωr przydziela się do skupienia S1, a obiekt ωs do skupienia S2. Obydwa te obiekty usuwa się ze skupienia S.
Rozdziela się pozostałe obiekty znajdujące się w skupieniu S pomiędzy skupienia S1 i S2, aż do wyczerpania obiektów w skupieniu.
Z listy skupień usuwa się skupienie S, a wprowadza nowe skupienia S1
i S2, zwiększając liczbę grup o jeden.
Operacje z punktów 2-5 powtarza się aż do momentu, gdy liczba skupień jest równa liczbie obiektów21.
Metody liniowe i nieliniowe
Metody liniowe pozwalają na uporządkowanie zbioru obiektów wielowymiarowych według pewnego syntetycznego kryterium, będącego funkcją zmiennych wyjściowych. Metody nieliniowe umożliwiają jedynie grupowanie obiektów bez wprowadzania relacji porządkującej do zbioru obiektów.
Metody liniowe pozwalają na liniowe uporządkowanie obiektów zbioru Ω, tzn., że:
każdy obiekt ma co najmniej jednego sąsiada i co najwyżej dwa,
obiekt i-ty jest sąsiadem j-tego i na odwrót,
istnieją co najwyżej dwa obiekty mające tylko jednego sąsiada22.
Porządkowanie obiektów odbywa się na podstawie wieloelementowego zestawu zmiennych diagnostycznych, dzięki czemu możliwa jest hierarchizacja obiektów
z punktu widzenia kompleksowej charakterystyki. Wyniki porządkowania można wykorzystać do wyodrębnienia jednorodnych skupisk obiektów, jednakże grupy te mają interpretację merytoryczną. Najbardziej rozpowszechnione są procedury oparte na zmiennych agregatowych (wzorcowych lub bezwzorcowych). Można tu wymienić między innymi metody: szczotki, gradientowe.
2.3.1. Opis algorytmów wybranych metod
Metoda Czekanowskiego
Metoda Czekanowskiego jest najstarszą numeryczną procedurą taksonomiczną. Zaproponowana została przez J. Czekanowskiego dla potrzeb antropologii23. Łączy cechy metody bezpośredniej oraz metody iteracyjnej. Umożliwia zarówno liniowe uporządkowanie obiektów jak i ich grupowanie. Metoda ta była pierwszą w Polsce wykorzystywaną do zagadnień ekonomicznych. Na wyjściu tej macierzy dostajemy kwadratową macierz odległości między klasyfikowanymi obiektami:
D = [dij] (i,j = 1,...,n)
gdzie: n - liczba jednostek w przestrzeni wielowymiarowej.
Schemat postępowania w metodzie Czekanowskiego polega na przestawianiu wierszy i odpowiadających im kolumn w macierzy D w taki sposób, aby wzdłuż jej głównej przekątnej znajdowały się elementy możliwie jak najmniejsze oraz aby wraz z oddalaniem się od głównej przekątnej, wartości pojawiających się mierników odległości były to coraz większe. Uzyskuje się w ten sposób „uporządkowaną” macierz dystansów, wyznaczającą liniowe uporządkowanie klasyfikowanych jednostek. W celu ułatwienia procesu porządkowania wszystkie mierniki odległości występujące
w macierzy D dzieli się na kilka klas oraz przyporządkowuje poszczególnym klasom odpowiednie symbole graficzne, które odzwierciedlają różne poziomy wielkości mierników odległości. Do zalet metody Czekanowskiego należy zaliczyć możliwość wizualizacji jednocześnie wszystkich odległości między jednostkami klasyfikowanego zbioru. Do niedogodności metody należą:
Konieczność właściwego doboru skali podobieństw. Problem ustalania skali podobieństw jest analogiczny do tworzenia szeregów rozdzielczych na podstawie elementów macierzy odległości. Z. Gługiewicz do ustalania właściwych klas podobieństwa wykorzystał współczynnik zmienności24.
H. Baranek aproksymował rozkład mierników odległości za pomocą rozkładu gamma, a granice klas przyjmował w punktach niedoborów stochastycznych dla rozkładu empirycznego25. Bardzo często przyjmuje się w sposób arbitralny liczbę klas podobieństwa, a granice klas określa się za pomocą kwantyli, tak aby w każdej klasie znalazła się jednakowa liczba mierników odległości.
Niejednoznaczność końcowego efektu porządkowania diagramu. Metody porządkowania są najbardziej pracochłonnym etapem metody Czekanowskiego. W praktyce wykorzystuje się odpowiednie programy komputerowe, w których wyróżnić można dwa elementy:
obiektywne mierniki służące do oceny stopnia poprawności uporządkowania macierzy odległości,
algorytm poszukiwania optymalnego uporządkowania.
Do porządkowania diagramu Czekanowskiego można wykorzystać mierniki porządkujące zbiór wielowymiarowych jednostek taksonomicznych w sposób liniowy.
Trudność przy grupowaniu jednostek, w przypadku gdy w zbiorze zamiast rozłącznych grup pojawiają się grupy w postaci „łańcuchów”. Uporządkowany diagram Czekanowskiego stanowi podstawę grupowania jednostek na rozłączne, bardziej homogeniczne podzbiory. Jeżeli w danym zbiorze istnieją wyraźnie separowalne grupy to podział diagramu nie sprawia kłopotu. Jeżeli natomiast grupy wzajemnie się nakładają, w tej sytuacji dokonuje się wyboru spośród kilku możliwych podziałów tego, który zapewnia większą poprawność delimitacji zgodnie z ustalonym kryterium. J. Steczkowski26 proponuje wykorzystać w tym celu parametryczne i nieparametryczne testy istotności, które mierzą stopień zgodności między empirycznymi i teoretycznymi liczebnościami klas podobieństw w obrębie grup oraz poza grupami. S. Kozłowski27 stosuje do oceny poprawności grupowania wskaźnik koncentracji powiązań dany wzorem:
gdzie:
w1-w4 - liczba powiązań wewnątrzgrupowych
z1-z4 - liczba powiązań międzygrupowych.
Do grupowania na podstawie diagramu Czekanowskiego można wykorzystać również: dowolne mierniki charakteryzujące poprawność wyników grupowania, procedury podziału zbiorów liniowo uporządkowanych.
Duża pracochłonność, zwłaszcza przy klasyfikowaniu większych zbiorów liczących powyżej 100 elementów.
Rysunek 3. Nieuporządkowany diagram Czekanowskiego(źródło: S. Kozłowski: O sposobie weryfikacji podziałów przestrzennych w odniesieniu do taksonomicznej metody różnic J. Czekanowskiego, Wiadomości statystyczne nr 1/1972).
Rysunek 4. Uporządkowany diagram Czekanowskiego (źródło: S. Kozłowski „O sposobie weryfikacji podziałów przestrzennych w odniesieniu do taksonomicznej metody różnic J. Czekanowskiego”, Wiadomości statystyczne nr 1/1972).
Metoda k-średnich
Idea tej metody została opracowana już w latach pięćdziesiątych przez T.Daleniusa. Przedstawił on iteracyjną procedurę podziału populacji na k-grup, aby zminimalizować wielkość wewnątrzgrupowej wariancji. D.R. Cox podał funkcję mierzącą wielkość strat związanych z podziałem obiektów na k grup według jednowymiarowej zmiennej o rozkładzie normalnym. Uogólnienie na przypadek wielowymiarowy zaproponował G.S. Sebestyen. Rozpatrywał on efektywność metody k-średnich z punktu widzenia losowego doboru obiektów do wyróżnionych grup. W zależności od sposobu zdefiniowania funkcji-kryteriów, reguł podejmowania decyzji w procesie grupowania, metody ustalania wstępnego podziału obiektów - istnieje kilka wersji algorytmu k-średnich. Schemat postępowania w metodzie k-średnich w wersji podanej przez J.A.Hartigana można ująć w następujący sposób:
Zadaje się maksymalną liczbę iteracji l oraz liczbę grup k na jakie ma być podzielony analizowany zbiór Ω, przy czym k∈ <2,n-1>, gdzie n jest liczbą jednostek.
Ustala się wyjściową macierz środków ciężkości grup
B = [blj] (l=1,...,k ; j=1,...,m)
gdzie: m - jest liczbą zmiennych oraz przyporządkowuje poszczególne jednostki do grup, dla których ich odległości od środka ciężkości danej grupy jest najmniejsza.
Wyznacza się wartość wyjściowego błędu podziału jednostek pomiędzy k grup
gdzie: dil - dystans pomiędzy i-tą jednostką a najbliższym l-tym środkiem ciężkości:
(i=1,...,n)
Dla pierwszej jednostki określa się zmiany błędu podziału wynikające
z przyporządkowania jej kolejno do wszystkich aktualnie istniejących grup
przy czym:
- liczebność l-tej grupy,
- odległość pierwszej jednostki od środka ciężkości l-tej grupy,
- liczebność grupy zawierającej pierwszy obiekt,
- odległość pierwszego obiektu od najbliższego środka ciężkości.
Jeżeli minimalna wartość tego wyrażenia dla wszystkich l≠l1 jest ujemna, to pierwszą jednostkę przypisuje się do grupy, dla której
.
Operacje opisane w punkcie 4 powtarza się dla każdej następnej jednostki, co kończy pierwszą iterację procedury.
Jeżeli w danej iteracji nie zaobserwowano żadnych przesunięć jednostek z grupy do grupy to postępowanie się kończy. W przeciwnym przypadku rozpoczyna się następną iterację, aż do momentu, w którym ich liczba nie przekroczy zadanej wartości l28.
Metody k-średnich można zmodyfikować zmieniając regułę transpozycji jednostek
z grupy do grupy. Zamiast szukać jednostki, która zapewnia maksymalny spadek błędu podziału można przypisywać je do grupy o najbliższym środku ciężkości, obserwując jako wynikową - wartość błędu podziału.
Schemat ten można ująć w następujące punkty:
Ustala się maksymalną liczbę iteracji i wstępny podział jednostek na k skupisk.
Dla każdej grupy oblicza się środek ciężkości.
Każdą jednostkę przydziela się do grupy, dla której odległość od środka ciężkości grupy jest najmniejsza.
Jeżeli nie zaobserwowano zmian w podziale lub gdy osiągnięto dopuszczalną liczbę iteracji, to postępowanie zostaje zakończone. W przeciwnym przypadku wykonuje się następną iterację obejmującą kroki od 2 do 3.
Inna modyfikacja metody k-średnich polega na zmianie reguły przeliczeń środków ciężkości grup. Zamiast wykonywania tej operacji po każdej dokonanej transpozycji można ją realizować dopiero po zakończeniu poszczególnych iteracji procedury, co prowadzi do znacznego skrócenia czasu obliczeń.
Taksonomia wrocławska
Metodę taksonomii wrocławskiej opracowała na początku lat pięćdziesiątych Grupa Zastosowań Państwowego Instytutu Matematycznego we Wrocławiu. W roku 1949 K.Florek opracował metodę łączenia w skupiska zbioru punktów na płaszczyźnie. Jego koncepcję połączono następnie z ideami J. Czekanowskiego, przy czym J. Perkal skonstruował dendryt wrocławski, S.Zubrzycki i J.Łukaszewicz byli twórcami podziału wrocławskiego, zaś H.Steinhaus - dendrytu dualnego. Badania całego zespołu zostały opublikowane w „Przeglądzie Antropologicznym”. Szereg przykładów praktycznego zastosowania taksonomii wrocławskiej w badaniach ekonomicznych znaleźć można
w pracach m.in. Z.Hellwiga, J.Hozera. Sposób konstrukcji dendrytu wrocławskiego przebiega w dwóch etapach.
W każdym wierszu macierzy odległości szuka się elementu najmniejszego, wskazującego parę jednostek najbardziej podobnych. Otrzymane połączenia przedstawia się w postaci grafu niezorientowanego, w którym długości krawędzi są proporcjonalne do odległości pomiędzy jednostkami przyporządkowanymi poszczególnym krawędziom.
Sprawdza się, czy otrzymany graf jest spójny. Jeżeli nie, to poszczególne jego składowe spójności łączy się ze sobą w miejscu wyznaczonym przez minimalną odległość pomiędzy jednostkami należącymi do łączonych składowych29.
Cechą taksonomii wrocławskiej jest fakt uwzględnienia w trakcie konstrukcji dendrytu wyłącznie najbardziej podobnych jednostek oraz abstrahowanie od pozostałych możliwych połączeń. Powoduje to, że w grupy mogą się łączyć jednostki wskazujące małe podobieństwo między sobą, jeżeli tylko w łączonych grupach wystąpi jedna para podobnych jednostek.
2.3.2. Graficzna prezentacja danych wielowymiarowych
Krańcowym przypadkiem redukcji wymiarów klasyfikacji jest liniowe lub przestrzenne odwzorowanie punktów wielowymiarowych, pozwalające na graficzną prezentację struktury analizowanego zbioru jednostek. Celem procedur redukcji wymiarów przestrzeni jest określenie elementów macierzy przekształcenia jakieś macierzy w taki sposób, aby zapewnić wystarczająco dużą dobroć odwzorowania. Jako kryterium poprawności transformacji można stosować dowolną miarę podobieństwa między dystansami punktów w zredukowanej przestrzeni dwuwymiarowej
a dystansami odpowiadających im jednostek w przestrzeni m-wymiarowej dij.
Metoda Gowera i metoda Gabriela
Punktem wyjścia w tej metodzie jest macierz podobieństw C=[cij] (i,j=1,...,n), między jednostkami opisanymi m-elementowym zbiorem cech pierwotnych. Macierz
C transformuje się w macierz B korzystając ze wzoru30:
Następnie wyznacza się dwie największe wartości własne macierzy B :
oraz
i odpowiadające im wektory własne y1 , y2, które są realizacjami szukanych transformat.
Metoda Gabiela opiera się na aproksymacji macierzy obserwacji wielowymiarowych xnm macierzą
rzędu 2, przeprowadzonej według wzoru:
x
gdzie:
,
to dwie największe wartości własne macierzy S`=nS,
S - macierz kowariancji,
n - liczba obserwacji,
q1 , q2 to odpowiadające im wektory własne. Symbole p1,p2 oznaczają n-elementowe wektory o składowych:
gdzie
to macierz nxm o jednakowych wierszach zawierających średnie arytmetyczne poszczególnych zmiennych. Transformaty zmiennych dane są następującymi wzorami:
Nomogramy
Nomograf jest stosunkowo rzadko wykorzystywaną metodą prezentacji danych wielowymiarowych. Są to konstrukcje geometryczne pozwalające zastąpić obliczenia numeryczne przybliżonym odczytem wartości dowolnej zmiennej, gdy znane są wartości wszystkich pozostałych zmiennych31. Nomografy budowane są dla funkcji dwóch lub trzech zmiennych, rzadziej dla funkcji o większej liczbie zmiennych. W związku
z rozwojem maszyn cyfrowych nomogramy jako narzędzie przybliżonych obliczeń straciły na swoim znaczeniu, są one jednak niekiedy stosowane do analiz porównawczych obiektów w przestrzeni wielu zmiennych, z których część ma charakter zmiennych absolutnych a część zmiennych wskaźnikowych.
Rysunek 5. Przykładowy nomogram (źródło: K. Jajuga „Statystyczna analiza wielowymiarowa”, PWN, Warszawa 1993).
Ekonografy Taylora
Są to czworoboczne diagramy skonstruowane w ten sposób, że na czterech prostopadłych do siebie osiach odkładane są wartości czterech powiązanych ze sobą cech. Końce tych osi łączy się odcinkami, a następnie pokrywa się odrębnymi deseniami pola wyznaczone przez symetralne kątów między osiami wykresu32. Powierzchnia pól służy do identyfikacji cech, natomiast oceną ich wielkości jest długość osi. Rozwinięciem koncepcji ekongrafu są typogramy Uhorczaka, które umożliwiają prezentację i analizę dowolnej liczby cech: 3,4,5,6 i więcej, odkładanych na rozchodzących się promieniście osiach. Ponadto typogramy przeznaczone są wyłącznie do cech mających postać wskaźników struktury. Wyróżnia się dwa rodzaje typogramów: strukturalne, gdy suma odległości osi daje 100 %, oraz wagowe, gdy na osiach odkładane są udziały procentowe danego obiektu w stosunku do całego ich zbioru.
Rysunek 6. Przykładowy ekonograf (źródło: K. Jajuga „Statystyczna analiza wielowymiarowa”, PWN, Warszawa 1993).
2.4. Wykorzystanie VaR w zarządzaniu ryzykiem
W ostatnich latach obserwuje się znaczny wzrost ryzyka na rynkach finansowych. Spowodowało to coraz większe zainteresowanie ryzykiem i metodami jego zarządzania. Banki i inne instytucje finansowe zaczęły tworzyć komórki zarządzania ryzykiem,
w których zatrudniani są specjaliści od ryzyka. Ich zadaniem jest identyfikacja
i badanie zagrożeń. Z ryzykiem rynkowym spotkał się każdy inwestor i każdy powinien się z nim liczyć. Jednakże oprócz zdawania sobie sprawy z istniejącego ryzyka bardzo ważne jest jego mierzenie. Jest to na tyle istotne, że mierząc ryzyko, możemy to ryzyko podejmować świadomie i oczywiście możemy odpowiednio tym ryzykiem zarządzać.
Value at Risk (VaR) jest miarą ryzyka rynkowego zdobywającą coraz większe uznanie i popularność w świecie, można więc sądzić, że stanie się ona równie popularna w Polsce. Swoją sławę zawdzięcza głównie temu, że jest to miara bardzo łatwa do interpretacji i łatwa do przedstawiania kierownictwu wyższego szczebla, które niekoniecznie musi zdawać sobie sprawę co to jest ryzyko rynkowe i jak się je mierzy. Przedstawienie ryzyka w postaci jednej liczby ułatwia też prezentację ryzyka rynkowego zarówno właścicielom spółki, jak i organom, lub instytucjom nadzorującym. Kolejną zaletą tej miary jest to, że pozwala na odzwierciedlenie wielu różnych rodzajów ryzyka w postaci jednej wielkości.
Ryzyko rynkowe można podzielić na:
„ryzyko stopy procentowej (interest rate risk),
ryzyko kursu walutowego (exchange rate risk),
ryzyko cen akcji (stock price risk),
ryzyko cen towarów (commodity price risk)”33.
Value at Risk jest tłumaczone na język polski jako wartość narażona na ryzyko. Rzeczywiście Value at Risk to oznacza i tak należy je tłumaczyć, jednak bardziej popularna jest angielska nazwa. „VaR mierzy największą oczekiwaną stratę, jaką dana instytucja może ponieść w danym okresie, przy założeniu normalnych warunków rynkowych i przy danym poziomie ufności.”34.
Jeżeli więc okres inwestycji wynosi miesiąc, wartość obecna tej inwestycji 1000 zł, poziom tolerancji 5% , a VaR 100 zł, to prawdopodobieństwo tego, że strata z tej inwestycji w ciągu najbliższego miesiąca osiągnie, lub przekroczy 100 wynosi 5%. Czyli wartość naszego portfela w przyszłym miesiącu na 95% nie będzie niższa niż 900 zł.
Punktem wyjścia do kontroli ryzyka musi być miara określająca wielkość rozpoznanego ryzyka. Najnowsze teorie zarządzania ryzykiem wskazują na miarę statystyczną, jaką jest „wartość narażona na ryzyko” lub „wartość zagrożona” (Value at Risk, VaR). „Aktualnie metodologia VaR używana jest przez większość instytucji finansowych na świecie do pomiaru i zarządzania ryzykiem rynkowym”.35 Jest to miara statystyczna, która doczekała się obszernej literatury dotyczącej metod jej obliczania. W 1994 roku bank J.P. Morgan opublikował swoją metodologię kalkulacji wskaźnika VaR. Specjaliści z banku J.P. Morgan stworzyli cały system kontroli ryzyka rynkowego, zwany RiskMetricsTM.
2.4.1. Metody obliczania VaR
Metoda kowariancji
Metoda kowariancji stosowana do liczenia VaR zakłada, że zmiany cen mają podobny rozkład do rozkładu normalnego. „W podejściu tym zakłada się, że rozkład stopy zwrotu instrumentu jest rozkładem normalnym (w odniesieniu do portfela instrumentów, oznacza to przyjęcie założenia o wielowymiarowej normalności rozkładu stóp zwrotu składników portfela)”36 Założenie takie nie jest prawdziwe dla opcji
i innych produktów o skomplikowanej strukturze z wbudowaną opcją. Dla tych instrumentów zalecane są metody symulacji Monte Carlo lub symulacji historycznej. Zaletą metody kowariancji jest łatwość budowania macierzy VaR dla poszczególnych pozycji oraz macierzy korelacji w przypadku portfela nawet o wielu aktywach. Jest to najprostsza i najbardziej popularna metoda wykorzystywana przez menadżerów zarządzających ryzykiem. Opiera się na użyciu informacji dotyczących zmienności
i korelacji.
Najczęściej stosowanym rozkładem jest rozkład normalny, który jest całkowicie opisany tylko przez dwa parametry, średnią (μ) i odchylenie standardowe (δ).
W takim wypadku wartość VaR wyznacza się z poniższej zależności:
gdzie:
W0 - wartość początkowa inwestycji
- wartość oczekiwana stóp zwrotu
c - wartość kwantyla standaryzowanego rozkładu normalnego dla danego poziomu tolerancji
- wartość odchylenia standardowego stopy zwrotu.
Symulacja historyczna
Podejście historyczne jest najprostszą i bardzo intuicyjną metodą szacowania Value at Risk. Wyznacza się ją na podstawie historycznych stóp zwrotu danego instrumentu (lub portfela) i empirycznego ich rozkładu. Ważne jest to, aby stopy zwrotu były obliczane na okres na jaki jest obliczany VaR (jeżeli więc horyzont inwestycyjny jest jednodniowy to stopy zwrotu powinny być wyznaczane codziennie). Z uzyskanego rozkładu odczytuje się odpowiedni kwantyl odpowiadający przyjętemu poziomowi tolerancji (np. jeżeli został przyjęty 5% poziom tolerancji to wybiera się 5% skrajnych obserwacji). Odczytaną stopę zwrotu mnożymy przez obecną wartość inwestycji i otrzymujemy w ten sposób bezpośrednio Value at Risk.
Stosując model historyczny należy zebrać dużą serię danych. Czym większa ich liczba, tym większa dokładność, jednak dane bardzo odległe są często nieaktualne
i nie tak samo ważne jak dane mniej odległe. W szybko zmieniającym się otoczeniu stosowanie równych wag dla wszystkich stóp zwrotu może nie być adekwatne, dlatego zastosowanie wag malejących w sposób wykładniczy może poprawić wynik estymacji. Czasami również zebranie wystarczającej liczby danych jest niemożliwe i stosowanie tej metody jest wtedy ograniczone.
Ten sposób obliczania Value at Risk jest wrażliwy na ekstremalne stopy zwrotu uwzględniane w rozkładzie, w wyniku czego wielkość VaR zmienia się w sposób "schodkowy" i wielkość ryzyka jest często niedoszacowana bądź przeszacowana.
Dużą zaletą podejścia historycznego jest brak założeń o teoretycznym rozkładzie stóp zwrotu, jak ma to miejsce w innych metodach szacowania VaR. Pozwala to na uwzględnienie "grubych ogonów" rozkładów, skośności i skupiania danych wokół średniej. Nie wymaga też obliczania wariancji, kowariancji, ani innych parametrów więc jest pozbawiona błędów ich estymacji. Wszystkie te informacje są bowiem zawarte w rozkładzie historycznym.
Model historyczny Value at Risk zakłada że kształtowanie się ryzyka
w przyszłości jest zdeterminowane historycznym jego zachowaniem. Wątpliwa jest jednak sprawdzalność powyższych założeń w praktyce. Niemniej ta metoda jest stosunkowo szybka i łatwa w implementacji. „Klasyczną metodę historyczną, jak
i metodę symulacji Monte Carlo, stosuje się przede wszystkim do portfeli złożonych
z opcji. Jest ona najszybszą z metod do obliczenia VaR”37.
Symulacja Monte Carlo
Symulacja Monte Carlo polega na losowym generowaniu przez komputer dużej liczby skorelowanych zmian cen aktywów. Otrzymane w ten sposób tysiące zdarzeń wprowadza się do portfela. W ten sposób otrzymujemy sztuczny zestaw zmian portfela i dokładnie tak jak w metodzie symulacji historycznej, odczytujemy wielkość VaR odpowiadającą zadanemu poziomowi ufności. „W tym podejściu przyjmuje się pewien hipotetyczny model, który (zdaniem użytkownika) najlepiej opisuje mechanizm kształtowania się cen”38. Zaletą symulacji Monte Carlo jest to, że pozwala na analizę opcji i ma zastosowanie do instrumentów, których historia rzeczywistych cen jest niewystarczająca do szacowania VaR metodą symulacji historycznej. Można połączyć obie metody: symulacji historycznej i symulacji Monte Carlo w celu odtwarzania brakujących szeregów.
Symulacja Monte Carlo jest modelem opierającym się na tych samych założeniach zachowania rynku, jak metoda kowariancji. Generuje ona ceny na podstawie rozkładu normalnego, dlatego należy przed wdrożeniem tego modelu sprawdzić, czy to założenie jest słuszne dla aktywów wchodzących w skład portfela.
Etapy procesu tworzenia modelu Monte Carlo dla portfela przedstawione są na rysunku.
Rysunek 8.Etapy symulacji Monte Carlo dla VaR (źródło: P. Best „Wartość narażona na ryzyko : Obliczanie i wdrażanie modelu VaR”, Oficyna Ekonomiczna, Kraków 2000).
Po zbudowaniu macierzy korelacji obliczamy z niej wartości i wektory własne. „Wektory własne i wartości własne opisują jak zmiany cen grupy czynników ryzyka przesuwają się w stosunku do siebie. Wektory własne to tzw. główne składowe wyznaczane z macierzy korelacji”39. Aby obliczyć wektory własne i wartości własne macierzy korelacji możemy się posłużyć programami komputerowymi, gdyż wyliczanie ich z macierzy dla dużej liczby czynników ryzyka jest dość pracochłonne.
Następnym krokiem jest wygenerowanie skorelowanych losowych zmian cen. W tym celu generujemy za pomocą programu komputerowego (np. arkusz kalkulacyjny Excel) zestaw liczb losowych w przedziale (0,1). „Następnie zestaw liczb losowych jest konwertowany w rozkład normalny poprzez zastosowanie funkcji odwrotnej dystrybuanty dla każdej realizacji”40.
Gdy symulacja Monte Carlo dotyczy jednego instrumentu, mnożymy „znormalizowane” liczby losowe przez odchylenie standardowe danego instrumentu. Jednak w przypadku tworzenia szeregów cen dla wielu aktywów trzeba uwzględnić współczynniki korelacji między nimi, posługując się następującym wzorem:
gdzie:
xk - skorelowana losowa zmiana ceny dla instrumentu k o rozkładzie normalnym
i współczynniku zmienności dla tego instrumentu,
- pierwiastek kwadratowy wartości własnej dla i-tego instrumentu,
- zmiana losowa ceny k-tego instrumentu z szeregu o rozkładzie normalnym,
vki - k-ty element wektora własnego dla i-tego instrumentu,
- współczynnik zmienności k-tego instrumentu.
Następnym etapem jest wprowadzenie do portfela wygenerowanych zdarzeń
i odczytanie straty dla odpowiedniego percentyla z szeregu zmian wartości portfela. VaR obliczony metodą symulacji Monte Carlo jest zazwyczaj niższy niż wynikający
z symulacji historycznej, co jest uzasadnione założeniem o „normalności” rozkładu cen wykorzystanym w symulacji Monte Carlo.
Mankamentem tej metody jest duże uwarunkowanie wyników od przyjętego modelu cen, w tym przypadku rozkładu normalnego. „Zaletą symulacji Monte Carlo jest jej duża dokładność, tym większa, im więcej obserwacji jest wygenerowanych”41. Dlatego nie można opierać się na jednej próbie symulacji, lecz należy obliczyć średnią z co najmniej kilkunastu przebiegów z wykorzystaniem co najmniej tysiąca zmian cen.
2.4.2. Zarządzanie ryzykiem przy wykorzystaniu VaR
VaR jest najczęściej wykorzystywaną miarą ryzyka finansowego w największych instytucjach finansowych na całym świecie. Zarządzanie ryzykiem polega na identyfikacji, pomiarze i kontroli wszystkich rodzajów ryzyka. „Celem zarządzania ryzykiem jest zapewnienie, by działalność handlowa danej instytucji, zajmowanie pozycji, sprzedaż, akcja kredytowa i działalność operacyjna nie wystawiały instytucji na ryzyko nadmiernych strat”42 Efektywne zarządzanie ryzykiem wymaga:
całościowej strategii identyfikacji i pomiaru ryzyka
szczegółowych przepisów i zasad podejmowania ryzyka,
systemów informatycznych służących do zarządzania ryzykiem,
stworzenia niezależnych komórek odpowiedzialnych za ocenę ryzyka
i zarządzania nim.
Transakcje dokonywane przez jednostki handlowe są kontrolowane przez menadżerów ryzyka. Sprawdzają oni, czy podejmowane ryzyko przez jednostki operacyjne nie narusza odgórnych ustaleń dotyczących skłonności do ponoszenia ryzyka. Przeciwdziała to powiększaniu stopy zwrotu przez jednostki handlowe za wszelką cenę oraz równoważy ryzyko i dochód.
Strata, jakiej można się codziennie spodziewać, jest określona przez wielkość dziennego VaR, wyliczonego przy zadanym poziomie ufności. Jeżeli wartość VaR przekracza granice skłonności do ponoszenia ryzyka, należy wprowadzić limity na ryzyko dla poszczególnych jednostek prowadzących operacje handlowe.
Menadżerowie zarządzający ryzykiem, po zdefiniowaniu skłonności do ryzyka, ustalają limity ryzyka. Limity są ustalane tak, aby chronić przed stratami przekraczającymi określoną wcześniej skłonność do ryzyka. Zadaniem menadżera zarządzającego ryzykiem jest stworzenie całego systemu przyznawania limitów
w sposób racjonalny i kontrolowanie, czy ryzyko mieści się w ramach ustalonych granic. Cały system finansowy składa się z powiązanych ze sobą uczestników tego rynku, między którymi dochodzi do transakcji kupna i sprzedaży instrumentów finansowych. „Postępujący proces globalizacji współczesnych rynków finansowych sprawia, że zaczynają one funkcjonować niemal jak jedna całość”.43 Niesie to ze sobą pozytywne skutki dla gospodarki światowej, ale może też rodzić pewne zagrożenia dla bezpieczeństwa sektora finansowego. „Globalizacja rynków finansowych oznacza również zwiększone ryzyko występujące na tych rynkach. Występuje ryzyko systemowe (systematic risk), wynikające z faktu, że kryzys w jednej części światowego rynku finansowego może powodować kryzysy w innych regionach”44. Może to się dziać na zasadzie efektu domina, kiedy bank z silną pozycją na rynku doprowadza do katastrofy w całym systemie finansowym. Miało to miejsce w 1929 roku, kiedy doszło do załamania na Wall Street. W takiej sytuacji globalnego rynku finansowego uzasadniona jest działalność organów nadzoru bankowego na rzecz bezpieczeństwa w sektorze finansowym.
Celem wprowadzenia wymagań jakościowych dotyczących zarządzania ryzykiem było zastąpienie subiektywnego nadzoru jasno określonymi regulacjami. Odnoszą się one do wewnętrznych funkcji zarządzania ryzykiem. Od spełnienia tych wymagań zależy, czy wewnętrzny model VaR do kalkulacji wymaganego kapitału będzie zatwierdzony przez odpowiednie organy nadzoru. Na wymagania jakościowe składają się następujące warunki:
„władza nadzorcza jest przekonana co do tego, że system zarządzania ryzykiem jest solidny co do koncepcji i jest wdrażany w sposób spójny”,45
zapewniona jest działalność niezależnej komórki zarządzania ryzykiem,
wystarczająca liczba personelu wykwalifikowanego w dziedzinie kontroli ryzyka,
stworzenie formalnych procedur i zasad działania niezależnej komórki zarządzania ryzykiem,
regularna kontrola działalności komórki zarządzania ryzykiem przez jednostkę kontroli wewnętrznej,
modele VaR posiadają udokumentowany rejestr racjonalnej dokładności
w mierzeniu ryzyka,
przeprowadzanie regularnych testów wstecznych (backtesting) modeli VaR, czyli „porównania ex post pomiaru ryzyka dokonanego przez model
z rzeczywistymi dziennymi zmianami wartości portfela w dłuższych okresach czasu (actual P&L), jak również hipotetycznymi zmianami opartymi na pozycjach statycznych (hypothetical P&L)”,46
efektywny system przyznawania limitów VaR,
przeprowadzanie testów napięć w ramach zarządzania ryzykiem,
aktywny udział zarządu i wyższego kierownictwa w procesie zarządzania ryzykiem.
ROZDZIAŁ 3. OPIS METODY WARDA ORAZ DZIAŁANIA PROGRAMU
W programie wykorzystano metodę Warda. Jest to metoda należąca do metod hierarchicznych aglomeracyjnych. Klasyfikowane spółki to:
Tele - Fonika Kable SA
Amica Wronki S.A.
Apator S.A.
Fabryka Kotłów RAFAKO S.A.
POLAR S.A.
Zakłady Elektrod Węglowych S.A.
Przedsiębiorstwo Eksportu i Importu Kopex S.A.
Relpol S.A.
Zakłady Remontowe Energetyki Warszawa S.A.
FAMOT-PLESZEW SA
Zakład Produkcji Urządzeń Elektrycznych B. Wypychewicz S.A.
Kujawska Fabryka Manometrów KFM S.A.
NKT Cables S.A.
Przedsiębiorstwo Modernizacji Urządzeń Energetycznych REMAK S.A.
Przedsiębiorstwo Hydrauliki Siłowej HYDROTOR S.A.
Fabryka Elementów Hydrauliki PONAR-WADOWICE S.A.
Warszawska Fabryka Pomp i Armatury S.A.
Fabryka Sprzętu i Narzędzi Górniczych FASING S.A.
Zakład Elektroniki Górniczej ZEG S.A.
Zakłady Automatyki POLNA S.A.
TONSIL SA
3.1. Metoda Warda
W tej metodzie duże znaczenie ma zmienność wewnątrzgrupowa. Odległość między grupami jest definiowana jako moduł różnicy między sumami kwadratów odległości punktów od środków grup, do których należą. Wadą tej metody jest skłonność do tworzenia równomiernego drzewka połączeń, co może sugerować istnienie struktury równolicznych podzbiorów.
Wzór dla wyznaczania odległości podczas łączenia skupień wygląda następująco:
Wartości parametrów ap ,aq ,b, c są przedstawione w tabeli:
TABLICA 2
Parametry charakteryzujące hierarchiczną metodę grupowania Warda.
Metoda |
ap |
aq |
b |
c |
Warda |
|
|
|
0 |
Rysunek 9. Odległości między grupowe metod hierarchicznych (źródło: W. Ostasiewicz „Statystyczne metody analizy danych”, Wrocław 1998).
3.2. OPIS DZIAŁANIA PROGRAMU
Program wykonano w C++ Builder 5.0. Program składa się z:
klasyfikacja - plik wykonywalny,
plików o rozszerzeniu *.cpp w których zawarty jest kod programu.
Program służy do klasyfikacji obiektów ze względu na ustalone cechy. Program umożliwia klasyfikację metodą średniej grupowej lub Warda dowolnych obiektów ze względu na dowolne cechy. Użytkownik może wprowadzić dowolną liczbę obiektów,
a także ze względu na jakie i ile cech.
Otwierając program jesteśmy w menu głównym. Możemy tutaj wczytać dane
z pliku albo wprowadzić własne dane.
Rysunek 11 . Menu główne programu (źródło: opracowanie własne).
Jeżeli chcemy wczytać dane z pliku musimy mieć plik zawierający takie dane jak: nazwy obiektów, nazwy cech oraz wartości tych cech dla poszczególnych obiektów. Wybierając „Wprowadź” otwiera nam się okno gdzie podajemy liczbę obiektów które chcemy klasyfikować oraz liczbę cech.
Rysunek 12 .Okno nowego projektu. (źródło: opracowanie własne).
Po wpisaniu liczby obiektów i liczby cech otworzy nam się okno „Nazwy cech”. Podajemy tutaj nazwy cech które wykorzystujemy do klasyfikacji obiektów.
Rysunek 13 . Okno „Nazwy cech” (źródło: opracowanie własne).
Następnie pokaże się nam okienko „Wprowadzania danych”. Wprowadzany tutaj nazwy obiektów a także wartości cech określone dla każdego obiektu.
Rysunek 14 . Przykład wprowadzania danych. (źródło: opracowanie własne).
Po wprowadzeniu danych otwiera nam się nowe okno z podsumowaniem wprowadzonych danych. Następnie wybieramy zakładkę „Operacje” i przycisk „Klasyfikacja metodą Warda” . Wyświetla nam się okno, w którym wybieramy metodę klasyfikacji a także czy chcemy normalizować dane, ile ma być iteracji.
Rysunek 15. Wybór metody klasyfikacji. (źródło: opracowanie własne).
Po wyborze metody klasyfikacji i liczby iteracji wyświetli nam się okno
z wynikami, a także jakie spółki należą do jakiej klasy.
Rysunek 16 . Przykładowe okno końcowe z wynikami. (źródło: opracowanie własne).
ROZDZIAŁ 4. KLASYFIKACJA SPÓŁEK PRZEMYSŁU ELEKTROMASZYNOWEGO NOTOWANYCH NA GIEŁDZIE
Termin klasyfikacja ma trzy znaczenia. W pierwszym znaczeniu oznacza czynność podziału zbioru obiektów na podzbiory według ustalonego kryterium. Drugie - efekt czynności podziału zbioru, którym są grupy obiektów podobnych. Trzecie znaczenie tego terminu występuje w statystyce i oznacza ono klasyfikację obserwacji, tzn. decyzję do której klasy ze zbioru zadanych zaliczyć obserwację1. Dla potrzeb praktycznych klasyfikacja powinna odznaczać się dodatkowo następującymi właściwościami:
obiekty znajdujące się w tej samej grupie powinny być do siebie jak najbardziej podobne,
obiekty znajdujące się w różnych grupach powinny być do siebie jak najmniej podobne.
Właściwości te oznaczają, że w wyniku klasyfikacji badanych jednostek uzyskuje się takie grupy typologiczne, które są bardziej jednorodne ze względu na wartości opisujących je cech diagnostycznych niż zbiór wyjściowy niepodzielony. Wyodrębnienie grup typologicznych obiektów wielocechowych o postulowanych właściwościach nie jest możliwe bez zastosowania takich metod numerycznych, jakimi są metody taksonomiczne.
Wyjściowym etapem klasyfikacji obiektów społeczno - gospodarczych przy użyciu metod taksonomicznych jest wstępna analiza badanego systemu. W wyniku tej analizy otrzymuje się:
podstawowe cele badania,
obiekty podlegające klasyfikacji,
jednostkę czasu, dla której będzie prowadzone badanie , a w przypadku analizy dynamicznej - rozpiętość przedziału czasu objętego badaniem taksonomicznym3.
W pracy przedstawiono przykładową klasyfikację spółek przemysłu elektromaszynowego notowanych na Giełdzie Papierów Wartościowych w Warszawie. Klasyfikacja pod względem ryzyka spółek notowanych na GPW ma umożliwiać użytkownikowi ocenę dokonania wyboru spółek, w które warto zainwestować ze względu na niższy poziom niepowodzenia, które towarzyszy tym działaniom. W niniejszej pracy klasyfikacją objętych zostało 19 spółek przemysłu elektromaszynowego, przedstawionych w tablicy 3.
Tablica 3
Opis spółek
Lp. |
Nazwa |
Branża |
Pakiet kontrolny |
Liczba akcji w obrocie |
Od jak dawna na GPW |
|
|
|
|
|
|
1 |
2 |
3 |
4 |
5 |
6 |
1. |
Tele - Fonika Kable SA |
produkcja kabli i przewodów |
TELE-FONIKA SA |
119571663 |
01.04.1993 |
2. |
Amica Wronki SA |
produkcja elektrycznego sprzętu gospodarstwa domowego |
Rutkowski Jacek |
8737500 |
01.03.1993 |
3. |
Apator SA |
produkcja aparatury i urządzeń elektrotechnicznych i elektronicznych |
Apator SA |
2500050 |
14.01.1993 |
4. |
Fabryka Kotłów RAFAKO SA |
produkcja generatorów pary, cystern, pojemników i zbiorników metalowych; |
Elektrim SA |
17400000 |
12.02.1993 |
5. |
POLAR SA |
produkcja elektrycznego sprzętu gospodarstwa domowego |
Whirlpool Corporation |
14300000 |
15.12.1995 |
6. |
Zakłady Elektrod Węglowych SA |
produkcja maszyn i aparatury elektrycznej |
SGL Carbon AG |
2244680 |
29.02.1992 |
7. |
Przedsiębiorstwo Eksportu i Importu Kopex SA |
sprzedaż hurtowa maszyn i urządzeń dla przemysłu, handlu i transportu wodnego |
Skarb Państwa |
1989270 |
03.01.1994 |
8. |
Relpol SA |
produkcja sprzętu do sterowania procesami przemysłowymi |
OFE Skarbiec-Emerytura |
855105 |
29.03.1991 |
9. |
Zakłady Remontowe Energetyki Warszawa SA |
produkcja i remontowanie silników, kotłów i turbin |
Polimex-Cekop SA |
868120 |
30.04.1992 |
10. |
FAMOT-PLESZEW SA |
produkcja narzędzi mechanicznych |
Gildmeister AG |
5454320 |
11.10.1993 |
11. |
TONSIL SA |
produkcja odbiorników telewizyjnych i radiowych oraz związanego z nimi wyposażenia |
Tohoku PIONEER Corporation |
3893750 |
08.10.1990 |
12. |
Kujawska Fabryka Manometrów KFM SA |
produkcja instrumentów i przyrządów pomiarowych, kontrolnych i badawczych |
Riverside Central Europe Fund LLC |
1800000 |
01.08.1994 |
13. |
NKT Cables SA |
produkcja kabli i przewodów |
NKT Cables A/S |
3000000 |
1998.09.30 |
14. |
Przedsiębiorstwo Modernizacji Urządzeń Energetycznych REMAK SA |
produkcja generatorów pary |
Mostostal Warszawa SA |
3000000 |
01.12.1993 |
15. |
Przedsiębiorstwo Hydrauliki Siłowej HYDROTOR SA |
produkcja maszyn dla rolnictwa i leśnictwa |
Hydrotor SA |
2504300 |
30.12.1991 |
16. |
Fabryka Elementów Hydrauliki PONAR-WADOWICE SA |
produkcja silników i pomp hydraulicznych, produkcja zaworów ciśnieniowych; 29.13 |
Fludra Mirosław |
866500 |
|
17. |
Warszawska Fabryka Pomp i Armatury SA |
produkcja pomp i sprężarek |
POWEN SA |
2444231 |
02.01.1995 |
18. |
Zakład Elektroniki Górniczej ZEG SA |
produkcja sprzętu do sterowania procesami przemysłowymi |
Mostostal-Export SA |
1135040 |
01.02.1992 |
19. |
Zakłady Automatyki POLNA SA |
produkcja sprzętu do sterowania procesami przemysłowymi |
Zachodni NFI SA |
832422 |
31.01.1992 |
Następny etap polega na doborze wskaźników mających opisywać klasyfikowane obiekty, czyli tzw. cechy diagnostyczne. Spółki przemysłu elektromaszynowego zostały klasyfikowane ze względu na dwie cechy diagnostyczne określające ryzyko. Należą do nich:
średnia stopa zwrotu - określa ile średnio się zyskuje lub traci w ciągu określonego czasu,
ryzyko zwane dalej odchyleniem standardowym stopy zwrotu akcji - wskazuje o ile na plus (minus) odchylają się przeciętne możliwe stopy zwrotu od oczekiwanej stopy zwrotu. Im wyższe odchylenie standardowe, tym większe ryzyko związane z danym papierem wartościowym.
W pracy korzystano z danych zamieszczonych w serwisie giełdowym na http://gielda.onet.pl/supertabela.html. Są to dane wyliczone przez ekspertów z dziedziny obrotu giełdowego. Dane te przedstawia tablica 4.
Tablica 4
Wartości cech diagnostycznych spółek przemysłu elektromaszynowego notowanych na GPW w okresie ostatnich 30 tygodni
l.p. |
|||
1. |
0.12 |
4.69 |
|
2. |
-1.42 |
6.34 |
|
3. |
3.38 |
4.15 |
|
4. |
0.60 |
4.14 |
|
5. |
-1.13 |
17.15 |
|
6. |
1.60 |
10.32 |
|
7. |
5.73 |
8.47 |
|
8. |
1.85 |
9.24 |
|
9. |
1.51 |
5.42 |
|
10. |
0.07 |
7.64 |
|
11. |
1.17 |
11.19 |
|
12. |
-0.33 |
4.23 |
|
13. |
-0.85 |
4.96 |
|
14. |
3.89 |
5.75 |
|
15. |
1.69 |
4.12 |
|
16. |
-0.94 |
10.14 |
|
17. |
-0.32 |
11.44 |
|
18. |
0.36 |
5.93 |
|
19. |
1.17 |
4.14 |
Następnie dane te poddaje się standaryzacji, czyli doprowadzeniu do porównywalności. Standaryzacja polega na przekształceniu macierzy obserwacji X:
X
w macierz standaryzowanych obserwacji Z:
Z
gdzie:
(i=1,2,...,n, j=1,2,...,m) ,
,
.
Następnie przeprowadzona została klasyfikacja za pomocą metody Warda. Algorytm tej metody opisany został w rozdziale 3.
Przy wykorzystaniu danych ujętych w tablicy 4, program klasyfikuje spółki w następujący sposób na 3 klasy:
|
Ostatnie 30 tygodni |
||
|
Średnia stopa zwrotu |
Ryzyko |
|
Klasa I 1.REMAK SA, 2.HYDROTOR SA 3.ZREW S.A. 4.ZEG SA 5.WFPiA SA 6.TONSIL SA 7.POLNA SA 8.Tele-Fonika Kable SA 9.FAMOT-PLESZEW SA 10.KFM S.A. 11.NKT Cables SA 12.PONAR-WADOWICE S.A. |
3.94 1,86 1,11 0,82 0,66 0,51 0,19 0,12 0,07
-0,20 -0,30 -1,10 |
4,81 4,16 5,04 5,71 8,79 10,44 4,76 4,69 7,64
4,54 5,74 9,64
|
|
Klasa II 1. Amica Wronki S.A. |
-1,25 |
7,15 |
|
Klasa III 1.Kopex SA 2.ZEW SA 3.Apator SA 4.Relpol SA 5.Rafako sa 6.POLAR SA, |
6,72 3,67 2,25 2,18 0,61 -1,13 |
10,52 10,66 4,96 5,01 3,26 17,15 |
Procedura grupowania ma na celu połączenie w klasy najbardziej podobnych do siebie spółek. Spółki zaklasyfikowane do danej klasy cechuje zbliżony do siebie poziom ryzyka obliczony ze względu na dwie wybrane cechy. Po zastosowaniu metody Warda wydzielono trzy skupienia.
W celu analizy dokonanej przez program klasyfikacji, przeprowadzono próbę porównania danych użytych do klasyfikacji w poszczególnych grupach. W tablicy 4 poniżej przedstawione zostały dane według następującego klucza: w każdej z klas przedstawiono najpierw zakres zmian stopy zwrotu (kolumna 2) i zakres zmian ryzyka (3), a następnie przedstawiono średnie obu tych wartości (4 i 5).
Tablica 5
Ostatnie 30 tygodni
Klasa |
Stopa |
Ryzyko |
Średnia stopa |
Średnie ryzyko |
1 |
2 |
3 |
4 |
5 |
I |
-1,10 - 3,94 |
4,16 - 10,44 |
0,64 |
6,33 |
II |
-1,25 |
7,15 |
1,25 |
7,15 |
III |
-1,13 - 6,72 |
3,26 - 17,15 |
2,38 |
8,6 |
Analizując dane w tablicy nr 5 odnajdujemy następujące cechy poszczególnych klas:
Klasa I.
Spółki zaklasyfikowane do tej klasy mają stopę zwrotu, która waha się między wartością -1,10 a 3,94, i ryzyko, którego wartość waha się między wartością 4,16 a 10,44. Więc średnia stopy zwrotu dla całej klasy wynosi 0,63, natomiast średnie ryzyko wynosi 6,33.
Klasa II
Ze względu na to, że w tej klasie znalazła się tylko jedna spółka, wartości bezwzględne i średnie są takie same i wynoszą: stopa zwrotu -1,25 i ryzyko 7,15.
Klasa III
Spółki zaklasyfikowane do tej klasy mają stopę zwrotu, która waha się między wartością -1,13 a 3,94, i ryzyko, którego wartość waha się między wartością 3,26 a 17,15. Więc średnia stopy zwrotu dla całej klasy wynosi 2,38, natomiast średnie ryzyko wynosi 8,6.
Po porównaniu wartości w poszczególnych klasach łatwo dostrzec, że zarówno stopa zwrotu, jak i ryzyko rośnie, z tego wynika, że system przeprowadził klasyfikację rosnącą. Mamy zatem do czynienia z klasyfikacją, która pozwala na zdiagnozowanie opłacalności inwestowania według rosnących wartości charakterystycznych dla danej spółki. I tak w kategorii I znajdują się spółki, których wartość stopy zwrotu i ryzyka jest najmniejsza, a w kategorii III znajdują się spółki, których wartość stopy zwrotu i ryzyka jest największa.
Skoro wiadomo, że wartość stopy zwrotu jest najlepsza wtedy, gdy osiąga najwyższą wartość, a ryzyka najlepsza jest wtedy, gdy osiąga najniższą wartość, zatem najlepsze dla inwestorów będą spółki zawierające się w kategorii II, w tym przypadku jedna, która tak wartość stopy zwrotu, jak i ryzyka ma na poziomie średnim, biorąc pod uwagę wszystkie trzy klasy.
Spółki zawarte w klasie III mają najlepszą średnią stopę zwrotu ale jednocześnie przy największym ryzyku, natomiast w I klasie jest odwrotnie i spółki mają najmniejszą stopę zwrotu ale także najmniejsze ryzyko.
Wydaje się, że podział na trzy klasy jest optymalny, ze względu na to, że w klasie II podaje wartość średnią, a więc najbardziej dogodną dla inwestorów. Zatem nie trzeba się wiele wysilać, by rozstrzygnąć, która ze spółek jest najkorzystniejsza do inwestowania. W toku następnych analiz należałoby przeprowadzić klasyfikację na podstawie danych o ilości akcji w obrocie i średnim kursie akcji, by zorientować się jak inwestorzy wpływają na stan spółki na GPW.
ZAKOŃCZENIE
Giełda jest instytucją finansową, rynkiem na którym towarem nie są dobra czy usługi lecz papiery wartościowe. Wartość tych papierów zależy oczywiście od tradycyjnych czynników czyli popytu i podaży na nie, ale także od wielu innych „zewnętrznych” czynników.
Na cenę akcji wpływ ma kondycja finansowa przedsiębiorstwa, planowane inwestycje, ostatnie posunięcia zarządu, ale także np.: sytuacja na rynku światowym, kataklizmy, czy wręcz pogoda i nastroje społeczne. Należy więc odrzucić „linearny sposób myślenia i starać się patrzeć „z wysoka” na otaczający nas świat i wydarzenia, jeśli chcemy poprawnie przewidzieć tendencję zmian notowań giełdowych.
Przeprowadzona klasyfikacja spółek pod względem ryzyka przy wykorzystaniu programu jest zadawalająca i przebiegła prawidłowo. Program klasyfikuje spółki pod względem ryzyka analizując średnią stopę zwrotu a także towarzyszące temu ryzyko.
Dane zastosowane do klasyfikacji oraz budowy programu, pochodzą z różnych źródeł literatury naukowej, pozanaukowej i internetu, korzystają z dorobku takich dziedzin jak ekonomia, historia, socjologia, psychologia. W pracy zostały wykorzystane już gotowe wartości zamieszczone przez ekspertów giełdowych na stronach serwisu giełdowego.
W programie można wykorzystać nie tylko cechy związane z ryzykiem ale także cechy związane z zyskiem lub jakiekolwiek inne. Klasyfikację można przeprowadzić albo metodą Warda albo metodą średniej grupowej. Są to metody należące do grupy metod hierarchicznych. Różnią się tylko wartościami charakteryzujących hierarchiczne metody grupowania. Połączeniem teorii i praktyki dotyczącej zarządzania ryzykiem jest program, który gromadzi, przetwarza i klasyfikuje olbrzymie zasoby informacji, pomagając w podejmowaniu decyzji w zastępstwie człowieka. Warto tu jednak zaznaczyć, iż owe programy nie są uniwersalne, i nie eliminują ryzyka związanego z grą na giełdzie.
SŁOWNIK RYNKU FINANSOWEGO:
Akcja - tytuł własności reprezentujący część kapitału spółki akcyjnej.
Akcjonariusz - właściciel akcji, który z tego tytułu ma pewne prawa w stosunku do spółki akcyjnej.
Aktuariusz - finansista wyspecjalizowany w badaniu wpływu zmian odsetek na strategie finansowe.
Aktuarialna stopa brutto - efektywne oprocentowanie przed opodatkowaniem uzyskiwane przez właściciela zachowującego obligację aż do jej wykupu.
Amortyzacja - amortyzacja pożyczki obligacyjnej - spłacana część pożyczonego kapitału.
Arbitraż - złożona operacja giełdowa realizowana przez arbitrażystę polegająca na zakupie lub sprzedaży instrumentów finansowych, kiedy różnice między kursami gotówkowymi i terminowymi są nienormalnie duże.
Asymilacja - Połączenie dwóch linii notowań tego samego papieru wartościowego
Awizo wykonania - oficjalny dokument informujący, na jakich warunkach zlecenie zostało wykonane.
Bessa (rynek niedźwiedzia) - długotrwała, silna tendencja spadkowa na rynku.
Cena emisyjna - cena sprzedaży papieru wartościowego podczas jego emisji.
Cena rozliczeniowa - wartość, według której rozliczane są transakcje giełdowe; dla obligacji cena rozliczeniowa równa jest kursowi (w procentach) pomnożonemu przez wartość nominalną (w złotych) i powiększonemu o odsetki (w złotych), dla akcji równa jest kursowi (w złotych).
Certyfikat inwestycyjny - akcja bez prawa głosu stosowana albo w celu podwyższania funduszy własnych przedsiębiorstw publicznych, albo w celu ochrony pierwotnych akcjonariuszy spółki prywatnej.
Cesja blokowa - sprzedaż dużej liczby tytułów tej samej spółki.
Dom maklerski - podmiot posiadający zezwolenie Komisji Papierów Wartościowych
i Giełd między innymi na: oferowanie papierów wartościowych w obrocie pierwotnym, nabywanie i sprzedaż papierów wartościowych na własny lub cudzy rachunek, a także na zarządzanie portfelem papierów wartościowych i doradztwo inwestycyjne dla swoich klientów.
Dywidenda - określona uchwałą walnego zgromadzenie akcjonariuszy spółki część zysku netto spółki, przypadająca do wypłaty na jedną akcję.
Emisja - operacja prowadząca do wykreowania papierów wartościowych w celu zdobycia nowych kapitałów lub w celu restrukturyzacji funduszy własnych.
Emitent - podmiot wystawiający papiery wartościowe we własnym imieniu.
Giełda papierów wartościowych - miejsce wymiany i notowania papierów wartościowych, którego tradycyjny kształt uległ zmianie poprzez umiędzynarodowienie rynków kapitałowych i postęp technik telematycznych.
Gotówkowa (transakcja) - operacja giełdowa rozliczana w dniu jej wynegocjowania.
Hossa (rynek byka) - długotrwała, silna tendencja wzrostowa na rynku, której zwykle towarzyszą wzmożone zakupy akcji.
Indeks giełdowy - miernik zmian cen papierów wartościowych; obejmujący wszystkie papiery wartościowe danego typu lub ich wybraną grupę.
Komisja Papierów Wartościowych i Giełd (KPWiG) - organ administracji państwowej; komisja koncesjonująca działalność na rynku papierów wartościowych, inspirująca
i podejmująca działania zapewniające sprawne funkcjonowanie rynku papierów wartościowych oraz ochronę inwestorów.
Krach - giełda przeżywa krach, gdy jej uczestnicy realizujący kontrakty „in blanco” nie są w stanie sprostać swym zobowiązaniom.
Kurs - powstająca w wyniku konfrontacji popytu i podaży cena instrumentu finansowego proponowanego w danym momencie do sprzedaży lub kupna. Kurs ten jest nazywany kursem podażowym (oferowanym), gdy popyt jest niższy od podaży
i popytowy, gdy podaż jest niższa od popytu. Jest on zwany kursem skorygowanym, kiedy jest on przeliczany w celu oddania zmian dokonanych w kapitale akcyjnym . Kurs kompensacji jest to kurs ustalany przez SBF w celu zabezpieczenia likwidacji miesiąca giełdowego.
Kurs otwarcia - kurs ustalony na podstawie zleceń przyjętych przed otwarciem sesji giełdowej przy odpowiednim zastosowaniu zasad obowiązujących w systemie kursu jednolitego; w przypadku niemożliwości ustalenia kursu otwarcia, za kurs otwarcia przyjmuje się kurs pierwszej transakcji.
Kurs zamknięcia - kurs ostatniej transakcji danym instrumentem finansowym na sesji.
Nominalna (wartość) - wartość wpisana na papierze wartościowym
Notowanie - spółka jest notowana, kiedy jest wpisana na giełdę papierów wartościowych. Procedura notowania obejmuje operacje niezbędne do ustalenia kursu.
Obligacja - papier wartościowy emitowany w serii, w którym emitent stwierdza, że jest dłużnikiem właściciela obligacji (obligatoriusza) i zobowiązuje się wobec niego do spełnienie określonego świadczenia (płacenia obligatoriuszowi określonej sumy pieniędzy - zazwyczaj w określonych przedziałach czasu oraz do wypłacenia pełnej kwoty pożyczki w terminie wykupu); obligacja zamienna daje obligatoriuszowi prawo do wymiany na inne papiery wartościowe danego emitenta w przyszłości i na z góry określonych warunkach.
Odsetki - dochód z obligacji.
Okres zwrotu - miara czasu, jakiego potrzebuje inwestor, na podstawie przewidywanych przyszłych zysków i prawdopodobnych stóp procentowych, aby odzyskać sumę początkowo zainwestowaną.
Opcja - kontrakt pomiędzy wystawcą a nabywcą, który daje temu drugiemu prawo do kupna (lub sprzedaży) określonej ilości instrumentu podstawowego (np. waluty czy akcji)
w określonym terminie i po z góry ustalonej cenie. Szczególnym rodzajem opcji jest warrant.
Pakiet - minimalna liczba (kwota) tytułów danego waloru wymienionych na rynku.
Parkiet - wyodrębnione w siedzibie giełdy miejsce, gdzie zawierane są transakcje.
Prywatyzacja - sprzedaż przez Państwo tytułów spółki, której było właścicielem.
Rynek ciągły - ogół walorów, które są notowane bez przerwy między godziną 10 a 17 przez system informatyczny giełdy.
Rynek pierwotny - rynek kreowania papierów wartościowych, inaczej rynek „nowych papierów”
Rynek wtórny - rynek ukonstytuowany przez wymiany papierów wartościowych, inaczej rynek „papierów używanych”.
Sesja giełdowa - określony przedział czasu , w którym mogą być zawierane transakcje na giełdzie. Na giełdzie warszawskiej sesje odbywają się regularnie w miejscu zwanym parkietem, od poniedziałku do piątku, w godzinach 9:00 - 16:10.
Stopa dywidendy - iloraz wypłaconej dywidendy w ostatnim roku i średniej wartości rynkowej spółki w badanym okresie (wyrażona w procentach).
Stopa zwrotu - przyrost wartości inwestycji uwzględniający dywidendy lub odsetki
i prawa poboru, wyrażony w procentach.
Stopa zwrotu z akcji - procentowa zmiana kursu akcji pomiędzy ostatnią sesją poprzedniego okresu i ostatnią sesją badanego okresu; dywidenda traktowana jest
w taki sposób, jakby była zainwestowana w akcje na pierwszej sesji po ustaleniu praw do dywidendy.
Stopa zwrotu z indeksu - procentowa zmiana wartości indeksu giełdowego z notowań jednolitych pomiędzy ostatnią sesją poprzedniego okresu i ostatnią sesją badanego okresu.
Stopa zwrotu z obligacji - procentowa zmiana ceny rozliczeniowej obligacji pomiędzy ostatnią sesją poprzedniego okresu i ostatnią sesją badanego okresu; odsetki traktowane są w taki sposób, jakby były zainwestowane w te same obligacje na pierwszej sesji po ustaleniu praw do odsetek.
Transakcja giełdowa - zawarta na giełdzie, zgodnie z przepisami giełdowymi, umowa sprzedaży dopuszczonych do obrotu giełdowego papierów wartościowych, praw z nich albo innych instrumentów finansowych.
Transakcja pakietowa - transakcja giełdowa zawierana poza sesją, której minimalną wielkość (pakiet) określa regulamin giełdy. Może być zawierana zarówno przed wprowadzeniem papieru wartościowego do obrotu giełdowego jak i po jego wprowadzeniu.
Transakcja terminowa - operacja, której termin rozliczenia jest późniejszy niż termin negocjacji.
SPIS RYSUNKÓW I TABLIC
SPIS RYSUNKÓW
Rysunek 1. Struktura Giełdy Papierów Wartościowych w Warszawie
Rysunek 2. Systematyka metod analizy przyczynowej efektywności gospodarowania
Rysunek 3. Nieuporządkowany diagram Czekanowskiego
Rysunek 4. Uporządkowany diagram Czekanowskiego
Rysunek 5. Przykładowy nomogram
Rysunek 6. Przykładowy ekonograf
Rysunek 7. Przykładowy histogram
Rysunek 8. Etapy symulacji Monte Carlo dla VaR
Rysunek 9. Odległości między grupowe metod hierarchicznych
Rysunek 10. Przykładowy dendrogram dla tej metody Warda
Rysunek 11. Menu główne programu
Rysunek 12. Okno nowego projektu
Rysunek 13. Okno „Nazwy cech”
Rysunek 14. Wprowadzanie danych
Rysunek 15. Wybór metody klasyfikacji
Rysunek 16. Okno końcowe z wynikami
SPIS TABLIC
Tablica 1. Parametry charakteryzujące hierarchiczne metody grupowania obiektów.
Tablica 2. Parametry charakteryzujące hierarchiczną metodę grupowania Warda.
Tablica 3. Dane zastosowane do programu.
BIBLIOGRAFIA:
E. Aronson: Człowiek istota społeczna, PWN Warszawa 1999.
H. Baranek: O pewnej procedurze wyboru klas podobieństwa w taksonomicznej metodzie różnic, AE w Krakowie, 1978.
P. Best: Wartość narażona na ryzyko : Obliczanie i wdrażanie modelu VaR, Oficyna Ekonomiczna, Kraków 2000.
B. Belletante: Giełda jej funkcjonowanie i rola w życiu gospodarczym, PWN 1996.
J. Bernstein: Inwestor jednosesyjny. Day trading: systemy inwestycyjne, strategie, wskaźniki i metody analityczne, Oficyna Ekonomiczna Kraków 2002
A.Bocian: Modele makroekonomiczne w planowaniu gospodarki narodowej, Warszawa 1984.
J. Buszko: Historia Polski 1864-1948, Warszawa 1999 r.
J.Czekanowski: Zarys metod statystycznych w zastosowaniach do antropologii, Warszawa 1913.
J. Dorsey: Wykresy punktowo-symboliczne, Oficyna Ekonomiczna Kraków 1998
H. Dobrowolski: Giełda Pieniężna w Warszawie - sprawozdanie za rok 1929, [w:] Archeion: tom 36 - 62 r.
A. Elder: Zawód inwestor giełdowy Oficyna Ekonomiczna Kraków 2001
Encyklopedia Powszechna, Wydawnictwo Fogra, 2000
Encyklopedia historii gospodarczej Polski do 1945 roku, Wydawnictwo Omega Kraków 1995
Z. Gługiewicz: Zastosowanie taksonomicznej metody różnic przeciętnych przy próbie wyodrębnienia rejonów klimatyczno - glebowych w woj. Poznańskim Przegląd Statystyczny nr 1/1961.
T. Grabiński: Metody doboru zmiennych w modelach ekonometrycznych, AE, Kraków 1995. T.
Grabiński: Metody prognozowania rozwoju społeczno - gospodarczego, AE Kraków 1993.
S. Grzesiak: Metody ilościowe w badaniu efektywności ekonomicznej przedsiębiorstwa, Szczecin 1997.
Z. Hellwig: Zastosowanie metody taksonomicznej do typologicznego podziału krajów ze względu na poziom ich rozwoju i strukturę wykwalifikowanych kadr, PWN 1989.
K. Jajuga: Miary ryzyka rynkowego - część trzecia, Rynek terminowy, 8/2/00.
K. Jajuga: Kamień milowy architektury rynku finansowego, Rynek terminowy, 4/6/99.
K. Jajuga: Statystyczna analiza wielowymiarowa, PWN, Warszawa 1993.
Z. Kazimierz: Zarys metod statystycznych, Warszawa 1988.
A. Kostolany: Psychologia Giełdy, Warszawa 2001.
J. Kucharczyk: Algorytmy analizy skupień w języku ALGOL 60, PWN Warszawa 1982.
S. Kozłowski: O sposobie weryfikacji podziałów przestrzennych w odniesieniu do taksonomicznej metody różnic J.. Czekanowskiego, Wiadomości statystyczne nr 1/1972.
E. Lefevre: Wspomnienia gracza giełdowego, Oficyna Wydawnicza Kraków 2000
A. Michalski: (red.): Metody analizy ekonomicznej efektywności majątku trwałego w przemyśle. Prace naukowe Politechniki Szczecińskiej.
E. Nowak: Metody ilościowe w analizie finansowej ,Wydaw.Uniw.M.Curie-Skłodowskiej ,Lublin 1997.
E. Nowak: Metody statystyczne w analizie działalności przedsiębiorstwa, PWN, Warszawa 2001.
W. Ostasiewicz: Statystyczne metody analizy danych, Wrocław 1998
B. Pełka: Giełda Pieniężna w Warszawie - sprawozdanie za rok 1930, [w:] Archeion: tom 46 - 67 r.
J. Pociecha: Metody taksonomiczne w badaniach społeczno-ekonomicznych, Warszawa 1988.
W. Pytkowski: Organizacja badań i ocena prac naukowych, Warszawa 1981.
A. Radziwiłł, W. Roszkowski: Historia 1871-1945, PWN Warszawa 1995
F. K. Reilly (red.): Analiza inwestycji i zarządzanie portfelem, Polskie Wydawnictwo Ekonomiczne Warszawa 2001
H. Riehl: Zarządzanie ryzykiem na rynku pieniężnym, walutowym i instrumentów pochodnych, Warszawa 2001.
G. B. Shaw: Wielki kram, 1930.
J. Socha: Zrozumieć giełdę, PWN 1992.
V. Sperandeo: Trader VIC, Oficyna Ekonomiczna Kraków 1998
V. Sperandeo: Trader VIC II Zasady profesjonalnej spekulacji, Oficyna Ekonomiczna Kraków 1998
J. Steczkowski: Zasady i metody rejonizacji produkcji rolniczej, PWN ,Warszawa 1966.
A. Stawczyk: Wprowadzenie do metodologii pomiaru ryzyka - Value at Risk, Rynek Terminowy, nr 4/6/99.
J. Szczepański: Historia myśli socjologicznej, t. II, PWN Warszawa 1964
P. Talar: Metody nieparametryczne obliczania VaR, Rynek terminowy, 14/4/01.
T. Tarczyński, M. Zwolankowski: Inżynieria finansowa, Warszawa 1999.
E. Urbańczyk: Metody ilościowe w analizie finansowej przedsiębiorstwa, Szczecin 1998.
S. Woyzbun: Giełda. Przeszłość. Organizacja obecna. Obroty, PWN Warszawa 1998
P. Zawadzki: Nowe rozwiązania regulacyjne w zakresie kontroli ryzyka walutowe w Polsce, Rynek terminowy, nr 9/3/00.
M. Majsterek, J. Brzeszczyński, A. Welfe: Angielsko-polski, polsko-angielski słownik terminów metod ilościowych, Polskie Wydawnictwo Ekonomiczne Warszawa 2002
http://gospodarka.gazeta.pl/gielda/0,28848.html
Encyklopedia Powszechna, Wydawnictwo Fogra, 2000 r. s.39 (JARMARK - ważny element wymiany handlowej, gromadzący producentów towarów i usług, bezpośrednich nabywców i pośredników. Znany już w starożytności, rozwinął się w średniowiecznej Europie, organizowany zwłaszcza w miastach leżących na ważnych szlakach handlowych, w ustalonych dorocznych terminach).
2 E. Lefevre: Wspomnienia gracza giełdowego, Oficyna Wydawnicza Kraków 2000 r., s.12
3 A. Radziwiłł, W. Roszkowski: Historia 1871-1945, PWN Warszawa 1995 r., s.69
4 op. cit. A. Radziwiłł, W. Roszkowski: Historia...(tłumaczenie - „dla ludzi handlu wszystkich narodów i języków”).
5 J. Szczepański: Historia myśli socjologicznej, t. II, PWN Warszawa 1964 r. s.126
6 tamże., s.128
7 B. Belletante: Giełda jej funkcjonowanie i rola w życiu gospodarczym, PWN 1996 r., s.15
8 tłumaczenie- byczy rynek
9 tłumaczenie- niedźwiedzi rynek
10 E. Lefevre: Wspomnienia gracza...s. 32
11 J. Buszko: Historia Polski 1864-1948, PWN Warszawa 1999 r. s.19
12 tamże., s.21
13 S. Woyzbun: Giełda. Przeszłość. Organizacja..., s.22
14 S. Woyzbun: Giełda. Przeszłość. Organizacja..., s.25
15 B. Pełka:Giełda Pieniężna w Warszawie - sprawozdanie za rok 1929, [w:] Archeion: tom 46 - 67 r., s.10
16 H. Dobrowolski (red.): Giełda Pieniężna w Warszawie - sprawozdanie za rok 1930, [w:] Archeion: tom 36 - 62 r., s.13
17 Encyklopedia historii gospodarczej Polski do 1945 roku, Wydawnictwo Omega Kraków 1995 r. s.59
18 S. Woyzbun: Giełda. Przeszłość. Organizacja..., s.33
19 A. Kostolany: „Psychologia Giełdy”, Warszawa 2001 r., s.23
20 op. cit. A. Kostolany: „Psychologia ...s.25
21 G.B. Shaw: Wielki kram, 1930 r., s.5
22 J. Socha: Zrozumieć giełdę, PWN 1992, s.48
23 op. cit...A. Kostolany: „Psychologia ...(tłumaczenie: Vae victis! - łac. Biada zwyciężonym ! (okrzyk galijskiego wodza Brennusa po zwycięstwie nad Rzymianami w 390 r. p.n.e.)
24 A. Kostolany: Psychologia ...s.55
25 Por. E. Aronson: Człowiek istota społeczna, Wydawnictwo PWN 1992 r., s.265
26 A. Elder: Zawód inwestor giełdowy Oficyna Ekonomiczna Kraków 2001 r. s.114
27 J. Bernstein: Inwestor jednosesyjny. Day trading: systemy inwestycyjne, strategie, wskaźniki i metody analityczne, Oficyna Ekonomiczna Kraków 2002 r., s.66-70
28 T. J. Dorsey: Wykresy punktowo-symboliczne, Oficyna Ekonomiczna Kraków 1998 r. s.88-92
29 J. Bernstein: Inwestor jednosesyjny. Day trading: systemy inwestycyjne...s.95
30 V. Sperandeo: Trader VIC II Zasady profesjonalnej spekulacji, Oficyna Ekonomiczna Kraków 1998 r., s.84
31 tamże., s. 90
32 J. Bernstein: Inwestor jednosesyjny. Day trading: systemy inwestycyjne...s.89-92
33 M. Majsterek, J. Brzeszczyński, A. Welfe: Angielsko-polski, polsko-angielski słownik terminów metod ilościowych, Polskie Wydawnictwo Ekonomiczne Warszawa 2002 r. s.229
1 Słownik wyrazów obcych, PWN, Warszawa 1991 r., s.66
2 W. Pytkowski: Organizacja badań i ocena prac naukowych, Warszawa 1981r. s.77
3 E. Nowak: Metody statystyczne w analizie działalności przedsiębiorstw, PWN, Warszawa 2001 r. s.48-51
4 Por. T. Michalski: Metody analizy ekonomicznej efektywności majątku trwałego w przemyśle. [w:] Prace naukowe Politechniki Szczecińskiej
5 M. Majsterek, J. Brzeszczyński, A. Welfe: Angielsko-polski, polsko-angielski słownik terminów metod ilościowych, Polskie Wydawnictwo Ekonomiczne Warszawa 2002 r., s. 55 (Determinizm - pogląd w którym zajście każdego zdarzenia jest wyznaczone jednoznacznie przez zdarzenia poprzedzające je w czasie)
6 tamże., s.12, (Algorytm - zbiór poleceń dotyczących pewnych obiektów ze wskazaniem kolejności, w jakiej mają być wykonane. Wykonawcą jest układ, który na sygnały reprezentujące polecenia reaguje ich realizowaniem.)
7 Por. E. Nowak: Metody statystyczne w analizie działalności..., s.88-91 (Stochastyczny - gr. stóchastikos „zdolny do domyślenia się czegoś, bystry”, mat. o charakterze losowym; przypadkowy.)
8 Por. E. Nowak: Metody statystyczne w analizie działalności..., s.55-56 (taksonomia z grec. taxis - układ, porządek, oraz nomos - prawo, zasada.)
9 T. Grabiński: Metody doboru zmiennych w modelach ekonometrycznych, AE, Kraków 1995 r., s.18
10 Por. E. Urbańczyk: Metody ilościowe w analizie finansowej przedsiębiorstwa; Z. Hellwig: Zastosowanie metody taksonomicznej do typologicznego podziału krajów ze względu na poziom ich rozwoju i strukturę wykwalifikowanych kadr, Wydawnictwo US, Szczecin 1998 r., s.44-46
11 T. Grabiński: Metody doboru zmiennych w modelach... s.32-35
12 E. Urbańczyk: Metody ilościowe w analizie finansowej... Wydawnictwo US, Szczecin 1998 r., s. 17
13 J. Pociecha: Metody taksonomiczne w badaniach społeczno-ekonomicznych, Warszawa 1988 r., s.22
14 op. cit. J. Pociecha: Metody taksonomiczne w badaniach...s. 96
15 K. Jajuga: Statystyczna analiza wielowymiarowa, PWN, Warszawa 1993r., s. 44
16 F. K. Reilly (red.): Analiza inwestycji i zarządzanie portfelem, Polskie Wydawnictwo Ekonomiczne
Warszawa 2001 r., s.110
17 tamże., s.128-130
18 K. Jajuga: Statystyczna analiza..., s.76
19 tamże., s.82
20 V. Sperandeo: Trader VIC, Oficyna Ekonomiczna Kraków 1998 r., s.36
21 J. Bernstein: Inwestor jednosesyjny. Day trading: systemy inwestycyjne, strategie, wskaźniki i metody analityczne, Oficyna Ekonomiczna Kraków 2002 r., s.56
22 J. Pociecha: Metody taksonomiczne w badaniach..., s.88
23 J. Czekanowski: Zarys metod statystycznych w zastosowaniach do antropologii, Warszawa 1913 r., s.39-42
24 Z. Gługiewicz: Zastosowanie taksonomicznej metody różnic przeciętnych przy próbie wyodrębnienia rejonów klimatyczno - glebowych w woj. poznańskim, [w:] Przegląd Statystyczny 6/1985
25 H. Baranek: O pewnej procedurze wyboru klas podobieństwa w taksonomicznej metodzie różnic, [w:] Studia Statystyczne i Demograficzne PAN 9/1987
26 J. Steczkowski: Zasady i metody rejonizacji produkcji rolniczej, PWN Warszawa 1966 r., s. 99
27 S. Kozłowski: O sposobie weryfikacji podziałów przestrzennych w odniesieniu do taksonomicznej metody różnic, PWN Warszawa 1977 r., s.11
28 Por. J. Czekanowski: Wiadomości statystyczne 1972 r., s.77
29 op.cit. S. Kozłowski: O sposobie weryfikacji podziałów przestrzennych..., s.48-50
30 tamże., s.13
31 M. Majsterek, J. Brzeszczyński, A. Welfe: Angielsko-polski, polsko-angielski słownik terminów metod ilościowych, Polskie Wydawnictwo Ekonomiczne Warszawa 2002 r. s. 198
32 M. Majsterek, J. Brzeszczyński, A. Welfe: Angielsko-polski, polsko-angielski słownik terminów metod ilościowych, Polskie Wydawnictwo Ekonomiczne Warszawa 2002 r. s. 2000
33 K. Jajuga: Miary ryzyka rynkowego - część trzecia,[w:] Rynek terminowy 8/2/2000 r., s.4
34 P. Talar : Metody nieparametryczne obliczania VaR, [w:] Rynek terminowy 14/4/2001 r., s.16
35 Por. K. Jajuga: Miary ryzyka rynkowego...s. 6
36 Por. K. Jajuga : Miary ryzyka rynkowego...s. 12
37 K. Jajuga : Miary ryzyka rynkowego... s. 18
38 P. Best: Wartość narażona na ryzyko : Obliczanie i wdrażanie modelu VaR. Kraków Oficyna Ekonomiczna 2000 r. s.46
39 P. Best: Wartość narażona na ryzyko : Obliczanie i wdrażanie...s. 22
40 tamże., s.26
41 K. Jajuga: Miary ryzyka rynkowego..., s.17
42 H. Riehl: Zarządzanie ryzykiem na rynku pieniężnym, walutowym i instrumentów pochodnych, Omnix Warszawa 2001 r., s.67
43 T. Tarczyński, M. Zwolankowski: Inżynieria finansowa , Warszawa 1999 r., s. 33
44 K. Jajuga: Kamień milowy architektury rynku finansowego, [w:] Rynek terminowy 4/6/1999
45 P. Zawadzki: Nowe rozwiązania regulacyjne w zakresie kontroli ryzyka walutowe w Polsce, [w:] Rynek terminowy, nr 9/3/2000 r., s.20
46 tamże., s.23
1 M. Majsterek, J. Brzeszczyński, A. Welfe: Angielsko-polski, polsko-angielski słownik terminów metod ilościowych, Polskie Wydawnictwo Ekonomiczne Warszawa 2002 r. s.34
3 P. Zawadzki: Nowe rozwiązania regulacyjne w zakresie kontroli ryzyka walutowe w Polsce, w: Rynek terminowy, nr 9/3/2000 r., s.3
68
ANALIZA
SYNTEZA
SYNTEZA
ANALIZA
SYNTEZAA
SYNTEZAA
ANALIZAA
Tezy i wnioski
ocena wstępna
Weryfikacja
tez i wniosków
Podsumowanie
ocena końcowa z wnioskami