03 Informacja - podstawy teoretyczne, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 6, E-finanse


Informacja - podstawy teoretyczne - PRZYKŁADY W PDF 05

Pojęcia wprowadzające

Komunikat - przekaz (mówiony, pisany, radiowy itd), który może przenosić wiadomości

Wiadomość - treść przekazywana przez komunikat (mająca charakter relacji pomiędzy nadawcą i odbiorcą)

Ogólną własnością komunikatów przekazujących wiadomości jest posiadanie pewnej ilości informacji

uogólniając:

„Komunikatem nazywamy odpowiednio zakodowaną wiadomość, zawierającą pewną ilość informacji”

Dane - taka postać wiadomości, którą można zapisać i/lub przetworzyć z pomocą sprzętu komputerowego, a także - surowe, nie podane obróbce analitycznej liczby i fakty dotyczące zjawisk lub wydarzeń.

Informacja

Termin „informacja” ma charakter interdyscyplinarny. Wywodząc się bezpośrednio z teorii informacji, będącej obszarem szczególnego zainteresowania takich dyscyplin naukowych jak: matematyka , cybernetyka, informatyka czy też elektronika, znajduje swoje miejsce w szeregu innych obszarów nauki, także tych o typowo humanistycznym charakterze.

Pojęcie informacji jest jednym z najtrudniej definiowanych pojęć naukowych. Mimo że każdy intuicyjnie zdaje sobie sprawę z tego, co to jest informacja, to jed­nak jej zdefiniowanie napotyka wiele problemów.

Nie istnieje jedna uznana definicja informacji.

W informatyce przyjmuje się, że informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach (np. komputerach), przesyła­na między pewnymi obiektami (np. komputerami), przetwarzana w pewnych obiek­tach (np. komputerach) i stosowana do zarządzania pewnymi obiektami. Obiekt może być komputerem, ale nie musi być nim.

W rozumieniu cybernetyki, informacja jest to: każdy czynnik, dzięki któremu obiekt otaczający go (człowiek, organizm żywy, organizacja, urządzenie automatyczne) może polepszyć swoja znajomość otoczenia i bardziej sprawnie przeprowadzać celowe działanie.

Najbardziej precyzyjna definicja, pochodząca z teorii informacji podchodzi do informacji jako do miary niepewności zajścia pewnego zdarzenia (otrzymania określonego wyniku pomiaru, wyemitowania określonej wiadomości przez źródło) spośród skończonego zbioru zdarzeń możliwych.

Teoria informacji - Dział matematyki na pograniczu statystyki i informatyki dotyczący informacji oraz jej transmisji, kompresji, kryptografii itd. Za ojca teorii informacji uważa się Claude E. Shannona, który w latach 1948-1949 ogłosił fundamentalne prace z tej dziedziny.

Podstawowe założenia ilościowej teorii informacji polega na tym, że komunikat zawiera tym więcej informacji, im mniejsze jest prawdopodobieństwo jego wystąpienia.

Cechy informacji:

Ilość informacji

Jednym z podstawowych parametrów opisujących informację zawartą w wiadomości jest jej ilość.

Ustalenie miary informacji jest uzależnione zarówno od podejścia badacza (humanista, fizyk, informatyk). Nadal otwartym pozostaje problem zwartej i uniwersalnej definicji ilości informacji. Można wyróżnić trzy metody określenia miary ilości informacji:

  1. podejście uwzględniające strukturalną budowę informacji - uwzględnia się determinowaną budowę masywów informacji. Pomiar tych masywów następuje przez obliczanie elementów informacyjnych (kwantów), tworzących te struktury, albo przez odpowiednie kodowanie masywów.

  2. podejście uwzględniające semantyczną wartość informacji - podejście uwzględnia poszczególne cechy informacji takie jak: zasadność, cenność, pożyteczność oraz istotę informacji.

  3. podejście uwzględniające zależności statystyczne - operuje pojęciem entropii jako miary nieokreśloności, uwzględniającej prawdopodobieństwo pojawienia się tych lub innych zdarzeń.

Przyjmuje się, że komunikat, którego prawdopodobieństwo wystąpienia wynosi p, zawiera

0x01 graphic

jednostek informacji. Jednostkę informacji nazywa się bitem.

Gdyby równoprawdopodobnych możliwych treści komunikatu było 8, wówczas prawdopodobieństwo każdego z nich wynosiłoby 0,125 i wówczas zgodnie ze wzorem, ilość informacji zawartą w każdym z takich komunikatów wynosiłaby:

0x01 graphic

W sytuacji gdy wariantów tych jest mniej, wówczas ilość niezbędnych bitów jest nieco mniejsza (ułamkowa), a tym samym nie realizowalna technicznie. W przypadku zastosowania najmniejszej możliwej ilości bitów do zakodowania wariantów tego komunikatu mamy do czynienia ze zjawiskiem redundancji (patrz dalej).

W praktyce niezmiernie rzadko mamy do czynienia z sytuacjami, w których wszystkie możliwe warianty komunikatu dotyczącego jednej cechy zmiennej losowej są równieprawdopodobne. W dalszym ciągu, zgodnie ze wzorem i z intuicją możemy twierdzić, że wystąpienie wariantu najmniej prawdopodobnego - najmniej oczekiwanego - niesie ze sobą największą porcję informacji, natomiast wystąpienie wariantu najbardziej prawdopodobnego jest najbardziej spodziewane czyli niesie najmniejszą porcję informacji.

W sytuacjach takich, o wysokim stopniu złożoności, szczególnie użyteczną jest miara mówiąca o średniej ilości informacji niesionej przez poszczególne możliwe (ale niekoniecznie równieprawdopodobne) komunikaty. Średnia ta, dla uwzględnienia częstości występowania różnych wariantów komunikatu, powinna mieć charakter średniej ważonej częstością ich występowania.

Entropia

Założenia:

Jeżeli zdarzenie losowe ma charakter masowy, to prawdopodobieństwo wystąpienia określonych stanów może być zastąpione jego częstością. Dla przykładu, wartość dziennych wpłat i wypłat w danym oddziale banku jest zmienna masową. Ustalenie prawdopodobieństwa wystąpienia określonego poziomu wpłat lub wypłat w danym dniu może być zastąpione wyznaczoną na podstawie analizy danych historycznych częstością jego występowania w przeszłości. Dla odmiany prawdopodobieństwo wystąpienia określonego poziomu wypłat w tymże oddziale banku na drugi dzień po ogłoszeniu problemów z utrzymaniem przez bank płynności nie jest możliwe do oszacowania tą drogą bowiem jest to zdarzenie losowe ale występujące sporadycznie. Szacunek prawdopodobieństwa jest w tym przypadku dokonany przez ekspertów na podstawie ich wiedzy i doświadczania.

0x01 graphic

Cechy entropii

Kodowanie - dobór języka zapisu informacji

W praktyce poszczególne warianty komunikatu rzadko mogą być wyrażone prostymi krótkimi oznaczeniami literowymi lub cyfrowymi. Dla przykładu zakładając, iż poszczególne słowa używane w języku mówionym są różnymi wariantami komunikatu, mamy do czynienia z różną ich długością.

Jeżeli zakodować poszczególne warianty w sposób bardziej oszczędny, wówczas odbiorca komunikatu, znając sposób kodowania, jest w stanie odtworzyć ich postać pierwotną.

Kod danego komunikatu nazywa się ciągiem albo słowem kodowym komunikatu, a liczba występujących w nim znaków - długością słowa kodowego. W zależności od przyjętej konwencji kodowania mamy do czynienia z kodami o stałej lub zmiennej długości. . Jeżeli jednak do kodowania użyjemy tylko dwóch różnych symboli (np. 0 i 1), to minimalna długość Ni słowa kodowego komunikatu występującego z prawdopodobieństwem pi jest dana wzorem:

0x01 graphic

a tym samym jest tożsama ze wzorem na ilość informacji przekazywanej przez komunikat.

Uwzględniając różne prawdopodobieństwo występowania różnych wariantów komunikatu, średnią (ważoną) minimalną długość słowa kodowego wyznaczamy wzorem:

0x01 graphic

Ilość informacji mierzona entropią jest jednocześnie przeciętną liczbą bitów niezbędnych do zakodowania wszystkich możliwych informacji w optymalny sposób.

Kodowanie Huffmana

Algorytm Huffmana to jeden z najprostszych, jednak niezbyt efektywnych systemów bezstratnej kompresji danych.

Praktycznie nie używa się go samodzielnie, jednak często używa się go jako ostatniego etapu w różnych systemach kompresji, zarówno bezstratnej jak i stratnej.

Algorytm Huffmana to system przypisywania skończonemu zbiorowi symboli o z góry znanych prawdopodobieństwach kodów o zmiennej liczbie bitów. Później symbole te są zastępowane odpowiednimi bitami na wyjściu. Symbole te to najczęściej po prostu bajty, choć nie ma żadnych przeszkód żeby było nimi coś innego.

Algorytm

  1. Dla każdego symbolu S tworzymy węzeł o wartości równej prawdopodobieństwu wystąpienia S. Prawdopodobieństwa nie muszą w sumie dawać jedynki, muszą jedynie zachować proporcje, tak więc można równie dobrze używać np. ilości wystąpień danego znaku.

  2. Bierzemy 2 wolne węzły z najmniejszymi wartościami (jeśli kilka węzłów ma taką samą wartość bierzemy dowolny z nich) i łączymy je jako 2 podgałęzie nowego węzła. Węzeł ten ma wartość równą sumie wartości obu węzłów.

  3. Powtarzamy tak długo dopóki jest więcej niż 1 wolny węzeł.

Kody dla znaków obliczamy w następujący sposób - idąc od ostatniego wolnego węzła - w lewo bit 0, w prawo bit 1.

Redundancja

Redundancja,teorii informacji nadmiar informacji przekraczający minimum potrzebne do rozwiązania danego problemu lub przekazu tej informacji, np. zapis liczby 1 jako 01,00 jest redundantny.

Innym przykładem redundancji może być przesyłanie daty dziennej i jednocześnie nazwy dnia tygodnia (nazwa dnia jest jednoznacznie określona datą).

Jeśli na przesyłaną wiadomość składa się losowa kombinacja 26 liter alfabetu angielskiego, odstępu i 5 znaków interpunkcyjnych i jeśli założymy, że prawdopodobieństwo każdej takiej wiadomości jest takie samo, to entropia wynosi H = log232 = 5. Oznacza to, że potrzebujemy 5 bitów aby zakodować dowolny znak lub wiadomość: 00000, 00001, 00010, ... 11111. Efektywność transmisji lub zapisu (przechowywania) wiadomości wymaga aby zredukować liczbę bitów użytych do kodowania. Jest to możliwe podczas przetwarzania angielskiego tekstu ponieważ występowanie poszczególnych liter nie jest całkowicie przypadkowe. Na przykład prawdopodobieństwo, że literą następującą po ciągu liter INFORMATIO jest "N" jest niezwykle wysokie. Można wykazać, że entropia zwykłego angielskiego tekstu wynosi około jeden bit na literę. Oznacza to, że język angielski (tak jak i każdy inny język) ma wbudowaną bardzo dużą nadmiarowość określaną mianem redundancji.. Redundancja umożliwia np. zrozumienie wiadomości, w której pominięto samogłoski lub odczytanie niestarannego pisma odręcznego. We współczesnych systemach komunikacyjnych, sztuczna redundancja jest wprowadzana w procesie kodowania wiadomości w celu zmniejszenia liczby błędów w transmisji wiadomości.

SZUM INFORMACYJNY I JEGO WPŁYW NA POZIOM RYZYKA

Dotychczasowe rozważania koncentrowały się wokół ryzyka, którego źródłem jest niepewność osiągania wartości oczekiwanych (realizacji celu) przez poszczególne zmienne ekonomiczne. Ich suma składa się na ryzyko rzeczywiste analizowanego systemu ekonomicznego. Dyskutowane wcześniej miary informacji (prawdopodobieństwo, entropia) służyły więc pomiarowi ilości informacji niezbędnej do całkowitego wyeliminowania tej niepewności.

Złożoność analizowanych systemów ekonomicznych nie pozwala często decydentowi na bezpośredni odczyt czynników ryzyka w miejscu w którym występują.

Naturalną sytuacją jest występowanie kanałów informacyjnych, które pośredniczą pomiędzy źródłem danych a jej odbiorcą (Rysunek)

Jego obecność staje się podstawą sformułowania istotnego problemu teorii informacji, dotyczącego kwestii doskonałego przesłania informacji przez niedoskonały kanał informacyjny.6

Kanał informacyjny staje się bowiem źródłem szumu informacyjnego, który dodatkowo powiększa lukę informacyjną związaną z ryzykiem rzeczywistym. W efekcie obserwator narażony jest na ryzyko łączne, będące sumą ryzyka właściwego i szumu informacyjnego (Rysunek).

Przykładami „zaszumianych” kanałów informacyjnych mogą być np.: dla właściciela firmy - uproszczone sprawozdania finansowe, dla inwestora giełdowego - niepełna lub przekłamana informacja o czynnikach kształtujących kurs spółki, dla posiadacza jednostek uczestnictwa - uproszczona informacja o strategii inwestycyjnej funduszu itd.

Szum informacyjny może powodować zarówno zawyżenie ryzyka postrzeganego w stosunku do rzeczywistego, jak również jego zmniejszenie.

W obydwu przypadkach istotnym jest, iż o ile cena za oczekiwany dochód wynika z poziomu ryzyka postrzeganego, o tyle oczekiwany dochód z inwestycji wiąże się z istniejącym ryzykiem rzeczywistym.7

Systemowe lub incydentalne zakłócenia w procesie pozyskiwania informacji na temat zachodzących procesów prowadzić mogą do istotnego przekłamania oceny ryzyka i jego ekonomicznych skutków.

Informacja w procesie zarządzania

Jest związana z realizacją funkcji zarządzania (planowanie, organizowanie, przewodzenie i kontrolowanie) oraz pozwala na podjęcie decyzji na różnych szczeblach zarządzania.

Grupy informacji dla zarządzania:

Informacja zawarta w sprawozdaniach finansowych firmy

System informacyjny w systemowym modelu przedsiębiorstwa

0x01 graphic

źródło: Praca zbiorowa pod redakcją Adama Nowickiego, Podstawy informatyki dla ekonomistów, Wydawnictwo Naukowe PWN, Warszawa 1995, s.16

Wybrane implikacje dla SIZ:

0x01 graphic

źródło: Adam Pawełczak, Informatyka bankowa, Wydawnictwo WSB, Poznań 1995, s.10

Cechy nowoczesnego przedsiębiorstwa

Elastyczne i szczupłe

Kooperatywne

Inteligentne

Fazy zarządzania wiedzą

T.Gerstenkorn, T.Śródka, „Kombinatoryka i rachunek prawdopodobieństwa”, Państwowe Wydawnictwa Naukowe, Warszawa 1980, s.57

1

0x01 graphic



Wyszukiwarka

Podobne podstrony:
01 Informacyjny lad gospodarczy, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 6, E-finanse
Testy ostateczne całość, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 5, Finanse Międzynarodowe
02 Reguly gospodarki sieciowej, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 6, E-finanse
ZADAŃA ANALIZY FINANSOWEJ - całośc podstawy, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 5, Anal
DANE WYJŚCIOWE W WORDZIE, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 5, Analiza finansowa
Przykład - Kredyty samochodowe, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 6, Sekurytyzacja akt
Wskaźniki skrót najważniejszych 2012, UE ROND - UE KATOWICE, Rok 3 2012-2013, semestr 5, Analiza fin
Prawo pytania Gr.1, UE ROND - UE KATOWICE, Rok 1 2010-2011, semestr 1, Prawo
Prawo pytania Gr.1, UE ROND - UE KATOWICE, Rok 1 2010-2011, semestr 1, Prawo
pytania teoret, UE KATOWICE ROND, I stopień, Statystyka
Ekonometria dr Barczak 16.06.08, UE ROND - UE KATOWICE, Rok 2 2011-2012, semestr 4, Ekonometria, Egz
Decyzje inwestycyjne wykład 03.11.2010, STUDIA UE Katowice, semestr I mgr, fir 1 testy, Decyzje inwe
Wzory 3 - Dłużne papiery wartościowe, UE ROND - UE KATOWICE, Rok 2 2011-2012, semestr 4, Rynki finan
Finanse publiczne ściąga, UE ROND - UE KATOWICE, Rok 2 2011-2012, semestr 3, Finanse publiczne
Ściąga ze wzorów, UE ROND - UE KATOWICE, Rok 2 2011-2012, semestr 3, Statystyka
TI pytania sem1.13r, UE KATOWICE - FIR - Rachunkowość, I stopień, SEMESTR II, Technologia Informatyc
TI EGZAMIN PRZEPISANE - z odpowiedziami, UE KATOWICE - FIR - Rachunkowość, I stopień, SEMESTR II, Te

więcej podobnych podstron