Informacja kategoria ekonomiczna 20 04

background image

1

I

NFORMACJA

KATEGORIA EKONOMICZNA


P

OJĘCIA WPROWADZAJĄCE


Komunikat –
przekaz (mówiony, pisany, radiowy itd), który może przenosić wiadomości
Wiadomość
– treść przekazywana przez komunikat (mająca charakter relacji pomiędzy nadawcą i odbiorcą)

Różne komunikaty mogą przekazywać tą samą wiadomość,

Ten sam komunikat może przekazywać różne wiadomości

Dane - taka postać wiadomości, którą można zapisać i/lub przetworzyć z pomocą sprzętu komputerowego,
a także - surowe, nie podane obróbce analitycznej liczby i fakty dotyczące zjawisk lub wydarzeń.

Ogólną własnością komunikatów przekazujących wiadomości jest posiadanie pewnej ilości informacji

uogólniając: „Komunikatem nazywamy odpowiednio zakodowaną wiadomość, zawierającą pewną ilość
informacji”


I

NFORMACJA


Termin „informacja” ma charakter interdyscyplinarny.
Wywodząc się bezpośrednio z teorii informacji,
będącej obszarem szczególnego zainteresowania takich dyscyplin naukowych jak: matematyka ,
cybernetyka, informatyka czy też elektronika, znajduje swoje miejsce w szeregu innych obszarów nauki,
także tych o typowo humanistycznym charakterze.

Pojęcie informacji jest jednym z najtrudniej definiowanych pojęć naukowych. Mimo że każdy intuicyjnie
zdaje sobie sprawę z tego, co to jest informacja, to jednak jej zdefiniowanie napotyka wiele problemów.

N. Winer wprowadzając pojęcie informacji stwierdza, że „... Jest ona jak gdyby nazwą treści

pochodzącą ze świata zewnętrznego w miarę jak do niego przystosujemy swoje zmysły...”.

K. Krzakiewicz przez informację rozumie „...przekazywaną przez nadawcę do odbiorcy pewną treść

będącą opisem, poleceniem, nakazem, zakazem lub poleceniem.”

R. Aschby uważa, że „...informacja to przekazywanie różnorodności”.

W. Głuszkow określa informację „...jako wszelkie wiadomości o procesach i stanach dowolnej natury,
które mogą być odbierane przez organy zmysłowe człowieka lub przyrodę
..”.

A.Mazurkiewicz, (cytat za: W.M.Turski, Propedeutyka informatyki, PWN, Warszawa 1985)

„Informacją nazywamy wielkość abstrakcyjną, która może być przechowywana w pewnych obiektach,
przesyłana między pewnymi obiektami, przetwarzana w pewnych obiektach i stosowana do sterowania
pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz
systemy takich obiektów.”

W. Flakiewicz określa informację jako: „... czynnik, który zwiększa naszą wiedzę o otaczającej nas

rzeczywistości”.

Tsitchizris i Lochovsky definiują informację jako „przyrost wiedzy, który może być uzyskany na

podstawie danych”


W informatyce przyjmuje się, że informacją nazywamy wielkość abstrakcyjną, która może być
przechowywana w pewnych obiektach (np. komputerach), przesyłana między pewnymi obiektami (np.
komputerami), przetwarzana w pewnych obiektach (np. komputerach) i stosowana do zarządzania pewnymi
obiektami. Obiekt może być komputerem, ale nie musi być nim.

W rozumieniu cybernetyki,
informacja jest to: każdy czynnik, dzięki któremu obiekt otaczający go
(człowiek, organizm żywy, organizacja, urządzenie automatyczne) może polepszyć swoja znajomość
otoczenia i bardziej sprawnie przeprowadzać celowe działanie.

background image

2

W teorii informacji informacja to miara niepewności zajścia pewnego zdarzenia spośród skończonego
zbioru zdarzeń możliwych.


T

EORIA INFORMACJI

-

Dzi

matematyki

na pograniczu

statystyki

i

informatyki

dotyczący informacji oraz jej

transmisji,

kompresji

, kryptografii itd. Za ojca teorii informacji uważa się

Claude E. Shannona

, który w

latach 1948-1949 ogłosił fundamentalne prace z tej dziedziny.
Podstawowe założenia ilościowej teorii informacji polega na tym, że komunikat zawiera tym więcej
informacji, im mniejsze jest prawdopodobieństwo jego wystąpienia.

I

LOŚĆ INFORMACJI


Jednym z podstawowych parametrów opisujących informację zawartą w wiadomości jest jej ilość.

Ustalenie miary informacji jest uzależnione zarówno od podejścia badacza (humanista, fizyk, informatyk).
Nadal otwartym pozostaje problem zwartej i uniwersalnej definicji ilości informacji. Można wyróżnić trzy
metody określenia miary ilości informacji:

1. podejście uwzględniające strukturalną budowę informacji - uwzględnia się determinowaną

budowę masywów informacji. Pomiar tych masywów następuje przez obliczanie elementów
informacyjnych (kwantów), tworzących te struktury, albo przez odpowiednie kodowanie masywów.

2. podejście uwzględniające semantyczną wartość informacji - podejście uwzględnia poszczególne

cechy informacji takie jak: zasadność, cenność, pożyteczność oraz istotę informacji.

3. podejście uwzględniające zależności statystyczne - operuje pojęciem entropii jako miary

nieokreśloności, uwzględniającej prawdopodobieństwo pojawienia się tych lub innych zdarzeń.

Przyjąć można, że do zapisu informacji stosuje się kodowanie binarne

1

, którego klasyczną reprezentacją jest

ciąg zero – jedynkowy.

Słowem binarnym określić można ciąg zer i jedynek o długości N.

Ilość informacji jaka może zostać zapisana w słowie kodowym jest proporcjonalna do N, co oznacza, że
informacja jest wielkością ekstensywną.

Można założyć zatem, że długość słowa binarnego jest miarą ilości informacji H.

Ilość różnych słów binarnych o długości N znaków opisuje zależność

1

Uzasadnienie tego założenia, oraz rozwinięcie kwestii kodowania, znajduje się w dalszej części

opracowania.

background image

3

liczba słów = 2

N

≡ N = log

2

(liczba słów)

Jeżeli uznać, że prawdopodobieństwo wystąpienia każdego słowa kodowego jest takie samo, wówczas
wynosi ono:

p = 1 / liczba słów ≡ liczba słów = 1 / p

Na podstawie powyższych uzyskuje się zależność:

N = log

2

(liczba słów) = log

2

(1/p) = - log

2

(p)

Uwzględniając wcześniejszy postulat traktowania długości słowa kodowego jako ilości informacji
stwierdzić można, że miara ilości informacji zawartej w wiadomości wyraża się wzorem:

p

p

H

2

2

log

1

log





Zależność określa ilość informacji jaką niesie komunikat, którego wszystkie możliwe warianty są

jednakowo prawdopodobne.

Jednostkę informacji nazywa się bitem.


Bit jest to ilość informacji potrzebna do zakodowania, które z dwóch równie prawdopodobnych zdarzeń
alternatywnych naprawdę zaszło. Bit odpowiada ilości informacji zawartej w odpowiedzi na pytanie na
które można odpowiedzieć tak lub nie. Wartości bitu przyjęło się oznaczać cyframi

dwójkowymi

0 i 1.

Mogą istnieć ułamkowe ilości informacji - np. w zajściu zdarzenia którego szansa wynosiła 90% zawiera się
0.152 bitów. Własność ta jest wykorzystywana w niektórych algorytmach

kompresji

, takich jak

kodowanie

arytmetyczne

.


Symbol bitu to b.

bajt (byte, symbol: B) - pierwotnie ilość bitów przetwarzana jednocześnie przez komputer. Współcześnie,

właściwie już od późnych lat 50-tych, używa się wyłącznie do oznaczenia 8 bitów (czyli oktetu).

kilobajt (kilobyte, symbol kB) - 2

10

= 1024 bajty

megabajt (megabyte, symbol MB) - 2

20

= 1024

2

= 1 milion 48 tysięcy 576 bajtów

gigabajt (gigabyte, symbol GB) - 2

30

= 1024

3

= 1 miliard 73 miliony 741 tysięcy 824 bajtów

terabajt (terabyte, symbol TB) - 2

40

= 1024

4

= 1 bilion 99 miliardów 511 milionów 627 tysięcy 776

bajtów


PRZYKŁAD rzut monetą- interpretacja jednego bitu

treść komunikatu

prawdopodobieństwo

komunikatu

ilość informacji

(bit)

orzeł

0,50

1,00

reszka

0,50

 

bit

p

k

1

2

log

5

,

0

1

log

1

log

2

2

2





PRZYKŁAD rzut kostką

treść komunikatu

prawdopodobieństwo

komunikatu

ilość informacji

(bit)

wyrzucono 1

0,17

2,58

wyrzucono 2

0,17

wyrzucono 3

0,17

background image

4

wyrzucono 4

0,17

wyrzucono 5

0,17

wyrzucono 6

0,17

bity

p

k

58

,

2

17

,

0

1

log

1

log

2

2






PRZYKŁAD rzut kostką 8-ścienną

treść komunikatu

prawdopodobieństwo

komunikatu

ilość informacji

(bit)

wyrzucono 1

0,125

3,00

wyrzucono 2

0,125

wyrzucono 3

0,125

wyrzucono 4

0,125

wyrzucono 5

0,125

wyrzucono 6

0,125

wyrzucono 7

0,125

wyrzucono 8

0,125

 

bity

p

k

3

8

log

125

,

0

1

log

1

log

2

2

2






W praktyce niezmiernie rzadko mamy do czynienia z sytuacjami, w których wszystkie możliwe warianty
komunikatu dotyczącego jednej cechy zmiennej losowej są równieprawdopodobne. W dalszym ciągu,
zgodnie ze wzorem i z intuicją możemy twierdzić, że wystąpienie wariantu najmniej prawdopodobnego –
najmniej oczekiwanego - niesie ze sobą największą porcję informacji, natomiast wystąpienie wariantu
najbardziej prawdopodobnego jest najbardziej spodziewane czyli niesie najmniejszą porcję informacji.

W sytuacjach takich, o wysokim stopniu złożoności, szczególnie użyteczną jest miara mówiąca o średniej
ilości informacji niesionej przez poszczególne możliwe (ale niekoniecznie równieprawdopodobne)
komunikaty. Średnia ta, dla uwzględnienia częstości występowania różnych wariantów komunikatu,
powinna mieć charakter średniej ważonej częstością ich występowania.


E

NTROPIA


Założenia:

Aby zdarzenie było charakteryzowane między innymi przez prawdopodobieństwo, musi być
zdarzeniem losowym. „Jeżeli zajścia lub niezajścia pewnego zdarzenia nie można przewidzieć, i jeśli
powiedzenie, że zachodzi ono lub nie, ma zawsze sens, to mówimy, że takie zdarzenie jest
zdarzeniem losowym.”

2

Niech X jest zmienną losową. X1, ..., Xn będą wartościami tej zmiennej (wariantami treści
wiadomości) występującymi z prawdopodobieństwem p(X1), ..., p(Xn), przy czym:

n

i

Xi

p

1

1

)

(

Entropię dyskretnej zmiennej losowej X (danej wiadomości) definiuje się jako średnią ważoną:





X

X

X

p

X

p

X

p

X

p

X

H

)

(

log

)

(

)

(

1

log

)

(

)

(

2

2

2

T.Gerstenkorn, T.Śródka, „Kombinatoryka i rachunek prawdopodobieństwa”, Państwowe Wydawnictwa Naukowe, Warszawa

1980, s.57

background image

5

Entropia jest w efekcie formalną miarą ilości informacji w wiadomości mogącej być wyrażoną
różnymi wariantami komunikatu.


PRZYKŁAD zakup spółki giełdowej:
Dwóch inwestorów dokonuje zakupu akcji spółki giełdowej. Jeden kupuje akcje przypadkowej spółki, w
przypadkowym czasie, bez żadnych wcześniejszych analiz. Drugi dokonuje wyboru tej właśnie spółki na
podstawie szeregu analiz.
Wiadomość o wartości kursu akcji spółki za okres miesiąca może przybierać dwie wartości: wzrost lub
spadek. Przykładowy rozkład prawdopodobieństwa wystąpienia poszczególnych stanów wiadomości jest
następujący:

wzrost

spadek

ilość informacji (entropia)

I

0,5

0,5

1

II

0,9

0,1

0,47

1

2

log

*

2

1

2

log

*

2

1

2

2

47

,

0

1

10

log

*

10

1

9

10

log

*

10

9

2

2




E

NTROPIA JAKO MIARA RYZYKA

Najprostszym modelem formalnym, mogącym posłużyć do ilustracji wpływu informacji na poziom
podejmowanego ryzyka, jest reguła prawdopodobieństw warunkowych Bayes’a, opierająca się na formule
(1).

 

 

 

 

 

B

P

A

B

P

A

P

B

P

B

A

P

B

A

P

(1)

Rysunek. Zastosowanie reguły Bayes’a w ograniczeniu ryzyka

Przykład. Niech A oznacza zdarzenie polegające na wypadnięciu liczby 6 w rzucie kostką. Zakłada się, że do
decydenta dotarła wiadomość, iż wypadła liczba parzysta. Chcąc wyznaczyć jej wpływ na
prawdopodobieństwo wypadnięcia szóstki, należy na podstawie (1) wyznaczyć P(A|B), gdzie B jest
zdarzeniem wypadnięcia liczby parzystej.

background image

6

P(A) = 1/6 – prawdopodobieństwo wypadnięcia liczby 6

P(A∩B) = 1/6 - prawdopodobieństwo jednoczesnego wypadnięcia szóstki i liczby parzystej

P(B)=3/6=1/2 - prawdopodobieństwo wyrzucenia liczby parzystej

P(A|B) = 1/6 : 1/2 = 1/3 > P(A)

Nowe prawdopodobieństwo zajścia zdarzenia A jest większe niż pierwotnie szacowano. Oznacza to, że
otrzymany komunikat dostarczył informacji przyczyniającej się do zmniejszenia podejmowanego ryzyka.

Przykład. Niech A oznacza wypadnięcie liczby oczek mniejszej niż 4 w rzucie kostką. Decydent otrzymał
wiadomość B, że wypadła liczba parzysta. Chcąc wyznaczyć jej wpływ na prawdopodobieństwo wypadnięcia
liczby mniejszej niż 4, należy na podstawie (1) wyznaczyć P(A|B), gdzie B jest zdarzeniem wypadnięcia
liczby parzystej.

P(A) = 3/6=1/2 – prawdopodobieństwo wypadnięcia liczby parzystej

P(A∩B) = 1/6 - prawdopodobieństwo wypadnięcia liczby mniejszej niż 4 i jednocześnie parzystej (w

praktyce prawdopodobieństwo wypadnięcia liczby 2)

P(B)=3/6=1/2 - prawdopodobieństwo wyrzucenia liczby parzystej

P(A|B) = 1/6 : 1/2 = 1/3 < P(A)

W praktyce często ma miejsce sytuacja, w której analityk pokłada nadmierną wiarę w zbawczą moc
wszelkich napływających wiadomości. Skutkuje to ekstensywnym penetrowaniem wszelkich źródeł danych,
które niekoniecznie prowadzą do ograniczenia podejmowanego ryzyka. Wykazać można, że dodatkowe
dane mogą nie tylko nie zmniejszyć ryzyka, ale nawet spowodować jego wzrost.

Pozyskiwanie wiadomości dostarcza informacji pozwalającej obniżyć poziom ryzyka tylko w sytuacji, w
której zajście zdarzenia B spowoduje zawężenie przestrzeni zdarzeń dla A. Sytuacja taka miała miejsce w
przykładzie pierwszym. Z kolei w przykładzie drugim, zajście zdarzenia B dokonało takiej redefinicji
zdarzenia, w której przestrzeń zdarzeń uległa relatywnemu zwiększeniu

Oznacza to, iż przed podjęciem wysiłku pozyskania dodatkowych danych, decydent powinien odpowiedzieć
sobie na dwa pytania:

1. Czy zdarzenie opisywane pozyskiwaną wiadomością wpływa na poziom podejmowanego ryzyka?

3

2. Czy zajście tego zdarzenia zawęża przestrzeń ryzyka?

W przeciwnym bowiem razie, pozyskiwana wiadomość staje się bezużyteczna. Nie dostarcza
informacji pozwalającej obniżyć poziom ryzyka a jednocześnie generuje koszty związane z jej
pozyskaniem i przetwarzaniem.

Mając na względzie aspekt kosztowy pozyskiwania informacji, decydent musi w praktyce określić na jaki
stopień redukcji ryzyka może sobie pozwolić. W wysoce zinformatyzowanym środowisku informacji koszt
jej pozyskania często wyrażany jest właśnie w bitach, (określających przykładowo wielkość pakietu
informacji, szerokość dostępnego łącza, szybkość łącza itd.). Ułatwia to decydentowi jednorodne podejście
do oceny ilości pozyskiwanej informacji i związanego z tym kosztu.

3

Czy zdarzenia A i B są zależne, tzn. czy nie zachodzi P(A|B)=P(A) lub P(B|A)=P(B)

background image

7

Niezależność entropii od wartości zmiennej losowej

i

x

i

p

i

x

i

p

i

x

i

p

i

1

96

0,02

80

0,02

30

0,02

2

97

0,03

85

0,03

35

0,03

3

98

0,05

90

0,05

40

0,05

4

99

0,20

95

0,20

45

0,20

5

100

0,40

100

0,40

50

0,40

6

101

0,20

105

0,20

55

0,20

7

102

0,05

110

0,05

60

0,05

8

103

0,03

115

0,03

65

0,03

9

104

0,02

120

0,02

70

0,02

E(X)

100,00

100,00

50,00

S(X)

0,25

6,19

6,19

v(X)

0,00

0,06

0,12

H(X)

2,42

2,42

2,42

rozkład 1

rozkład 2

rozkład 3

Rysunek 2. Addytywność informacji w procesie stopniowej redukcji ryzyka
Źródło: Opracowanie własne na podstawie Tabeli 2.

background image

8

Ostatecznie, dostosowując formalną definicję entropii do potrzeb teorii ryzyka stwierdzić można, że
jest ona miarą ilości informacji którą decydent musi pozyskać, aby całkowicie wyeliminować ryzyko
związane z osiągnięciem celu opisanego przez pewną zmienną losową.

CECHY ENTROPII

Można udowodnić, że dla zmiennych dyskretnych przyjmujących n wartości entropia jest maksymalna
w przypadku rozkładu jednostajnego p(X1) = p(X2) = ... = p(Xn) = 1/n, tj. gdy wszystkie warianty
wiadomości są jednakowo prawdopodobne i wynosi log n. Dla zmiennych ciągłych największą entropię
wśród wszystkich rozkładów o tej samej wariancji posiada rozkład normalny.

H(X) maleje ze wzrostem nierównomierności wystepowania poszczególnych wiadomości osiągając
minimum równe 0 dla p(Xi) = 1 Oznacza to, że przykładowa wiadomość, iż: „w bilansie banku, suma
aktywów jest równa sumie pasywów”
nie niesie za sobą żadnej informacji, bowiem
prawdopodobieństwo tego stanu jest równe jedności (prawdopodobieństwo wszystkich innych stanów
jest równe zeru). O ile więc w potocznym rozumieniu stwierdzenie to uznamy za informację
wzbogacającą rozumienie otaczających zjawisk, to z punktu widzenia teorii nie jest to informacja.

Podobnie z resztą, wbrew potocznemu rozumieniu wiadomość ta zasłyszana po raz drugi nie będzie już
niosła informacji, bowiem posiadając zdobytą wcześniej wiedzę posiadamy już pewność odnośnie
takiego stanu rzeczy.

0,00%

100,00%

ENTROPIA:

3,45943162

i

P(Xi)

1/P(Xi)

LOG(1/P(Xi))

P(Xi)*LOG(1/P(Xi))

1

9,09%

11,0

3,46

0,31

2

9,09%

11,0

3,46

0,31

3

9,09%

11,0

3,46

0,31

4

9,09%

11,0

3,46

0,31

5

9,09%

11,0

3,46

0,31

6

9,09%

11,0

3,46

0,31

7

9,09%

11,0

3,46

0,31

8

9,09%

11,0

3,46

0,31

9

9,09%

11,0

3,46

0,31

10

9,09%

11,0

3,46

0,31

11

9,09%

11,0

3,46

0,31

99,00%

100,00%

ENTROPIA:

1,96315686

i

P(Xi)

1/P(Xi)

LOG(1/P(Xi))

P(Xi)*LOG(1/P(Xi))

1

0,25%

400,0

8,64

0,02

2

0,25%

400,0

8,64

0,02

3

0,50%

0,50%

200,0

7,64

0,04

4

4,00%

4,00%

25,0

4,64

0,19

5

20,00%

20,00%

5,0

2,32

0,46

6

50,00%

50,00%

2,0

1,00

0,50

7

20,00%

20,00%

5,0

2,32

0,46

8

4,00%

4,00%

25,0

4,64

0,19

9

0,50%

0,50%

200,0

7,64

0,04

10

0,25%

400,0

8,64

0,02

11

0,25%

400,0

8,64

0,02

99,90%

100,00%

ENTROPIA:

0,01472969

i

P(Xi)

1/P(Xi)

LOG(1/P(Xi))

P(Xi)*LOG(1/P(Xi))

1

0,01%

10 000,0

13,29

0,00

2

0,01%

10 000,0

13,29

0,00

3

0,01%

10 000,0

13,29

0,00

4

0,01%

10 000,0

13,29

0,00

5

0,01%

10 000,0

13,29

0,00

6

99,90%

99,90%

1,0

0,00

0,00

7

0,01%

10 000,0

13,29

0,00

8

0,01%

10 000,0

13,29

0,00

9

0,01%

10 000,0

13,29

0,00

10

0,01%

10 000,0

13,29

0,00

11

0,01%

10 000,0

13,29

0,00

background image

9

K

ODOWANIE

-

DOBÓR JĘZYKA ZAPISU INFORMACJI

Jak można zauważyć, entropia pozostaje całkowicie „ślepa” na wartości poszczególnych realizacji
zmiennych losowych. Inaczej niż tradycyjne, statystyczne miary ryzyka, uwzględnia jedynie ilość
wariantów oraz prawdopodobieństwa z jakimi one występują.
W praktyce oznacza to, że przekaz
informacji od nadawcy do odbiorcy będzie jednakowo skuteczny w sytuacji, gdy poprzez kanał
informacyjny przesyłane będą pełne treści komunikatu (np.: „wzrost ceny”, „cena bez zmian”, „spadek
ceny”), jak i wówczas, gdy przekazywane będą tylko krótkie symbole (np. 0,1,2) a obie strony posługiwać
się będą zdefiniowanym systemem kodowania (np.: 0-„wzrost ceny”, 1-„cena bez zmian”, 2-„spadek ceny”).

Kod danego komunikatu nazywa się ciągiem albo słowem kodowym komunikatu, a liczba występujących w
nim znaków – długością słowa kodowego.

W zależności od przyjętej konwencji, można stosować kody o stałej lub zmiennej długości

Jeżeli do kodowania użyte zostaną dwa różne symbole (kodowanie binarne), to minimalna, średnia
długość słowa kodowego komunikatu określona jest entropią danego komunikatu (L(X)=H(X)).

„Z ekonomicznego punktu widzenia najbardziej interesującą interpretacją tej wielkości [entropii –
przyp.aut.] jest stwierdzenie, że kanał komunikacyjny o pojemności H mógłby przenieść wiadomość
opisującą stan świata z dowolnie małym błędem.”

4

Entropia informacji może być więc traktowana, jako

średnia ważona długości słów kodowych, niezbędnych do zakodowania poszczególnych wariantów
informacji gdzie wagami są prawdopodobieństwa wystąpienia tych wariantów.

Przykład. Rozważany jest komunikat informujący o zmianach cen ropy na rynkach światowych. Rozważane
są trzy warianty komunikatu wraz z prawdopodobieństwami:

A - cena bez zmian – 1/2, B - spadek ceny – 1/4, C - wzrost ceny – 1/4

Jeżeli zastosowano kodowanie binarne, to minimalna średnia długość słowa kodowego wynosi:

 

 

 

bita

X

H

X

L

5

,

1

4

log

4

1

4

log

4

1

2

log

2

1

)

(

)

(

2

2

2

W celu weryfikacji obliczeń dokonano kodowania binarnego:

A - cena bez zmian – 1/2 (0),

B - spadek ceny – 1/4 (10),

C - wzrost ceny – 1/4 (11)

Rozpatrując losową sekwencję 40 kolejnych komunikatów (zgodnie z założonymi prawdopodobieństwami):

BCAABAAAABBCCAACCAABCCAAABBAABACACAAABCB,

dokonano kodowania:

101100100000101011110011110010111100010100010011011000101110

5

Średnia długość wiadomości (średnia długość przypadająca na zakodowanie jednego wariantu wiadomości)
wynosi: 60 / 40 = 1,5 bita i jest dokładnie równa entropii wiadomości.




K

ODOWANIE

H

UFFMANA

4

K.J.Arrow: Eseje z teorii ryzyka, PWN, Warszawa 1979, s.268

5

Należy zauważyć, że w zastosowanym kluczu kodowania nie istnieje dylemat rozstrzygnięcia jaki wariant

wiadomości jest aktualnie przesyłany.

background image

10

Algorytm Huffmana to jeden z najprostszych, jednak niezbyt efektywnych systemów bezstratnej kompresji
danych.
Praktycznie nie używa się go samodzielnie, jednak często używa się go jako ostatniego etapu w
różnych systemach kompresji, zarówno bezstratnej jak i stratnej.

A

LGORYTM

1. Dla każdego symbolu S tworzymy węzeł o wartości równej prawdopodobieństwu wystąpienia S.

Prawdopodobieństwa nie muszą w sumie dawać jedynki, muszą jedynie zachować proporcje, tak
więc można równie dobrze używać np. ilości wystąpień danego znaku.

2. Bierzemy 2 wolne węzły z najmniejszymi wartościami (jeśli kilka węzłów ma taką samą wartość

bierzemy dowolny z nich) i łączymy je jako 2 podgałęzie nowego węzła. Węzeł ten ma wartość
równą sumie wartości obu węzłów.

3. Powtarzamy tak długo dopóki jest więcej niż 1 wolny węzeł.

Kody dla znaków obliczamy w następujący sposób - idąc od ostatniego wolnego węzła - w lewo bit 0, w
prawo bit 1.

PRZYKŁAD – kodowanie Huffmana
Mamy symbole A,B,C,D o prawdopodobieństwach wystąpienia odpowiednio [0.1, 0.2, 0.3, 0.4].

Łączymy węzły odpowiadające symbolom (A) i (B). Teraz mamy (A + B) = 0.3, (C) = 0.3, (D) = 0.4

Łączymy węzły odpowiadające drzewku (A + B) oraz (C). Teraz mamy ((A + B) + C)=0.6 i (D) = 0.4

Łączymy węzły odpowiadające drzewku ((A + B) + C) oraz (D). Teraz mamy tylko jeden wolny węzeł
- drzewko (((A + B) + C) + D) = 1.0

Obliczamy kody znaków:

o

A = lewo, lewo, lewo = 000

o

B = lewo, lewo, prawo = 001

o

C = lewo, prawo = 01

o

D = prawo = 1

Jak łatwo sprawdzić statystyczny znak zajmie w naszym kodzie:
p[A] * 3 + p[B] * 3 + p[C] * 2 + p[D] * 1 = 0.3 + 0.6 + 0.6 + 0.4 = 1.9 bitów. Jest to mniej niż 2 bity
potrzebne w trywialnym kodowaniu o stałej długości znaku.
Jednakże entropia znaku wynosi: E = -0.1*log

2

(0.1) - 0.2*log

2

(0.2) - 0.3 * log

2

(0.3) - 0.4 * log

2

(0.4) =

1.8464


background image

11

R

EDUNDANCJA


Redundancja,
w

teorii informacji

nadmiar informacji przekraczający minimum potrzebne do rozwiązania

danego problemu lub przekazu tej informacji, np. zapis liczby 1 jako 01,00 jest redundantny.
Innym przykładem redundancji może być przesyłanie daty dziennej i jednocześnie nazwy dnia tygodnia
(nazwa dnia jest jednoznacznie określona datą).

Jeśli na przesyłaną wiadomość składa się losowa kombinacja 26 liter alfabetu angielskiego, odstępu i 5
znaków interpunkcyjnych i jeśli założymy, że prawdopodobieństwo każdej takiej wiadomości jest takie
samo, to entropia wynosi H = log

2

32 = 5. Oznacza to, że potrzebujemy 5 bitów aby zakodować dowolny

znak lub wiadomość: 00000, 00001, 00010, ... 11111. Efektywność transmisji lub zapisu (przechowywania)
wiadomości wymaga aby zredukować liczbę bitów użytych do kodowania. Jest to możliwe podczas
przetwarzania angielskiego tekstu ponieważ występowanie poszczególnych liter nie jest całkowicie
przypadkowe. Na przykład prawdopodobieństwo, że literą następującą po ciągu liter INFORMATIO jest
"N" jest niezwykle wysokie. Można wykazać, że entropia zwykłego angielskiego tekstu wynosi około jeden
bit na literę. Oznacza to, że język angielski (tak jak i każdy inny język) ma wbudowaną bardzo dużą
nadmiarowość określaną mianem redundancji.. Redundancja umożliwia np. zrozumienie wiadomości, w
której pominięto samogłoski lub odczytanie niestarannego pisma odręcznego. We współczesnych systemach
komunikacyjnych, sztuczna redundancja jest wprowadzana w procesie kodowania wiadomości w celu
zmniejszenia liczby błędów w transmisji wiadomości.

Aby lepiej uświadomic sobie znaczenie redundancji przeczytaj poniższy tekst.

Wy_aga się czas_m od nau__ycieli, by organi_owali na_czanie, mi_o, że _rakuje materia_ów
odp_wiadaj_cyc_ pla_owan_m cel_m. Cz_sto imp_owizuj_ wtedy i adaptuj_ to, co maj_, naj_epiej, j_k
potrafi_. Najcz_ściej je_nak n_ucz_ciele wysz_kują ju_ istniej_ce, sto__wne materia_y. Niebe_piecze_stwo
pol_ga na tym, że ni_kiedy _ybieraj_ materia_y ze wzgl_du na _atwy do ni_h dost_p i w e_ekcie zmi_niaj_
cele naucz_nia tak, aby d_stosować je do dost_pnych mat_riałów. W ta_ich pr_ypadkach u_zniowie mog_
zosta_ wyposa_eni w infor_acje i u_iejętno_ci uczenia si_ nie powi_zane z ce_ami nau__ania.

R.M. Gagne, L.J. Briggs W.W. Wager Zasady projektowania dydaktycznego. W.Sz.i P. 1992 str. 42, Rozdz.
Podstawowe wiadomości o systemach dydaktycznych

To, że mimo braku wielu liter potrafisz go przeczytać zawdzięczamy redundancji jaką cechują się
wszystkie języki naturalne.


PRZYKŁAD

-

redundancja, nieoptymalne kodowanie

Zakodowanie płci przy pomocy oznaczeń 0-KOBIETA 1-MĘŻCZYZNA wymaga jednego bitu. Jeżeli

jednak zastosujemy oznaczenia słowne kodami ASCII, wówczas średnia ilość bitów wynosi 8. (Pliki tekstowe
można skrócić o średnio 40% bez utraty ilości informacji – przegadany język, ale miły bo polski)


background image

12

S

ZUM INFORMACYJNY I JEGO WPŁYW NA POZIOM RYZYKA

Dotychczasowe rozważania koncentrowały się wokół ryzyka, którego źródłem jest niepewność

osiągania wartości oczekiwanych (realizacji celu) przez poszczególne zmienne ekonomiczne. Ich suma
składa się na ryzyko rzeczywiste analizowanego systemu ekonomicznego. Dyskutowane wcześniej miary
informacji (prawdopodobieństwo, entropia) służyły więc pomiarowi ilości informacji niezbędnej do
całkowitego wyeliminowania tej niepewności.

Złożoność analizowanych systemów ekonomicznych nie pozwala często decydentowi na bezpośredni odczyt
czynników ryzyka w miejscu w którym występują.

Naturalną sytuacją jest występowanie kanałów informacyjnych, które pośredniczą pomiędzy źródłem
danych a jej odbiorcą

Schemat ogólnego systemu komunikacji

Źródło: Opracowanie własne na podstawie C. E. Shannon: „A Mathematical Theory of Communication”,

The Bell System Technical Journal, vol. 27, s.379.

Jego obecność staje się podstawą sformułowania istotnego problemu teorii informacji, dotyczącego kwestii
doskonałego przesłania informacji przez niedoskonały kanał informacyjny.

6

Kanał informacyjny staje się bowiem źródłem szumu informacyjnego, który dodatkowo powiększa lukę
informacyjną związaną z ryzykiem rzeczywistym. W efekcie obserwator narażony jest na ryzyko łączne,
będące sumą ryzyka właściwego i szumu informacyjnego (Rysunek).


Ryzyko postrzegane a ryzyko rzeczywiste

Przykładami „zaszumianych” kanałów informacyjnych mogą być np.: dla właściciela firmy – uproszczone
sprawozdania finansowe, dla inwestora giełdowego – niepełna lub przekłamana informacja o czynnikach
kształtujących kurs spółki, dla posiadacza jednostek uczestnictwa – uproszczona informacja o strategii
inwestycyjnej funduszu itd.

6

D.MacKay: „Information theory, Inference, and Learning Algorithms”, Cambridge University Press,

2003, s.3.

background image

13

Szum informacyjny może powodować zarówno zawyżenie ryzyka postrzeganego w stosunku do
rzeczywistego, jak również jego zmniejszenie.

W obydwu przypadkach istotnym jest, że

1. cena za oczekiwany dochód wynika z poziomu ryzyka postrzeganego
2. oczekiwany dochód z inwestycji wiąże się z istniejącym ryzykiem rzeczywistym.

7

Systemowe lub incydentalne zakłócenia w procesie pozyskiwania informacji na temat zachodzących
procesów prowadzić mogą do istotnego przekłamania oceny ryzyka i jego ekonomicznych skutków.

7

M.Muszyński: Model przenoszenia ryzyka inwestowania z przedsiębiorstwa na jego właścicieli w aspekcie

wykorzystania instrumentów finansowych, referat wygłoszony na konferencji: Finance and Real Economy –
Selected Research and Policy Issues, AE-Katowice, Ustroń, 28-30 maja 2008.


Wyszukiwarka

Podobne podstrony:
Informacja kategoria ekonomiczna 20 04
05 Informacja kategoria ekonomicznaid 5571
05 Informacja kategoria ekonomiczna
Z Ćwiczenia 20.04.2008, Zajęcia, II semestr 2008, Teoria informacji i kodowania
egzamin próbny florysta 20 04 13 J Chabros
Fundusze inwestycyjne i emerytalne wykład 9 20 04 2015
Ogólne informacje o giełdzie, Ekonomia i zarządzanie
20.04.2008-1, Semestr 2 - Archiwum, Zarządzanie strategiczne
FINANSE PUBLICZNE I RYNKI FINANSOWE 20.04.2013, III rok, Wykłady, Finanse publiczne i rynki finansow
0108 20[1].04.2009, II rok, II rok CM UMK, Histologia i cytofizjologia, histologia, Histologia, His
ASAD, Informatyka Stosowana, Ekonomia, Ekonomia
system informacyjny (7 str), Ekonomia
wykład 5- 20.04, WSA, prawo administarcyjne z prawem wspólnot samorządowych, wykłady, sem 2
Patomorfologia 20.04, Analityka semestr IV, Patomorfologia
rmf wykład5 (20 04 2005) QNAOKIVVZ4NW5J5IUXD2V7JYAISAQ3IRRENRN3Q
analiza ekonomiczna wykład 4 (6 04 2005) E6KJFUPHE57EPUVDOJQYLPAHR7J24XQDIVLR52Q
FRANCUSKI słówka 20.04.2012 relacje międzyludzkie, rodzina
20 04 2011

więcej podobnych podstron