1.
2.
3.
4.
5.
6.
7.
8.
H = log2
H(x) = £p(x)iog;M—|=-£p(.*)iog;p(x) 1 ^ PC X ) ) X
Informacja - co to jest, jakie są pojęcia równoważne, kategoria ekonomiczna?
Informacja - jest wiele definicji, informacja kojarzy się z informatyką, nie jest to nauka pierwotna w stosunku do informacji, jest czynnikiem (i to jest wtórne),
• Podejście w rozumieniu cybernetyki (cybernetyka skonstruowała systemowe podejście) - praktyczna definicja informacji - każdy czynnik, dzięki któremu każdy podmiot może zwiększyć swoją wiedzę o otoczeniu.
• Ile informacji zawartych jest w wiadomości -> nie jest obiektywne, zależy od kontekstu.
• 3 definicja - pochodząca z teorii informacji (ujęcie statystyczne). Zależność pomiędzy parametrami linii dla potrzeb przesyłu. Miara ilości informacji.
Komunikat - jest kojarzony z treścią przekazywaną przez jakieś medium. Cecha charakterystyczna mediów - w czasie coraz krótszym penetrują społeczeństwa. {Np. radio potrzebowało 80 tal, telewizja 50 lat, media kablowe 20-30 lat, Internet - 10 lat, telefon komórkowy - 5 lat), gospodarka ery informacyjnej skończy się, bo nie będzie tego dynamicznego przyrostu a umiejętność jej wykorzystania zostanie doprowadzona do pewnego poziomu.
Wiadomość - sama treść (jest częścią komunikatu), to nie to samo, co informacja.
Dane - to samo, co wiadomość w sensie formalnym, język sam sugeruje, dane to uporządkowane wiadomości, forma gotowa do analizy.
Informacja to esencja najbardziej ciekawa, taka śmietanka.
Ilość informacji - jak dużo informacji jest niesione za pomocą wiadomości:
• Wiadomość jako zmienna losowa (warianty poszczególne z określonymi prawdopodobieństwami)
o Zmienna losowa dotyczy konkretnej cechy {Np. zysk firmy) - każdy wariant ma określone prawdopodobieństwo
o Jak dużo informacji uzyskam z wiadomości mówiącej o tym ile wyniesie zysk firmy w roku 2011?
• Poszczególne warianty wiadomości będą opisywane w sposób binarny. Np. rozpatruje 4 warianty zysku, które koduję w systemie zerojedynkowym
• Na jednym bajcie możemy zapisać 28 = 256 informacji
• Przeliczanie liczb na system binarny: 170 = 10101010 Możliwości:
• Jeśli wszystkie warianty są tak samo prawdopodobne, to nie wiemy nic - najgorsza sytuacja z punktu widzenia ekonomisty
log2 p - wzór na ilość informacji
^ H - entropia - ilość informacji zawartych w wiadomości Bit - jednostka informacji, ilość informacji zawarta w wiadomości
zdarzeńk
o W sensie informacyjnym istnieją bity, które mają wartości ułamkowe. Możemy mieć jakieś pojęcie na dany temat - damy niektórym wariantom większe prawdopodobieństwo.
o z wiadomości nie uda się wycisnąć więcej niż 1 bit.
o Decybele - skala logarytmiczna - różnica 3 decybeli - podwojenie głośności Entropia prowadzi do całkowitej pewności.
Entropia mówi ile bitów musiałbym mieć, aby osiągnąć dany poziom ryzyka.
Entropia jest miarą addytywną.
Nie da się wejść na najwyższy poziom charakteryzujący się brakiem ryzyka.
1