Wiadomość W jednak nie jest bez | ||
znaczenia. Zgodnie ze wzorem l(W/Z) = H(Z) - H(Z/W) |
Warto zauważyć, że nie jest wykluczona sytuacja w której niepewność po otrzymaniu | |
źle zbudowana wiadomość może sprawić, |
wiadomości W nie tylko nie zmaleje, | |
że tej granicznej ilości informacji nie da się uzyskać i będziemy musieli zadowolić się |
ale przeciwnie - wzrośnie: | |
ilością informacji |
H(Z/W) > H(Z) | |
l(W/Z) < H(Z) |
Taka sytuacja ma miejsce, gdy wiadomość W jest w istocie dezinformacją. W takim przypadku ilość informacji wnoszonej przez taką wiadomość jest ujemna (l(W/Z) < 0 ) i musimy się z tym pogodzić.
Przytoczone wyżej rozważania wskazały, że ilość informacji będziemy mogli zmierzyć (w właściwie wyznaczyć obliczeniowo) gdy znajdziemy skuteczny sposób obliczania miar niepewności H(Z) oraz H(Z/W).
Idąc śladem pomysłów Shannona |
Związek H(Z) oraz p(Z) jest następujący: | |
powiążemy miarę niepewności dotyczącą zdarzenia H(Z) z prawdopodobieństwem tego |
Im mniejsze prawdopodobieństwo. | |
zdarzenia p(Z). |
tym większa niepewność. |