5/26/2014
Zatem z postulatu |
Łatwo zauważyć, że przy takiej definicji | |
H(Z) = H (p(Zj) p(Z2)) = HfZJ + H(Z2) |
spełniony jest także - niejako z automatu - postulat żeby | |
przy założeniu że |
niepewność zdarzenia pewnego | |
p(Z) = p(Z1)p(Z2) |
P(Z) = 1 | |
wynika, że funkcja określająca miarę | ||
niepewności jakiegoś zdarzenia |
wynosiła zero, bo logarytm jedynki ma | |
powinna być zdefiniowana jako |
wartość zero. | |
logarytm prawdopodobieństwa. |
p(Z) = 1 H(Z) = 0 |
Odrobina kłopotu pojawia się w kontekście postulatu wyrażonego wzorami
p(Z1)>p(Z2)
H(Z1)<H(Z2)
Logarytm jest funkcją rosnącą, więc dla większych wartości argumentu (prawdopodobieństwa) będzie przyjmował większe wartości - a powinno być odwrotnie.
Ale jest na to prosta rada: użyjemy znaku minus przed logarytmem
gdy wartość prawdopodobieństwa będzie rosła i w ślad za tym będzie rosła wartość logarytmu -to wartość niepewności będzie malała.
I o to chodzi!
Zatem mamy już gotową definicję miary niepewności w jej podstawowej |
Otwarta jest jeszcze sprawa jednostek, w jakich będziemy te niepewność | |
postaci. | ||
Oto ona: |
Zwróćmy uwagę, że jeśli wybierzemy określone jednostki dla wyrażania niepewności - to dokładnie te same | |
H(Z) = - logB p(Z) |
jednostki będę wyrażały miary ilości informacji. |
14