Wiadomość mniej znana, mniej oczekiwana, mniej prawdopodobna, zawiera więcej informacji dla odbiorcy. Miarą informacji, jaką zawiera wiadomość, jest logarytm o podstawie dwa z odwrotności prawdopodobieństwa tej wiadomości.
(2.143)
Jeżeli sygnał zawiera dwie równie prawdopodobne wiadomości, czyli P = 1/2, wtedy ilość informacji zawarta w jednej takiej wiadomości wynosi
(2.144)
/ — log22 = 1 bit
Mówimy, że wiadomość ta zawiera jednostkę informacji. Na przykład w systemach z modulacją PCM sygnał zawiera L niezależnych poziomów. Jeżeli założymy, że prawdopodobieństwo występowania tych poziomów jest równe, czyli
P =
L
1
2Tv
Wtedy ze wzoru (2.143) można obliczyć, że jeden poziom ze zbioru L poziomów zawiera informację równą:
/
1
log2 —- = łog2 2N = N [bitów]
(2.145)
Jednostka informacji bit jest innym pojęciem od słowa bit w sensie nazwy znaku w sygnale binarnym.
Ważnym pojęciem jest średnia informacja zawarta w wiadomości. Jeżeli na przykład mamy n różnych wiadomości:
, m2 > ... njn
prawdopodobieństwo tych wiadomości wynosi odpowiednio:
Pi»P2> Pn
Niech ponadto ogólna ilość wiadomości wynosi M. Całkowita informacja zawarta w opisanym sygnale wyniesie:
/s = Pi Mlog2 -—+/?■> M log, -f ... +pRM log2—[bitów]
Pl " Pl Pn
Średnia ilość informacji zawarta w jednej wiadomości wyniesie zatem:
(2.146)
/* = //= h ■ 1
i - i 1 i 1
= Pl]og2— +p2log2---+ ... +/?„log2 —
M Pl Pl Pn
(2.147)
r
Średnia ilość informacji zawarta w jednej wiadomości zwana jest entropią. Ogólnie entropia wyraża się następująco:
n
jr__\ ^ l
n ~ / p-, log?— [bit/wiadomość] /-i “ Pi
(2.148)
i =i
Entropia jest największa, gdy prawdopodobieństwa poszczególnych wiadomości w sygnale są sobie równe. Można pokazać, że gdy prawdopodobieństwo wiadomości
48