dąży do zera, entropia też dąży do zera. Interpretować to można następująco: jeżeli wiadomość jest zupełnie nie znana, nie zawiera dla odbiorcy żadnej informacji. istnieje pojęcie szybkości przekazywania sygnału określone zależnością:
R - iH [bit/s] (2.149)
Wymiar współczynnika r jest równy wiadomość/s.
Ostatnie pojęcie jakie zostanie wprowadzone, jest to przepustowość kanału, oznaczana symbolem C i wyrażana w jednostkach bit/s. Przepustowość kanału może być interpretowana jako maksymalna szybkość, z jaką może być sygnał przekazywany przez kanał.
Po wprowadzeniu wymienionych pojęć można przedstawić podstawowe twierdzenie Shanona w sposób następujący: jeżeli mamy M równie prawdopodobnych wiadomości, przy czym M p 1, a źródło transmituje te wiadomości z szybkością R, oraz jeżeli mamy kanał o przepustowości C; wtedy jeżeli R < C to istnieje taka technika kodowania, że przekazywanie wiadomości M z szybkością R kanałem o przepustowości C może być realizowane z dowolnie małym prawdopodobieństwem błędu.
V-
Słuszne jest również twierdzenie odwrotne, tzn. gdy R p C to prawdopodobieństwo błędu jest zawsze bliskie jedności.
Jeżeli w kanale występuje wyłącznie biały szum gausowski, tzn. mamy kanał gausowski, wtedy przepustowość takiego kanału wynosi:
C
P \
B\og2 (l + -jjrj [bit/s]
(2.150)
gdzie:
B — szerokość pasma kanału.
Jest to twierdzenie Shanona-Hartley1 a, Wiąże ono następujące podstawowe parametry kanału:
3 — szerokość pasma kanału, p — moc sygnału,
U — moc szumu.
Z równania (2.150) wynika, że można przekazywać wiadomość z dowolnie małym prawdopodobieństwem błędu, jeżeli nawet moc sygnału jest mniejsza od mocy szumu.
Równanie (2.150) można przedstawić w następującej postaci:
Cg — JB log 2 1 +
r\B
(2.151)
V
gdzie:
?]B
Obliczmy teraz jaką przepustowość będzie miał kanał gausowski, gdy pasmo kanału rozszerzymy do nieskończoności:
lirnC = lim —
B—>oo B-* co 1]
P
los, (l+.x)la: — —log^ e = 1,44
V
P_
V
(2.152)
49 4 Nowoczesne systemy