![]() | Pobierz cały dokument 6434.doc Rozmiar 83 KB |
1.Struktura blokowa systemu telekomunikacyjnego
ŹRÓDŁO INF(syg. informacyjny) ->KODER ŹRÓDLA(słowa kodowe źródła)->KODER KANAŁU(słowa kodowe kanału)-> MODUŁ ATOR(przebieg)-> KAŃ AŁ(syg odbierany)-> DEMO DULATOR(estymata słowa kodowego kanału)-> DEKO DER KANAŁU(estymata słowa kodowego źródła)-> DEKODER ŹRÓDŁA(estymata syg informacyjnego)-»UŻYTKOWNlK
2. Analogowe i cyfrowe źródło informacji
3. Różnice między bezpamięciowym źródłem inf i źródłem z pamięcią
Dyskretne źródło bezpamięciowe- symbol emitowany w dowolnej chwili czasu jest niezależny od symboli wysyłanych uprzednio, wytwarza informacje elementarne statystycznie niezależne
4. Ilość informacji
I(Sk) = log(I/piJ pw- prawdopodobieństwo wysłania przez źródło symbolu s^ Warunki:
1 I(Sk) = O dla pi = l brak informacji, zdarzenie pewne
2 I(Sk) > O dla 0< pk<l zaistnienie zdarzenia S = sk niesie ze sobą pewną informację lub nie ale nigdy nie prowadzi do utraty informacji
3 I(Sk) > I(S,) dla pk<pinim mniej prawdopodobne zdarzenie tym więcej informacji zyskujemy przez jego zaistnienie
4 I(skSj) = I(sk) + Ifo) gdy sk oraz S; są statystyzcnie niezależne
Jeden bit jest ilością informacji jaką uzyskujemy gdy zajdzie jedno z dwu możliwych i jednakowo prawdopodobnych zdarzeń
5. Pojecie entropii dyskretnego źródła bez pamięci -jest miarą średniej informacji zawartej w symbolu alfabetu źródła:
//(^) = £[/(^] = J>,log2(—)
Pk 0< H(cp)< log2K K-liczba symboli alfabetu źródła cp ,
a) H((p) = OO pk= l a pozostałe prawdopodobieństwa z tego zbioru są równe zeru (brak niepewności)
b) H(cp)= log2K o pk=l/K dla wszystkich k. Wszystkie symbole są rownoprawdopodobne - maximum niepewności. Zatem entropia jest zawsze równa lub mniejsza od logjK
Entropia źródła binarnego bez pamięci: Zero występuje z prawdop p0 a symbol l z prawd. pj= 1-po
H(cp) = -p0'log2po - (l-po)log2(l-po) bitów Własności: gdy po= O to H(q>) = O gdy p0= l to H(cp) = O
Entropia H(<p)=0 osiąga swoja wartość max, H^ =1 bit, przy p,=p2=l/2, gdy symbole I i O są równoprawdopodobne
6. Scharakteryzować zasady kodowania kompresyjnego Huffmana:
![]() | Pobierz cały dokument 6434.doc rozmiar 83 KB |