6434

Pobierz cały dokument
6434.doc
Rozmiar 83 KB

Fragment dokumentu:

1.Struktura blokowa systemu telekomunikacyjnego

ŹRÓDŁO INF(syg. informacyjny) ->KODER ŹRÓDLA(słowa kodowe źródła)->KODER KANAŁU(słowa kodowe kanału)-> MODUŁ ATOR(przebieg)-> KAŃ AŁ(syg odbierany)-> DEMO DULATOR(estymata słowa kodowego kanału)-> DEKO DER KANAŁU(estymata słowa kodowego źródła)-> DEKODER ŹRÓDŁA(estymata syg informacyjnego)-»UŻYTKOWNlK

2. Analogowe i cyfrowe źródło informacji

3. Różnice między bezpamięciowym źródłem inf i źródłem z pamięcią

Dyskretne źródło bezpamięciowe- symbol emitowany w dowolnej chwili czasu jest niezależny od symboli wysyłanych uprzednio, wytwarza informacje elementarne statystycznie niezależne

4. Ilość informacji

I(Sk) = log(I/piJ pw- prawdopodobieństwo wysłania przez źródło symbolu s^ Warunki:

1 I(Sk) = O dla pi = l brak informacji, zdarzenie pewne

2 I(Sk) > O dla 0< pk<l zaistnienie zdarzenia S = sk niesie ze sobą pewną informację lub nie ale nigdy nie prowadzi do utraty informacji

3 I(Sk) > I(S,) dla pk<pinim mniej prawdopodobne zdarzenie tym więcej informacji zyskujemy przez jego zaistnienie

4 I(skSj) = I(sk) + Ifo) gdy sk oraz S; są statystyzcnie niezależne

Jeden bit jest ilością informacji jaką uzyskujemy gdy zajdzie jedno z dwu możliwych i jednakowo prawdopodobnych zdarzeń

5. Pojecie entropii dyskretnego źródła bez pamięci -jest miarą średniej informacji zawartej w symbolu alfabetu źródła:

//(^) = £[/(^] = J>,log2(—)

Pk 0< H(cp)< log2K K-liczba symboli alfabetu źródła cp ,

a) H((p) = OO pk= l a pozostałe prawdopodobieństwa z tego zbioru są równe zeru (brak niepewności)

b) H(cp)= log2K o pk=l/K dla wszystkich k. Wszystkie symbole są rownoprawdopodobne - maximum niepewności. Zatem entropia jest zawsze równa lub mniejsza od logjK

Entropia źródła binarnego bez pamięci: Zero występuje z prawdop p0 a symbol l z prawd. pj= 1-po

H(cp) = -p0'log2po - (l-po)log2(l-po) bitów Własności: gdy po= O to H(q>) = O gdy p0= l to H(cp) = O

Entropia H(<p)=0 osiąga swoja wartość max, H^ =1 bit, przy p,=p2=l/2, gdy symbole I i O są równoprawdopodobne

6. Scharakteryzować zasady kodowania kompresyjnego Huffmana:


Pobierz cały dokument
6434.doc
rozmiar 83 KB
Wyszukiwarka

Podobne podstrony:
praca-magisterska-6434, Dokumenty(8)
6434
6434
6434
6434
6434
6434
6434

więcej podobnych podstron

kontakt | polityka prywatności