background image

Teoria informacji
i kodowanie

Ćwiczenia I

4. marca 2011 r.

Informacja, niepewność, entropia

Zadanie 1

Która z poniższych sekwencji niesie większą informację:

1. 10 liter alfabetu łacińskiego (zakładamy, że wystąpienie każdej z 32 liter jest równie praw-

dopodobne, nie interesuje nas rozróżnienie między wielkimi a małymi literami),

2. 32 cyfry (zakładamy, że wystąpienie każdej z dziesięciu cyfr jest równoprawdopodobne)?

Zadanie 2

Jaką maksymalną nieokreśloność może zawierać fotografia 6 × 9 cm

2

, jeśli rozmiar ziarna jest

równy 001 × 001 cm

2

, a każde ziarno może mieć trzy odcienie: biały, czarny i szary?

Zadanie 3

Źródło generuje wiadomości według następującego schematu:

1. losowane są 0 oraz 1 (odpowiednio z prawdopodobieństwem p

0

pp

1

= 1 − p);

2. losowanie kończy się w chwili wylosowania pierwszej jedynki;

3. źródło wysyła informację, za którym razem to nastąpiło.

Znajdź entropię takiego źródła.

Zadanie 4

(kolokwium z lat poprzednich)

Źródło jest zdefiniowane w sposób następujący:

1. mamy dwa źródła o entropiach odpowiednio H(X) i H();

2. wiadomości generowane przez te źródła nie pokrywają się (np. jedno generuje litery, a

drugie — cyfry);

3. ze źródła wysyłamy informację na tej zasadzie, że z prawdopodobieństwem podajemy

na jego wyjście wiadomość ze źródła X, a z prawdopodobieństwem (1 − p) — wiadomość
ze źródła .

Jaka jest entropia Z?

Zadanie 5

Pokaż, że dla niezależnych zmiennych losowych XY entropia łączna wynosi:

H(X, Y ) = H(X) + H().

Zadanie 6

Dla połączonych doświadczeń Y entropia warunkowa H(Y |X) jest definiowana jako wartość
średnia entropii pod warunkiem znanej realizacji zmiennej X. Wyprowadź wzór na entropię
warunkową oraz udowodnij następującą właściwość (reguła łańcuchowa):

H(X, Y ) = H(X) + H(Y |X).

Zadanie 7

Udowodnij że dla informacji wzajemnej (transinformacji ) zachodzą poniższe tożsamości:

I(X) = I(X)

H(X− H(X|Y )

H(− H(Y |X)

H(X) + H(− H(X, Y )

Strona 1 z 3

background image

Teoria informacji
i kodowanie

Ćwiczenia I

4. marca 2011 r.

Zadanie 8

Zmienna losowa przebiega z takim samym prawdopodobieństwem wartości całkowitoliczbowe
12, . . . , 2. Zmienna losowa jest zdefiniowana jako równa 0, gdy wartość jest parzysta,
natomiast = 1, gdy wartość jest nieparzysta. Udowodnij, że w takim przypadku zachodzi
następująca zależność dla entropii warunkowej :

H(X|Y ) = H(X− 1.

Następnie pokaż, że zachodzi również:

H(Y |X) = 0.

Zadanie 9

(kolokwium z lat poprzednich)

Nasz kolega wykonuje w ukryciu trzy rzuty niesfałszowaną monetą, po czym mówi nam, ile w
sumie wypadło orłów. Jak wiele informacji na temat wyniku pierwszego rzutu dostarcza nam
w ten sposób?

Zadanie 10

(kolokwium z lat poprzednich)

Dana jest dyskretna zmienna losowa X. Inna zmienna losowa zdefiniowana jest przez funkcję:

g(X),

gdzie g(·) jest dowolną funkcją. Jaka zależność ogólna zachodzi między H() i H(X):

H(¬ H(X),

H(­ H(X)?

Przy jakich warunkach nałożonych na funkcję g(·) zachodzi równość?

Zadanie 11

(*)

Używając właściwości logarytmu naturalnego:

ln =

x − 1,

gdy = 1

y < x − 1,

gdy x 6= 1

udowodnij następujące twierdzenie: Jeśli źródło generuje N ­ 1 wiadomości (1, . . . , N ), każdą z
prawdopodobieństwem odpowiednio p

i

, to entropia tego źródła charakteryzuje się następującą

właściwością:

H(X) = (p

1

, p

2

, . . . , p

N

¬ lg N,

przy czym równość zachodzi wtedy i tylko wtedy gdy 

i

p

i

=

1

N

.

Zadanie 12

(**)

Pokaż, że źródło informacji generujące wiadomości x

0

, x

2

, . . . , x

N

zgodnie z rozkładem dwu-

mianowym (rozkładem Bernoulliego), tj. dla 0 ¬ k ¬ N , 0 < p < 1 oraz = 1 − p:

Pr{X x

i

=

 

N

i

!

p

i

q

N −i

,

charakteryzuje się entropią:

H(X¬ −N (log

2

log

2

q).

Strona 2 z 3

background image

Teoria informacji
i kodowanie

Ćwiczenia I

4. marca 2011 r.

Informacja dodatkowa:
Na kartkach z zadaniami do kolejnych kolokwiów znajdą Państwo następujące dane:

„Legalna ściąga”:

H(X, Y ) = H(X) + H(Y |X) (reguła łańcuchowa)

I(X) = H(X− H(X|Y ) = H(− H(Y |X) = H(X) + H(− H(X, Y )

X, Y — niezależne: H(X, Y ) = H(X) + H()

Strona 3 z 3