3. Rozkłady wielowymiarowe.
3.1. Wstępne określenia.
Definicja 3.1.1. Wektor losowy ![]()
nazywamy dwuwymiarową zmienną losową, jeżeli jest określony jego rozkład, tzn. jeśli dla każdego prostokąta na płaszczyźnie ![]()
określone jest prawdopodobieństwo, że wektor losowy ![]()
zaznacza pewny punkt tego prostokąta.
Definicja 3.1.2. Dystrybuantą wektora losowego ![]()
nazywamy funkcję
![]()
.
Dla dwuwymiarowej zmiennej losowej ![]()
dyskretnej wystarczy podać prawdopodobieństwa
![]()
![]()
Definicja 3.1.3. W niektórych sytuacjach fizycznych jest pożyteczne określenie rozkłady zmiennych oddzielnie — rozkłady brzegowe
![]()
![]()
![]()
![]()
Definicja 3.1.4. Zmienne losowe ![]()
i ![]()
nazywamy niezależnymi jeśli
![]()
![]()
Definicja 3.1.5. Rozkład warunkowy zmiennej losowej ![]()
pod warunkiem, że ![]()
nazywamy wielkość

![]()
oraz

![]()
Dla dwuwymiarowej zmiennej losowej ![]()
ciągłej wystarczy podać prawdopodobieństwo w postaci
![]()
.
Gęstość brzegowa zmiennej losowej ![]()
określamy całką
![]()
oraz zmiennej losowej ![]()
wzorem
![]()
Gęstością warunkową nazywamy zmiennej losowej ![]()
pod warunkiem, że ![]()
nazywamy wielkość

oraz zmiennej losowej ![]()
pod warunkiem, że ![]()

.
Zmienne losowe ![]()
i ![]()
niezależne jeśli
![]()
.
3.2. Funkcje zmiennych losowych.
Załóżmy, że pewną zależność funkcjonalną
![]()
.
Rozkład zmiennej losowej ![]()
określa się wzorem
![]()
w przypadku zmiennej skokowej oraz
![]()
Łatwo jest sprawdzić następujące wzory
![]()
,
więc gęstość zmiennej losowej ![]()
ma postać
![]()
,
Podobnie sprawdzamy, że
![]()
,
![]()
,
![]()
.
Jeśli zmienne losowe ![]()
i ![]()
niezależne, to
![]()
,
![]()
,
![]()
,
![]()
.
Wartość oczekiwania zmiennej losowej ![]()
określa się jako
![]()
w przypadku dyskretnym, lub
![]()
w przypadku ciągłym.
Mamy zawsze
![]()
,
a dla zmiennych losowych ![]()
i ![]()
niezależnych mamy też
![]()
.
Definicja 3.2.1. Ostatni wzór sugeruje, że różnica
![]()
,
zwana kowariancją, może być użyta jak miara zależności zmiennych losowych ![]()
i ![]()
.
Definicja 3.2.2. Wówczas współczynnik korelacji określamy wzorem
![]()
.
Współczynnik korelacji równia się zero ![]()
jeśli zmienne losowe ![]()
i ![]()
są niezależne. W tym przypadku
![]()
.
Z tego, że ![]()
nie wynika niezależność zmiennych losowych ![]()
i ![]()
, za wyjątkiem, gdy mają one rozkład normalny.
Ponadto mamy zawsze
![]()
i
![]()
wtedy i tylko wtedy, gdy ![]()
. Przy czym jeśli ![]()
, to ![]()
, oraz jeżeli ![]()
, to ![]()
.
Przykład 3.2.1. Rozpatrzymy ![]()
niezależnych powtórzeń pewnego doświadczenia, w wyniku którego mamy trzy możliwe zdarzenia ![]()
z prawdopodobieństwom ![]()
, ![]()
— ![]()
i ![]()
z prawdopodobieństwom ![]()
. Niech ![]()
i ![]()
oznaczają ilości zdarzeń ![]()
i ![]()
. Przy tym ilość realizacji zdarzenia ![]()
wynosić będzie ![]()
. Łączny rozkład ![]()
ma postać
![]()
,
gdzie ![]()
, ![]()
.
Rozkłady brzegowe maja postać dwumianową
![]()
,
![]()
.
Przykład 3.2.2. Zmienna losowa ![]()
ma dwuwymiarowy rozkład normalny z gęstością

.
Drogą prostego całkowania przekonujemy się, że rozkłady brzegowe zmiennych losowych ![]()
i ![]()
są normalne o parametrach
![]()
.
Rozkład warunkowy zmiennej losowej ![]()
pod warunkiem, że ![]()
, ma postać

i jest rozkładem normalnym o parametrach
![]()
.
3.3. Centralne twierdzenie graniczne.
Jest to uogólnienie twierdzenia de Moivre'a - Laplace'a. Jeżeli zmienne losowe ![]()
są niezależne mają jednakowy rozkład o wartości przeciętnej ![]()
i odchyleniu standardowym ![]()
, to dla dowolnych ![]()
i ![]()
(![]()
) zachodzi relacja

.
Przykład 3.3.1. Komputer dokonał milion operacji. W każdej operacji otrzymujemy wynik z nadmiarem ![]()
z prawdopodobieństwom ![]()
i niedomiarem ![]()
z prawdopodobieństwom ![]()
. Kolejny błędy są niezależne i sumują się. Jaki rozsądne granicy błędu możemy przypisać w wynikowi?
Nich ![]()
oznacza wielkość błędu w j-tej operacji. Mamy ![]()
, a zatem
![]()
,
![]()
,
więc ![]()
. Na mocy centralnego twierdzenia granicznego mamy

.
Jeśli ![]()
, a ![]()
, to prawa strona wynosi 0,99. Więc z prawdopodobieństwom 99% błąd sumy ![]()
zawarty jest w granicach ![]()
.
3.4. Elementy teorii informacji.
Pojęcia wstępne. Teorią informacji jest nauka, która bada podstawowe prawa związane z otrzymaniem, przekazaniem, obróbką i zachowaniem informacji.
Było by dobrze określić - co to jest informacja? Pojęcie podstawowe?
Do typowych zagadnień teorii informacji nalezą:
określenie właściwych metod kodowania, które dają możliwość przekazania informacji za pomocą minimalnej liczby symboli;
ocena możliwości linii transferu danych, kiedy wiadome są parametry źródła informacji, konkretnego kanału łączności oraz punktu dostarczania;
określenie objętości pamięci urządzeń technicznych dla rozwiązywania konkretnych zagadnień;
ocena parametrów wprowadzenia i wyprowadzenia informacji dla konkretnej realizacji technicznej;
rozwiązywanie problemów małej czułości wszystkich węzłów związanych z otrzymaniem, przekazaniem, obróbką i zachowaniem informacji, co do zakłóceń różnego typu.
Rozwiązanie wymienionych zagadnień opiera się na dwóch podstawowych pojęciach - liczbie możliwych stanów układu fizycznego oraz ich prawdopodobieństwie.
Niech przez ![]()
odnotowany będzie pewny układ fizyczny oraz przez ![]()
jego różne stany fizyczne. Notację ![]()
wykorzystujemy dla tego, żeby zaznaczyć, że układ ![]()
przebywa w stanie ![]()
(![]()
). Wówczas prawdopodobieństwo, że układ znajduje się w tym stanie notujemy jak ![]()
(![]()
). Oczywistym jest, że spełniony jest warunek normowania, mianowicie ![]()
.
Popularnym sformułowaniem opisanej sytuacji układu fizycznego w różnych stanach ![]()
, ![]()
, jest w postaci tablicy standardowej
|
|
|
... |
|
... |
|
|
|
... |
|
... |
Definicja 3.4.1. Entropią układu fizycznego ![]()
nazywamy liczbę skalarna
![]()
.
Niestety, w teorii informacji, za zwykle przyjmuje się, że ![]()
, oraz mówi się, że entropia mierze się w dwójkowych jednostkach.
Właściwości entropii:
![]()
, jeśli ![]()
(prawdopodobne), a wszystkie ![]()
(nieprawdopodobne) (![]()
, ![]()
);
![]()
, jeśli ![]()
, ![]()
(wszystkie stany jednakowe);
![]()
— rośnie przy zwiększeniu liczby stanów układu fizycznego;
![]()
— wielkość addytywna.
Definicja 3.4.2. Wielkość fizyczna, w szczególności entropia, która będąc określoną dla układu ![]()
, gdzie przyjmuje wartość ![]()
, dla układu złożonego
![]()
jest sumą ich wartości
![]()
.
Zmiana podstawy logarytmu ![]()
oznacza mnożenie entropii przez stałą liczbę. Jeśli ![]()
, to za jednostkę pomiaru entropii przyjęto entropię układu fizycznego ![]()
, ![]()
, albo
|
|
|
|
|
|
ponieważ
![]()
.
Taka jednostka pomiaru w teorii informacji nazywa się „bit” (binary digit).
Entropia fizycznego układu ze stanami o równym prawdopodobieństwie ![]()
, ![]()
jest entropią układu ![]()
, ![]()
, tzn.
![]()
.
Entropia warunkowa. Rozważamy dwa układy fizyczne ![]()
i ![]()
. Oznaczymy przez ![]()
prawdopodobieństwo warunkowe tego, że układ ![]()
znajduje się w stanie ![]()
jeśli układ ![]()
jest w stanie ![]()
, tj.
![]()
.
Definicja 3.4.3. Entropię warunkową ![]()
układu ![]()
za warunku, że układ ![]()
znajduje się w stanie ![]()
określa wzór
![]()
,
gdzie
![]()
.
Definicja 3.4.4. Pełną entropią warunkową ![]()
układu ![]()
nazywamy
![]()
.
Definicja 3.4.5. Informacją cząstkową o tym, że układ ![]()
znajduje się w stanie ![]()
nazywamy wielkość
![]()
.
Definicja 3.4.6. Ilość informacji, która może być otrzymana o układzie fizycznym ![]()
przy obserwacji układu fizycznego ![]()
określamy wzorem
![]()
.
Z powyższych definicji wynika

.
Zaznaczmy, że dla niezależnych układów fizycznych ![]()
i ![]()
mamy ![]()
. Wówczas ![]()
.
RACHUNEK PRAWDOPODOBIEŃSTWA