Wyk
lad z matematyki
Wersja 1.00
Spis treści
1 Eksperymenty, przestrzenie próbek, zdarzenia 4
1.1 Wst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
ep
1.2 Algebra zdarzeń . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Przestrzeń probabilistyczna 6
2.1 Wst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
ep
2.2 Cz
estościowa interpretacja prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . 6
2.3 Aksjomatyka Ko
lmogorowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Podstawowe konsekwencje aksjomatów . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.5 Dyskretna przestrzeń probabilistyczna . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.6 Skończony produkt przestrzeni probabilistycznej . . . . . . . . . . . . . . . . . . . . . 8
3 Prawdopodobieństwo warunkowe, zdarzenia niezależne. 8
3.1 Prawdopodobieństwo warunkowe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Wzór na prawdopodobieństwo ca
lkowite . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.3 Wzór Bayes a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.4 Formu lańcuchowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
la
3.5 Niezależność zdarzeń. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.6 Niezależność zdarzeń w przestrzeni produktowej . . . . . . . . . . . . . . . . . . . . . 10
4 Schemat Bernoulliego 10
5 Zmienne losowe i ich rozk 11
lady
5.1 Sens praktyczny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.2 Matematyczna definicja zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.3 Dystrybuanta rozk zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . . . . 11
ladu
5.4 Rozk ciag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
lad ly
5.5 Rozk dyskretny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
lad
5.6 Twierdzenie Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.7 Funkcje od zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6 Wartość oczekiwana 13
6.1 Wst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
ep
6.2 Wartość oczekiwana dla zmiennych losowych o rozk dyskretnym . . . . . . . . . 13
ladzie
6.3 Wartość oczekiwana dla zmiennych losowych o rozk ciag . . . . . . . . . . . 14
ladzie lym
6.4 Wartość oczekiwana zmiennej losowej funkcji, momenty . . . . . . . . . . . . . . . . . 14
6.5 Operacja normowania zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . . . . . 14
7 Nierówność Czebyszewa 14
7.1 Klasyczna nierówność Czebyszewa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
7.2 Ogólna nierówność Czebyszewa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
8 Rozk normalny 15
lad
1
9 Uk wielu zmiennych losowych 17
lady
9.1 Uk dwóch zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
lady
9.1.1 Uk zmiennych losowych o rozk ciag . . . . . . . . . . . . . . . . 18
lady ladzie lym.
9.1.2 Zbiór wartości uk (X,Y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
ladu
9.1.3 Rozk dyskretny uk 2 zmiennych losowych. . . . . . . . . . . . . . . . . 18
lad ladu
9.1.4 Niezależność zmiennych. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
9.1.5 Kowariancja i wspó
lczynnik korelacji. . . . . . . . . . . . . . . . . . . . . . . . 19
9.1.6 Rozk sumy zmiennych losowych, gdy uk posiada rozk ciag . . . . . 20
lad lad lad ly.
9.1.7 Rozk normalny (gaussowski) uk 2 zmiennych losowych . . . . . . . . . 21
lad ladu
9.1.8 Rozk funkcji od 2 zmiennych losowych. . . . . . . . . . . . . . . . . . . . . 21
lad
9.1.9 Wartość oczekiwana funkcji od 2 zmiennych losowych. . . . . . . . . . . . . . . 22
9.2 Modele probabilistyczne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
9.2.1 Rozk dwupunktowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
lad
9.2.2 Rozk dwumianowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
lad
9.2.3 Rozk geometryczny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
lad
9.2.4 Rozk Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
lad
9.2.5 Rozk wyk lad
lad ladniczy i rozk Gamma . . . . . . . . . . . . . . . . . . . . . . 23
9.2.6 Rozk beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
lad
9.2.7 Rozk powiazane z rozk normalnym . . . . . . . . . . . . . . . . . . . 24
lady ladem
9.2.8 Rozk równomierny . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
lad
9.3 Uk wielu zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
lady
9.3.1 Macierz kowariancji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
9.3.2 Niezależność uk zmiennych losowych . . . . . . . . . . . . . . . . . . . . . 25
ladu
9.3.3 Ciagi niezależnych zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . 26
9.3.4 Uk zmiennych o jednakowych rozk . . . . . . . . . . . . . . . . . . . 26
lady ladach
9.3.5 Wielowymiarowy rozk normalny (gaussowski) . . . . . . . . . . . . . . . . . 27
lad
10 Twierdzenia graniczne 27
10.1 Zbieżność ciagów zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
10.1.1 Zbieżność wed prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . 27
lug
10.1.2 Zbieżność wed dystrybuanty. . . . . . . . . . . . . . . . . . . . . . . . . . . 28
lug
10.2 Zbieżność z prawdopodobieństwem 1 (prawie wsz . . . . . . . . . . . . . . . . . 29
edzie)
10.3 Mocne prawo wielkich liczb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
10.4 Centralne twierdzenia graniczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
11 Podstawowe poj Statystyki Matematycznej 32
ecia
11.1 Wst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
ep
11.2 Estymacja parametrów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
11.3 Nieobciażoność statystyki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
11.4 Zgodność ciagu statystyk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
11.5 Efektywność statystyk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
11.6 Estymator parametru . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
11.7 Metody konstrukcji estymatorów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
11.7.1 Metoda momentów ( analogii) . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
11.7.2 Metoda najwi wiarygodności . . . . . . . . . . . . . . . . . . . . . . . . 34
ekszej
2
12 Przedzia ufności 35
l
13 Testowanie hipotez statystycznych. 36
13.1 Wst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
ep.
13.2 Testy istotności (przyk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
lady)
14 Zadania dotycz granic ci zmiennych losowych i twierdzeń granicznych 39
ace agów
15 Inne przyk 42
ladowe zadania
15.1 Zadanie o ruinie gracza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
15.2 Zadanie o losowym ankietowaniu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
15.3 Zadanie o loterii fantowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
15.4 Zadanie Stefana Banacha o dwóch pude zapa . . . . . . . . . . . . . . . . . . 45
lkach lek
15.5 Zadanie o losowym prognozowaniu pogody . . . . . . . . . . . . . . . . . . . . . . . . 46
16 Nierówności dla prawdopodobieństw warunkowych 46
3
1 Eksperymenty, przestrzenie próbek, zdarzenia
1.1 Wst
ep
Metody rachunku prawdopodobieństwa stosujemy do analizy wyników takich eksperymentów doświa-
dczeń), które spe a warunki: musi być zapewniona możliwość wielokrotnego niezależnego pow-
lniaj
tarzania danego doświadczenia dowoln ilość razy w niezmienionych warunkach. Efektem wykonania
a
każdego oddzielnego doświadczenia jest wynik tego doświadczenia, który powinien być możliwy do
zaobserwowania (zmierzenia). Definicje wyników doświadczeń musz spe warunki:
a lniać
1. pojawienie si jednego wyniku wyklucza pojawienie si innego wyniku w tym samym doświad-
e e
czeniu;
2. każdy logicznie uzasadniony wynik powinien mieć szans realizacji w jakimś doświadczeniu.
e
Dla ogólnego oznaczenia wyników poszczególnych doświadczeń zastosujemy liter , ewentualnie k
e
gdy chcemy zaznaczyć, że jest to wynik k - tego doświadczenia.
Przestrzenia próbek (oznaczan S ) dla danego eksperymentu jest zbiór wszystkich możliwych wy-
a
ników jakie s logicznie do pomyślenia. Zdarzenie jest to podzbiór przestrzeni próbek. Zdarzenia
a
oznaczamy A, B,C, ewentualnie z indeksami.
Jeżeli wynik konkretnego doświadczenia jest elementem określonego zdarzenia A , to mówimy, że w
tym doświadczeniu zosta zaobserwowane zdarzenie A.
lo
1.2 Algebra zdarzeń
a) Zawieranie zdarzeń:
A " B ! " B
"A
b) Równość zdarzeń:
A = B ! A " B '" B " A
c) Zdarzenie niemożliwe i zdarzenie pewne:
Gdy nie istnieje wynik doświadczenia, który by należa do danego zdarzenia, to mówimy, że jest
l
to zdarzenie niemożliwe i oznaczamy symbolem . Zdarzenie równe S nazywamy zdarzeniem
pewnym.
d) Uzupe
lnienie zdarzenia:
A - zdarzenie, AC - jego uzupe
lnienie
AC := { " S : " A}, (AC)C = A
/
e) Suma zdarzeń:
A *" B := { " S : " A (" " B}
A *" AC = S, A " A *" B
A *" B = B *" A, A *" S = S, A *" " = A
A *" A = A, B " A *" B
4
f) Przekrój zdarzeń:
A )" B := { " S : " A '" " B}
A )" AC = ", A )" B " A, A )" B " B
A )" B = B )" A, A )" S = S, A )" " = ", A )" A = A
g) Różnica zdarzeń:
A\B := { " S : " A '" " B}
/
A\B = A )" BC, AC = S\A, A )" (B\A) = "
A\B " A, A *" (B\A) = A *" B
h) Zdarzenia wykluczaj si (roz aczne):
ace e l
Gdy A )" B = ", to mówimy, że zdarzenia A i B wykluczaja si wzajemnie (s roz aczne)
e a l
i) L
aczność operacji )", *":
A *" (B *" C) = (A *" B) *" C
A )" (B )" C) = (A )" B) )" C
j) Rozdzielność operacji )", *":
A )" (B *" C) = (A )" B) *" (A )" C)
A *" (B )" C) = (A *" B) )" (A *" C)
k) Skończone sumy i przekroje:
n
Ai := A1 *" A2 *" ... *" An
i=1
n
Zaobserwowanie w doświadczeniu zdarzenia Ai ! obserwujemy pojawienie si przynajmniej
e
i=1
jednego spośród zdarzeń A1, A2, An.
n
Ai := A1 )" A2 )" ... )" An
i=1
n
Zaobserwowanie w doświadczeniu zdarzenia Ai ! obserwujemy pojawienie si wszystkich
e
i=1
zdarzeń A1, A2, An.
l) Prawa de Morgana;
n n
( Ai)C = AC
i
i=1 i=1
n n
( Ai)C = AC
i
i=1 i=1
m) Nieskończone sumy i przekroje:
"
Ai := { " S : " Ai}
i=1 i"N
"
Ai := { " S : " Ai}
i=1 i"N
5
n) Przedstawienie dowolnej sumy w postaci sumy zdarzeń parami wykluczaj
acych
" " i-1
Ai = i gdzie 1 = A1, a dla i > 1, i = AC )" Ai. Widzimy, że dla i = j, i )" j = ".
j
i=1 i=1 j=1
o) Kres górny i kres dolny ci zbiorów
agu
" "
lim sup An := Ai = = { " S: w jest elementem nieskończonego podciagu ciagu zbiorów
k=1 i=k
{An}}
" "
lim inf An := Ai =
k=1 i=k
= { "S: poza skończon ilościa zdarzeń jest elementem wszystkich pozosta zdarzeń z
a lych
ciagu {An}}
p) Wst acy ci zdarzeń:
epuj ag
wtedy, gdyA1 " A2 " . . . " An " . . .
q) Malej ci zdarzeń:
acy ag
wtedy gdy A1 " A2 " . . . " An " . . .
2 Przestrzeń probabilistyczna
2.1 Wst
ep
Każdemu zdarzeniu A chcemy przypisać liczb z odcinka [ 0,1 ] określajac prawdopodobieństwo
e a
pojawienia si tego zdarzenia. Chcemy by zdarzenie niemożliwe " mia prawdopodobieństwo 0, a
e lo
zdarzenie pewne prawdopodobieństwo 1.
2.2 Cz
estościowa interpretacja prawdopodobieństwa
Wykonujemy seri N doświadczeń (tzn. N razy w niezmienionych warunkach i w sposób niezależny
e
powtarzamy doświadczenia). Rejestrujemy liczb n(A) równ ilości tych doświadczeń kiedy zaob-
e a
serwowano zdarzenie A w ca serii doświadczeń. Jeżeli wykonamy takich serii m i liczb n(A)
lej e
m
nk(A)
1 1
uzyskan w k - tej serii oznaczymy przez nk(A), to uważamy, że P (A) H" = ( ilość
a
m N mN
k=1
tych doświadczeń spośród mN kiedy zosta zaobserwowane zdarzenie A ) = cz wyst
lo estość epowania
zdarzenia A w ciagu mN niezależnych doświadczeń.
2.3 Aksjomatyka Ko
lmogorowa
Zdarzenie elementarne ! wynik doświadczenia.
Zdarzenia elementarne oznaczamy ogólnie greck ma a liter .
a l a
Zdarzenie losowe ! zdarzenie.
Przestrzeń zdarzeń elementarnych &! - zbiór wszystkich możliwych wyników S.
Jeżeli A jest zdarzeniem losowym, to P(A) ! cz pojawiania si zdarzenia A w ciagu doświa-
estość e
dczeń.
Obiekty &!, P maja być zgodne ze struktur matematyczn przestrzeni z miar Dlatego od rodziny
a a a.
6
wszystkich zdarzeń losowych wymaga si by tworzy struktur - algebry zbiorów oznaczamy j Ł.
e la e a
Trójk (&! , Ł, P ) nazywamy przestrzenia probabilistyczn Każdy z tych trzech obiektów musi
e a.
spe warunki:
lniać
1. &! = ";
2. rodzina Ł spe warunki:
lnia
(a) ", &! " Ł,
(b) jeżeli A " Ł to AC " Ł,
"
(c) jeżeli {An: n" N } " Ł, An " Ł
n=1
Z warunków (b), (c) oraz praw de Morgana wnioskujemy, że jeżeli {Bn: n " N } " Ł, to
"
An " Ł oraz jeżeli B, C " Ł, to B \ C " Ł
n=1
3. P: Ł - [0,1] i spe warunki:
lnia
(a) P(") = 0, P(&!) = 1
(b) jeżeli {An: n " N } " Ł i zdarzenia An, n " N , s parami roz aczne, to
a l
" "
P ( An) = P (An).
n=1 n=1
W szczególności, jeżeli mamy skończony uk zdarzeń roz acznych {B1, B2,..., Bn}, to
lad l
N N
P ( Bn) = P (Bn).
n=1 n=1
Funkcj zbiorów P nazywamy miar prawdopodobieństwa.
e a
2.4 Podstawowe konsekwencje aksjomatów
Od tego momentu wszelkie pojawiajace si zbiory b a zdarzeniami losowymi.
e ed
1. jeżeli A ą" B, to P (A) d" P (B);
2. jeżeli A ą" B, to P(B \ A) = P(B) - P(A);
3. P(AC) = 1 - P(A);
4. P (A *" B) = P (A) + P (B) - P (A )" B);
5. Prawo w aczania - wy aczania
l l
N N
P ( Ak) = P (Ak)- P (Ak )" Ak )+
1 2
k=1 k=1 1d"k1
N
+ P (Ak )" Ak )" Ak ) - . . . + (-1)N+1P ( Ak)
1 2 2
1d"k17
" "
6. P ( An) d" P (An)
n=1 n=1
N N
P ( An) d" P (An)
n=1 n=1
"
7. jeżeli A1 " A2 " . . . " An " . . ., to P ( An) = lim P (An)
n"
n=1
"
8. jeżeli A1 " A2 " . . . " An " . . . P ( An) = lim P (An)
n"
n=1
"
Lemat 1 Pierwszy lemat Borela - Cantelliego. Jeżeli P (Ak) < ",to P (lim sup An) = 0
k=1
2.5 Dyskretna przestrzeń probabilistyczna
I"Z jest zbiorem indeksów skończonym lub nieskończonym.
&! = {k : k " I}, Ł = zbiór wszystkich podzbiorów &!. W szczególności {k} " Ł dla każdego k"I.
Określone s wartości liczbowe pk:=P({k}). Ponieważ P(&!) = 1, wi pk = 1.
a ec
k"I
Gdy A " &!, to P(A) = pk
k"A
Szczególnym przypadkiem dyskretnej przestrzeni probabilistycznej jest schemat klasyczny:
1
&! = {1, . . . , N}, P ({j}) = dla j = 1, .., N.
N
2.6 Skończony produkt przestrzeni probabilistycznej
(&!, Ł, P) - podstawowa przestrzeń probabilistyczna. N - krotny produkt tej przestrzeni oznaczymy
przez (&!N, ŁN, PN); N e" 2, gdzie: &!N := &! . . . &! := {(1, . . . , N) : i " &!, i = 1, . . . , N},
ŁN - rodzina podzbiorów &!N generowana przez zbiory postaci: A1 . . . AN, że Ai " Ł i=1, ...,
N
N; A1 . . . AN := {(1, . . . , N) : i " Ai, i = 1, . . . , N}, P (A1 . . . AN) := P (Ak). PN
k=1
b miar prawdopodobieństwa na &!N. Wartości PN na zbiorach bardziej z
edzie a lożonych wyznaczamy
w oparciu o postulaty miary prawdopodobieństwa i konsekwencje tych postulatów przedstawione w
punkcie 4. Trzeba tam brać PN zamiast P, a zdarzenia losowe s z ŁN.
a
3 Prawdopodobieństwo warunkowe, zdarzenia niezależne.
3.1 Prawdopodobieństwo warunkowe.
Rozpatrywane s dwa zdarzenia A i B, które nie wykluczaj si wzajemnie. Wykonywana jest seria
a a e
N niezależnych doświadczeń. Oznaczamy przez n(B) ilość doświadczeń, w których zaobserwowano
zdarzenie B. Przez n(A)"B) oznaczymy ilość doświadczeń, kiedy zaobserwowano oba zdarzenia A i B
jednocześnie. Cz obserwacji zdarzenia A wśród tych doświadczeń kiedy wyst lo zdarzenie B
estość api
jest równa:
n(A)"B)
n(A )" B) P (A )" B)
N
= H"
n(B)
n(B) P (B)
N
8
Dla zdarzeń losowych A, B " , P (B) > 0, definiujemy prawdopodobieństwo warunkowe zda-
rzenia A przy warunku B wzorem:
P (A )" B)
P (A|B) :=
P (B)
Ponieważ A )" B " B, wi P (A )" B) d" P (B), zatem P (A|B) " [0, 1]
ec
3.2 Wzór na prawdopodobieństwo ca
lkowite
&! = Bj, {Bj; j " J} jest rodzin zdarzeń losowych roz acznych, J " Z jest skończonym lub
a l
j"J
nieskończonym ciagiem indeksów, P(Bj) > 0 dla każdego j.
Wtedy dla każdego A " zachodzi równość:
P (A) = P (A|Bj)P (Bj)
j"J
3.3 Wzór Bayes a
Przy tych samych za
lożeniach co wyżej i przy P (A) > 0 zachodzi równość:
P (A|Bj)P (Bj)
P (Bj|A) =
P (A|Bk)P (Bk)
k"J
3.4 Formu lańcuchowa
la
Jeżeli P (A1 )" ... )" An-1) > 0, to
P (A1 )" ... )" An) = P (A1)P (A2|A1)P (A3|A1 )" A2)...P (An|A1 )" ... )" An-1)
3.5 Niezależność zdarzeń.
Dwa zdarzenia A i B nazywamy niezależnymi, gdy P (A )" B) = P (A)P (B)
Lemat 2 Jeżeli A i B niezależne, to również Ac, B; A, Bc; Ac, Bc s niezależne. Zdarzenia
a
A1,..., An nazywaj si wzajemnie niezależnymi, gdy dla dowolnego poduk Ai , ..., Ai
a e ladu
1 k
, 1 d" i1 < ... < ik d" n P (Ai )" ... )" Ai ) = P (Ai )...P (Ai )
1 k 1 k
W szczególności dowolne dwa zdarzenia z tego uk s niezależne.
ladu a
Lemat 3 Jeżeli zdarzenia A1,..., An s wzajemnie niezależne, to również zdarzenia B1,...,Bn s
a a
wzajemnie niezależne, gdzie Bi = Ai lub Ac, i = 1,...,n.
i
n n
Lemat 4 Gdy zdarzenia A1,..., An s wzajemnie niezależne, to P Aj = 1 - (1 - P (Aj)).
a
j=1 j=1
Mówimy, że {An; n e"} jest ci zdarzeń niezależnych, gdy każdy skończony poduk zdarzeń z
agiem lad
tego ci jest uk zdarzeń wzajemnie niezależnych.
agu ladem
9
Lemat 5 (Drugi lemat Borela Cantelli ego) Gdy {An; n e" 1} jest takim ci zdarzeń
agiem
"
niezależnych, że (An) = ", to P (lim sup An) = 1.
n=1
Dowód:
" "
(lim sup An)c = Ac
k
n=1 k=n
"
Ciag Bn := Ac jest wst acy. Zatem
epuj
k
k=n
N N
P ((lim sup An)c) = lim P (Bn) = lim lim P Ac = lim lim (1 - P (Ak))
k
n" n" n"
N" N"
k=n k=n
N
- P (Ak)
N
k=n
1 - x d" e-x, dla każdego x e" 0. Zatem lim (1 - P (Ak)) d" lim e = 0.
N" N"
k=n
3.6 Niezależność zdarzeń w przestrzeni produktowej
Niech Ai " , i = 1,..., N. Określamy zdarzenia produktowe A := &! ... Ai ... &!. Wtedy
i
zdarzenia A, ..., A b a niezależne w przestrzeni produktowej.
ed
1 N
4 Schemat Bernoulliego
Rejestrowane jest pojawienie si zdarzenia A w każdym spośród N niezależnych doświadczeń.
e
Zak e edzie
ladamy, że p := P (A) > 0. Oznaczmy przez Ak zdarzenie, że pojawienie si A b zare-
jestrowane w k doświadczeniach. Zdarzenie Ak można prawid zinterpretować w przestrzeni
lowo
produktowej.
N
PN(Ak) = pk(1 - p)N-k
k
Podamy interpretacj wprowadzonej kiedyś, funkcji intensywności uszkodzeń
e,
f(t)
r(t) := t " R
1 - F (T )
gdzie F jest dystrybuant zmiennej losowej X równej czasowi bezawaryjnej pracy urz
a adzenia, f jest
g tej zmiennej. Stwierdzamy:
estościa
1
r(t) = lim P ({X < t + h}|{X e" t})
h0
h
jeżeli tylko w punkcie r dystrybuanta F jest różniczkowalna.
10
5 Zmienne losowe i ich rozk
lady
5.1 Sens praktyczny
W zagadnieniach praktycznych ca
lościowy opis wyników doświadczeń jest przeważnie niemożliwy, a
nawet nie jest interesuj Istotne s zaobserwowane (zmierzone) wartości liczbowe jednej lub kilku
acy. a
cech charakterystycznych w danym eksperymencie. Wi poszczególnym wynikom w " S przyp-
ec
isujemy wartości liczbowe X(w). Opis funkcji X może być znany z przes racjonalnych b
lanek adz
teoretycznych. Najczściej dopiero wykonane pomiary w poszczególnych eksperymentach pozwalaj
e a
na wyznaczenie tych wartości dla wyników jakie s akurat adekwatne dla danych doświadczeń. Zbiory
a
wyników {w : a d" X(w) < b} maja być zdarzeniami. Interesuj s cz wyst
ace a estości epowania tych
zdarzeń w ciagach doświadczeń.
5.2 Matematyczna definicja zmiennej losowej
Przestrzeń probabilistyczna (&!, Ł, P) jest ustalona
Definicja 1 Mówimy, że funkcja X : &! R jest zmienn losow gdy dla dowolnych a, b " R,
a a
zbiór { : X() " [a, b)} " Ł. Dowodzi si że wystarczy gdy ten warunek jest spe dla a, b
e, lniony
wymiernych.
5.3 Dystrybuanta rozk zmiennej losowej
ladu
Funkcje F : R [0,1] zdefiniowan formu a F (r) := P ({ : X() < r}) dla wszystkich r " R , nazy-
a l
wamy dystrybuant rozk zmiennej losowej X. Wprost z definicji jak również z przedstawionych
a ladu
poprzednio faktów dotycz miary P wyprowadzane s podstawowe w
acych a lasności dystrybuanty:
a) F (r) d"F(s) gdy r d" s,
b) F jest funkcj lewostronnie ciag a,
a l
c) lim F (r) = 0, lim F (r) = 1.
r-" r"
Zachodz zależności:
a
1. P ({a d" X < b}) = F (b) - F (a),
2. P ({X e" t}) = 1 - F (t),
3. P ({X = r}) = lim (F (r + h) - F (r - h)).
h0+
Zależności te s prawdziwe odpowiednio dla wszystkich a, b, t, r" R.
a
Twierdzenie 1 Jeżeli funkcja F:E [0, 1] posiada podane wyżej w
lasności a),b),c) to istnieje
przestrzeń probabilistyczna oraz zmienna losowa w tej przestrzeni określona, że F jest jej dystry-
buant
a.
Zatem wiele różnych zmiennych może posiadać tak sam dystrybuant
a a e.
W
lasności analityczne funkcji dystrybuanty:
11
i) może posiadać co najwyżej przeliczaln ilość punktów nieciag 1-go rodzaju,
a lości
ii) jeżeli dystrybuanta jest ciag to jest funkcj różniczkowaln prawie wsz w praktyce jest
la a a edzie;
różniczkowalna poza przeliczaln (przeważnie skończon ilościa punktów.
a a)
5.4 Rozk ci ly
lad ag
Mówimy, że zmienna losowa posiada rozk ciag gdy jej dystrybuanta jest funkcj ciag a i istnieje
lad ly a l
r
funkcja g f e" 0, że F (r) = f(s)ds, dla każdego r " R. Musi być spe równość
estości lniona
-"
"
f(s)ds = 1. Ponadto stwierdzamy: P ({X = a}) = 0 dla każdego a " R, oraz P ({a < X < b}) =
-"
b
f(s)ds, dla wszystkich a < b, a lub b mog być też nieskończonościami. Zbiór wartości zmiennej
a
a
losowej X oznaczany przez WX definiujemy
WX := {r " R : istnieje , dla której r = X()}.
Stwierdzamy, że P ({X " (a, b)}) = 0 wtedy i tylko wtedy gdy (a, b) )" WX = ". Również f(s) = 0
gdy s " WX.
/
5.5 Rozk dyskretny
lad
Mówimy, że zmienna losowa X posiada rozk dyskretny gdy WX = {xk : k " I}, gdzie I " Z (Z
lad
oznacza zbór liczb ca
lkowitych) jest zbiorem indeksów numerujacych wartości X.
Do opisu rozk dyskretnego oprócz zbioru WX należy jeszcze podać ciag prawdopodobieństw
ladu
pk := P ({X = xk}) > 0, k " I. Musi być spe równość pk = 1. Ponadto stwierdzamy:
lniona
k"I
F (r) = pk, P ({X " D}) = pk, dla podzbioru D " R.
{k:xkWyróżnia si jeszcze rozk osobliwy charakteryzuj si ciag a dystrybuant której pochodna jest
e lad acy e l a,
prawie wsz równa 0. Rozk ten jest stosowany w analizie fraktali. W typowych zastosowaniach
edzie lad
on nie wyst
epuje.
5.6 Twierdzenie Lebesgue
Twierdzenie 2 (Lebesgue) Dla każdej dystrybuanty F istniej jednoznacznie określone liczby
a
qi " [0, 1], i = 1, 2, 3, q1 + q2 + q3 = 1, oraz dystrybuanty: rozk ci lego Fc, rozk dyskretnego
ladu ag ladu
Fd i rozk osobliwego Fo, że F = q1Fc + q2Fd + q3Fo .
ladu
Zatem w typowych zastosowaniach dystrybuanta posiada postać F = qFc + (1 - q)Fd, q " [0, 1].
W teorii niezawodności zmienna losowa X ma interpretacj czasu bezawaryjnej pracy urz
e adzenia.
Wtedy jej rozk rozpatrywany jest jako ciag funkcj 1 F(t) nazywa si funkcja niezawodności
lad ly, e e
f(t)
a nazywa si funkcj intensywności uszkodzeń, tutaj f jest g a F dystrybuant dla tego
e a estościa a
1-F (t)
czasu bezawaryjnej pracy urz
adzenia.
12
5.7 Funkcje od zmiennych losowych
Do analizy wielkości losowej (analizy wyników pomiarów w doświadczeniach) s tworzone pomoc-
a
nicze funkcje od wartości tej wielkości pozwalajace te wartości zinterpretować. Takimi funkcjami
pomocniczymi cz spotykanymi s |X|, X2, Xk, D(X) gdzie D(s):= 1 gdy s " D, i D(s) := 0
esto a:
gdy s " D, w tym wypadku D " R. Funkcj D b a
/ e edziemy nazywać funkcja charakterystyczn (in-
dykatorow zbioru D. Ogólnie mamy zadan funkcj H : R R i tworzymy now zmienn losow
a) a e a a a
Y = H(X), której wartości s zdefiniowane nast aco Y () := H(X()), dla każdego " &!. Pod-
a epuj
stawowym zadaniem jest wyznaczenie dystrybuanty FY zmiennej losowej Y w oparciu o znajomość
rozk zmiennej X i funkcji H. Nie zawsze jest to zadanie wykonalne do końca. Przyk gdy
ladu ladowo
Y = X2, oraz X posiada rozk ciag to
lad ly
ńł
"
r
ł
ł
ł
ł fX(x)dx dla r > 0
ł
"
- r
FY (r) =
ł
ł
ł
ł
ół
0 dla r d" 0
6 Wartość oczekiwana
6.1 Wst
ep
Niech zmienna losowa X posiada rozk dyskretny, taki, że #WX < ". Oznaczymy
lad
WX = {x1, ..., xm}. Wykonywana jest seria N doświadczeń, nk oznacza ilość tych doświadczeń, w
m
których obserwowane s wartości X równe xk; k = 1,...,m. Spe jest równość nk = N.
a lniona
k=1
nk
Jak wiemy <" P ({X = xk}) a" pk. Średnia arytmetyczna wartości X zaobserwowanych w serii
N
m m
1
N doświadczeń jest równa: nkxk <" pkxk. Wielkość z lewej strony jest określona ekspery-
N
k=1 k=1
mentalnie, określenie wielkości z prawej strony wymaga jedynie znajomości prawdopodobieństw {pk}
oraz zbioru WX. Te dwie wielkości powinny być asymptotycznie bliskie gdy N jest duże. Jest to
konsekwencja cz
estościowej interpretacji prawdopodobieństw.
m
Wielkość pkxk nazywamy wartościa oczekiwan zmiennej losowej X i oznaczamy E(X). Powyższe
a
k=1
rozumowanie daje sens wartości oczekiwanej: E(X) jest bliskie średniej arytmetycznej wartości zmi-
ennej X obserwowanych w dostatecznie d serii doświadczeń.
lugiej
Matematycznie definiuje si wartość oczekiwan jako ca e ze zmiennej losowej wzgl miary praw-
e a lk edem
dopodobieństwa. Zwiazek wartości oczekiwanej ze średnia arytmetyczn w ciagu eksperymentów
a
uwidacznia si pózniej w mocnym prawie wielkich liczb (MPWL).
e
6.2 Wartość oczekiwana dla zmiennych losowych o rozk
ladzie dyskret-
nym
Rozpatrzymy przypadek gdy WX jest nieskończony. Przyjmujemy umow że ciag wartości zmiennej
e,
jest numerowany liczbami naturalnymi z zachowaniem porz
adku.
13
"
Lemat 6 E(X) = xkpk, pod warunkiem, że szereg jest zbieżny.
k=1
6.3 Wartość oczekiwana dla zmiennych losowych o rozk ag
ladzie ci lym
+"
Twierdzenie 3 Jeżeli X posiada rozk ci ly i ca sf(s) ds istnieje i jest skończona to jest
lad ag lka
-"
równa E(X); f jest g a X.
estości
6.4 Wartość oczekiwana zmiennej losowej funkcji, momenty
Dana jest funkcja H : R R, ciag lub kawa ciag Jak wiemy H(X) jest zmienn losow
la lkami la. a a.
Możemy zatem rozpatrywać E(H(X)). W szczególności liczby E(Xk), k e" 1, nazywamy momentami
zmiennej X o ile te wartości oczekiwane istnieja.
Fakt 1 Jeżeli a < X < b (a,b s to liczby) to dla każdego naturalnego l istnieje l-ty moment.
a
+"
Twierdzenie 4 Jeżeli X posiada rozk ci i ca H(s)f(s) ds istnieje i ma wartość skoń-
lad ag ly lka
-"
+"
czon to jest równa E(H(X)). W szczególności E(Xl) = slf(s) ds o ile ostatnia ca lka istnieje.
a
-"
Gdy X posiada rozk dyskretny to: E(H(X)) = H(xk) pk, gdzie WX = {xk : k " I},
lad
k"I
pk := P ({X = xk})
Lemat 7 Jeżeli k > 1 i istnieje E( |X|k) to dla każdego l " {1, ..., k} istnieje l-ty moment .
Wniosek 1 Jeżeli istnieje E(X2) to istnieje też E(X) i E((X - E(X))2) = E(X2) - (E(X))2.
T ostatni wielkość nazywamy wariancj zmiennej X i oznaczamy przez D2(X).
a a a
Lemat 8 D2(X) = 0 wtedy i tylko wtedy gdy X = E(X) prawie wsz na &!.
edzie
6.5 Operacja normowania zmiennej losowej
X-E(X)
"
Niech D2(X) > 0. Określimy zmienn losow X zadan formu a : X = . Zauważamy, że
a a a l
D2(X)
E(X) = 0, D2(X) = 1.
O zmiennej X mówimy, że zosta otrzymana w wyniku przeprowadzenia operacji normowania zmi-
la
ennej X.
7 Nierówność Czebyszewa
7.1 Klasyczna nierówność Czebyszewa
D2(X)
Jeżeli D2(X) istnieje to dla każdej liczby a > 0 P ({|X - E(X)| e" a}) d" .
a2
14
7.2 Ogólna nierówność Czebyszewa
Funkcja H e" 0 jest parzysta (H(-s) = H(s) dla każdego s) niemalej na pó
aca lprostej [0, "), oraz
H(s) > 0 dla s > a > 0; a jest pewn liczb Wtedy dla każdego s > a
a a.
E(H(X))
P ({H(X) e" s}) d"
H(s)
8 Rozk normalny
lad
Funkcja g ladu
estości, dla rozk normalnego o parametrach m, ( > 0) , co oznaczamy N(m, ),
wyraża si wzorem:
e
(x-m)2
1
22
"
f(x) = e- x " R.
2Ą
Rozk normalny parametryzowany jest przez parametry m i . Fakt, że zmienna losowa X posiada
lad
rozk normalny N(m, ) zapisujemy X" N (m, ).
lad
Lemat 9 E(X) = m oraz D2(X) = 2.
Szkic dowodu:
"
1 2
"
E(X) = x e-(x-m) /(22)dx
2Ą
-"
x-m
"
Dokonujemy zamiany zmiennej = u. Mamy teraz
2
"
" " "
" "
1 2 2 2 m 2
"
E(X) = (u 2 + m)e-u 2du = " ue-u du + " e-u du
Ą Ą
2Ą-"
-" -"
Pierwsza ca jest równa zeru, druga z ca to tzw. ca Eulera - Poissona :
lka lek lka
" "
"
2 2
e-u du = 2 e-u du = Ą
-" 0
"
m
"
Otrzymujemy wi EX = 0 + Ą = m.
ec
Ą
"
1 2
"
D2(X) = E(X2) - m2 = x2 e-(x-m) /(22)dx - m2
2Ą
-"
"
" " " "
"
1 2 22 2 2m 2 2 m2 2
= " ( 2u + m)2e-u du-m2 = " u2e-u du+ " ue-u du+ " e-u du-m2 =
Ą Ą Ą Ą-"
-" -" -"
" "
"
22 2 m2 22 2
"
= " u2e-u du + 0 + Ą - m2 = " u2e-u du = 2
Ą Ą Ą
-" -"
Końcowy wynik uzyskaliśmy ca ac ostatnia z ca przez czści.
lkuj lek e
Wykresy funkcji g rozk normalnych N(0,1), N(3,1), N(0,2) (tzw. krzywe Gaussa).
estości ladów
15
Gdy zmienna X"N(m, ) to odpowiadaj jej zmienna losowa standaryzowana
aca
X-m
Y = "N(0,1) (tzn. że Y ma rozk normalny standaryzowany, czyli o parametrach m = 0 i
lad
=1).
G prawdopodobieństwa rozk N(0,1) wyraża si wzorem:
estość ladu e
1 x2
2
"
f(x) = e-
2Ą
s
x2
"1
Zatem dystrybuanta tego rozk to funkcja FY (s) = e- 2
ladu dx
2Ą
-"
Istnieja tablice matematyczne wartości tzw. funkcji Laplace a, która wyraża si wzorem:
e
x
1 2
"
Ś(x) = e-u /2du gdy x e" 0
2Ą
0
Możemy wyznaczać prawdopodobieństwa P(X < x) oraz P(x < X < y) dla zmiennej X " N(m,)
stosujac zależności
ńł
1
ł - Ś(|x-m|) x < m
ł
2
x-m
F (x) = P ({X < x}) = P ({X-m < }) = FY (x-m) = .
ł
ół
1
+ Ś(x-m) x e" m
2
P (x < X < y) = FY (y-m) - FY (x-m).
Rozważmy rozk N(0,1); korzystaj z tablic obliczymy kolejno:
lad ac
P (|X| e" 1) = 1-P (|X| < 1) = 1-P (-1 < X < 1) = 1-(1 +Ś(1)-(1 -Ś(1))) = 1-2Ś(1) = 0, 3174
2 2
P (|X| e" 2) = 1 - 0, 9544 = 0, 0456
P (|X| e" 3) = 1 - 0, 9973002 = 0, 0026998
A z nierówności Czebyszewa mielibyśmy nast ace oszacowania:
epuj
t = 1 to P (|X| e" 1) d" 1
t = 2 to P (|X| e" 2) d" 0, 25
t = 1 to P (|X| e" 3) d" 0, 111
16
9 Uk
lady wielu zmiennych losowych
9.1 Uk dwóch zmiennych losowych
lady
Zmienne losowe X, Y : &! R;&! może być też przestrzenia produktow
a.
Definicja 2 (dystrybuanty uk e a
ladu): Funkcj F : R2 [0, 1] zdefiniowan formu la
F (x, y) := P ({ : X() < x i Y () < y})
nazywamy dystrybuant uk ladu (X,Y).
a
Zastosujemy dalej oznaczenie skrótowe {X < x, Y < y} dla zdarzenia stoj w definicji dystry-
acego
buanty.
W
lasności dystrybuanty:
1. F (x1, y1) d" F (x2, y2) gdy x1 d" x2 i y1 d" y2
2. lim F (x, y) = F (x1, y1); lewostronna ciag
lość
x x1-
y y1-
3. lim F (x, y) = 1 , lim F (x, y) = 0, lim F (x, y) = 0
x,y" x-" y-"
4. lim F (x, y) = FX(x), lim F (x, y) = FY (y), gdzie FX(x) jest dystrybuant zmiennej losowej
a
y" x"
X, FY (y) jest dystrybuant zmiennej losowej Y.
a
5. P ({x1 d" X < x2, y1 d" Y < y2}) = F (x2, y2) - F (x2, y1) - F (x1, y2) + F (x1, y1) a"
1
a" (-1) +2F (x1 + 1(x2 - x1), y1 + 2(y2 - y1))
{(1,2):1,2"{0,1}}
W a lasności dystrybuanty jednej zmiennej i
lasności (1), (2), (3) s analogonami odpowiednich w
dowodzi si je podobnie. W a lasność (3)
e lasności (4) s dowodzone na podobnej zasadzie jak w
dystrybuanty FX, FY nazywane s dystrybuantami brzegowymi.
a
Szkic dowodu w
lasności (5):
Oznaczymy A(x, y) := {X < x, Y < y}; wtedy F(x, y) = P(A(x, y)).
Jeżeli oznaczymy BX(x) := {X < x} oraz BY (y) := {Y < y} to A(x, y) = BX(x) )" BY (y).
Stwierdzamy:
{x1 d" X < x2, y1 d" Y < y2} = (BX(x2)\BX(x1)) )" (BY (y2)\BY (y1)) = ... =
= (A(x2, y2)\A(x1, y2))\(A(x2, y1)\A(x1, y1)) a" C1\C2
Zauważamy, że C2 ą" C1, jak również A(x1, y2) ą" A(x2, y2), A(x1, y1) ą" A(x2, y1). Stosujac teraz
znane regu dla miary prawdopodobieństwa uzyskujemy (5).
ly
Twierdzenie 5 Jeżeli G : R2 [0, 1] jest funkcj spe ac wymienione wyżej warunki (1) do
a lniaj a
(5), to istnieje uk dwóch zmiennych losowych dla których ta funkcja jest dystrybuant
lad a.
17
9.1.1 Uk zmiennych losowych o rozk ci lym.
lady ladzie ag
Mówimy, że uk (X,Y) posiada rozk ciag gdy istnieje funkcja g uk f : R2 [0, "),
lad lad ly, estości ladu
że dla dowolnych x, y " R
y
x
F (x, y) = f(s, r)dsdr = lim f(s, r)dsdr
a1,a2-"
a1 a2
{(s,r):sWobec w
lasności dystrybuanty lim F (x, y) = 1 wnioskujemy, że fdsdr = 1.
x,y"
R2
"2F (x,y)
Jeżeli pochodne cz edu .
astkowe mieszane rz 2 dystrybuanty F istnieja, to f(x, y) =
"x"y
Wobec w
lasności (5) dystrybuanty stwierdzamy, że
x2 y2
P ({x1 d" X < x2, y1 d" Y < y2}) = f(s, r)dsdr
x1 y1
Z w lad lad ly, a
lasności (4) wnioskujemy, że jeżeli uk (X, Y) posiada rozk ciag to X oraz Y też posiadaj
rozk ciag i ich g zadaj si wzorami:
lady le estości a e
"
g X: fX(x) = f(x, r)dr;
estość
-"
"
g Y: fY (y) = f(s, y)ds
estość
-"
G fX, fY s nazywane g ladów
estości a estościami rozk brzegowych.
Ponadto stwierdzamy: P ({X = Y }) = 0, P ({(X, Y ) " D}) = fdxdy D " R2 jest pewnym
D
obszarem.
9.1.2 Zbiór wartości uk (X,Y)
ladu
W(X,Y ) := {(x, y) " R2: istnieje " &!, dla którego x = X(), y = Y ()}.
Zauważmy: gdy [a1, a2) [b1, b2) )" W(X,Y ) = ", to P ({a1 d" X < a2, b1 d" Y < b2}) = 0.
Zatem g uk f(x, y) = 0 gdy (x, y)"W(X,Y ).
estość ladu /
9.1.3 Rozk dyskretny uk 2 zmiennych losowych.
lad ladu
Mówimy, że uk (X,Y) posiada rozk dyskretny, gdy zmienne X, Y posiadaja rozk dyskretne.
lad lad lady
Wtedy W(X,Y ) = {(xk, yl) : xk " WX, yl " WY }. Określamy p(k, l) := P ({X = xk, Y = yl}).
Niech WX = {xk : k " J1}, WY = {yl : l " J2}, p1(k) := P ({X = xk}), p2(l) := P ({Y = yl}). Wtedy
p(k, l) = 1 F (x, y) = p(k, l)
k"J1,l"J2 {(k,l):xkp1(k) = p(k, l) p2(l) = p(k, l)
l"J2 k"J1
18
P ({(X, Y ) " D}) = p(k, l) D " R2 jest pewnym podzbiorem.
{(k,l):(xk,yl)"D}
Prawdopodobieństwa {pj(k) : k " Jj}, j = 1, 2, określaj rozk brzegowe.
a lady
Uwaga 1 Może być p(k, l) = 0 dla pewnych k i l, lecz pj(k) > 0 dla każdego k " Jj, j = 1, 2.
Uwaga 2 Dla uk ladów zmiennych losowych nie zachodzi teza jak w twierdzeniu Lebesgue a o dystry-
buancie jednej zmiennej losowej.
W zastosowaniach jest jeszcze wyróżniany przypadek, gdy jedna zmienna posiada rozk ciag a
lad ly
druga dyskretny pomijamy szczegó opisu rozk dla takiego uk
ly ladu ladu.
9.1.4 Niezależność zmiennych.
Definicja 3 (niezależności): Mówimy, że zmienne X, Y s niezależne gdy dla dowolnych x1, x2, y1,
a
y2 " R,
P ({x1 d" X < x2, y1 d" Y < y2}) = P ({x1 d" X < x2}) P ({y1 d" Y < y2}).
Twierdzenie 6 Warunkiem koniecznym i wystarczaj niezależności zmiennych X, Y jest, by
acym
F (x, y) = FX(x)FY (y) dla wszystkich x, y " R.
W przypadku, gdy uk (X,Y) posiada rozk ciag to równość f(x, y) = fX(x)fY (y), dla wszys-
lad lad ly,
tkich x, y " R, jest warunkiem koniecznym i wystarczajacym niezależności X i Y.
W przypadku, gdy uk (X, Y) posiada rozk dyskretny, to warunek konieczny i wystarczaj
lad lad acy
niezależności przyjmuje postać p(k, l) = p1(k)p2(l).
9.1.5 Kowariancja i wspó
lczynnik korelacji.
Kowariancj uk nazywamy liczb
a ladu e
cov(X, Y ) := E((X - E(X))(Y - E(Y ))) a" E(XY ) - E(X)E(Y )
przy za a.
lożeniu, że te wartości oczekiwane istniej
Wielkość E(XY) nazywana jest momentem mieszanym zmiennych X, Y.
2
Lemat 10 (Nierówność Cauchy ego): Gdy istniej drugie momenty E(X2) oraz E(Y ), to
a
istnieje też E(X Y) i zachodzi nierówność:
2
|E(XY )| d" E(X2)E(Y )
Szkic dowodu:
1 2
Zauważmy, że |XY | d" (X2 + Y ), sk wynika istnienie E(|XY |) a wi również i istnienie E(XY).
ad ec
2
Aby udowodnić nierówność Cauchy ego określamy wielomiany drugiego stopnia
2
0 d" Wą(r) := E (X ą rY )2 = E(X2) ą 2rE(XY ) + r2E(Y )
Ponieważ dla każdego r " R,Wą(r) e" 0, wi wyróżnik tych wielomianów
ec
2
" = 4(E(XY ))2 - 4E(X2)E(Y ) musi być d" 0. St natychmiast uzyskujemy poszukiwan
ad a
nierówność.
19
Wniosek 2 Jeżeli istniej drugie momenty E(Yj2), j = 1, 2, to kowariancja cov(Y1, Y2) też istnieje
a
i zachodzi nierówność |cov(Y1, Y2)| d" D2(Y1)D2(Y2).
Twierdzenie 7 Zak a a
ladamy, że zmienne X, Y s niezależne i istniej wartości oczekiwane
E(H1(X)), E(H2(Y)). Wtedy E(H1(X)H2(Y)) istnieje i jest równe iloczynowi E(H1(X))E(H2(Y)).
W tym twierdzeniu H1, H2 s funkcjami jednej zmiennej dostatecznie regularnymi (ciag lub kawa
a le l-
kami ciag
le).
Wniosek 3 Jeżeli zmienne losowe X, Y s niezależne i wartości oczekiwane E(X), E(Y) istniej
a a,
to E(XY) = E(X)E(Y) i cov(X,Y) = 0. Natomiast D2(aX + bY ) = a2D2(X) + b2D2(Y ).
Uwaga 3 Zerowanie si kowariancji zmiennych losowych nie powoduje ich niezależności
e
(s przyk lady).
a
cov(X,Y )
"
Definicja 4 (wspó e nazywamy
lczynnik korelacji) Liczb (X, Y ) :=
D2(X)D2(Y )
wspó
lczynnikiem korelacji zmiennych losowych X, Y.
Z wniosku do nierówności Cauchy ego otrzymujemy oszacowanie |(X, Y )| d" 1 dla dowolnych zmi-
ennych losowych X, Y.
"
2
"D (Y ) (X - E(X)) + E(Y ) = 1,
Lemat 11 Jeżeli |(X, Y )| = 1 to P Y =
D2(X)
gdzie = znak (X,Y).
Definicja 5 (macierz kowariancji uk
ladu):
D2(X) cov(X, Y )
C =
cov(X, Y ) D2(Y )
W
lasności macierzy kowariancji:
1. C jest macierz symetryczn
a a
2. C jest macierz dodatnio określon
a a
3. detC = 0 wtedy i tylko wtedy gdy |(X, Y )| = 1
9.1.6 Rozk sumy zmiennych losowych, gdy uk posiada rozk ci ly.
lad lad lad ag
Zak lad lad ly.
ladamy, że uk (X,Y) posiada rozk ciag
Twierdzenie 8 Suma X + Y posiada rozk ci ly, g tej zmiennej wyraża si formu a:
lad ag estość e l
" "
fX+Y (r) = f(r - s, s)ds = f(s, r - s)ds
-" -"
gdzie f jest g a uk ladu (X, Y).
estości
20
Szkic dowodu:
Dystrybuanta sumy X + Y:
ł ł
" t-s2
ł
FX+Y (t) = P ({X + Y < t}) = f(s1, s2)ds1ds2 = f(, s2)dłł ds2 =
-" -"
{(s1,s2):s1+s2ł ł ł ł
" t t "
ł ł
= f(r - s2, s2)drłł ds2 = f(r - s2, s2)ds2łł dr
-" -" -" -"
Widzimy zatem, że funkcja zmiennej r stoj pod zewn a ca a jest g sumy X + Y.
aca etrzn lk estościa
Gdy zmienne losowe X, Y s niezależne, to f(s1, s2) = fX(s1)fY (s2). Zatem g sumy zmiennych
a estość
" "
losowych uzyskuje postać: fX+Y (r) = fX(r -s)fY (s)ds = fX(s)fY (r -s)ds. Po prawej stronie
-" -"
mamy operacj splotu 2 funkcji fX, fY . Skrótowe oznaczenie splotu: fX fY .
e
Przypominamy: E(aX + bY) = aE(X) + bE(Y), gdy E(X), E(Y) istniej Przy za
a. lożeniu istnienia
E(X2), E(Y2) nietrudno zauważyć D2(aX + bY ) = a2D2(X) + 2abcov(X, Y ) + b2D2(Y ).
9.1.7 Rozk normalny (gaussowski) uk 2 zmiennych losowych
lad ladu
G tego uk zdefiniowana jest wzorem:
estość ladu
1 1 x - m1 2 x - m1 y - m2 y - m2 2
"
f(x, y) = exp - - 2 +
2Ą12 1 - 2 2(1 - 2) 1 1 2 2
gdzie m1, m2 " R, 1, 2 > 0, " (-1, 1).
Podstawowe fakty o rozk normalnym:
ladzie
2 3
E(X) = m1, E(Y) = m2, D2(X) = 1, D2(Y) = 2, = (X,Y), cov(X,Y) = 12
G brzegowe fX, fY s g ladów
estości a estościami rozk normalnych N(mj,j), j=1,2.
Zmienne X, Y s niezależne wtedy i tylko wtedy gdy = 0.
a
2 2
Suma X+Y " N(m1+m2, 1 + 212 + 2).
9.1.8 Rozk funkcji od 2 zmiennych losowych.
lad
Ograniczymy si do przypadku uk o rozk ciag Z:= H(X, Y). Wtedy
e ladu ladzie lym,
FZ(r) = P ({H(X, Y ) < r}) = f(x, y)dxdy
{(x,y):H(x,y)Przyk 1 H(x, y) = xy i W(X,Y ) " {x, y > 0}. Wtedy FZ(r) = 0 dla r d" 0, a dla r > 0:
lad
r/x
"
FZ(r) = P ({H(X, Y ) < r}) = f(x, y)dxdy = f(x, s)ds dx =
0 0
{(x,y):xy0}
" r r "
1 z z 1
= f(x, )dz dx = f(x, )xdx dz
x x x
0 0 0 0
"
z 1
Wi g a zmiennej losowej Z = XY b fZ(z) = f(x, )xdx.
ec estości edzie
x
0
21
9.1.9 Wartość oczekiwana funkcji od 2 zmiennych losowych.
Jeżeli ca H(X, Y )dP jest skończona, to definiujemy E(H(X, Y )) := H(X, Y )dP . W przy-
lka
&! &!
padku, gdy uk (X,Y) posiada rozk ciag E(H(X, Y )) = H(x, y)f(x, y)dxdy o ile ca po
lad lad ly: lka
R2
prawej stronie jest skończona. Tutaj f(, )jest g uk
estościa ladu.
W przypadku, gdy uk (X,Y) posiada rozk dyskretny: E(H(X, Y )) = H(xk, yl)p(k, l) o
lad lad
k"J1,l"J2
ile szereg jest zbieżny. Tutaj W(X,Y ) = {(xk, yl) : k " J1, l " J2}, p(k, l) = P ({X = xk, Y = yl}).
9.2 Modele probabilistyczne.
9.2.1 Rozk dwupunktowy
lad
WX = {0, 1}, p := P ({X = 1}) " (0, 1) jest parametrem rozk E(X) = p, D2(X) = p(1-p).
ladu.
9.2.2 Rozk dwumianowy
lad
Rodzin rozk dwumianowych oznaczamy przez BIN(n,p), n liczba naturalna, p"(0,1) s para-
e ladów a
metrami. Mówimy, że X " BIN(n,p), gdy WX = {0, 1, ..., n},
n
pk := P ({X = k}) = pk(1 - p)n-k.
k
Lemat 12 Niech (Y1, ..., Yn) b uk niezależnych zmiennych losowych o jednakowych
edzie ladem
n
rozk dwupunktowych. Wtedy Yk " B|N(n, p), gdzie p = P ({Y1 = 1}).
ladach
k=1
Wniosek 4 X"BIN(n,p), to E(X)=np, D2(X) = np(1-p).
Wniosek 5 Jeżeli Xl " BIN(nl, p), l = 1, 2, i s niezależne, to X1 + X2 " B|N(n1 + n2, p).
a
9.2.3 Rozk geometryczny
lad
Rodzin rozk geometrycznych oznaczymy przez G(p), p "(0,1) jest parametrem rozk
e ladów ladu.
Mówimy, że X " G(p), gdy WX = {0, 1, ...}, pk := P ({X = k}) = (1 - p)kp.
1-p 1-p
Stwierdzamy: E(X) = , D2(X) = .
p p2
Lemat 13 Niech {Yk : k e" 1} b ci niezależnych zmiennych losowych o jednakowych
edzie agiem
rozk dwupunktowych. Definiujemy zmienn losow
ladach a a
ńł
ł 0 gdy Y1() = 1
ł
k
N() :=
ł
max k : Yl() = 0 gdy Y1() = 0
ół
l=1
Wtedy N"G(p), gdzie p = P ({Y1 = 1}).
Fakt 2
P ({X e" m + n}|{X e" m}) = P ({X e" n}) = (1 - p)n
22
9.2.4 Rozk Poissona
lad
Rodzin rozk Poissona oznaczamy przez POI(); > 0 jest parametrem.
e ladów
k
X "POI(), gdy WX = {0, 1, ...}, pk := P ({X = k}) = e-.
k!
Stwierdzamy: E(X)= , D2(X)= .
Lemat 14 Xl "POI(l), l = 1, 2, i zmienne X1, X2 s niezależne. Wtedy X1 + X2 " POI(1 + 2).
a
Lemat 15 Xl "POI(l), l = 1, 2, i zmienne X1, X2 s niezależne.
a
n
Wtedy P ({X1 = k}|{X1 + X2 = n}) = ( 1 )k ( 2 )n-k, k " {0, 1, ..., n}
k +2 1+2
1
Lemat 16 (aproksymacja rozk dwumianowego rozk Poissona) Jeżeli p(n) " (0,
ladu ladem
n
k
1) i n p(n) = > 0, to lim (p(n))k (1 - p(n))n-k = e-
k k!
n"
9.2.5 Rozk wyk lad
lad ladniczy i rozk Gamma
Rodzin rozk wyk
e ladów ladniczych oznaczamy przez EXP(), > 0 jest parametrem.
Mówimy, że X "EXP(), gdy jej g zadaje si wzorem:
estość e
0 s d" 0
f(s) =
e-s s > 0
Stwierdzamy, że E(X)= -1, D2(X) = -2.
f(s)
Zauważmy, że funkcja intensywności uszkodzeń r(s) = = dla s > 0.
1-F (s)
"
Funkcj (t) := xt-1e-xdx, określon dla t e" 0, nazywamy funkcj gamma.
e a a
0
W
lasności: (t)=(t-1)(t-1), gdy te"1, (1)=1 i dla każdego naturalnego n (n)=(n-1)!
Rodzin rozk gamma oznaczamy przez GAMMA(ą, ), ą > 0 i > 0 s parametrami.
e ladów a
Mówimy, że X "GAMMA(ą, ), gdy g tej zmiennej zadaje si wzorem:
estość e
0 s d" 0
f(s) =
ą
są-1e-s s > 0
(ą)
ą ą
Stwierdzamy: E(X) = , D2(X) = .
2
Zauważmy, że jeżeli X"EXP(), to X"GAMMA(1,).
Lemat 17 Xl "GAMMA(ąl, ), l = 1, 2, oraz X1, X2 s niezależne.
a
Wtedy X1 + X2 " GAMMA(ą1 + ą2, ).
Lemat 18 Z1, ..., Zn s niezależne i Zl "N(0, 1), l = 1, ..., n.
a
n
1
Wtedy Zl2 " GAMMA(n, ).
2 2
l=1
1
Rozk GAMMA(n, ) przy n naturalnym nosi nazw rozk chi kwadrat o n stopniach swobody.
lad e ladu
2 2
"
Rozk ten jest stablicowany przy 1 d" n d" 30. Dla n > 30 przyjmuje si że Y - 2n - 1 " N(0, 1),
lad e,
1
gdy Y " GAMMA(n, ) (czyli Y posiada rozk chi kwadrat o liczbie stopni swobody n > 30).
lad
2 2
23
9.2.6 Rozk beta
lad
Rodzin rozk beta oznaczamy przez BETA(ą, ); ą > 0, > 0 s parametrami rozk
e ladów a ladu.
Mówimy, że X"BETA(ą,) gdy g tej zmiennej zadaje si wzorem:
estość e
0 s " [0, 1]
/
f(s) =
(ą+)
są-1(1 - s)-1 s " [0, 1]
(ą)()
ą ą
Stwierdzamy: E(X) = , D2(X) =
ą+ (ą+)2(ą++1)
9.2.7 Rozk powi z rozk normalnym
lady azane ladem
Twierdzenie 9 Zmienne X1, ..., Xn s niezależne oraz Xl " N(m,2), l = 1, ..., n. Wtedy
a
n
1
Ż
"
i X := Xl " N m,
n n
l=1
n
Ż Ż
Zmienna losowa U := (Xl - X)2 jest niezależna od X.
l=1
1
U posiada rozk chi kwadrat o n-1 stopniach swobody.
lad
2
Twierdzenie 10 Jeżeli Z " N(0, 1) i U posiada rozk ich kwadrat o k stopniach swobody oraz
lad
Z
"
Z, U s niezależne, to zmienna Y := posiada rozk Studenta o k stopniach swobody.
a lad
k-1U
G rozk Studenta o k stopniach swobody jest funkcja:
estościa ladu
k+1
k+1
2
s2 -
2
fk(s) = " 1 +
k
k
Ąk
2
Rozk ten jest stablicowany dla 1 d" k d" 30. Przy k > 30 przyjmuje si że jest to rozk normalny
lad e, lad
N(0, 1).
9.2.8 Rozk równomierny
lad
Mówimy, że X posiada rozk równomierny na odcinku [a, b], gdy jej g zadaje si wzorem:
lad estość e
1
r " [a, b]
b-a
f(r) =
0 r " [a, b]
/
(b-a)2
a+b
Stwierdzamy : E(X)= , D2(X) = .
2 12
Lemat 19 Gdy Xl, l = 1, 2, s niezależne i posiadaj rozk lady równomierne na odcinku [0, 1], to
a a
X1 + X2 posiada rozk o g
lad estości:
ńł
ł s s " [0, 1]
ł
fX +X2(s) = 2 - s s " (1, 2]
1
ł
ół
0 s " [0, 2]
/
24
Mówimy, że uk zmiennych (X1, ..., Xn) posiada rozk równomierny na obszarze ograniczonym
lad lad
D " Rn, gdy g tego uk :
estość ladu
1
; (r1, ..., rn) " D
|D|
f(r1, ..., rn) =
0 ; (r1, ..., rn) " D
/
|D| - obj obszaru D.
etość
Lemat 20 Uk (X1, ..., Xn) posiada rozk równomierny na obszarze ograniczonym D. Zmienne
lad lad
X1, ..., Xn s niezależne wtedy i tylko wtedy, gdy D jest prostopad
a lościanem o bokach równoleg lych do
osi uk ladu wspó ednych.
lrz
9.3 Uk wielu zmiennych losowych
lady
Dla uk zmiennych losowych o ilości wi niż 2 rozpatrywane s analogiczne poj i
ladów ekszej a ecia
zagadnienia jak w przypadku uk 2 zmiennych. Omówione b a tylko niektóre spośród za-
ladu ed
gadnień dotycz dużych uk zmiennych. Uk n zmiennych losowych oznaczymy przez
acych ladów lad
X := (X1, ..., Xn).
9.3.1 Macierz kowariancji
Macierz C o wymiarach n n, której wyrazy ckl:= cov(Xk, Xl), k,l = 1, ..., n, nazywamy macierz
a
kowariancji uk X.
ladu
Macierz C posiada nast ace w
epuj lasności:
i) Jest symetryczna.
n
ii) Jest dodatnio określona: cov(Xk, Xl)rkrl e" 0 dla każdego wektora (r1, ..., rn) " Rn.
k,l=1
det C = 0 wtedy i tylko wtedy gdy istnieja sta ak " R, k = 1, ..., n, że
le
n
P ak (X - E(Xk)) = 0 = 1.
k=1
9.3.2 Niezależność uk zmiennych losowych
ladu
Definicja 6 Mówimy, że zmienne losowe X1, ..., Xn s niezależne, gdy dla dowolnych rj < sj,
a
j = 1, ..., n, (może być rj = -", sj = " ) spe s zależności
lnione a
n
P ({rj d" Xj < sj, j = 1, ..., n}) = P ({rj d" Xj < sj}).
j=1
Lemat 21 Jeżeli Hj : R R s funkcjami takimi, że E(Hj(Xj)) istniej j = 1, ..., n, a zmienne
a a,
n n
X1, ..., Xn s niezależne, to E Hj(Xj) istnieje i jest równa E(Hj(Xj)).
a
j=1 j=1
Jeśli X1, ..., Xn s niezależne, to każde dwie zmienne Xk, Xl , k = l s niezależne. Wi gdy E(Xj)
a a ec
istniej j=1,...,n, to cov(Xk,Xl) = 0, k = l. St wnioskujemy, że jeśli istnieja D2(Xj), j=1,...,n, a
a ad
n n
zmienne X1, ..., Xn s niezależne, to D2 Xj = D2(Xj).
a
j=1 j=1
25
Lemat 22 Zmienne X1, ..., Xn s niezależne, 1 < k < n, H1 : Rk R,H2 : Rn-k R s funkcjami
a a
(dostatecznie regularnymi). Wtedy zmienne losowe Y := H1(X1, ..., Xk), Z := H2(Xk+1, ..., Xn) s
a
niezależne.
Przyk uk zmiennych losowych niezależnych.
lad ladu
Niech Yj, j = 1, ..., n, b a dowolnymi zmiennymi losowymi określonymi na przestrzeni &!. Określamy
ed
teraz na przestrzeni produktowej &!n nast ace zmienne: Xj((1, ..., n)) := Yj(j), j = 1, ..., n.
epuj
Nietrudno sprawdzić, że zmienne X1, ..., Xn b a niezależne w przestrzeni produktowej (&!n, Łn, Pn).
ed
9.3.3 Ci niezależnych zmiennych losowych
agi
Definicja 7 Mówimy, że {Xn : n e" 1} jest ci niezależnych zmiennych losowych, jeżeli każdy
agiem
skończony poduk tego ci tworzy uk zmiennych niezależnych.
lad agu lad
Fakt 3 Na dyskretnej przestrzeni probabilistycznej nie można zbudować nieskończonego ci
agu
zmiennych losowych takich, by istnia liczby an < bn, że 0 < ą < P ({an d" Xn < bn}) < < 1 dla
ly
każdego n e" 1.
Szkic dowodu:
Dla każdego n definiujemy zdarzenia An := {an d" Xn < bn}. Wtedy 0 < ą < P (An) <
< 1 i {An; n e" 1} jest ciagiem zdarzeń niezależnych. Z drugiego lematu Borela Cantelliego
wywnioskowaliśmy, że takiego ciagu zdarzeń nie da si utworzyć w dyskretnej przestrzeni proba-
e
bilistycznej.
Istnieje ogólna metoda konstrukcji ciagu niezależnych zmiennych losowych o dowolnych rozk
ladach.
9.3.4 Uk zmiennych o jednakowych rozk
lady ladach
Definicja 8 Mówimy, że zmienne X1, ..., Xn posiadaj jednakowe rozk gdy FX = FX = ... =
a lady,
1 2
FX gdzie FX oznacza funkcj dystrybuanty zmiennej Xj.
e
n j
Podobnie można rozpatrywać ciagi zmiennych o jednakowych rozk
ladach.
Twierdzenie 11 Jeżeli zmienne X1, ..., Xn posiadaj jednakowe rozk i E(H(X1)) istnieje, to
a lady
E(H(Xj))= E(H(X1)) dla każdego j" {2, 3, ..., n}.
n
Wniosek 6 Jeżeli rozk zmiennych X1, ..., Xn s jednakowe i E(X1) istnieje, to: E Xj =
lady a
j=1
n E(X1).
Wniosek 7 Jeżeli zmienne X1, ..., Xn s niezależne; posiadaj jednakowe rozk i E(X2) istnieje,
a a lady
1
to:
ł ł
n
D2 ł Xjłł = n D2(X1).
j=1
Dla niezależnych zmiennych losowych X1, ..., Xn o jednakowych rozk mamy P ({Xj < rj, j =
ladach
n
1, ..., n}) = F (rj, gdzie F jest wspóln dystrybuant dla każdej z tych zmiennych.
a a
j=1
Przypadek uk (oraz ciagów) niezależnych zmiennych o jednakowych rozk jest podsta-
ladów ladach
wowy w zagadnieniach statystyki matematycznej; jest też ważny w twierdzeniach granicznych.
26
9.3.5 Wielowymiarowy rozk normalny (gaussowski)
lad
Mówimy, że uk zmiennych (X1, ..., Xn) posiada rozk normalny, gdy g tego uk
lad lad estość ladu
określona jest funkcja:
ł ł
n
n 1
ł
2
f(r1, ..., rn) := (2Ą det C)- exp - ckl(rk - mk)(rl - ml)łł
2k,l=1
dla wszystkich r1, ..., rn " R.
W powyższej formule C jest macierz symetryczn ściśle dodatnio określon (a wi detC > 0).
a a, a ec
Macierz C-1 = ( ; m1, ..., mn " R s sta Macierz C wraz ze sta m1,...,mn parametryzuje
ckl)n a le. lymi
k,l=1
rozk normalny.
lad
W ladu
lasności rozk normalnego:
i) mk = E(Xk), k = 1, 2, ..., n
ii) C jest macierz kowariancji uk (X1, ..., Xn)
a ladu
"
iii) Każdy poduk również posiada rozk normalny. W szczególności Xk " N(mk, ckk). Uk
lad lad lad
(X1, ..., Xk), 1 < k < n, posiada rozk normalny określony przez sta m1,...,mk i macierz
lad le
Ck = (cij)k .
i,j=1
iv) Jeżeli A = (aij)m,n jest macierz o wyrazach rzeczywistych (ma m wierszy i n kolumn),
a
i=1,j=1
n n
rz = m, to uk zmiennych a1jXj, ..., amjXj również posiada rozk normalny.
adA lad lad
j=1 j=1
Wartości oczekiwane poszczególnych zmiennych i macierz kowariancji tego uk określaja
ladu
n
parametry tego rozk normalnego. W szczególności Xj posiada rozk normalny.
ladu lad
j=1
v) Zmienne (X1, ..., Xn) s niezależne wtedy i tylko wtedy, gdy macierz C jest diagonalna (ckl = 0
a
gdy k =l).
Twierdzenie 12 Zmienne losowe X1, X2 s niezależne i X1 + X2 posiada rozk normalny. Wtedy
a lad
każda ze zmiennych (X1 oraz X2) posiada rozk lad normalny.
10 Twierdzenia graniczne
10.1 Zbieżność ci zmiennych losowych
agów
10.1.1 Zbieżność wed prawdopodobieństwa
lug
Definicja 9 Mówimy, że ci zmiennych losowych {Xn} jest wed prawdopodobieństwa zbieżny do
ag lug
zmiennej losowej X, gdy lim P ({|Xn - X| e" }) = 0.
n"
>0
Jeżeli X = c = const, to mówimy wtedy o stochastycznej zbieżności ciagu do sta c.
lej
Lemat 23 Gdy dla pewnej pot p > 0, lim E(|Xn - X|p) = 0, to ci {Xn} jest wed lug praw-
egi ag
n"
dopodobieństwa zbieżny do X.
27
Dowód:
Stosujemy ogóln nierówność Czebyszewa do zmiennej Y := Xn - X i funkcji H(r) := |r|p.
a
E(|Xn-X|p)
Wtedy P ({|Xn - X| e" }) d" 0, gdy n ".
p
Wniosek 8 Niech {Yn} b ci niezależnych zmiennych losowych takich,
edzie agiem
n
1
że lim D2(Yn) = 0.
n2
n"
k=1
n
1
Wtedy ci {Zn}, Zn := (Yk - E(Yk)) jest stochastycznie zbieżny do 0.
ag
n
k=1
Dowód:
n
2 1
E(Zn) = 0,E(Zn) = D2(Zn) = D2(Yk) 0, gdy n ". Wobec powyższego lematu ciag
n2
k=1
{Zn} jest zbieżny wed prawdopodobieństwa do sta 0.
lug lej
10.1.2 Zbieżność wed dystrybuanty.
lug
Definicja 10 Mówimy, że ci {Xn} jest zbieżny wed dystrybuanty do zmiennej losowej X, gdy
ag lug
dla każdego r"R, w którym dystrybuanta FX jest ci la lim FX (r) = FX(r).
ag
n
n"
Wtedy
lim P ({Xn e" r}) = lim (1 - FX (r)) = 1 - FX(r) = P ({X e" r})
n
n" n"
oraz
lim P ({u d" Xn < v}) = lim (FX (v) - FX (u)) = FX(v) - FX(u) = P ({u d" X < v})
n n
n" n"
gdy dystrybuanta FX jest ciag w punktach u i v.
la
Gdy X = c = const, to
1 ; r > c
FX(r) = .
0 ; r < c
Wi ciag {Xn} jest zbieżny wed dystrybuanty do sta c, gdy
ec lug lej
1 ; r > c
lim FX (r) = .
n
n"
0 ; r < c
Lemat 24 Gdy ci {Xn} jest zbieżny wed prawdopodobieństwa do zmiennej losowej X, to jest
ag lug
zbieżny wed lug dystrybuanty do X.
Dowód przy zbieżności stochastycznej:
Zak lej
ladamy, że ciag {Xn} jest stochastycznie zbieżny do sta c:
0 = lim P ({|Xn - c| e" r}) e" lim ([1 - FX (c + r)] + FX (c - r)), dla każdego r > 0.
n n
n" n"
St uzyskujemy lim FX (c + r) = 1, lim FX (c - r) = 0 dla każdego r > 0.
ad
n n
n" n"
Przyk 2 {Yn} jest ci niezależnych zmiennych losowych o jednakowych rozk ci
lad agiem ladach ag lych;
g
estość:
28
0 ; r d" 0
f(r) = .
(1 + r)-2 ; r > 0
Określamy Un := n min{Y1, ..., Yn}. Twierdzimy, że ci {Un} jest wed dystrybuanty zbieżny do
ag lug
zmiennej losowej o rozk wyk ladniczym z parametrem = 1.
ladzie
Dowód:
Dystrybuanta Yn :
0 ; s d" 0
F (s) =
s(1 + s)-1 ; s > 0
Dystrybuanta Un:
0 ; r d" 0
FU (r) = .
n r
1 - (1 + )-n ; r > 0
n
Zatem
0 ; r d" 0
lim FU (r) = .
n
n"
1 - e-r ; r > 0
Funkcja graniczna jest dystrybuant rozk ladu EXP(1).
a
Uwaga 4 Zbieżność wed dystrybuanty odgrywa fundamentaln rol w statystyce matematycznej.
lug a e
10.2 Zbieżność z prawdopodobieństwem 1 (prawie wsz
edzie)
Definicja 11 Mówimy, że ci {Xn} jest z prawdopodobieństwem 1 zbieżny do zmiennej X, gdy
ag
P(U) = 1, gdzie U := { : lim (Xn() - X()) = 0}.
n"
Zauważamy, że
" " "
1 1 1
U = Bn gdzie Bn := : |Xn() - X()| <
k k k
k=1 N=1 n=N
" "
1
'" U " Bn
ke"1
k
N=1 n=N
" "
1
wi P Bn k = 1.
ec
N=1 n=N
" "
1 1
Zatem 1 = lim P ( Bn k ) dla każdego k e" 1, bo ciag zdarzeń CN := Bn k jest wst
epujacy.
N"
n=N n=N
1 1
St lim P BN k = 1 dla każdego k e" 1. Zatem lim P ({|XN - X| e" }) = 0 dla każdego
ad:
k
N" N"
k e" 1.
Uzyskaliśmy wi
ec:
Lemat 25 Jeżeli ci {Xn} jest zbieżny do zmiennej X z prawdopodobieństwem 1, to jest też zbieżny
ag
do X wed prawdopodobieństwa.
lug
29
Mamy:
Wniosek 9 Jeżeli ci {Xn} jest zbieżny do zmiennej X z prawdopodobieństwem 1, to jest też zbieżny
ag
do X wed dystrybuanty.
lug
Przyk 3 {Xn} jest ci niezależnych zmiennych losowych o rozk dwupunktowych:
lad agiem ladach
1 1
P ({Xn = 1}) = , P ({Xn = 0}) = 1 -
n n
Ci ten jest zbieżny do 0 wed prawdopodobieństwa, ale nie jest zbieżny do 0 z prawdopodobień-
ag lug
stwem 1.
Dowód:
1
Gdy 0 < d" 1, to P ({|Xn| e" }) = P ({Xn = 1}) = 0 gdy n ".
n
Dla > 0P ({|Xn| e" }) = 0.
" "
1 1
Niech An := {Xn = 1}. P (An) = ; P (An) = wi jest szeregiem rozbieżnym do ".
ec
n n
n=1 n=1
{An} jest ci zdarzeń niezależnych, bo {Xn } jest ci niezależnych zmiennych losowych.
agiem agiem
" " " "
Wi z drugiego lematu Borela Cantelliego: P An = 1. Jeżeli " An to istnieje
ec
N=1 n=N N=1 n=N
nieskończony ci numerów {nk : k e" 1},że " An . Zatem Xn = 1 dla nieskończonego ci
ag agu
k k
" "
numerów. Czyli ci {Xn(); n e" 1} nie posiada granicy 0 dla " An.
ag
N=1 n=N
Przyk 4 Ci {Xn} jest z prawdopodobieństwem 1 zbieżny do zmiennej losowej X wtedy i tylko
lad ag
"
1
wtedy gdy lim P {|Xn - X| e" } = 0 dla każdego k " {1, 2, ...}.
k
N"
n=N
Przyk 5 X jest ustalon zmienn losow Tworzymy zmienne
lad a a a.
X() gdy|X()| d" n
Xn() :=
0 gdy|X()| > n
1
Yn() := X
n
Wtedy z prawdopodobieństwem 1 ci {Xn} jest zbieżny do X a ci {Yn} do 0.
ag ag
10.3 Mocne prawo wielkich liczb
Autorem mocnych praw wielkich liczb jest A.N.Ko
lmogorow.
Twierdzenie 13 (MPWL przy jednakowych rozk edzie agiem
ladach) Niech {Xn} b ci nieza-
leżnych zmiennych losowych o jednakowych rozk ladach. Zak ladamy istnienie wartości oczekiwanej
n
1
m := E(Xn). Wtedy ci lej
ag Xk jest z prawdopodobieństwem 1 zbieżny do sta m.
n
k=1
Twierdzenie 14 (MPWL przy niejednakowych rozk edzie agiem
ladach) Niech {Xn} b ci nie-
" n
D2(Xn)
1
zależnych zmiennych losowych takich, że < ". Wtedy ci
ag (Xk - E(Xk)) jest z
n2 n
n=1 k=1
prawdopodobieństwem 1 zbieżny do 0.
30
10.4 Centralne twierdzenia graniczne
Twierdzenie 15 (Lindeberg Levy) Niech {Xn} b ci niezależnych zmiennych loso-
edzie agiem
wych o jednakowych rozk ladach takim, że m := E(Xn), 2 := D2(Xn). Wtedy dla każdego r " R:
ńł ł
ł ł
n
ł ł
r
ł Xk - n m ł
żłł
łł k=1
1 s2
ł
2
"
lim P " < rłł = e- ds
łł
n"
n
ł łłł 2Ą-"
ół ł
"
1
"
Oznacza to, że ciag Xk - n m jest wed dystrybuanty zbieżny do zmiennej losowej o
lug
n
k=1
rozk N(0,1).
ladzie
n
1
"
Szybkość zbieżności ciagu dystrybuant dla zmiennych losowych Xk - n m do dystry-
n
k=1
buanty rozk N(0,1) gdy n " jest tym wi im wi momentów wyższych stopni posiada
ladu eksza ecej
zmienna Xk. W przypadku, gdy zmienne Xk, k " N , posiadaja rozk równomierne na odcinku
lady
12
1
"
już przy n=12 uważa si że Xk - 12 m " N(0, 1).
e,
12
k=1
Dla zmiennych losowych Xk o rozk dwupunktowym jest opracowana tabela dla obszaru wartości
ladzie
n"N i p"(0,1), przy których można stosować przybliżenie:
n
1
Xk - n p " N(0, 1).
"
p(1 - p) n
k=1
W tej tabeli podany jest również obszar wartości n " N i p" (0, 1), przy których rozk BIN(n,p)
lad
można przybliżać rozk POI(np).
ladem
Ponieważ przy ciagu {Xk} niezależnych zmiennych losowych o jednakowych rozk dwupunk-
ladach
n
towych z parametrem p " (0, 1) suma Xk " BIN(n, p) wi wprost z Twierdzenia Lindeberga
ec
k=1
Levy ego wnioskujemy:
31
Twierdzenie 16 (Laplace) Jeżeli Yn " BIN(n, p), to dla dowolnych z1 < z2
ńł ł
ł ł
z2
ł żł
Yn - np 1 s2
ł
2
"
lim P ({Yn = k}) = lim P z1 < < z2łłł = e- ds,
n" n" ół
2Ą
np(1 - p)
And"kd"Bn
z1
gdzie An = np + z1 np(1 - p), Bn = np + z2 np(1 - p).
Twierdzenie 17 (Lindeberg, Feller) Niech {Xn} b ci niezależnych zmiennych takich,
edzie agiem
2
że n := D2(Xn) < " dla każdego n " N . O ci liczbowym {s2} zak ladamy: lim s2 = ",
agu
n n
n"
2 2
max{1,...,n}
lim = 0. Wtedy, przy za
lożeniu, że dla każdego > 0:
s2
n" n
n
1
lim E A (Xk - E (Xk))2 = 0, An,k = { : |Xk () - E (Xk)| e" sn} ,
k,n
n"
s2
n
k=1
n
1
ci ladzie
ag (Xk - E (Xk)) jest wed lug dystrybuanty zbieżny do zmiennej losowej o rozk N(0,1).
sn
k=1
11 Podstawowe poj Statystyki Matematycznej
ecia
11.1 Wst
ep
Zadaniem Statystyki Matematycznej jest tworzenie metod pozwalajacych na identyfikacj (opis)
e
struktury probabilistycznej jaka rz wielkościami obserwowanymi w doświadczeniach. Przyk
adzi la-
dami mog być: szacowanie cz wyst
a estości epowania określonego zdarzenia , szacowanie wadliwości
produkcji, szacowanie średniej wartości opóznienia w fazie dla określonego sygna
lu.
Wielkość losow któr wyróżniamy i mierzymy w doświadczeniach oznaczymy przez X. Rozk X
a, a lad
nie jest znany w pe Zmierzone wartości X w kolejnych doświadczeniach s oznaczane przez xk,
lni. a
k = 1, ..., n ; n jest ilościa niezależnych doświadczeń, uk wartości x:= (x1,...,xn) nazywany jest
lad
prób
a.
Z uwagi na niezależność doświadczeń możemy traktować xk jako wartość zmiennej losowej Xk, gdzie
zmienne X1, ..., Xn s niezależne i posiadaja jednakowe rozk takie same jak X.
a lady
Jeżeli h : Rn R jest funkcja to zmienn losow h(X1, ..., Xn) nazywamy statystyk
a a a.
n
1
Ważnym przyk statystyki jest funkcja Xk.
ladem
n
k=1
Analiza statystyczna polega na konstruowaniu odpowiednich statystyk dla rozwiazywanych zadań.
Rozstrzygni problemu (rozwiazanie zadania statystycznego) jest dokonywane w oparciu o wartość
ecie
jak odpowiednia statystyka uzyska na próbie doświadczalnej.
a
11.2 Estymacja parametrów
Zak e ac e
ladamy , że znamy funkcj określaj a dystrybuant X, nie znamy tylko wartości jednego
lub kilku parametrów tego rozk Przyk ladu
ladu. ladowo dla rozk normalnego tymi nieznanymi para-
metrami mog być m i , dla rozk dwupunktowego p"(0,1).
a ladu
Stosujemy oznaczenie F(, ) dla dystrybuanty X , f(, ) dla g X gdy rozk jest ciag i
estości lad ly
pk() := P ({X = k}) dla prawdopodobieństw wyst
epowania poszczególnych wartości X,
32
WX = {k : k " I}, I " Z, gdy rozk X jest dyskretny. Ten parametr o nieznanej wartości zosta
lad l
oznaczony przez .
Rozpatrujemy tylko sytuacj gdy jest jeden nieokreślony parametr. Przez D oznaczymy dziedzin
e e
zmienności parametru ; dla parametru m w rozk normalnym D=R, dla , D=(0,").
ladzie
Gdy X posiada rozk ciag lub dyskretny tworzy si tzw; funkcj wiarygodności L. Dla rozk
lad ly e e ladu
ciag jej postać:
lego
n
L(r1, ..., rn; ) := f(rj; ), r1, ..., rn " R, " D.
j=1
Jest to g opisanego wyżej uk zmiennych (X1, ..., Xn). Gdy X posiada rozk dyskretny to
estość ladu lad
n
L(k , ..., k ; ) = pk (), k " WX, k1, ..., kn " I, " D.
1 n j i
j=1
Jest to tablica prawdopodobieństw dla uk (X1, ..., Xn).
ladu
Estymacja nieznanych wartości parametrów rozk jest podstawowym dzia Statystyki. Pod-
ladów lem
stawowym zadaniem jakie si tu stawia jest konstrukcja takiej statystyki Sn by jej wartość na próbie
e
x możliwie najlepiej szacowa faktyczn wartość . Wybór tych odpowiednich statystyk odbywa si
la a e
w oparciu o kryteria: nieobciażoność, zgodność ciagu statystyk, efektywność.
11.3 Nieobciżoność statystyki
a
Mówimy, że statystyka Sn jest nieobciażona gdy E(Sn(X1, ..., Xn)) = .
Poprzez E zosta oznaczona wartość oczekiwana wzgl rozk o dystrybuancie F(, ).
la edem ladu
Jeżeli X posiada rozk ciag to
lad ly
+" +"
E(Sn(X1,...,Xn))= ... Sn(r1, ..., rn)L(r1, ..., rn; )dr1...drn .
-" -"
Gdy X posiada rozk dyskretny:
lad
E(Sn(X1,...,Xn))= Sn(k , ..., k )L(k , ..., k ; ).
1 n 1 n
k1,...,kn"I
11.4 Zgodność ci statystyk
agu
Ciag statystyk {Sn : n " N } nazywamy zgodnym gdy ciag zmiennych losowych {Sn(X1, ..., Xn) :
n " N } jest zbieżny do z prawdopodobieństwem 1 b tylko wed prawdopodobieństwa.
adz lug
11.5 Efektywność statystyk
Powiemy, że statystyka Sn jest efektywniejsza od Tn gdy
E((Sn(X1, ..., Xn) - )2) d" E((Tn(X1, ..., Xn) - )2)
dla wszystkich " D.
Jako miar efektywności przyj odchylenie średniokwadratowe mi a Sn. Rozpatrywane
e eliśmy edzy
s też inne miary efektywności.
a
33
11.6 Estymator parametru
Statystyk nieobciażon Sn, że {Sn : n " N } jest ciagiem zgodnym nazywamy estymatorem
e a
parametru. Wśród wszystkich estymatorów wybieramy ten, który jest najbardziej efektywny.
Jeżeli już dysponujemy możliwie najefektywniejszym estymatorem Sn to nieznan wartość parametru
a
szacujemy przez liczb Sn(x), x jest prób
e a.
Przyk 6 X posiada rozk normalny, parametrem jest m, D = R. Jako estymator przyjmiemy
lad lad
n
1
Xk.
n
k=1
Nieobciżoność i zgodność dla tej statystyki jest prawie oczywista. Zgodność jest konsekwencj Moc-
a a
nego Prawa Wielkich Liczb. Stwierdza si również, że jest to estymator najefektywniejszy (to pomi-
e
jamy).
Przyk 7 X posiada rozk dwupunktowy (WX = {0, 1}, P ({X = 1}) = p), p jest parametrem,
lad lad
D = (0, 1).
n
1
Znów jako estymator bierzemy Xk. Posiada on w a
lasność nieobciżoności , zgodności oraz jest
n
k=1
najefektywniejszy.
11.7 Metody konstrukcji estymatorów
11.7.1 Metoda momentów ( analogii)
Metoda ta jest stosowana w sytuacji gdy E(X) = H(), gdzie funkcja H posiada na D funkcj
e
odwrotn G (funkcja odwrotna w sensie operacji z funkcji). Wtedy jako statystyk określaj a
a lożenia e ac
n
1
estymator bierzemy Sn(X1, ..., Xn) = G(n Xk). Gdy G jest funkcja ciag a to z MPWL wynika, że
l
k=1
n
1
lim G(n Xk) = G(E(X)) = G(H()) = z prawdopodobieństwem 1. W tym wypadku mamy
n"
k=1
zgodność.
Estymatory wskazane w powyższych dwóch przyk w naturalny sposób można traktować jako
ladach
uzyskane t metod
a a.
11.7.2 Metoda najwi wiarygodności
ekszej
Metoda ta może być zastosowana gdy X posiada rozk ciag lub dyskretny.
lad ly
Podamy sposób konstrukcji funkcji n zmiennych Sn.
Gdy X posiada rozk ciag to Sn realizuje kres górny funkcji wiarygodności:
lad ly
L(r1, ..., rn; Sn(r1, ..., rn)) = sup{L(r1, ..., rn; ) : " D}.
Gdy X posiada rozk dyskretny to:
lad
L(k1, ..., kn; Sn(k , ..., k )) = sup{L(k1, ..., kn; ) : " D}.
1 n
W przypadku gdy g f, a w przypadku rozk dyskretnego prawdopodobieństwa pk, s funkc-
estość ladu a
jami różniczkowalnymi wzgl i wartość Sn zawsze jest po wewn D to do wyliczenia
edem lożona atrz
Sn można pos si równaniem
lużyć e
34
d
ln L(r1, ..., rn; ) = 0.
d
Jest to równanie wzgl niewiadomej . Gdy " (r1, ..., rn) jest jedynym rozwiazaniem tego
edem
równania oraz stanowi punkt lokalnego maksimum funkcji L to definiujemy
Sn(r1, ..., rn) = " (r1, ..., rn).
Estymatory w powyższych przyk można uzyskać również metod najwi wiarygodności.
ladach a ekszej
Wyżej opisane dwie metody należ do podstawowych. W Statystyce opracowanych jest wiele innych
a
metod . Ich opis można znalezć w ksiażce:
R.Bartoszyński , Probability and Statistical Inference
12 Przedzia ufności
l
Zak lad
ladamy, że rozk badanej wielkości losowej X jest znany, nie jest znana wartość parametru
wchodz w opis rozk Jak zwyk przez N oznaczymy liczność próby.
acego ladu. le
Mówimy, że statystyki UN, VN określaja końce przedzia ufności na poziomie ą gdy :
lu
UN(X1, ..., XN) < VN(X1, ..., XN) z prawdopodobieństwem równym 1,
P({UN(X1, ..., XN) < < VN(X1, ..., XN)}) e" 1 - ą.
Poziom ufności ą jest zadany, w typowych zastosowaniach przyjmuje si ą " [0.01, 0.05].
e
Po wstawieniu próby x jako argumentu do statystyk uzyskujemy wartości liczbowe końców przedzia
lu
ufności zmierzone doświadczalnie.
Podajemy opis podstawowego ogólnego schematu konstrukcji przedzia ufności.
lu
Przypuśćmy, że potrafimy zbudować statystyk TN(, ) spe ac warunki:
e lniaj a
(i) dystrybuanta jej rozk nie zależy od ,
ladu
(ii) jest funkcj monotonicznie rosn a wzgl .
a ac edem
Wtedy wyznaczamy liczby a(ą) < b(ą), że P ({a(ą) < TN(X1, ..., XN, ) < b(ą)}) = 1 - ą, ą jest
zadanym poziomem ufności.
Nast rozwiazujemy wzgl dwa równania:
epnie edem
1) TN(X1, ..., XN, ) = a(ą),
2) TN(X1, ..., XN, ) = b(ą).
Rozwiazanie równania 1) oznaczymy przez UN(X1, ..., XN), a równania 2) przez VN(X1, ..., XN). W
oparciu o w e,
lasności statystyki TN(, ) sprawdza si że tak uzyskane statystyki UN oraz VN określaja
końce przedzia ufności dla parametru na poziomie ą.
lu
W pewnych zadaniach może być trudne wskazanie statystyki TN(, ) spe ace wyżej podane
lniaj
warunki. Niekiedy takich statystyk można wyznaczyć wiele. Wtedy do celów praktycznych sto-
sujemy t przy której wartość oczekiwana d przedzia jest najmniejsza.
a, lugości lu
Przyk 8 (przedzia ufności dla parametru = m w rozk normalnym gdy wartość jest
lad l ladzie
znana)
N
1
"
Jako statystyk TN(, ) bierzemy TN(X1, ..., XN, ) = ( - Xk) .
e
N
k=1
Wiemy (rozdzia Modele probabilistyczne), że statystyka ta posiada rozk N(0,1). Zatem spe
l lad lnia
35
wyżej podane warunki.
Z tablic rozk N(0,1) odczytujemy wartość u(ą) by P ({|Y | < u(ą)}) = 1 - ą, Y " N(0, 1).
ladu
Przyjmujemy a(ą) = -u(ą), b(ą) = u(ą).
Po rozwi wypisanych wyżej dwóch równań ze wzgl na niewiadom znajdujemy statystyki
azaniu edu a
określaj końce przedzia ufności:
ace lu
N N
u(ą) u(ą)
1 1
" "
UN(X1,...,XN) = Xk - , VN(X1,...,XN) = Xk + .
N N
N N
k=1 k=1
"
Latwo zauważyć, że d lugość tego przedzia jest równa 2u(ą). Nie zależy wi od próby.
lu ec
N
13 Testowanie hipotez statystycznych.
13.1 Wst
ep.
Badana jest prawdziwość określonej tezy (hipoteza) dotycz rozk prawdopodobieństwa jednej,
acej ladu
dwóch, b wielu wielkości losowych obserwowanych w doświadczeniach.
adz
Hipotezy mog dotyczyć: wartości parametrów, przynależności rozk do określonej rodziny roz-
a ladu
k W przypadku wielu wielkości losowych mog dotyczyć ich niezależności, wartości wspó
ladów. a lczyn-
nika korelacji, albo że rozk tych wielkości s jednakowe, lub określone momenty s jednakowe
lady a a
(np. s jednakowe wartości oczekiwane). Wymienione zosta tylko niektóre, najczściej w praktyce,
a ly e
weryfikowane hipotezy. Hipotez g ówn (oznaczan przez H0) nazywamy t tez na temat rozk
a l a a a e ladu,
której prawdziwość chcemy zweryfikować. Oprócz tego należy zdefiniować hipotez alternatywn
e a
(oznaczan przez H1), jest to ta teza, któr jesteśmy sk przyjć za prawdziw gdy hipoteza H0
a a lonni a a
okaże si nieprawdziwa.
e
Cz jako H1 przyjmuje si zaprzeczenie zdania b acego tez H0. Jednak subtelna analiza danego
esto e ed a
zjawiska prowadzić może do określenia bardziej precyzyjnej hipotezy H1.
Przyk 9 Duż parti wyrobów uznamy za dobr gdy zawiera nie wi niż 5% sztuk wadliwych.
lad a e a ecej
Decyzj o jakości każdej partii wyrobów podejmuje si w oparciu o zbadanie jakości n wyrobów
e e
wybranych losowo z danej partii, n jest ma le w stosunku do liczności m ca partii. Stawiamy
lej
hipotezy:
H0 : p d" 0.05
H1 : p " (0.05, 1],
gdzie p jest prawdopodobieństwem, że wylosowany wyrób z danej partii b wadliwy.
edzie
Definicja 12 (Test statystyczny) Testem statystycznym nazywamy regu e post
l epowania rozstrzy-
gaj przy jakich wynikach próby hipotez H0 należy odrzucić i przy jakich wynikach H0 przyjć.
acego e a
Testy statystyczne konstruuje si w oparciu o określone statystyki wartość statystyki na próbie
e
zadecyduje czy H0 należy odrzucić, czy nie.
Postać statystyki zależy od weryfikowanej hipotezy. Ogólne wskazania przy wyborze statystyki s
a
nast ma ona być miernikiem rozbieżności mi wynikami próby a tym co zak
epujace: edzy ladamy
hipotetycznie o danym rozk a
ladzie. Dla wielu powszechnie spotykanych hipotez takie statystyki s
zaproponowane w literaturze ksiażkowej dotycz statystyki matematycznej.
acej
Niech Q oznacza odpowiednia statystyk ą > 0 i > 0 s to wybrane ma wartości.
e, a le
n
Oznaczamy: W = {(w1, ..., wn) : wk jest wynikiem k-go doświadczenia, k = 1, ..., n}.
Konstruujemy podzbiór C " R, taki że
36
a) P ({Q(X1, ..., Xn) " C}| (prawdziwa jest H0)) d" ą oraz
b) P ({Q(X1, ..., Xn) " C}| (prawdziwa jest H1)) e" 1 - .
n
Wtedy Wkr := {(w1, ..., wn) : Q(w1, ..., wn) " C} jest zbiorem krytycznych wartości prób.
n
Jeżeli w próbie uzyskamy wynik (w1, ..., wn) " Wkr to H0 odrzucamy i przyjmujemy H1.
W praktyce nie jest znalezć sensown statystyk Q a pózniej C " R by zrealizować jednocześnie
latwo a e
nierówności (a) i (b). We wst badaniach statystycznych zadowalamy si jedynie spe
epnych e lnieniem
nierówności (a). Wartość ą przyjmuje si przeważnie z zakresu : 0,1; 0,05; 0,025; 0,02. Testy,
e
w których weryfikowana jest jedynie nierówność (a) nazywamy testami istotności.
n
Z tego wzgl jeżeli wynik próby (w1, ..., w2) " Wkr to nie decydujemy o przyj H0 lecz jedynie
edu / eciu
stwierdzamy, że nie ma podstaw do odrzucenia H0.
O ewentualnym przyj prawdziwości H0 możemy rozstrzygnć w oparciu o dalsze bardziej dok
eciu a ladne
badania statystyczne.
13.2 Testy istotności (przyk
lady)
Przyk 10 Wracamy do zadania już opisanego wyżej. Jeżeli dany wylosowany wyrób jest wadliwy
lad
to jako wartość wyniku bierzemy 1 w przeciwnym wypadku 0.
n
Wi W = {w1, ..., wn) : wk = 1 lub 0, k = 1, ..., n}.
ec
n
1 1
Już wiemy, że estymatorem dla p jest statystyka Q(X1, ..., Xn) = Xk = (ilosć sztuk wadliwych).
n n
k=1
n
1
Przy ustalonej liczbie ą > 0(ą - ma le), znajdujemy Cą > 0 by Pp({n Xk > Cą}) = ą.
k=1
n
1
Wtedy Wkr := {(w1, ..., wn) : wk > Cą}. Przyk
ladowo przy n = 160, n 0,05 = 8, zatem
n
k=1
n
Xk-8
k=1
"
możemy skorzystać z twierdzenia Moivre a-Laplaca i przyjć, że " N(0, 1).
a
1600,050,95
160Cą-8
Wyznaczyć należy zatem Cą > 0, by P ({Y > }) = ą, gdzie Y " N(0, 1). Jeżeli odczytamy z
400.22
tablic rozk N(0,1), uą > 0, by P ({Y > uą}) = ą to wyznaczamy
ladu
8 + 40 0, 22 uą 1 0, 22uą
Cą = = + = 0, 05 + 0, 054uą
160 20 4
Bior ą = 0, 05, mamy uą = 1,65, zatem Cą=0,05 + 0,09 = 0,14 .
ac
Wi jeżeli w doświadczeniu przy próbie o liczności 160 zaobserwujemy, że ilość sztuk wadliwych jest
ec
<"
wi od 160 0, 14 23 to H0 odrzucamy, czyli takiej partii towaru nie puszczamy na rynek.
eksza =
Przyk 11 (test niezależności 2)
lad
W każdym doświadczeniu obserwujemy jednocześnie X i Y, gdzie przynajmniej wartości jednej z
tych wielkości s podawane w kategoriach jakościowych. Wartości X s podzielone na r kategorii,
a a
wartości Y na s kategorii (r, s > 1). Przeprowadzanych jest n doświadczeń, w każdym z doświadczeń
notowane jest do których kategorii należ zaobserwowane wartości X i Y. Oznaczamy przez nij ilości
a
tych doświadczeń, w których wartości X należ do kategorii o numerze i, a Y s w kategorii o numerze
a a
j. Warunek: n oraz podzia na kategorie s takie by nij e" 8, dla i " {1, ..., r}, j " {1, ..., s}.
l a
r s s r
Musi być spe lniona równość nij = n, Oznaczamy ni(X) = nij, nj(Y ) = nij,
i=1 j=1 j=1 i=1
Pij = P ({X należy do kat. i, Y należy do kat. j}), Pix = P ({X należy do kategorii i}),
37
s r
PjY = P ({Y należy do kat. j}); oczywiście PiX = Pij, PjY = Pij.
j=1 i=1
Gdyby X i Y by ly niezależne to Pij = PiXPjY , i " {1, ..., r}, j " {1, ..., s}.
Weryfikujemy hipotezy:
H0: X i Y niezależne,
H1: X i Y zależne.
2
ni(X)nj (Y )
nij-
r s
n
Bierzemy pod uwag statystyk Q((X1, Y1), ..., (Xn, Yn)) := .
e e:
ni(X)nj (Y )
i=1 j=1
n
Przy spe
lnionym warunku na nij, statystyka ta posiada rozk lad 2 o liczbie stopni swobody (s-1)(r-1)
jeżeli tylko H0 jest prawdziwa. Latwo zauważamy, że statystyka Q jest miar odst wyników
a epstwa
próby od tezy hipotezy H0, bowiem przy niezależności X i Y powinno zachodzić w przybliżeniu:
nij ni(X) nj(Y ) nij ni(X) nj(Y )
= " jako że H" Pij, H" Pix, = Pjy.
n n n n n n
Z tablic rozk 2 o liczbie stopni swobody (r-1)(s-1) wyznaczamy Cą > 0 by P ({2 e" Cą}) = ą.
ladu
n
Wtedy Wkr = {((X1, Y1), ..., (Xn, Yn) : Q((X1, Y1), ..., (Xn, Yn)) e" Cą}.
Dla ilustracji rozwiżemy zadanie.
a
Zadanie
Pewien produkt można wytwarzać trzema metodami produkcji. Wylosowano próbk o liczności
e
n = 270 sztuk i badania jakości wykaza ly:
Metoda produkcji
Jakość
I II III
Dobra 40 80 60
Z 10 60 20
la
Na poziomie istotności ą = 0,05 zweryfikować hipotezy
H0: jakość produktów nie zależy od metody produkcji,
H1: jakość prod. zależy od metody produkcyji.
Rozwi
azanie: Mamy r = 2, s = 3, ilość stopni swobody = 2. Z tablic rozk ladu 2 wyznaczamy
3
Cą = 6, 0. Wartość statystyki na próbie = 12,09. Zatem hipotez H0 należy odrzucić, czyli jakość
e
produkcji zależy od metody produkcji.
Przyk 12 (test dla dwóch średnich)
lad
Zak ladamy, że wielkości X i Y posiadaj rozk normalne. Badamy prawdziwość hipotezy:
a lady
H0 : mX = mY , gdzie mX i mY s to parametry określaj wartości oczekiwane X i Y.
a ace
Hipotez alternatywn może być H1 : mX = mY , a może też być mX < mY , lub odwrotnie.
a a
W zależności od tego czy liczność próby n jest duża czy ma oraz czy znamy wartości parametrów
la,
x, y, czy ich nie znamy, rozpatrujemy odpowiednie statystyki.
Ograniczymy si tylko do jednego przypadku: n1,n2 duże (wi od 30), x, y nie s znane.
e eksze a
Jako Q bierzemy:
n1 n2
1 1
Xk - Yl
n1 n2
k=1 l=1
Q((X1, ..., Xn ), (Y1, ..., Yn )) =
1 2
S2(X1,...,Xn1 ) S2(Y1,...,Yn2 )
+
n1 n2
38
n1 n1
1 1 2
S2(X1, ..., Xn ) = (Xk - Xj)2 jest jak wiemy estymatorem wariacji x;
1
n1 n1
k=1 j=1
podobnie określamy S2(Y1, ..., Yn).
Statystyka ta posiada rozk normalny N (0,1) (w bardzo dobrym przybliżeniu).
lad
Przy H1 : m1 = m2, znajdujemy z tablic rozk N (0,1), liczb Cą by P ({|Y | > Cą}) = ą, ą > 0
ladu e
poziom istotności, Y " N(0,1). Wtedy obszar wartości krytycznych
Wkr = {(X1, ..., Xn ), (Y1, ..., Yn ) : |Q((X1, ..., Xn ), (Y1, ..., Yn ))| > cą}. Inne przypadki s rozpatr-
a
1 2 1 2
zone w literaturze podr
ecznikowej.
Dla ilustracji rozwiżemy zadanie:
a
Zadanie
A oznacza materia stary, B materia l nowy.
l
Uzyskane wyniki przy badaniu żywotności określonej czści maszyny wytworzonej z obu materia ów
e l
s nast ace:
a epuj
Liczba sztuk czści
e
Żywotność czści ( w tygodniach)
e
Z materia A Z materia B
lu lu
4 6 5 4
6 8 15 10
8 10 40 56
10 12 20 30
12 14 10 20
razem 90 120
Mamy tutaj n1 = 90, n2 = 120. Jako wartości X bierzemy środki odcinków tygodniowych
określaj przedzia czasowe żywotności czści. Dla materia A: mamy 5 razy wartość 5, 15
acych ly e lu
razy wartość 7 itd. Podobnie określamy wartości Y. Po obliczeniach wyznaczamy wartość statystyki
Q = - 2.0164.
Weryfikujemy hipotezy:
H0 : mX = mY
H1 : mX < mY .
Przy powyższej hipotezie alternatywnej wyznaczamy z tablic rozk N(0,1) liczb Cą < 0 by
ladu e
P ({Z < Cą}) = ą; Z " N(0,1).
Przy ą = 0,05, odczytujemy Cą= - 1,64.
Ponieważ wartości statystyki równa 2.0164 < -1.64, zatem H0 odrzucamy na rzecz H1, czyli wyko-
nanie czści z nowego materia zwi jej żywotność.
e lu eksza
Na tym zakończymy temat testowania hipotez statystycznych.
14 Zadania dotycz granic ci
ace agów zmiennych losowych i
twierdzeń granicznych
Zadanie 1 {Xn; n e" 1} jest ci niezależnych zmiennych losowych o jednakowych rozk
agiem ladach
równomiernych na odcinku [a,b], funkcja h : [a, b] R jest ci la.
ag
39
b
n
1 1
a) Pokazać , że lim h(Xk) = h(r)dr .
n b-a
n"
a
k=1
b
n
1 1
b) Oszacować prawdopodobieństwo P ({|n h(Xk) - h(r)dr| < 0.05}) ;
b-a
a
k=1
n n
1 1
gdzie n > 80 oraz przyjmujemy jako znane M1:=n h(Xk) , M2:=n h2(Xk) .
k=1 k=1
Szkic rozwi
azania:
Dla (a)
Zauważamy , że {h(Xk), k e" 1} jest ci niezależnych zmiennych losowych o jednakowych
agiem
rozk posiadaj momenty wszystkich rz Wartość oczekiwana
ladach acych edów.
b
1
m := E(h(Xk)) = h(s)ds. Z MPWL zastosowanego do ci {h(Xk), k e" 1} uzyskujemy
agu
b-a
a
b
n
1 1
zbieżność lim h(Xk) = h(r)dr.
n b-a
n"
a
k=1
Dla (b)
We wnioskowaniach statystycznych uważa si że n > 80 jest wystarczaj do tego aby zastosować
e, ace
2
przybliżenie m H" M1, E(h2(Xk)) H" M2. Wobec tego możemy przyjć H" M2 - M1 . Na podstawie
a
Tw. Lindeberga, Levy ego możemy teraz oszacować:
"
b
n
1 1
P ({|n h(Xk) - h(r)dr| < 0.05}) H" 2Ś("0.05 n ).
b-a 2
M2-M1
a
k=1
Zadanie 2 Kontroler jakości produkcji ustali l, że wadliwość produkcji określonego wydzia wynosi
lu
0.05. Z produkcji bież pobrano próbk losow o liczności 100 sztuk i stwierdzono w niej 9 sz-
acej e a
tuk produktów wadliwych. Czy kontroler nie zaniży wspó
l lczynnika wadliwości produkcji na danym
wydziale?
Rozwi Określamy zmienn losowa X równ ilości sztuk wadliwych w próbce. Z warunków zada-
azanie a a
nia X posiada rozk BIN(100, 0.05). Ponieważ 100 0.05 = 5 < 8 wi zastosujemy przybliżenie
lad ec
rozk POI(5). Z tabeli prawdopodobieństw dla tego rozk ladu odczytujemy 0.0363 H" P ({X = 9}).
ladem
Zaobserwowano wi wynik, który jest ma prawdopodobny przy przyj wadliwości 0.05. Należy
ec lo etej
zatem s że w edzie eksza. ekszej
adzić, laściwa wadliwość b wi Z metody najwi wiarygodności wynika, że
należa przyjć wartość 0.09.
loby a
Zadanie 3 Na N stronach tekstu wykryto n b l Określić prawdopodobieństwo uzyskania nie
edów.
mniej niż k b l na wybranej stronie tekstu, 0 d" k d" n. Oszacować powyższe prawdopodobieństwo
edów
przyjmuj N = 100, n = 30, k = 3.
ac
Rozwi
azanie:
Oznaczmy przez X zmienn losow równ ilości b l na tej wybranej stronie. Zmienna ta jest
a a a edów
określona na przestrzeni: &! := { zbiór wszystkich funkcji : {1, ..., n} {1, ..., N}}, #&! = Nn,
{X = j} = {zbiór takich funkcji , które na j argumentach przyjmuj wartość m (numer tej wybranej
a
n
1
strony)}, #{X = j} = (N - 1)n-j . Wobec tego X posiada rozk BIN(n,N ).
lad
j
Przy danych z drugiego punktu mamy 30 0.01 = 0.3 < 8, stosujemy wi przybliżenie rozk
ec ladem
POI(0.3). Z tablic tego rozk wyznaczymy P ({X e" 3}) H" 0.036.
ladu
Zadanie 4 Przyjmuje si że b lad pochodz z zaokr liczb jest zmienn losow o rozk
e, acy agleń a a ladzie
równomiernym na odcinku [-d, d]. Wykonano 100 serii obliczeń po 12 sumowań w serii. Stwierdzono,
40
że w 40 przypadkach b ad obliczeń w serii przekroczy 0.2. Oszacować d.
l l
Rozwi
azanie:
Analiza zwi z jedn seri oznaczamy b ad powsta w wyniku zaokr j - tej liczby przez
azana a a: l ly aglenia
Xj, j = 1, ..., 12. Z za lożeń wynika, że zmienne te posiadaj jednakowe rozk lady równomierne na
a
odcinku [-d, d] i s niezależne. Tw. Lindeberga , Levy ego zastosowane do zmiennych o rozk
a ladach
12
1
równomiernych pozwala stwierdzić, że Xk posiada w przybliżeniu rozk N(0,1). Z warunków
lad
2d
k=1
12
<"
zadania szacujemy, że P ({ Xk > 0.2}) 0.4. Wobec tego
=
k=1
12
1 0.2 0.1
0.4 H" P ({2d Xk > }) H" 0.5 - Ś(0.1) . Z tablic funkcji Laplace a odczytujemy = 0.26 , sk
ad
2d d d
k=1
d = 0.384.
Zadanie 5 Wykonywanych jest 400 rzutów kostk do gry. Oznaczamy przez N6 ilości rzutów w
a
"N1,
których mog pojawić si 1 i 6 odpowiednio. Oszacować P ({|N1 - N6| < 10 3}).
a e
Rozwi
azanie:
Oznaczymy przez Xj zmienn losow zdefiniowan nast aco:
a a a epuj
ńł
ł 1 gdy w j - tym rzucie pojawi si 1
e
ł
e
Xj = -1 gdy w j - tym rzucie pojawi si 6
ł
ół
0 gdy pojawi si inny wynik niż 1 lub 6
e
400
1
Stwierdzamy E(Xj) = 0, D2(Xj) = . Zauważamy, że N1 - N6 = Xj. Na podstawie Centralnego
3
j=1
400
1
Twierdzenia Granicznego Xj posiada w dobrym przybliżeniu rozk N(0, 1).
lad
20
"
3 j=1
"
Zatem P ({|N1 - N6| < 10 3}) H" 2Ś(1.5) H"0.866.
Zadanie 6 Bufor pami może pomieścić 150 jednostek informacji. W chwili pocz bufor jest
eci atkowej
pusty. Pózniej co minut przybywa ilość jednostek informacji, która jest zmienna losow o rozk
e a ladzie
POI(2). Na koniec każdej godziny pracy zasoby zgromadzone w buforze s przekazywane do innego
a
urz atku epnej
adzenia i na pocz nast godziny bufor jest pusty. Jakie jest prawdopodobieństwo, że w
trakcie 100 godzin pracy nie zdarzy si by bufor zosta l przepe lniony.
e
Rozwi
azanie:
Najpierw rozpatrujemy jedn godzin pracy bufora. Oznaczymy przez Xj ilość jednostek informacji
a e
nap lywaj a do bufora w j-tej minucie.
ac
60
Zatem Xk = ilości jednostek informacji jaka nap do buforu w ci jednej godziny.
lynie agu
k=1
Prawdopodobieństwo, że w ci jednej godziny bufor nie b przepe lniony =
agu edzie
60 60
1
"30
= P ({ Xk d" 150}) = P ({"120( Xk - 120) d" }) H" 0.5 + Ś(2.75) = 0.5 + 0.497 = 0.997.
120
k=1 k=1
Zosta tutaj zastosowane Tw. Lindeberga - Levy ego. Prawdopodobieństwo, że w trakcie 100 godzin
lo
pracy bufor nie b przepe = (0.997)100.
edzie lniony
Aby wyznaczyć t wartość przeprowadzimy nast ace rozumowanie: oznaczymy przez Z ilość tych
a epuj
godzin w trakcie, których zdarzy si że bufor b przepe lad
e, edzie lniony. Zmienna losowa Z posiada rozk
BIN(100, 0.003); wyznaczyliśmy 0.003 = 1 - 0.997. Ponieważ 1000.003 = 0.3 < 8 zatem zastosu-
jemy przybliżenie rozk POI(0.3): P ({Z = 0}) = 0.7408 (wartość odczytana z tablic rozk
ladem ladu
Possone a)
41
15 Inne przyk
ladowe zadania
15.1 Zadanie o ruinie gracza
Zadanie 1 Gracze A i B graj w or la i reszk Gracz A wchodzi do gry z kwot m z l a gracz B z
a e. a
kwot n z l. Gdy wypadnie orze l, gracz A wygrywa u gracza B 1 z a gdy reszka, gracz A przegrywa
a l
do gracz B 1 z D a gry, któr oznaczymy przez X, nazywamy numer tego rzutu, po którym
l. lugości a
jeden z graczy pozostaje bez pieni Wyznaczyć E(X).
edzy.
Rozwi
azanie:
Oznaczmy przez Xk d gry przy za
lugość lożeniu, że w momencie startu gracz A posiada k z l;
0 d" k d" n + m. X0 = Xm+n = 0.
Sytuacja po jednym rzucie:
Xk = 1 + Xk+Y (1)
gdzie zmienna losowa Y posiada nast acy rozk WY = {-1, 1},
epuj lad:
1
P ({Y = 1}) = P ({wyrzucenia or = ,
la})
2
1
P ({Y = -1}) = P ({wyrzucenia reszki}) = .
2
Zauważamy, że WX " {0, 1, ...}, oznaczamy p(k) := P ({Xk = n}) = P ({Xk+Y = n - 1}) (zas-
k n
tosowaliśmy tutaj zależność (1)). Gdy n < k, to p(k) = 0.
n
Kontynuuj możemy po zastosowaniu wzoru na prawdopodobieństwo ca
ac lkowite napisać:
p(k) = P ({Xk+Y = n - 1}|{Y = 1})P ({Y = 1}) + P ({Xk+Y = n - 1}|{Y = -1})P ({Y = -1}) =
n
1 1 1
= P ({Xk+1 = n - 1}) P ({Xk-1 = n - 1}) = p(k+1) + p(k-1)
n-1 n-1
2 2 2
Zatem
" " " " "
1 1
E(Xk) = np(k) = np(k+1) + np(k-1) = (l + 1)p(k+1) + (l + 1)p(k-1) =
n n-1 n-1 l l
2 2
n=0 n=1 n=1 l=0 l=0
1 1
= (E(Xk-1) + 1 + E(Xk+1) + 1) = (E(Xk-1) + E(Xk+1)) + 1.
2 2
Uzyskaliśmy wi zależność:
ec
2E(Xk) - (E(Xk-1) + E(Xk+1)) - 2 = 0, 0 d" k d" m + n. (2)
Oznaczmy "i := E(Xi) - E(Xi-1), i = 1, 2, ..., m + n. Z zależności (2) uzyskujemy: "i = "i+1 + 2
sk "i+1 - "i = -2. Wi "i = "1 + ("2 - "1) + ... + ("i - "i-1) = "1 - 2(i - 1).
ad ec
i-1
i
Ponieważ E(Xi) = E(X0) + "1 + "2 + ... + "i, E(X0) = 0, wi E(Xi) = "1 + "j = "1 +
ec
j=2
i i-1
("1 - 2(j - 1)) = i"1 - 2 l = i"1 - 2i(i-1) = i("1 + 1 - i)
2
j=2 l=1
Ponieważ E(Xm+n) = 0 wi uzyskujemy 0 = (m + n)("1 + 1 - m - n).
ec
St wyznaczamy "1 + 1 = m + n. Z uwagi na symetri rozważań (rozważania nie zależ od tego,
ad e a
czy Xm odnosimy do gracza A czy B): E(X) = E(Xm) = (m + n m)m = mn.
42
15.2 Zadanie o losowym ankietowaniu
Zadanie 2 Za lóżmy, że N studentów otrzymuje ankiet do wype lnienia. Każda z osób ankietowanych
e
najpierw rzuca monet w celu ustalenia na które z pytań odpowiada. Jeżeli wypadnie orze odpowiada
a l,
na pytanie 1, gdy reszka, na pytanie 2. Nie podaje si numeru wylosowanego pytania. Odpowiedzi
e
mog być tylko TAK albo NIE. Pytania:
a
i) Czy urodzi leś si w czerwcu?
e
ii) Czy ści leś na egzaminie pisemnym?
aga
(a) Za óżmy, że N = 1000, 400 osób udzieli lo odpowiedzi TAK i 5% badanej populacji urodzi lo si w
l e
czerwcu. Jaki jest oczekiwany odsetek studentów ści acych na egzaminie?
agaj
(b) Zak ladamy dane jak wyżej. Za lóżmy, że wiemy iż Kowalski udzieli odpowiedzi TAK. Jakie jest
prawdopodobieństwo, że Kowalski ści l?
aga
Rozwi
azanie:
Dla (a):
Definiujemy uk zmiennych losowych:
lad
ńł
ł 1 gdy j - ta osoba ankietowana odpowiedzia TAK
la
ł
Yj =
ł
ół
0 gdy j - ta osoba ankietowana odpowiedzia NIE
la
j = 1, ..., 1000.
Z warunków zadania P ({Yj = 1}) = 0, 4.
Oznaczmy przez Ai zdarzenie, że j-ta osoba wylosowa do odpowiedzi pytanie i; j=1,...,1000, i = 1,
la
j
2.
Z warunków zadania: P ({Yj = 1}|{A1}) = 0, 05.
j
Ze wzoru na prawdopodobieństwo zupe
lne:
0, 4 = P ({Yj = 1}) = P ({Yj = 1}|A1)P (A1) + P ({Yj = 1}|A2)P (A2) =
j j j j
= 0, 05 0, 5 + P ({Yj = 1}|A2) 0, 5
j
St obliczamy:
ad
P ({Yj = 1})|A2) = 2 0, 4 - 0, 05 = 0, 8 - 0, 05 = 0, 75
j
Wi oczekiwany odsetek studentów ści acych w tej grupie ankietowanych osób wynosi 75%.
ec agaj
Dla (b):
Ze wzoru Bayes a obliczamy:
P ({Yj = 1}|A2)P (A2) 0, 75 0, 5 0, 372
k k
P (A2|{Yj = 1}) = = = = 0, 93.
k
P ({Yj = 1}) 0, 4 0, 4
Tutaj k jest numerem ankiety wype
lnionej przez Kowalskiego. Zatem prawdopodobieństwo, ze
Kowalski ści l wynosi 0,93.
aga
43
15.3 Zadanie o loterii fantowej
Zadanie 3 Loteria fantowa w momencie pocz
atkowym zawiera n losów, z których m wygrywa; 1 <
m < n. Pozosta n - m losów przegrywaj Zak acych, a
le a. ladamy, że jest n losuj którzy kolejno wybieraj
po jednym losie. Wyznaczyć prawdopodobieństwo wygrania dla każdego z losuj
acych.
Rozwi
azanie:
Definiujemy zdarzenia losowe:
Ak = zdarzenie, że k + 1-szy wylosowany bilet wygrywa, k = 1, ..., n-1
Bk,s = zdarzenie, że s biletów spośród uprzednio k wylosowanych wygrywa, s = 0,1, ...,k.
Wyznaczamy:
ńł
m n-m
ł ( )( )
s k-s
ł
ł 1 d" k d" n, 0 d" s d" m
n
ł
( )
k
P (Bk,s) =
ł
ł
ł
ół
0 k, s > m + 1
Objaśnienie: s losów wygrywaj jest wybieranych spośród wszystkich m losów wygrywaj a
acych acych
k - s losów pustych jest wybieranych spośród wszystkich n-m losów pustych.
m - s
P (Ak|Bk,s) = .
n - k
Ten k + 1 - szy wylosowany los jako wygrywaj ma m - s możliwości wyboru, a jest wybierany
acy
spośród ogólnej ilości równej n - k.
k
Zdarzenia {Bk,s : s " {0, 1, ..., k}} s roz aczne oraz Bk,s = &!. Zatem ze wzoru na praw-
a l
s=0
dopodobieństwo ca
lkowite uzyskujemy: (gdy k d" m)
m n - m
k k
s k - s
m - s
P (Ak) = P (Ak|Bk,s)P (Bk,s) = =
n - k
n
s=0 s=0
k
k
m 1 m
m - 1 n - m
= = .
s k - s
n - 1
n
n
s=0
k
Najpierw zastosowaliśmy równości:
n n - 1 m m - 1
(n - k) = n, (m - s) = m.
k k s s
Pózniej zauważyliśmy, że
k
m - 1 n - m n - 1
= .
s k - s k
s=0
k
Równość ta wynika z faktu, że (Bk,s) = 1; tutaj zdarzenie Bk,s jest tym samym co Bk,s lecz z
s=0
zamian n na n - 1, m na m - 1. Tak wi przy k = 2, ..., n prawdopodobieństwo wygrania przez k -
a ec
m
tego gracza wynosi zawsze . Prawdopodobieństwo wygrania przez 1 - go gracza jest równe:
n
44
liczba losów wygrywaj
acych m
= .
liczba wszystkich losów n
Gdy k > m to rozumowanie przebiega analogicznie, należy tylko uwzgl że P (Bk,s) = 0,
ednić,
m
gdy s > m. Znów uzyskamy P (A) = .
n
15.4 Zadanie Stefana Banacha o dwóch pude lek
lkach zapa
Zadanie 4 Palacz nosi ze sob 2 pude lka zapa Przy każdym przypalaniu papierosa wybiera jedn
a lek. a
zapa lk z losowo wybranego pude Po pewnym czasie chc brać zapa e stwierdzi, że pude jest
e lka. ac lk lko
puste. Zmienna losowa X jest równa ilości zapa w drugim pude Wyznaczyć E(X). Zak ladamy,
lek lku.
że w chwili pocz lka ly
atkowej oba pude zawiera po tyle samo zapa lek.
Rozwi
azanie:
Pocz a liczb zapa w pude oznaczymy przez n.
atkow e lek lkach
2n-k
2n - k
1
WX = {0, 1, ..., n}; pk := P ({X = k}) =
2
n
n n
1 2n-k
2n - k
E(X) = k pk = k
n
2
k=0 k=0
n n
2n-k
2n - k
1
Ponieważ = pk = 1, wi możemy napisać
ec
2
n
k=0 k=0
n-1
2n - k 1 2n-k
n - E(X) = n 1 - E(X) = (n - k) =
n 2
k=0
n-1 n-1
2n-k-1 2n-k-1
1 1
= (2n + 1) - (k + 1) =
n 22n-k n 22n-k
k=0 k=0
= {podstawiamy j = k + 1} =
n n
2n + 1 1 1 1
2n - j 2n - j
= - j =
n n
2 22n-j 2 22n-j
j=1 j=1
2n + 1 1 1
2n
= 1 - - E(X)
n
2 22n 2
Uzyskaliśmy równanie na E(X):
1 2n + 1 1
2n
n - E(X) = an - E(X), an := 1 -
n
2 2 22n
2n
2n+1
Wi E(X) = 2n - 2an = - 1.
ec
22n
n
"
k
k
Przy k > 12 mamy dobre przybliżenie dla k! dane wzorem Stirlinga: k! H" 2Ąk.
e
2n
2n "
2n
( )
e 2Ą2n
Wi dla n > 12: H" = 22n "1 .
ec
2n
n 2Ąn Ąn
n
( )
e
2n+1 n
"
St E(X) H" - 1 H" 2 - 1.
ad
Ąn Ą
Przy n = 50, E(X) H" 7.
45
15.5 Zadanie o losowym prognozowaniu pogody
Zadanie 5 Prognoza proponowana przez Hugo Steinhausa dla Wroc jutro b taka sama
lawia: edzie
pogoda jak dzisiaj.
Prognoza Losowa: po dniu s edzie edzie
lonecznym b dzień s loneczny, po dniu zachmurzonym b dzień
zachmurzony, jeżeli w dniu dzisiejszym jest średnie zachmurzenie, to na nast dzień prognozujemy
epny
w zależności od wyniku rzutu monet Gdy wypadnie orze to prognozujemy dzień s
a. l loneczny, jeżeli
reszka to prognozujemy dzień pochmurny.
W roku 1964 zaobserwowano we Wroc nast pogodowe w ci 61 dni lata, takie jak
lawiu epstwo agu
w poniższej tabelce, gdzie: Z zachmurzenie zerowe; S zachmurzenie średnie; D zachmurzenie
duże.
pogoda jutro
Razem
Z" S" D"
Z 19 5 4 28
S 6 2 6 14
pogoda dziś
D 2 7 9 18
Wyznaczyć prawdopodobieństwo trafności pogody dla wyżej opisanych prognoz.
Dla prognozy (a)
P(Z"|Z)=19/28; P(S"|Z)=5/28; P(D"|Z)=4/28;
P(Z"|S)=6/14; P(S"|S)=2/14; P(D"|S)=6/14;
P(Z"|D)=2/18; P(S"|D)=7/18; P(D"|D)=9/18;
P(Z)=28/60; P(S)=14/60; P(D)=18/60.
P-stwo trafności prognozy = P(Z"|Z)P(Z) + P(S"|S)P(S) + P(D"|D)P(D) = 0,5.
Dla prognozy (b)
P-stwo trafności prognozy = P(Z"|Z)P(Z) + P(S"|S)P(S) + [P(Z"|S)P(O) + P(D"|S)P(R)]P(S)
= 0,57.
Tutaj P(O) = P(R) = 0,5, jest to prawdopodobieństwo wyrzucenia or la lub reszki.
Wi prognoza losowa okazuje si mieć wi prawdopodobieństwo trafności.
ec e eksze
16 Nierówności dla prawdopodobieństw warunkowych
(a) Jeżeli P (A) > 0 i P (B) > 0, to nast ace nierówności s równoważne: P (A|B) > P (A) i
epuj a
P (B|A) > P (B).
Dowód:
P (A )" B)
P (A|B) > P (A) ! > P (A) ! P (A )" B) > P (A)P (B) !
P (B)
P (A )" B)
! > P (B) ! P (B|A) > P (B).
P (A)
(b) Jeżeli P (A) > 0, P (B\A) > 0 i C " A )" B, to P (C|A) > P (C|(A *" B)).
Dowód:
46
P (C)"(A)"B))+P (C)"(A\B))+P (C)"(B\A)) P (C)"A) P (C)"A)
P (C|A *" B) = = < = P (C|A).
P (A*"B) P (A*"B) P (A)
Zastosowaliśmy kolejno obserwacje: C )" (A *" B) = (C )" (A )" B)) *" (C )" (A\B)) *" (C )" (B\A)),
po prawej stronie mamy sum zdarzeń roz acznych, drugi i trzeci sk tej sumy s zbiorami
e l ladnik a
pustymi. Nast C )" (A )" B) = C )" A, bo C"A)"B, oraz P (A *" B) = P (A) + P (B\A) > P (A).
epnie
Z równoważności 1 wywnioskować: prawdopodobieństwo warunkowe, że ustalony gracz (gra w bry-
dża) otrzyma w rozdaniu asa pik, jeżeli wiadomo, że otrzyma przynajmniej jednego asa, jest wi
l l eksze
niż prawdopodobieństwo, że ten gracz otrzyma asa pik.
l
Nierówność 2 zastosować do wyprowadzenia poniższej nierówności: prawdopodobieństwo warunkowe,
że obie wylosowane liczby b a parzyste, jeżeli wśród nich jest liczba parzysta, jest mniejsze niż
ed
prawdopodobieństwo warunkowe, że obie b a parzyste, jeżeli wi z nich jest parzysta.
ed eksza
47
Wyszukiwarka
Podobne podstrony:
Wyklady z matematyki IV sciaga
Wykłady z matematyki semestr I
WYKŁADY Z MATEMATYKI
Marek Majewski Wykłady z matematyki dla studentów GP UŁ
Wyklady z matematyki III sciaga
Wyklady z matematyki I sciaga
wyklad z analizy matematycznej dla studentow na kierunku automatyka i robotyka agh
Matematyka wyklad
Matematyka 2 wykład
Tikhonenko O Wykłady ze statystyki matematycznej Wykład 6
II sem matematyka wyklady
więcej podobnych podstron