Rachunek prawdopodobienstwa i statystyka Wojciech Kordecki skrypt 66str

background image

W

ojciech

Ko

rdecki

Rachunek prawdopodobie«stwa

i statystyka matematyczna

W

ro

a

w

1998

background image

Spis tre±ci

Wst¦p

1

1. Prawdopodobie«stwo

2

1.1. Aksjomaty prawdopodobie«stwa

2

1.1.1. Przestrze« zdarze«

2

1.1.2. Aksjomaty Koªmogorowa

3

1.1.3. Geometryczna i klasyczna denicja prawdopodobie«stwa 5

1.1.4. Zadania

6

1.2. Prawa wielkich liczb i symulacja

8

1.2.1. Mocne i sªabe prawo wielkich liczb

8

1.2.2. Pierwsze przykªady symulacji

9

1.2.3. Zadania

11

1.3. Prawdopodobie«stwo warunkowe

12

1.3.1. Denicja i podstawowe wªasno±ci

12

1.3.2. Wzór Bayesa

13

1.3.3. Zadania

14

2. Zmienne losowe

15

2.1. Rozkªady zmiennych losowych

15

2.1.1. Denicja zmiennej losowej

15

2.1.2. Dystrybuanta zmiennej losowej

16

2.1.3. G¦sto±¢

18

2.1.4. Zadania

19

2.2. Momenty zmiennych losowych

20

2.2.1. Caªka Stieltjesa

20

2.2.2. Warto±¢ oczekiwana

20

2.2.3. Momenty wy»szych rz¦dów

22

2.2.4. Zadania

24

2.3. Rozkªady dyskretne

25

2.3.1. Rozkªad dwupunktowy i dwumianowy

25

2.3.2. Rozkªad Poissona

26

2.3.3. Zadania

28

2.4. Rozkªady ci¡gªe

29

2.4.1. Rozkªad jednostajny

29

2.4.2. Rozkªad wykªadniczy

29

2.4.3. Rozkªad normalny

31

2.4.4. Zadania

34

3. Twierdzenia graniczne

35

3.1. Nierówno±¢ Czebyszewa i prawa wielkich liczb

35

3.1.1. Nierówno±ci Markowa i Czebyszewa

35

3.1.2. Prawa wielkich liczb

36

3.1.3. Zadania

37

3.2. Funkcje charakterystyczne

38

3.2.1. Denicje i wªasno±ci

38

3.2.2. Rozkªad gamma

39

i

background image

3.2.3. Zadania

40

3.3. Centralne twierdzenie graniczne

41

3.3.1. Twierdzenie Lindeberga-Levy'ego

41

3.3.2. Rozkªady chi-kwadrat i t-Studenta

42

3.3.3. Zadania

43

4. Podstawowe poj¦cia statystyki

44

4.1. Denicje

44

4.1.1. Sªownik poj¦¢ statycznych

44

4.1.2. Najwa»niejsze statystyki

44

4.1.3. Zadania

46

4.2. Dystrybuanta empiryczna i histogramy

47

4.2.1. Dystrybuanta empiryczna

47

4.2.2. Histogramy

47

4.2.3. Zadania

47

5. Estymacja

48

5.1. Estymacja punktowa

48

5.1.1. Metoda momentów

48

5.1.2. Metoda najwi¦kszej wiarogodno±ci

48

5.1.3. Zadania

50

5.2. Estymacja przedziaªowa

51

5.2.1. Przedziaªy ufno±ci

51

5.2.2. Przedziaªy ufno±ci dla ±redniej

51

5.2.3. Przedziaªy ufno±ci dla wariancji

53

5.2.4. Zadania

54

6. Testowanie hipotez

55

6.1. Testy parametryczne

55

6.1.1. Testy dla ±redniej

56

6.1.2. Testy dla wariancji

57

6.1.3. Testy dla dwóch ±rednich

58

6.1.4. Zadania

58

6.2. Testy nieparametryczne

59

6.2.1. Testy zgodno±ci

59

6.2.2. Testy niezale»no±ci

60

6.2.3. Zadania

61

Literatura

62

ii

background image

1

Wst¦p

Materiaª zawarty w konspekcie wykªadu jest podzielony na dwie zasadnicze

cz¦±ci { rachunek prawdopodobie«stwa i statystyk¦ matematyczn¡. Przezna-

czony on jest na jednosemestralny wykªad w wymiarze 4 godzin tygodniowo.

Caªy wykªad rachunku prawdopodobie«stwa jest oparty na aksjomatyce Koª-

mogorowa, w tym na ±cisªym zdeniowaniu zdarze« jako podzbiorów prze-

strzeni zdarze« elementarnych , tworz¡cych

-algebr¦ zdarze«. Z tego po-

wodu eksponowana jest raczej ÿgeometryczna denicja prawdopodobie«stwa"

zamiast ÿkombinatorycznej denicji prawdopodobie«stwa". Z drugiej strony,

na samym pocz¡tku wykªadu podaje si¦ prawo wielkich liczb w najprostszej

postaci, aby mo»na byªo wprowadzi¢ intuicje cz¦sto±ciowe, (autor ±wiadomie

unika terminu ÿcz¦sto±ciowa denicja prawdopodobie«stwa", obawiaj¡c si¦

jego nieco baªamutnego wyd¹wi¦ku), co pozwala na ilustracj¦ wykªadu symula-

cjami komputerowymi. Z tego wzgl¦du, nieco na marginesie wykªadu pojawia

si¦ te» metoda Monte Carlo i generatory liczb losowych.

Druga poªowa semestru po±wi¦cona jest na statystyk¦ matematyczn¡. Nacisk

jest poªo»ony przede wszystkim na podanie ogólnych metod i ich zrozumienie,

a nie na podanie szczegóªowych rozwi¡za«, które mo»na znale¹¢ w licznych,

a cz¦stokro¢ bardzo dobrych podr¦cznikach i poradnikach. Ta cz¦±¢ wykªadu

jest uzupeªniona o procedury uªatwiaj¡ce obliczanie warto±ci niektórych staty-

styk. Procedury te, napisane gªównie w Pascalu, tylko cz¦±ciowo umieszczone

s¡ w tym konspekcie. Wszystkie procedury s¡ dost¦pne w internecie pod ad-

Adres

internetowy

resem

http://neyman.im.pwr.wroc.pl/~kordecki

.

Przy opracowaniu tego konspektu, autor korzystaª z wielu podr¦czników.

Przede wszystkim z nieco przestarzaªego ju», ale dobrego podr¦cznika M. Fi-

sza [2] oraz z ksi¡»ek W. Fellera [5] i [6]. S¡ to jednak ksi¡»ki trudne, prze-

znaczone raczej dla matematyków i studentów matematyki, ni» dla studentów

politechnik. Zbiory zada«, to przede wszystkim skrypt T. Inglota, T. Ledwiny

i Z. Šawniczak [4] oraz podr¦cznik J. Grenia [3].

Obecnie na rynku ksi¦garskim i bibliotekach mo»na spotka¢ wielk¡ liczb¦ ty-

tuªów, po±wi¦conych zagadnieniom rachunku prawdopodobie«stwa i statystyki

matematycznej.Ich przegl¡dowi b¦dzie po±wi¦cony ostatni rozdziaª konspektu.

background image

2

1. Prawdopodobie«stwo

1.1. Aksjomaty prawdopodobie«stwa

1.1.1. Przestrze« zdarze«

Niech b¦dzie dowolnym zbiorem, zwanym przestrzeni¡ zdarze« elementar-

Zdarzenia

elementarne

nych. Elementy tej przestrzeni

!

2

nazywamy zdarzeniami elementarnymi.

Przykªad.

Rzut monet¡: =

fO

;

Rg

, gdzie

O

jest stron¡ monety z orªem,

a

R

jest stron¡ monety z reszk¡.

Rzut kostk¡ do gry: =

f

[1]

;[2];[3];[4];[5];[6]

g

, gdzie [

i] jest t¡ ±ciank¡ kostki,

na której jest

i oczek.

Strzelanie do tarczy: jest ±cian¡, na której wyznaczono koªo o danej ±rednicy.

Traenie jest punktemz tej ±ciany { zakªadamy tu, »e zawsze w ±cian¦ traamy,

cho¢ niekoniecznie w tarcz¦.

Zdarzeniami b¦dziemy nazywa¢ podzbiory przestrzeni zdarze« elementarnych

. Jednak»e nie wszystkie takie podzbiory musz¡ by¢ zdarzeniami. Musz¡

one jednak speªnia¢ pewne warunki. Aby na przykªad okre±li¢ zdarzenie

A

jako ÿwyrzucono co najmniej 5 oczek lub co najwy»ej 2 oczka" warto mie¢

sum¦ zdarze«

A = A

2,

[

A

5+

, gdzie

A

2,

oznacza wyrzucenie co najwy»ej

2 oczek, a

A

5+

oznacza wyrzucenie co najmniej 5 oczek. Podobnie, je±li

A

b¦dzie zdarzeniem polegaj¡cym na traeniu w tarcz¦, warto okre±li¢ zdarzenie

przeciwne

A

0

=

n

A polegaj¡ce na nietraeniu w tarcz¦. Rozwa»ania te

prowadz¡ nas do nast¦puj¡cej denicji.

Denicja.

Niech b¦dzie ustalon¡ przestrzeni¡ zdarze« elementarnych.Zda-

rzeniami nazywamy podzbiory przestrzeni , które tworz¡ rodzin¦ (czyli zbiór

-algebra

zdarze«

zbiorów)

S

tak¡, »e

(i)

;

2

S

,

(ii) je»eli

A

2

S

to

A

0

2

S

,

(iii) je»eli dla dowolnego ci¡gu

A

i

2

S

, to

A

1

[

A

2

[

[

A

n

2

S

;

gdzie

A =

;

nazywamy zdarzeniem niemo»liwym, a

A

0

=

n

A nazywamy

zdarzeniem przeciwnym do

A. Rodzin¦

S

nazywamy

-algebr¡ zdarze«.

Wyst¦puj¡ca w denicji suma mo»e by¢ sko«czona lub niesko«czona. Stosuje

si¦ cz¦sto skrótowy zapis, podobny do zapisu sumy liczb:

n

[

i

=1

A

i

=

A

1

[

A

2

[

[

A

n

;

1

[

i

=1

A

i

=

A

1

[

A

2

[

[

A

n

[

::: :

Bezpo±rednio z denicji wynikaj¡ dalsze wªasno±ci

-algebry zdarze«.

background image

1.1 Aksjomaty prawdopodobie«stwa

3

Fakt 1.1.1.

Je»eli jest przestrzeni¡ zdarze« elementarnych, a

S

jest

-al-

gebr¡ zdarze«, to

2

S

:

(1.1.1)

Dowód.

Poniewa»

;

2

S

oraz =

;

0

, to z (i) i (ii) wynika, »e

2

S

.

Zdarzenie

A = nazywamy zdarzeniem pewnym. Podobnie jak dla sumy,

stosuje si¦ dla iloczynu zbiorów zapis, podobny do zapisu iloczynu liczb:

n

\

i

=1

A

i

=

A

1

\

A

2

\

\

A

n

;

1

\

i

=1

A

i

=

A

1

\

A

2

\

\

A

n

\

::: :

Fakt 1.1.2.

Je»eli dla dowolnego ci¡gu

A

i

2

S

, to

\

i

A

i

2

S

:

Dowód.

Powy»sz¡ równo±¢ otrzymuje si¦ z prawa de Morgana oraz z wªasno±ci

(ii) i (iii). Poniewa»

A =

\

i

A

i

!

0

=

[

i

A

0

i

;

oraz

A

0

i

2

S

. to równie»

A = (A

0

)

0

2

S

.

Wyst¦puj¡ca w powy»szym wzorze suma mo»e by¢ sko«czona lub niesko«-

czona.

1.1.2. Aksjomaty Koªmogorowa

Podana ni»ej denicja prawdopodobie«stwa zwana aksjomatyczn¡ denicj¡

prawdopodobie«stwa, pochodzi od A. N. Koªmogorowa. Byªa opublikowana

w roku 1933 roku

1

i staªa si¦ podstaw¡ wspóªczesnej teorii prawdopodobie«-

stwa.

Denicja. Aksjomaty Koªmogorowa.

Je»eli jest przestrzeni¡ zdarze«

elementarnych, a

S

jest

-algebr¡ zdarze«, to prawdopodobie«stwem nazy-

wamy funkcj¦ Pr :

S

!

R

, czyli funkcj¦ przypisuj¡c¡ liczby zdarzeniom tak¡,

»e

Denicja

prawdopodo-

bie«stwa

0

¬

Pr(

A)

¬

1

;

(1.1.2)

Pr() = 1

;

(1.1.3)

1

A. N. Koªmogorow (1903 { 1987), miaª wtedy zaledwie 30 lat!

background image

1.1 Aksjomaty prawdopodobie«stwa

4

je»eli dla dowolnych

i

6

=

j jest A

i

\

A

j

=

;

, to

Pr

[

i

A

i

!

=

X

i

Pr(

A

i

)

:

(1.1.4)

Je»eli

A

\

B =

;

to mówimy, »e

A i B s¡ wykluczaj¡ce si¦. Warunek 1.1.4

oznacza, »e dla ci¡gu parami wykluczaj¡cych si¦ zdarze«, prawdopodobie«stwo

sumy jest równe sumie prawdopodobie«stw.

Uwaga.

Dla iloczynów zdarze« nie ma podobnej wªasno±ci.

Z aksjomatów Koªmogorowa wynikaj¡ dalsze wªasno±ci.

Twierdzenie 1.1.1.

Je»eli

A

2

S

to Pr(

A

0

) = 1

,

Pr(

A).

Dowód.

Poniewa»

A

\

A

0

=

;

, to z równo±ci (1.1.3) i (1.1.4) wynika, »e Pr(

A)+

Pr(

A

0

) = 1.

Podobnie dowodzi si¦ nast¦puj¡cego wyniku.

Twierdzenie 1.1.2.

Je»eli

B

A, to Pr(A

n

B) = Pr(A)

,

Pr(

B).

Kilka nast¦pnych u»ytecznych wzorów, pozostawimy do samodzielnego udo-

wodnienia jako zadania.

Trójk¦ (

;

S

;Pr) nazywa si¦ przestrzeni¡ probabilistyczn¡. W nast¦pnym

Przestrze«

probabili-

styczna

punkcie rozpatrzymy dwa specjalne przypadki przestrzeni probabilistycznych.

Teraz tylko jeden bardzo prosty (najprostszy nietrywialny) przykªad.

Przykªad.

Rzucamy jeden raz monet¡. Wtedy =

fO

;

Rg

,

S

=

f;

;

fO g

;

fRg

;

g

oraz Pr(

O

) = Pr(

R

) = 1

=2. Wten sposób zostaªa okre±lona caªa przestrze«

probabilistyczna (

;

S

;Pr).

Niezale»no±¢ zdarze« jest wªasno±ci¡ nie tylko samych zdarze« jako zbiorów,

Niezale»no±¢

zdarze«

ale zale»y od okre±lonego na nich prawdopodobie«stwa.

Denicja.

Ci¡g zdarze«

A

1

;A

2

;::: (sko«czony lub niesko«czony) jest nieza-

le»ny, gdy dla dowolnego jego sko«czonego podci¡gu

A

i

1

;A

i

2

;:::A

i

k

zachodzi

równo±¢

Pr(

A

i

1

\

A

i

2

\

\

A

i

k

) = Pr(

A

i

1

)Pr(

A

i

2

)

Pr(

A

i

k

)

:

(1.1.5)

Je»eli o pewnych zdarzeniach wiemy, »e s¡ niezale»ne, to znaj¡c ich prawdo-

podobie«stwa mo»emy obliczy¢ prawdopodobie«stwa ich iloczynów.

Przykªad.

Rzucamy dwoma monetami. Je»eli wiemy, »e rzuty s¡ niezale»ne

i prawdopodobie«stwa wyrzucenia zarówno orªa jak i reszki s¡ równe, to praw-

dopodobie«stwo wyrzucenia dwóch orªów jest (jak dobrze zreszt¡ wiadomo)

równe Pr(

O

)

Pr(

O

) = (1

=2)(1=2) = 1=4.

background image

1.1 Aksjomaty prawdopodobie«stwa

5

1.1.3. Geometryczna i klasyczna denicja prawdopodobie«stwa

Rozpatrzymy teraz dwa szczególne przypadki. Jako pierwszy okre±limy tzw.

geometryczn¡ denicj¦ prawdopodobie«stwa. Nazwa denicja jest tu myl¡ca,

bo tak naprawd¦, jest to tylko szczególny przypadek ogólnej, aksjomatycznej

denicji prawdopodobie«stwa.

Niech b¦dzie pewnym podzbiorem

R

k

, gdzie

k = 1;2;3, tzn. jest podzbio-

Geometryczna

denicja

prawdopodo-

bie«stwa

rem prostej, (najcz¦±ciej odcinkiem), pªaszczyzny lub przestrzeni trójwymia-

rowej. Zdarzeniami z

S

b¦d¡ podzbiory z maj¡ce miar¦

2

m(A) { dªugo±¢,

powierzchni¦ lub obj¦to±¢. Prawdopodobie«stwo zdarzenia

A okre±limy wzo-

rem

Pr(

A) = m(A)

m() :

(1.1.6)

Tak okre±lone prawdopodobie«stwo nazywamy geometrycznym.

Przykªad.

Na odcinku [0

;1] umieszczamy losowo, tzn. zgodnie z prawdopo-

dobie«stwem geometrycznym oraz niezale»nie, dwa punkty

x i y. Przestrze«

mo»emy wobec tego okre±li¢ jako kwadrat o wierzchoªkach w punktach (0

;0),

(0

;1), (1;0) oraz (1;1). Teraz zdarzeniami elementarnymi s¡ punkty z tego

kwadratu:

! = (x;y)

2

. Dla jednego punktu

x zgodnie ze wzorem (1.1.6)

mamy Pr(

f

! : x

2

[

a;b]; b > a

g

) =

b

,

a. To samo mamy dla punktu y. Po-

niewa» punkty s¡ umieszczane niezale»nie, to

Pr(

f

! : !

2

[

a;b]

[

c;d]; b > a; d > c

g

) = (

b

,

a)(d

,

c):

Iloczyn kartezja«ski odcinków [

a;b]

[

c;d] jest oczywi±cie prostok¡tem we-

wn¡trz kwadratu .

-

6

1

0

1

d

d

1

,

d

1

,

d

Rysunek 1: Prawdopodobie«stwo, »e

j

x

,

y

j

< d.

Niech

A

d

b¦dzie zdarzeniem polegaj¡cy na tym, »e

j

x

,

y

j

< d, tzn.

A

d

=

f

! :

j

x

,

y

j

< d

g

:

2

Nie na wszystkich zbiorach z

R

k

da si¦ okre±li¢ miar¦, ale tym zagadnieniem nie b¦dziemy

si¦ zajmowa¢

background image

1.1 Aksjomaty prawdopodobie«stwa

6

Zbiór punktów le»y wewn¡trz obszaru obwiedzionego grubsz¡ lini¡ na rysun-

ku 1. Pole tego obszaru jest równe

Pr(

A

d

) = 1

,

(1

,

d)

2

:

Zaªó»my teraz, »e =

A

1

[

A

2

[

[

A

n

,

A

i

2

S

oraz wszystkie

A

i

,

i =

Klasyczna

denicja

prawdopodo-

bie«stwa

1

;2;:::;n s¡ wykluczaj¡ce si¦ i maj¡ to samo prawdopodobie«stwo, a wi¦c

Pr(

A

i

) = 1

=n. Wtedy dla dowolnego zdarzenie A b¦d¡cego sum¡ k zdarze«

postaci

A

i

, czyli dla

A = A

i

1

[

[

A

i

k

ma pradopodobie«stwo Pr(

A) = k=n.

Zdarzenia

A

i

A nazywa si¦ wtedy zdarzeniami sprzyjaj¡cymi zdarzeniu A, a

jego prawdopodobie«stwo jest równe stosunkowi liczby zdarze« sprzyjaj¡cych

do wszystkich

n zdarze«. Tak okre±lone prawdopodobie«stwo nosi tradycyjn¡

nazw¦ ÿklasycznej denicji prawdopodobie«stwa", cho¢ nie jest denicj¡, ale

pewnym bardzo szczególnym przypadkiem.

Zauwa»my, »e w tym wªa±nie przypadku

-algebr¦

S

wystarczy ograniczy¢ do

zdarze«

A

i

i ich wszystkich sum. Taka

-algebra jest rodzin¡ 2

n

zdarze«.

Przykªad.

Rzucamy

n razy monet¡. Niech A b¦dzie zdarzeniem polegaj¡cym

na wyrzuceniu

m orªów. Przestrzeni¡ zdarze« elementarnych mo»e tu by¢

zbiór wszystkich ci¡gów zero-jedynkowych dªugo±ci

n, gdzie jedynka to wyrzu-

cenie orªa, a zero to wyrzucenie reszki. Zdarzenia

A

i

=

f

!

i

g

= (

x

1

x

2

:::x

n

),

gdzie

i = (x

1

x

2

x

n

)

2

jest liczb¡ w postaci binarnej odpowiadaj¡cej takiemu

ci¡gowi, s¡ wzajemnie wykluczaj¡ce si¦ i maj¡ te same prawdopodobie«stwa.

Jest ich 2

n

. Zdarze« sprzyjaj¡cych zdarzeniu

A jest

,

m

n

. St¡d

Pr(

A) =

,

m

n

2

n

:

1.1.4. Zadania

1.

Do±wiadczenie polega na rzucaniu kostk¡ do gry, a» do wyrzucenia po raz

pierwszy sze±ciu oczek. Okre±li¢ przestrze« probabilistyczn¡.

2.

Uogólni¢ zadanie 1 na przypadek rzucania

n kostkami, a» do wyrzucenia po

raz pierwszy co najmniej

k szóstek w jednym rzucie, k

¬

n.

3.

W zadaniach 1 i 2 obliczy¢ prawdopodobie«stwo, »e liczba rzutów b¦dzie

równa

m, m = 1;2;::: .

4.

Drut o dªugo±ci

l zgi¦to w dwóch niezale»nie wybranych punktach. Obliczy¢

prawdopodobie«stwo, »e mo»na w ten sposób utworzy¢ trójk¡t.

5.

Z odcinka [0

;1] wybieramy losowo dwie liczby p i q. Jakie jest prawdo-

podobie«stwo tego, »e równanie

x

2

+

px + q = 0 b¦dzie miaªo dwa sprz¦»one

pierwiastki zespolone? Jakie jest prawdopodobie«stwo tego, »e b¦dzie miaªo

dwa ró»ne pierwiastki rzeczywiste?

6.

Dla jakich zdarze«

A i B zachodzi wzór

Pr(

A

[

B) = Pr(A) + Pr(B)

,

Pr(

A)

Pr(

B)?

background image

1.1 Aksjomaty prawdopodobie«stwa

7

7.

Udowodni¢, »e Pr(

A

[

B) = Pr(A) + Pr(B)

,

Pr(

A

\

B).

8.

Wzoruj¡c si¦ na zadaniu 7, sformuªowa¢ wzór na Pr(

A

[

B

[

C) i spróbowa¢

go uogólni¢ na przypadek sumy

n zdarze«, tzn. znale¹¢ wzór na obliczenie

Pr

n

[

i

=1

A

i

!

:

9.

Udowodni¢, »e

n

k

=

n

,

1

k

,

1

+

n

,

1

k

;

nie wykonuj¡c rachunków.

10.

W urnie jest

m

­

3 biaªych i

n

­

3 czarnych kul. Obliczy¢ prawdopodo-

bie«stwo wylosowania trzech czarnych kul, gdy kule losujemy

a) bez zwracania,

b) ze zwracaniem.

background image

1.2 Prawa wielkich liczb i symulacja

8

1.2. Prawa wielkich liczb i symulacja

1.2.1. Mocne i sªabe prawo wielkich liczb

Wedªug potocznych opinii, je»eli przeprowadzaj¡c

n obserwacji, zaobserwu-

jemy interesuj¡ce nas zjawisko

k razy, to prawdopodobie«stwo zaj±cia tego

zjawiska powinno wynosi¢

k=n. Iloraz ten jest cz¦sto przyjmowany za tzw.

ÿstatystyczn¡ denicj¦ prawdopodobie«stwa". Okre±lenie to nie jest caªkiem

poprawne, ale intuicyjnieuzasadnione, a poni»sze twierdzenia nadaj¡ mu ±cisªy

matematycznie charakter.

Twierdzenie 1.2.1.

Niech (

;

S

;Pr) b¦dzie przestrzeni¡ probabilistyczn¡, a

Mocne prawo

wielkich liczb

f

A

i

2

S

g

b¦dzie niesko«czonym ci¡giem zdarze« niezale»nych o tym samym

prawdopodobie«stwie Pr(

A

i

) =

p. Niech !

2

b¦dzie dowolnym, ale ustalo-

nym zdarzeniem elementarnym. Oznaczmy przez

N(n;!) liczb¦ tych zdarze«

A

i

, dla których

!

2

A

i

, gdy

i = 1;2;:::;n. Wtedy

Pr

! : lim

n

!1

N(n;!)

n = p

= 1

:

(1.2.1)

Twierdzenie 1.2.2.

Przy oznaczeniach z twierdzenia 1.2.1 dla ka»dego

" > 0

Sªabe prawo

wielkich liczb

zachodzi równo±¢

lim

n

!1

Pr

! :

N(n;!)

n

,

p

> "

= 0

:

(1.2.2)

Twierdzenie 1.2.1 nosi nazw¦ mocnego prawa wielkich liczb, a twierdzenie 1.2.2

{ sªabego prawa wielkich liczb. Tak te» jest. Z mocnego prawa wielkich liczb

ªatwo jest wyprowadzi¢ sªabe prawo wielkichliczb. Dowodów tych nie b¦dziemy

tu przeprowadza¢, a sªabe prawo wielkich liczb udowodnimy po¹niej, w innej,

ªatwiejszej i ogólniejszej postaci. W tym momencie zajmiemy si¦ interpretacj¡

tych twierdze«.

W twierdzeniu 1.2.1 zdarzenie elementarne

! jest ustalonym do±wiadczeniem,

polegaj¡cym na niesko«czonymci¡gu obserwacji. W ka»dej obserwacji badamy,

czy zaszªo interesuj¡ce nas zjawisko, tzn. czy w

i-tej obserwacji byªo !

2

A

i

.

Tak wi¦c

N(n;!) jest liczb¡ zaobserwowanych zjawisk w pierwszych n obser-

wacjach, w ustalonym do±wiadczeniu

!. Równo±¢ (1.2.1) mówi, »e stosunek

liczby zjawisk zaobserwowanych w

n obserwacjach do liczby obserwacji równej

n, d¡»y do prawdopodobie«stwa zaobserwowania zjawiska przy jednej obser-

wacji dla prawie wszystkich do±wiadcze«, tzn. mog¡ si¦ zdarzy¢ do±wiadczenia,

w których nie zajdzie równo±¢ (1.2.1), ale stanie si¦ to z zerowym prawdopo-

dobie«stwem.

Podobny charakter ma twierdzenie 1.2.2. Mówi ono, »e stosunek liczby zjawisk

zaobserwowanych w

n obserwacjach do liczby obserwacji ró»ni si¦ niewiele

od prawdopodobie«stwa zaobserwowania zjawiska przy jednej obserwacji, tzn.

prawdopodobie«stwo, »e ró»ni si¦ wi¦cej ni» dowolnie maªa liczba

", d¡»y do

zera, a wi¦c jest dowolnie maªe, je±li tylko we¹miemy dostatecznie du»e

n.

background image

1.2 Prawa wielkich liczb i symulacja

9

Przykªad.

Rzucamy

n razy kostk¡ do gry, a n jest ÿbardzo du»e". Je»eli liczba

wyrzuconych szóstek

N(n) daje nam N(n)=n znacznie ró»ni¡ce si¦ od 1/6, to

w my±l twiedzenia 1.2.2 albo zabserwowali±my zjawisko rzadkie, które powinno

zdarzy¢ si¦ z maªym prawdopodobie«stwem (dokªadniej, z prawdopodobie«-

stwem d¡»¡cym do zera) albo kostka jest faªszywa, tzn. prawdopodobie«stwo

wyrzucenia szóstki jest ró»ne od 1/6. Twierdzenie 1.2.1 mówi za± wi¦cej { za-

obserwowali±my zjawisko, które zdarzy¢ si¦ w ogóle nie powinno, bo mo»e zaj±¢

z prawdopodobie«stwem zero, cho¢ oczywi±cie tylko w granicy, przy

n

!

1

.

1.2.2. Pierwsze przykªady symulacji

Przedstawimy tu dwa przykªady wykorzystania praw wielkich liczb do symu-

lacji, zwanej metod¡ Monte-Carlo.

Przykªad.

Na pªaszczyzn¦ poliniowan¡ liniami równolegªymi, odlegªymi od

Igªa Buona

siebie o 1, rzucamy losowo igª¦ o dªugo±ci 1. Jakie jest prawdopodobie«stwo,

»e igªa przetnie lini¦?

Aby rozwi¡za¢ ten przykªad, musimy sprecyzowa¢, co rozumiemy przez okre-

±lenie ÿna poliniowan¡ pªaszczyzn¦ rzucamy losowo igª¦ o danej dªugo±ci". W

tym celu zaªó»my, »e linie na pªaszczyznie s¡ uªo»one poziomo oraz wpro-

wad¹my oznaczenia:

x { odlegªo±¢ dolnego ko«ca igªy od najbli»szej linii pod

igª¡,

{ k¡t mi¦dzy ligª¡ a lini¡, 0

¬

< . Poªo»enie igªy jest teraz okre-

±lone przez par¦ liczb (

x;). Losowo±¢ rzutu na pªaszczyzn¦ rozumiemy w tym

przykªadzie jako umieszczenie punktu (

x;) w prostok¡cie [0;1]

[0

;], zgod-

nie z geometryczn¡ denicj¡ prawdopodobie«stwa. Niech

A b¦dzie zdarzeniem

polegaj¡cym na tym, »e igªa przetnie lini¦.

Igªa przecina lini¦ wtedy, gdy sin

> 1

,

x. Poniewa» pole obszaru speªniaj¡-

cego ten warunek jest równe

Z

0

sin

d = 2;

a pole prostok¡ta jest równe

, to Pr(A) = 2=. Je»eli teraz r

1

;r

2

;::: b¦-

dzie niezale»nym ci¡giem punktów, ka»dy z odcinka [0

;1] wybranym zgodnie z

geometryczn¡ denicj¡ prawdopodobie«stwa, to ci¡g (

r

1

;r

2

)

;(r

3

;r

4

)

;::: b¦-

dzie niezale»nym ci¡giem punktów, ka»dy z prostok¡ta [0

;1]

[0

;] wybranym

zgodnie z geometryczn¡ denicj¡ prawdopodobie«stwa. Niech teraz

A

i

b¦dzie

zdarzeniem polegaj¡cym na tym, »e w

i-tym rzucie igªa przetnie lini¦. Zgodnie

z twierdzeniem 1.2.1 i przyj¦tymi w nim oznaczeniami, ze wzoru (1.2.1) wy-

nika, »e dokonuj¡c coraz to wi¦kszej liczby rzutów, stosunek ich liczby

n do

liczby tych rzutów

k w których igªa przeci¦ªa lini¦, n=k, b¦dzie d¡»yª prawie

zawsze do

=2. Dla n sko«czonego, n=k b¦dzie tylko przybl»eniem liczby , o

losowym bª¦dzie. Oszacowaniem tego bª¦du zajmiemy si¦ po¹niej.

Symulacja polega na dokonaniu takiego eksperymentu i obliczeniu

n=k. Gdy

punkty

r

i

s¡ otrzymywane nie z zycznego eksperymentu, a generowane s¡ na

background image

1.2 Prawa wielkich liczb i symulacja

10

drodze programowej, to taki komputerowy eksperyment daje wygodn¡ i ta-

ni¡ metod¦ otrzymywania przybli»e« { w wielu przypadkach wygodniejsz¡ od

czysto numerycznych oblicze«.

Pzykªad ten nie ma praktycznego znaczenia. Warto±¢ liczby

jest znana z wy-

starczaj¡c¡ dokªadno±ci¡, lepsz¡ od mo»liwej do otrzymania metod¡ symulacji.

Nast¦pny przykªad mo»e mie¢ ju» znaczenie nieco bardziej praktyczne.

Przykªad.

Obliczy¢ caªk¦

Caªka

obliczona

metod¡ Monte

Carlo

1

Z

0

e

sin

2

x

1 +

x

2

dx;

(wykres funkcji podcaªkowej na rysunku 2).

6

-

y

x

Rysunek 2: Wykres funkcji z przykªadu

Caªki tej nie da si¦ obliczy¢ analitycznie. Metoda Monte Carlo polega na otrzy-

maniu ci¡gu

n niezale»nych punktów (x

i

;y

i

) z prostok¡ta [0

;1]

[0

;1], a na-

st¦pnie obliczeniu liczby

k tych punktów, które speªniaj¡ nierówno±¢

y

i

< e

sin

2

x

i

1 +

x

2

i

:

Wtedy na podstawie prawa wielkich liczb (twierdzenia 1.2.1 i 1.2.2) mo»na

przyj¡¢, »e

k=n

1

Z

0

e

sin

2

x

1 +

x

2

dx;

gdy» maksimum funkcji podcaªkowej wynosi 1.

background image

1.2 Prawa wielkich liczb i symulacja

11

Procedura

Symulacja

w Turbo

Pascalu

const n=1000;
var i,k:integer;

x,y:double;

begin

randomize;
k:=0;
for i:=1 to n do
begin

x:=random;
y:=random;
if y<exp(-sqr(sin(pi*x)))/(1+sqr(x)) then inc(k);

end;
writeln('Caªka=',k/n:0:4);

end;

daªa dla 5 kolejnych przebiegów

3

liczby:

0.5320, 0.4870 0.5340 0.4610 0.5160,

a ta sama procedura, ale dla

n = 10000 daªa

0.5045, 0.5011, 0.5046, 0.5006, 0.5045,

podczas gdy prawdziwa warto±¢ caªki (obliczona numerycznie przy pomocy

programu

Mathematica

) jest równa 0.503498.

1.2.3. Zadania

1*.

Niech b¦dzie kwadratem o boku 2

R oraz A b¦dzie koªem wpisanym w

ten kwadrat. Poda¢ metod¦ obliczania liczby

metod¡ Monte Carlo i napisa¢

odpowiedni¡ procedur¦ obliczaj¡c¡.

2*.

Obliczy¢ caªk¦

1

Z

0

arctg(

x

2

sin

x)

ln

2

(1 + (

e

,

1)

x) dx

metod¡ Monte Carlo.

3*.

Hipocykloida jest krzyw¡ zakre±lon¡ przez punkt okr¦gu koªa o promieniu

r tocz¡cego si¦ bez po±lizgu po wewn¦trznej stronie okr¦gu staªego koªa o

promieniu

R. Je»eli m = R=r > 2 jest liczb¡ caªkowit¡, to krzywa ta nie

przecina si¦ i ogranicza obszar wewn¡trz koªa. Dla

m = 4 krzywa taka jest

znana jako

asteroida

.

Napisa¢ procedury obliczaj¡ce metod¡ Monte Carlo pole ograniczone takimi

krzywymi dla

m > 2. Porówna¢ te wyniki z wynikami dokªadnymi. Dla m = 3

pole wynosi

S = 2r

2

, a dla

m = 4 pole wynosi S =

3

8

A

2

.

3

Dla nast¦pnych 5 przebiegów dostanie si¦ zapewne inne liczby

background image

1.3 Prawdopodobie«stwo warunkowe

12

1.3. Prawdopodobie«stwo warunkowe

1.3.1. Denicja i podstawowe wªasno±ci

Prawdopodobie«stwem warunkowym zdarzenia

A jest prawdopodobie«stwo

tego samego zdarzenia

zwanego skutkiem, ale maj¡ce inn¡ warto±¢, zmody-

kowan¡ na podstawie informacji o innym zdarzeniu, zwanym przyczyn¡ lub

warunkiem. Nie ma natomiast poj¦cia zdarzenia warunkowego.

Denicja.

Prawdopodobie«stwo warunkowe zdarzenia

A pod warunkiem zda-

rzenia

B okre±lonwe jest wzorem

Pr(

A

j

B) = Pr(A

\

B)

Pr(

B) ;

(1.3.1)

przy zaªo»eniu Pr(

B) > 0.

Bezpo±rednio z denicji otrzymuje si¦ nast¦puj¡cy

Fakt 1.3.1.

Pr(

A

\

B) = Pr(A

j

B)Pr(B);

(1.3.2)

dla Pr(

B) > 0.

Wªasno±¢ wyra»ona wzorem (1.3.2) jest bardzo u»yteczna w sytuacji, gdy

prawdopobie«stwa warunkowe s¡ znane w sposób naturalny, a nieznane s¡

prawdopodobie«stw iloczynów.

Przykªad.

W ciemnym pokoju mamy dwie urny: du»¡, do której traamy z

pradopodobie«stwem 3/4 i maª¡ do której traamy z prawdopodobie«stwem

1/4. W maªej urnie mamy 2 czarne i 1 biaª¡ kul¦, a du»ej 2 biaªe i 1 czarn¡

kul¦. Jakie jest prawdopobie«stwo, »e tramy na du»¡ urn¦ i równocze±nie

wyci¡gni¦ta z urny kula b¦dzie biaªa.

Rozwi¡zanie. Niech

A b¦dzie zdarzeniem polegaj¡cym na traeniu do du-

»ej urny,

B zdarzenie polegaj¡ce na wylosowaniu kuli biaªej. Jest jasne, »e

Pr(

B

j

A) = 2=3, a poniewa» Pr(A) = 3=4, to zgodnie ze wzorem (1.3.2) otrzy-

mujemy

Pr(

A

\

B) = 23

3

4 =

1

2 :

Prawdopodobie«stwo warunkowe ma wszystkie wªasno±ci ÿzwykªego" prawdo-

podobie«stwa, tzn. zachodzi nast¦puj¡ce twierdzenie.

Twierdzenie 1.3.1.

Dla dowolnej przestrzeni probabilistycznej (

;

S

;Pr)

i ustalonego

B

2

S

takiego, »e Pr(

B) > 0, prawdopodobie«stwo warun-

kowe Pr

B

(

) = Pr(

j

B) speªnia postulaty Koªmogorowa (1.1.2) { (1.1.4), tzn.

(

;

S

;Pr

B

) jest przestrzeni¡ probabilistyczn¡.

Intuicje dotycz¡ce prawdopodobie«stwa warunkowego zgodne s¡ z nast¦puj¡-

cym rezultatem.

Twierdzenie 1.3.2.

Je»eli zdarzenia

A i B s¡ niezale»ne i Pr(B) > 0, to

Pr(

A

j

B) = Pr(A):

background image

1.3 Prawdopodobie«stwo warunkowe

13

1.3.2. Wzór Bayesa

Twierdzenia przedstawione w tym punkcie znane s¡ pod tradycyjn¡ nazw¡

wzorów. Trzeba jednak zwróci¢ uwag¦, »e wzory te s¡ prawdziwe tylko przy

speªnionych zaªo»eniach, wspólnych dla obydwóch twierdze«.

Twierdzenie 1.3.3.

(prawdopodobie«stwo caªkowite). Niech

A

i

b¦dzie ci¡-

Wzór na

prawdopodo-

bie«stwo

caªkowite

giem zdarze« takim, »e

A

i

\

A

j

=

;

dla

i

6

=

j oraz

X

i

Pr(

A

i

) = 1. Wtedy

Pr(

B) =

X

i

Pr(

B

j

A

i

)

P(A

i

)

:

(1.3.3)

Dowód.

Twierdzenie udowodnimy w szczególnym przypadku, gdy zaªo»enie

X

i

Pr(

A

i

) = 1 zast¡pimy mocniejszym:

S

i

A

i

= . Ze wzoru (1.3.2) otrzy-

mujemy zale»no±¢ Pr(

B

j

A

i

)

P(A

i

) = Pr(

A

i

\

B). Poniewa» A

i

s¡ rozª¡czne, to

równie» rozª¡czne s¡

B

\

A

i

oraz

B = B

\

S

i

A

i

. St¡d

Pr(

B) = Pr

B

\

[

i

A

i

!

= Pr

[

i

(

B

\

A

i

)

!

=

X

i

Pr(

B

j

A

i

)

P(A

i

)

:

Bezpo±rednio ze wzorów (1.3.1) i (1.3.2) otrzymuje si¦ nast¦puj¡ce

Twierdzenie 1.3.4.

(Bayesa

4

). Przy zaªo»eniach z twierdzenia 1.3.3 oraz

Wzór Bayesa

dla Pr(

B) > 0:

Pr(

A

i

j

B) = Pr(B

j

A

i

)Pr(

A

i

)

Pr(

B)

;

(1.3.4)

gdzie Pr(

B) wyznaczone jest ze wzoru (1.3.3).

Przykªad.

Dwóch strzelców strzela do tarczy. Strzelec 1 traa z prawdopo-

dobie«stwem 2/3, a strzelec 2 z prawdopodobie«stwem 1/2. Po oddaniu po

jednym strzale okazaªo si¦, »e tarcza zostaªa traona dokªadnie raz. Jakie jest

prawdopodobie«stwo, »e traª strzelec 1?

Oznaczmy przez

A

11

fakt traenia w tarcz¦ przez obydwóch strzeleców,

A

10

{

przez pierwszego,

A

01

{ przez drugiego, a przez

A

00

przez »adnego. Poniewa»

strzelcy strzelaj¡ niezale»nie (to trzeba zaªo»y¢), to Pr(

A

11

) = 1

=3, Pr(A

10

) =

1

=3, Pr(A

01

) = 1

=6, Pr(A

00

) = 1

=6. Wszystkie te zdarzenia s¡ rozª¡czne, wi¦c

s¡ speªnione zaªo»enia twierdzenia 1.3.4. Przez

B oznaczmy fakt traenia w

tarcz¦ dokªadnie raz. Szukanym prawdopodobie«stwem jest

Pr(

A

10

[

A

11

j

B) = Pr(A

10

j

B);

gdy» Pr(

A

11

j

B) = 0. Wiadomo te», »e Pr(B

j

A

10

)Pr(

A

10

) = 1

=3 oraz

Pr(

B

j

A

01

)Pr(

A

10

) = 1

=6, pozostaªe prawdopodobie«stwa warunkowe s¡ równe

4

Thomas Bayes

y

1763

background image

1.3 Prawdopodobie«stwo warunkowe

14

zeru. Tak wi¦c ze wzoru (1.3.3) otrzymujemy Pr(

B) = 1=2. Ze wzoru Bayesa

(1.3.4) wynika, »e

Pr(

A

10

j

B) = 1=3

1

=2 ;

co jest szukanym prawdopodobie«stwem.

Wyst¦puj¡ce w nast¦pnym punkcie zadania 1 i 2 równie» s¡ typowymi zasto-

sowaniami wzoru na prawdopodobie«stwo caªkowite i wzoru Bayesa.

1.3.3. Zadania

1.

W ka»dej z trzech urn s¡ po cztery kule { w urnie

i-tej jest i kul biaªych,

a reszta czarnych. Z urny pierwszej losujemy jedn¡ kul¦ i przekªadamy do

drugiej, z drugiej losujemy jedn¡ kul¦ i przekªadamy do trzeciej, a w ko«cu z

trzeciej urny losujemy jedn¡ kul¦. Jakie jest prawdopodobie«stwo, »e b¦dzie

to kula biaªa?

2.

W urnie pierwszej s¡ 2 dwie biaªe i dwie czarne kule, a w drugiej jedna

biaªa i trzy czarne kule. Z ka»dej urny losujemy po jednej kuli i nast¦pnie

losujemy z nich jedn¡ kul¦. Okazaªo si¦, »e wylosowali±my kul¦ biaª¡. Jakie

jest prawdopodobie«stwo, »e kula ta pochodziªa z pierwszej urny.

3.

Udowodni¢, »e je±li Pr(

A

j

B) = Pr(A

j

B

0

), to zdarzenia

A i B s¡ niezale»ne.

4.

Przy szeregowej transmisji danych do ka»dego bajtu dodawany jest jeden bit

tak, aby liczba jedynek byªa parzysta. Prawdopodobie«stwo przekªamania dla

ka»dego bitu wynosi

p. Obliczy¢ prawdopodobie«stwo niewykrycia przekªama-

nia { dokªadne dla dowolnego

p oraz przybli»one, gdy p jest bardzo maªe.

background image

15

2. Zmienne losowe

2.1. Rozkªady zmiennych losowych

2.1.1. Denicja zmiennej losowej

Formuªowanie problemów wyª¡cznie w terminach przestrzeni zdarze« elemen-

tarnych,

-algebry zdarze« i prawdopodobie«stwa okre±lanego bezpo±rednio

na zdarzeniach, nie jest zbyt wygodne. Cz¦sto bowiem zamiast okre±lenia ca-

ªej przestrzeni probabilistycznej (

;

S

;Pr), wystarczy okre±li¢ charakterystyki

liczbowe zdarze« elementarnych, bez opisywania samych zdarze«. Na przykªad

je±li przy rzutach monet¡ interesuje nas tylko liczba wyrzuconych orªów, to

zamiast opisywa¢ rzut monet¡ w terminach orªów i reszek, mo»na zast¡pi¢

je zerami i jedynkami i dodawa¢ tylko te ÿlosowe" liczby. Co to wi¦c s¡ te

ÿlosowe" liczby? Potrzebna jest tutaj nast¦puj¡ca denicja.

Denicja.

Zmienn¡ losow¡ nazywamy funkcj¦ okre±lon¡ na przestrzeni zda-

Zmienna

losowa

rze« elementarnych i przyjmuj¡c¡ warto±ci rzeczywiste:

X :

!

R

;

tak¡, »e

f

! : X(!) < x

g

2

S

;

(2.1.1)

dla ka»dego

x

2

R

.

Zamiast pisa¢

A =

f

! : X(!) < x

g

b¦dzie pisa¢ w skrócie

A =

f

X < x

g

.

Denicja powy»sza zapewnia nam, »e mo»na powiedzie¢: ÿzdarzenie polegaj¡ce

na tym, »e

X < x".

Bezpo±redno z denicji wynika równie», »e zdarzeniami s¡ równie» zbiory:

f

! : X(!)

¬

x

g

;

f

! : X(!) > x

g

;

f

! : X(!)

­

x

g

;

f

! : X(!) = x

g

;

f

! : X(!)

2

[

a;b]

g

;

f

! : X(!)

2

[

a;b)

g

;

f

! : X(!)

2

(

a;b]

g

;

f

! : X(!)

2

(

a;b)

g

:

Równie» w tych przypadkach najcz¦±ciej stosowa¢ b¦dziemy skrótowy zapis,

np.

f

X

2

[0

;1]

g

zamiast peªnego

f

! : X(!)

2

[0

;1]

g

, pami¦taj¡c jednak

zawsze, »e

X = X(!), czyli »e zmienna losowa jest funkcj¡ zdarze« elementar-

nych.

B¦dziemy równie» równie» pisa¢ Pr(

X < x) zamiast

f

! : X(!) < x

g

. Podob-

nie we wszystkich dalszych przypadkach.

background image

2.1 Rozkªady zmiennych losowych

16

Na zmiennych losowych mo»na dokonywa¢ rozmaitych operacji, co precyzuje

nast¦puj¡ce twierdzenie.

Twierdzenie 2.1.1.

Je»eli

X(!) jest zmienn¡ losow¡, a h(x) jest funkcj¡ prze-

dziaªami ci¡gª¡, której dziedzina zawiera zbiór warto±ci

X, to Y (!) = h(X(!))

jest te» zmienn¡ losow¡ okre±lon¡ na tej samej przestrzeni probabilistycznej co

X.

2.1.2. Dystrybuanta zmiennej losowej

Denicja zmiennej losowej zapewnia nam poprawno±¢ denicji podanej ni»ej.

Denicja.

Dystrybuant¡ nazywamy funkcj¦ rzeczywist¡ zmiennej rzeczywi-

Dystrybuanta

stej, okre±lon¡ wzorem

F(x) = Pr(

f

! : X(!) < x

g

) = Pr(

X < x):

(2.1.2)

Twierdzenie 2.1.2.

Funkcja

F jest dystrybuant¡ pewnej zmiennej losowej

Warunki

konieczne

i dostateczne

wtedy i tylko wtedy, gdy

(a) jest niemalej¡ca,

(b) lim

x

!,1

= 0, lim

x

!1

= 1,

(c) jest lewostronnie ci¡gªa.

Przykªad.

Nale»y dobra¢ staªe

A, B, C, D, E i F tak, aby funkcja

F(x) =

8

>

>

>

<

>

>

>

:

A

dla

x <

,

1,

Bx

2

+

C dla

,

1

¬

x

¬

0,

Dx + E dla 0 < x

¬

1,

F

dla

x > 1

byªa dystrybuant¡ pewnej zmiennej losowej. Trzeba wi¦c staªe dobra¢ tak, aby

byªy speªnione warunki (a) { (c) w twierdzeniu 2.1.2. Najpierw sprawdzimy

warunek (b). Wynika z niego, »e musi by¢

A = 0 oraz F = 1. Na to, aby dla

x =

,

1 byª speªniony warunek (c),

F(x) musi by¢ lewostronnie ci¡gªa w tym

punkcie, a wi¦c musiby¢ równie» ci¡gªa, (bo inaczej byªaby tylko prawostronnie

ci¡gªa) co oznacza, »e

B +C = 0. Dla speªnienia warunku (a) na odcinku [0;1]

trzeba przyj¡¢, »e

B

¬

0, a wi¦c równie»

C

­

0. Dalej, w punktach

x = 0

i

x = 1 funkcja F(x) jest zawsze lewostronnie ci¡gªa, wystarczy wi¦c sprawdzi¢

warunek (a). Oznacza to, »e

C

¬

E

¬

1,

D

­

0 oraz

D

¬

1

,

E. Tak wi¦c tylko

dwa parametry s¡ wyznaczone jednoznacznie, (

A = 0 i F = 1), a pozostaªe s¡

okre±lone przy pomocy ukªadu nierówno±ci i równo±ci. Na rysunku 3 pokazany

jest wykres takiej dystrybuanty dla

B =

,

0

:25, C =

,

B = 0:25, D = 0:25,

E = 0:5.

Przy pomocy dystrybuanty mo»na okre±li¢ prawdopodobie«stwa zdarze«, o

background image

2.1 Rozkªady zmiennych losowych

17

-1

0

1

0.25

0.5

0.75

1

6

-

y

x

u

u

e

u

e

Rysunek 3: Wykres dystrybuanty z przykªadu

których byªa mowa punkcie 2.1.1.

Pr(

X

¬

x) = lim

t

!

x

+

F(t) = F(x

+

)

;

Pr(

x

1

¬

X < x

2

) =

F(x

2

)

,

F(x

1

)

;

Pr(

X = x) = F(x

+

)

,

F(x);

Pr(

X > x) = 1

,

F(x

+

)

i tak dalej.

W±ród zmiennych losowych mo»na, ze wzgl¦du na posta¢ dystrybuanty, wy-

ró»ni¢ dwa typy:

zmiennelosowe typu skokowego (zmiennelosowe dyskretne),których dys-

trybuanta jest przedziaªami staªa, a ponadto ma tylko skoki w punktach

x

i

{ taka zmienna losowa mo»e przyjmowa¢ (z prawdopodobie«stwem 1)

tylko warto±ci

x

i

,

zmienne losowe typu ci¡gªego, których dystrybuant¦

F(x) mo»na przed-

stawi¢ w postaci

F(x) =

x

Z

,1

f(t)dt:

(2.1.3)

Funkcj¦

f(x) okre±lon¡ wzorem (2.1.3) nazywa si¦ g¦sto±ci¡.

Uwaga.

Nie ma zmiennych losowych ci¡gªych, bo nie s¡ one funkcjami zmien-

nej rzeczywistej, a mog¡ by¢ okre±lone na zbiorach dowolnej natury. S¡ tylko

zmienne losowe

typu ci¡gªego

, tzn. takie, które maj¡ g¦sto±¢.

Wªasno±ci g¦sto±ci omówimy dokªadniej w nast¦pnym punkcie.

Rozkªadem zmiennej losowej okre±lamy jej dystrybuant¦ lub inne funkcje w

peªni j¡ chakteryzuj¡ce, np. g¦sto±¢ dla zmiennej losowej typu ci¡gªego lub

prawdopodobie«stwa

p

i

= Pr(

X = x

i

) dla zmiennej losowej dyskretnej.

background image

2.1 Rozkªady zmiennych losowych

18

W dwóch nast¦pnych punktach omówimy najwa»niejsze rozkªady dyskretne

i rozkªady typu ci¡gªego.

Niezale»no±¢ zmiennych losowych deniuje si¦ przy pomocy niezale»no±ci zda-

Niezale»no±¢

X

i

Y

rze« lub przy pomocy dystrybuant. Tutaj podamy tylko denicj¦ niezale»no±ci

dwóch zmiennych losowych, cz¦±ciowo w terminach dystrybuant. Ogólna de-

nicja zostanie podana pó¹niej, przy okazji rozpatrywania wektorów losowych

i ich dystrybuant.

Denicja.

Zmienne losowe

X i Y s¡ niezale»ne, gdy

Pr(

X < x;Y < y) = F(x)G(y);

gdzie

F jest dystrybuant¡ zmiennej losowej X, a G { zmiennej losowej Y .

2.1.3. G¦sto±¢

Wzór (2.1.3) deniuje g¦sto±¢ rozkªadu. Mówi si¦ te» w przypadku, gdy

F(x)

jest dystrybuant¡ zmiennej losowej

X, »e f(x) jest g¦sto±ci¡ zmiennej losowej

X mimo, »e X nie wyst¦puje jawnie w denicji g¦sto±ci.

Podobnie jak twierdzenie 2.1.2 podaje warunki konieczne i dostateczne na

Warunki

konieczne

i dostateczne

to, aby dana funkcja byªa dystrybuant¡, poni»sze twierdzenie podaje warunki

konieczne i dostateczne na to, aby funkcja byªa g¦sto±ci¡.

Twierdzenie 2.1.3.

Funkcja

f(x) jest g¦sto±ci¡ pewnej zmiennej losowej

wtedy i tylko wtedy, gdy

(A)

f(x)

­

0,

(B)

1

Z

,1

f(x)dx = 1.

Nale»y zwróci¢ uwag¦, »e g¦sto±¢ nie musi by¢ okre±lona jednoznacznie, ponie-

wa» mo»na w dowolny sposób ustali¢ jej warto±¢ w sko«czonej liczbie punktów.

Dzieje si¦ tak, gdy» zarówno we wzorze (2.1.3) deniuj¡cym g¦sto±¢ jak i w wa-

runku (B) w twierdzeniu 2.1.3, warto±ci caªek nie zmieniaj¡ si¦ przy zmianie

warto±ci funkcji podcaªkowej w sko«czonej liczbie punktów. Przyjmuje si¦ jed-

nak zawsze, »e speªniony jest warunek (A) w twierdzeniu 2.1.3.

Bezpo±rednim wnioskiem ze wzoru (2.1.3) jest

Wzór na

g¦sto±¢

background image

2.1 Rozkªady zmiennych losowych

19

byªa g¦sto±ci¡ pewnej zmiennej losowej. Trzeba wi¦c dobra¢ staªe tak, aby byª

speªniony warunek (A) w twierdzeniu 2.1.3, sk¡d wynika

a

­

0 oraz

b

¬

=2.

Dla speªnienia warunku (B) w tym twierdzeniu, musi by¢ speªniona równo±¢

b

Z

0

cos

xdx = 1:

St¡d po obliczeniu caªki otrzymujemy warunek

asinb = 1, przy czym a > 0.

Za pomoc¡ g¦sto±ci mo»na ªatwo wyznaczy¢ prawdopodobie«stwo nale»enia

warto±ci zmiennej losowej do zbioru.

Twierdzenie 2.1.4.

Je»eli zmienna losowa

X ma g¦sto±¢ f(x), to

Pr(

X

2

[

a;b]) = Pr(X

2

[

a;b))

= Pr(

X

2

(

a;b]) = Pr(X

2

(

a;b)) =

b

Z

a

f(x)dx:

(2.1.5)

2.1.4. Zadania

1.

Dla jakich parametrów

a i b funkcja F(x) = aarctgx+b jest dystrybuant¡

pewnej zmiennej losowej?

2.

Niech

F(x) =

(

1

,

e

,

x

2

; dla x

­

0,

0

;

dla

x < 0,

b¦dzie dystrybuant¡ zmiennej losowej

X, (sprawdzi¢, »e jest to dystrybuanta).

Wyznaczy¢ Pr(

X > 1), Pr(1 < X

¬

2), Pr(

X = 3).

3.

Dla jakich warto±ci

a i b funkcja f(x) =

a

1 + (

bx)

2

jest g¦sto±ci¡ pewnej

zmiennej losowej? Wyznaczy¢ dystrybuant¦.

4.

Niech dystrybuanta

F(x) zmiennej losowej X b¦dzie funkcj¡ ±ci±le rosn¡c¡ i

ci¡gª¡, a funkcja

h(x) b¦dzie ró»nowarto±ciowa. Znale¹¢ dystrybuant¦ zmiennej

losowej

h(X).

5.

Niech

f(x) =

(

a dla x

2

[0

;],

0 dla

x =

2

[0

;]

b¦dzie g¦sto±ci¡ zmiennej losowej

X. Wyznaczy¢ a, znale¹¢ dystrybuant¦

zmiennej losowej

X oraz korzystaj¡c z zadania 4 znale¹¢ dystrybuant¦ i g¦sto±¢

zmiennej losowej

Y = sinX.

background image

2.2 Momenty zmiennych losowych

20

2.2. Momenty zmiennych losowych

2.2.1. Caªka Stieltjesa

Podana w tym punkcie denicja caªki Stieltjesa

5

jest uogólnieniem zwykªej

caªki. Jej u»ycie umo»liwia podanie jednolitej denicji momentów zmiennych

losowych, zarówno dla typu ci¡gªego, jak i skokowego.

Denicja.

Zaªó»my, »e dystrybuanta

F(x) jest przedziaªami ci¡gªa i ró»nicz-

kowalna. Caªk¡ Stieltjesa z funkcji

g(x) wzgl¦dem dystrybuanty F(x) nazy-

wamy liczb¦, okre±lon¡ wzorem

Caªka

Stieltjesa

b

Z

a

g(x)dF(x) =

b

Z

a

g(x)dF(x)

dx dx +

X

i

g(x

i

)

,

F(x

+

i

)

,

F(x

i

)

; (2.2.1)

gdzie

x

i

s¡ punktami skoków dystrybuanty

F(x), pomi¦dzy którymi jest ona

ci¡gªa i ró»niczkowalna.

Je»eli dystrybuanta

F(x) ma g¦sto±¢, to we wzorze (2.2.1) znika suma, (bo

Przypadki

szczególne

caªki Stieltjesa

dystrybuanta jest ci¡gªa, wi¦c skoki s¡ równe zeru), a caªka Stieltjesa sprowa-

dza si¦ do zwykªej caªki Riemanna. Je±li natomiast zmienna losowa jest typu

skokowego, to pochodna pomi¦dzy skokami jest równa zeru, (bo dystrybuanta

jest tam staªa), a caªka Stieltjesa redukuje si¦ we wzorze (2.2.1) do sumy.

Przykªad.

Okre±lmy dystrybuant¦

F(x) wzorem

F(x) =

(

0

dla

x

¬

0,

1

,

e

,

x

=2 dla x > 0.

Wtedy skok w zerze

F(0

+

)

,

F(0) = 1=2, caªka w przedziale (

,1

;0) jest

równa zeru, a wi¦c

1

Z

,1

(

x + 1)dF(x) = 12

1

Z

0

(

x + 1)e

,

x

dx + 12 =

3

2 :

2.2.2. Warto±¢ oczekiwana

Warto±¢ oczekiwana zmiennej losowej, zwana te» nadziej¡ matematyczn¡, war-

to±ci¡ ±redni¡ lub przeci¦tn¡, nale»y do podstawowych poj¦¢ rachunku praw-

dopodobie«stwa.

Denicja.

Warto±ci¡ oczekiwan¡ zmiennej losowej

g(X) o dystrybuancie

F(x) = Pr(X < x) jest liczba oznaczana jako Eg(X) i okre±lona wzorem

E

g(X) =

1

Z

,1

g(x)dF(x);

(2.2.2)

5

Thomas Stieltjes, (1856-1895), matematyk holenderski.

background image

2.2 Momenty zmiennych losowych

21

o ile caªka we wzorze (2.2.2) jest bezwzgl¦dnie zbie»na, to znaczy je»eli istnieje

caªka

1

Z

,1

j

g(x)

j

dF(x):

(2.2.3)

Je»eli zmienna losowa jest typu ci¡gªego o g¦sto±ci

f(x), to warto±¢ oczekiwana

Warto±¢

oczekiwana {

przypadki

szczególne

zamiast wzorem (2.2.2), wyra»a si¦ wzorem

E

g(X) =

1

Z

,1

g(x)f(x)dx;

a je±li jest dyskretna, to wzorem

E

g(X) =

X

i

g(x

i

)

p

i

;

gdzie

p

i

= Pr(

X = x

i

). Oczywi±cie w obydwóch tych przypadkach, suma lub

caªka musi by¢ bezwzgl¦dnie zbie»na.

Je»eli caªka (2.2.2) nie istnieje lub je±li istnieje, ale nie jest bezwzgl¦dnie

zbie»na, a wi¦c nie istnieje caªka (2.2.3), to mówimy, »e warto±¢ oczekiwana

nie istnieje. W przypadku, gdy

g(x)

­

0 i nie istnieje warto±¢ oczekiwana, to

mówi si¦ te», warto±¢ oczekiwana jest niesko«czona.

W pewnych przypadkach mo»na ªatwo stwierdzi¢, »e warto±¢ oczekiwana ist-

nieje. Przykªadem s¡ tu dwa, ªatwe do udowodnienia fakty.

Fakt 2.2.1.

Je±li zmienna losowa

X ma g¦sto±¢ f(x), która jest równa zeru

poza pewnym ograniczonym zbiorem na prostej rzeczywistej, (tzn. istnieje od-

cinek (

a;b) taki, »e je±li x =

2

(

a;b), to f(x) = 0) oraz je±li g(x) jest ograniczona

na tym zbiorze, to istnieje E

g(X).

Fakt 2.2.2.

Je±li zmiennalosowa dyskretna

X przybiera tylkosko«czon¡ liczb¦

warto±ci

x

i

, to warto±¢ oczekiwana E

g(X) istnieje.

Poni»ej przedstawione zostan¡ dwa najprostsze, ale bardzo wa»ne przykªady.

Przykªad.

Rozkªad zero-jedynkowy: Pr(

X = 1) = p, Pr(X = 0) = q = 1

,

p,

a wi¦c zmienna losowa

X nie przyjmuje innych warto±ci ni» 0 i 1.

E

X = 0

q + 1

p = p:

Przykªad.

Rozkªad jednostajny na odcinku [0

;1]:

f(x) =

(

1 dla

x

2

[0

;1],

0 dla

x =

2

[0

;1].

Warto±¢ oczekiwana istnieje (patrz fakt 2.2.2) i wyra»a si¦ wzorem

E

X =

1

Z

0

xdx = 12 :

background image

2.2 Momenty zmiennych losowych

22

Dla warto±ci oczekiwanych prawdziwa jest wªasno±¢ taka jak dla caªek, któr¡

mo»na sªownie sformuªowa¢ nast¦puj¡co:

warto±¢ oczekiwana sumy jest równa sumie warto±ci oczekiwanych, (o ile

warto±ci oczekiwane istniej¡),

staª¡ mo»na wyci¡gn¡¢ przed znak warto±ci oczekiwanej.

Formalnie sformuªujemy to w postaci twierdzenia.

Operator

liniowy

Twierdzenie 2.2.1.

Je»eli istniej¡ E

X i EY , to istnieje E(aX + bY ) oraz

E(

aX + bY ) = aEX + bEY ;

(2.2.4)

czyli warto±¢ oczekiwana jest

operatorem liniowym

.

Podobnie jak dla caªek, nie ma ogólnej reguªy, jak oblicza¢ warto±¢ oczeki-

Warto±¢

oczekiwana

iloczynu

wan¡ iloczynu zmiennych losowych. Reguªa taka istnieje tylko dla niezale»nych

zmiennych losowych.

Twierdzenie 2.2.2.

Je»eli zmienne losowe

X i Y s¡ niezale»ne, to

E(

XY ) = (EX)(EY ):

(2.2.5)

Warto±¢ oczekiwana zmiennej losowej

X, nazywa si¦ momentem rz¦du pierw-

szego i oznaczana jest bardzo cz¦sto symbolem

m = m

1

= E

X.

2.2.3. Momenty wy»szych rz¦dów

Momentem rz¦du

k, czyli momentem k-tego rz¦du lub krótko, k-tym momen-

Moment

zwykªy

tem zmiennej losowej

X jest warto±¢ oczekiwana jej k-tej pot¦gi, czyli EX

k

.

Moment rz¦du

k jest cz¦sto oznaczany symbolem m

k

. Moment ten nazywany

jest momentem zwykªym, dla odró»nienia od innego rodzaju momentów oma-

wianych dalej.

Przykªad.

Dla zmiennej losowej zero-jedynkowej

m

k

= E

X

k

= 0

k

p + 1

k

q = p:

Przykªad.

Dla zmiennej losowej rozkªadzie jednostajnym na [0

;1]

m

k

= E

X

k

=

1

Z

0

x

k

dx = 1

k + 1 :

Dalej deniuje si¦ moment centralny rz¦du

k, (k-ty moment centralny), wzo-

Wariancja

rem

c

k

= E(

X

,

E

X)

k

. Przypadek

k = 2 ma szczególn¡ rol¦ w rachunku

prawdopodobie«stwa. Moment centralny drugiego rz¦du nazywa si¦ wariancj¡

i jest oznaczany symbolem D

2

X,

background image

2.2 Momenty zmiennych losowych

23

D

2

X = E(X

,

E

X)

2

:

(2.2.6)

Ze denicji wariancji wynika w szczególno±ci, »e D

2

X

­

0. Na oznaczenie

Wariancja jest

nieujemna!

wariancji u»ywany jest te» symbol Var

X. Z wariancj¡ zwi¡zana jest wa»na

charakterystyka, zwana ±rednim odchyleniem standardowym lub dyspersj¡,

oznaczona symbolem

i okre±lana jako pierwiastek z wariancji: =

p

D

2

X.

Z istnienia momentów wy»szych rz¦dów wynika istnienie momentów ni»szych

rz¦dów.

Twierdzenie 2.2.3.

Je»eli istnieje E

X

k

oraz

l < k, to istnieje EX

l

.

Dla wariancji nie jest prawdziwy bez dodatkowych zaªo»e« odpowiednik twier-

dzenia 2.2.1. Mo»na jednak sformuªowa¢ twierdzenie nast¦puj¡ce.

Twierdzenie 2.2.4.

D

2

(

aX) = a

2

D

2

X ;

(2.2.7)

a je»eli zmienne losowe

X i Y s¡ niezale»ne, to

D

2

(

X + Y ) = D

2

X + D

2

Y

(2.2.8)

lub oznaczaj¡c

X

=

p

D

2

X i

Y

=

p

D

2

Y ,

X

+

Y

=

q

2

X

+

2

Y

:

Wariancja zmienne losowej

X, a zwªaszcza jej dyspersja, jest miar¡ odchylenia

si¦ zmiennej od jej ±redniej warto±ci, czyli miar¡ rozrzutu. Interpretacja taka

wynika bezpo±rednio ze wzoru (2.2.6). Wariancj¦ ªatwiej ni» ze wzoru (2.2.6),

mo»na obliczy¢ korzystaj¡c z nast¦puj¡cej wªasno±ci.

Fakt 2.2.3.

D

2

X = EX

2

,

(E

X)

2

(2.2.9)

albo równowa»nie

2

=

m

2

,

m

2

1

:

Dowód.

Ze wzoru (2.2.6) wynika, »e

D

2

X = E

,

X

2

,

2

XEX + (EX)

2

= E

,

X

2

,

2

m

1

X + m

2

1

:

Nast¦pnie z twierdzenia 2.2.1 wynika, »e

D

2

X = EX

2

,

2

m

1

E

X + m

2

1

=

m

2

,

2

m

2

1

+

m

2

1

=

m

2

,

m

2

1

background image

2.2 Momenty zmiennych losowych

24

Ponadto mamy nast¦puj¡cy

Fakt 2.2.4.

D

2

X = 0 wtedy i tylko wtedy, gdy zmienna losowa X przyjmuje

warto±¢ staª¡ z prawdopodobie«swem 1, to znaczy, gdy Pr(

X = x

0

) = 1 dla

pewnej warto±ci

x

0

.

Dowód.

Je»eli Pr(

X = x

0

) = 1, to

m

1

=

x

0

oraz

m

2

=

x

0

, a wi¦c D

2

X = 0.

Z drugiej strony, je±li D

2

X

6

= 0, to oczywi±cie D

2

X > 0. Przypu±¢my, »e

D

2

X = 0, a równocze±nie Pr(X = x

0

)

< 1. Ze wzoru (2.2.6) otrzymujemy

2

= D

2

X =

1

Z

,1

(

x

,

m)

2

dF(x)

­

0

;

gdy» (

x

,

m)

2

­

0, przy czym

2

= 0 tylko wtedy, gdy funkcja podcaªkowa jest

to»samo±ciowo równa zeru, (co nie jest prawd¡) albo gdy w dokªadnie jednym

punkcie

x

0

=

m dystrybuanta F(x) ma skok równy 1, czyli F(x

+

0

)

,

F(x

0

) =

1.

2.2.4. Zadania

1.

Niech

R b¦dzie zmienn¡ losow¡ o rozkªadzie jednostajnym na odcinku [0;1].

Obliczy¢ momenty zwykªe i centralne

k-tego rz¦du.

2.

Zmienna losowa

X ma rozkªad dany tabel¡:

x

k

0 1 2 3 4

p

k

0

:2 0:1 0:1 0:3 A

Znale¹¢ staª¡

A, a nast¦pnie warto±¢ oczekiwan¡ oraz wariancj¦ zmiennych X

i

Y = sin(X=2).

3.

Rzucamy trzy razy monet¡. Niech

X b¦dzie liczb¡ wyrzuconych orªów.

Obliczy¢ E

X i D

2

X.

4.

Zmiennalosowa

X przyjmujetylko warto±ci 2

k

dla

k = 1;2;::: oraz Pr(X =

2

k

) = 4

5

,

k

. Znale¹¢ E

X oraz D

2

X. Czy istnieje trzeci moment zmiennej X?

5.

Zmienna losowa

X przyjmuje tylko warto±ci 3

k

,1

dla

k = 1;2;::: oraz

Pr(

X = 3

k

,1

) = 2

3

,

k

. Czy istnieje E

X? Obliczy¢ E

p

X.

6.

Rzucamy dwoma kostkami. Obliczy¢ warto±¢ oczekiwan¡ i wariancj¦ sumy

oczek.

background image

2.3 Rozkªady dyskretne

25

2.3. Rozkªady dyskretne

2.3.1. Rozkªad dwupunktowy i dwumianowy

Zmienna losowa

X ma rozkªad dwupunktowy, gdy z prawdopodobie«stwem 1

przyjmuje tylko dwie warto±ci, tzn. je±li Pr(

X = x

1

) =

p i Pr(X = x

2

) =

q,

to

p + q = 1. Šatwo policzy¢ momenty: EX = x

1

p + x

2

q, co w przypadku

p = q = 1=2 daje m = x

1

+

x

2

2 , czyli ±redni¡ arytmetyczn¡. Moment zwykªy

rz¦du

k wynosi m

k

=

x

k

1

p + x

k

2

q.

Szczególnym przypadkiem rozkªadu dwupunktowego jest rozkªad zero-jedyn-

kowy, rozwa»any ju» w punkcie 2.2.2. Zajmiemy si¦ tym przypadkiem dokªad-

niej, bo mimo swej prostoty, (a mo»e wªa±nie dzi¦ki swej prostocie), jest on

podstaw¡ wielu dalszych rozwa»a«.

Niech

X

i

,

i = 1;2:::;n b¦dzie ci¡giemniezale»nychzmiennychlosowych o tym

Rozkªad zero-

jedynkowy

samym rozkªadzie zero-jedynkowym, Pr(

X

i

= 1) =

p, Pr(X

i

= 0) =

q = 1

,

p.

Oznaczmy przez

X sum¦ n takich zmiennych losowych:

X = X

1

+

X

2

+

+

X

n

:

(2.3.1)

Z twierdze« 2.2.1 i 2.2.4 otrzymujemy równo±ci: E

X = np i D

2

X = npq, sk¡d

te»

=

X

=

p

npq.

Zbadajmy rozkªad zmiennej losowej

X, to znaczy obliczmy prawdopodobie«-

stwa Pr(

X = k) = p

k

. Przede wszystkim zauwa»my, »e

k mo»e zmienia¢ si¦

tylko od 0 do

n. Poniewa» zdarzenie

f

X = k

g

zachodzi wtedy i tylko wtedy,

gdy na dokªadnie

k pozycjach w sumie pojawi si¦ jedynka { prawdopodo-

bie«stwo tego wynosi

p

k

q

n

,

k

, a mo»liwych takich ukªadów

k jedynek w ci¡gu

n-elementowym jest

,

n

k

, to

Rozkªad

dwumianowy

Pr(

X = k) =

n

k

p

k

q

n

,

k

:

(2.3.2)

Wzór (2.3.2) okre±la rozkªad, znany jako rozkªad dwumianowy (gªównie w lite-

raturze anglosaskiej) lub rozkªad Bernoulliego

6

. Zmienn¡ losow¡

X okre±lon¡

wzorem (2.3.1) mo»na interpretowa¢ jako liczb¦ sukcesów (jedynek) w ci¡gu

niezale»nych do±wiadcze«, zwanych próbami Bernoulliego, gdzie prawdopodo-

bie«stwo sukcesu wynosi

p, a pora»ki (zera) wynosi q = 1

,

p.

Przykªad.

Wykonujemy ci¡g

n = 10 do±wiadcze« Bernoulliego. W ka»dym

z nich odnosimy sukces z prawdopodobie«stwem

p = 0:9. Jakie jest prawdo-

podobie«stwo, »e w w dokªadnie jednej próbie lub w nie wi¦cej ni» 10% prób

odniesiemy sukces. W tym przypadku rozwi¡zanie jest proste. Zarówno w jed-

nym jak i w drugim przypadku obliczamy

Pr(

X = 1) =

10

1

0

:9

1

0

:1

9

= 9

10

,9

:

6

Jakub Bernoulli (1654 { 1705), matematyk szwajcarski, jeden z licznej rodziny Berno-

ullich, autor

A

rs

c

onje

ctandi

, pierwszego dzieªa po±wi¦conego rachunkowi prawdopodobie«-

stwa.

background image

2.3 Rozkªady dyskretne

26

Co jednak b¦dzie, gdy przy tym samym

n b¦dzie p = 0:09? Obliczenie liczby

0

:09

0

:91

9

jest ju» kªopotliwe, a obliczenie prawdopodobie«stwa, »e uda si¦ nie

wi¦cej ni» 10% do±wiadcze« z 1000 prób jest ju» praktycznie bardzo trudne.

Spróbujmy bowiem bezpo±rednio i dokªadnie obliczy¢

Pr(

X

¬

100) =

100

X

k

=0

1000

k

p

k

q

1000,

k

:

Napisanie procedur (np. w Pascalu lub C) wykorzystuj¡cych wprost wzory

(2.3.2) i obliczaj¡cy wspóªczynniki Newtona ze wzoru rekurencyjnego

n

k

=

n

,

1

k

,

1

+

n

,

1

k

nie daje zadowalaj¡cych efektów dla wi¦kszych

n i k.

Dla wygody przyjmiemy oznaczenie

Wzór

rekurencyjny

b(n;k;p) =

n

k

p

k

q

n

,

k

:

Wtedy ªatwo jest udowodni¢ wzór rekurencyjny

b(n;0;p) = q

k

;

(2.3.3)

b(n;k + 1;p) = n

,

k

k + 1

p

q b(n;k;p):

(2.3.4)

Wzór ten do bezpo±redniego zaprogramowania nadaje si¦ w równie maªym

stopniu jak i wzór (2.3.2), ale stanowi¢ b¦dzie podstaw¦ dla efektywnych przy-

bli»e« rozpatrywanych w nast¦pnym punkcie.

2.3.2. Rozkªad Poissona

Zmienna losowa

X przyjmuj¡ca tylko waro±ci caªkowite nieujemne ma rozkªad

Poissona

7

z parametrem

, gdy

Pr(

X = k) = e

,

k

k! :

(2.3.5)

Denicja tego rozkªadu jest poprawna, to znaczy wszystkie prawdopodobie«-

stwa s¡ nieujemne i sumuj¡ si¦ do jedynki, gdy» jak wiadomo z rozwini¦cia

funkcji

e

x

w szereg Maclaurina,

1

X

k

=0

e

,

k

k! = e

,

1

X

k

=0

k

k! = e

,

e

= 1

:

Podobnie jak dla rozkªadu dwumianowego, równie» dla rozkªadu Poissona

przyjmiemy oznaczenie

p(k;) = e

,

k

k! :

background image

2.3 Rozkªady dyskretne

27

Twierdzenie 2.3.1.

(Poissona) Je»eli

np = np

n

!

dla n

!

1

, to dla

Przybli»enie

rozkªadem

Poissona

ka»dego

k,

lim

n

!1

b(n;k;p) = p(;k):

(2.3.6)

Dowód.

Dla uproszczenia przyjmiemy

np = , zamiast granicy np

!

. Dowód

przeprowadzimy przez indukcj¦.

1

b

n;0; n

=

n

0

1

,

n

n

!

e

,

;

2

b

,

n;k + 1;

n

b

,

n;k;

n

=

,

n

k

+1

,

n

k

p

q =

n

,

k

k + 1

n

1

,

n

!

k + 1 =

p(k + 1;)

p(k;) ;

co daje wzór (2.3.5)

Uwaga.

Twierdzenie 2.3.1 daje dobre przybli»enie rozkªadu dwumianowego

Przybli»enie

dla ±rednich

rozkªadem Poissona, gdy

n jest du»e, (n

­

100),

p jest maªe, a ±rednie.

Wtedy zamiast (2.3.6) mo»na przyj¡¢

b(n;k;p)

p(;k):

(2.3.7)

Przykªad.

W

n = 100 próbach Bernoulliego prawdopodobie«stwo sukcesu

wynosi

p = 0:98. Niech X b¦dzie liczb¡ pora»ek. Prawdopodobie«stwo pora»ki

wynosi

q = 0:02. Szukamy prawdopodobie«stwa, »e poniesiemy co najwy»ej

jedn¡ pora»k¦. Poniewa»

= nq = 2, to mo»na zastosowa¢ przybli»enie wzo-

rem (2.3.7):

Pr(

X

¬

1) = Pr(

X = 0) + Pr(X = 1)

e

,2

2

0

0! +

2

1

1!

= 3

e

,2

:

Przykªad.

Prawdopodobie«stwo przesªania bª¦dnego bitu wynosi 2

:5

10

,9

niezale»nie od pozostaªych. Przesyªamy 10

8

bitów i na ko«cu dodajemy bit pa-

rzysto±ci. Bª¦dny ci¡g odbierzemy jako prawdziwy, gdy przekªamaniu ulegnie

parzysta liczba bitów. Prawdopodobie«stwo odebrania bª¦dnego ci¡gu jako

prawdziwego, wynosi w przybli»eniu

2

e

,

=2, gdzie = 0:25, gdy» prawdo-

podobie«stwo przekªamania czterech bitów wynosi

4

e

,

=24 i mo»e by¢ po-

mini¦te, tak jak i dalsze parzyste liczby przekªama«. Tak wi¦c prawdopodo-

bie«stwo odebrania bª¦dnego ci¡gu jako prawdziwego wynosi w przybli»eniu

2

e

,

=2! = 2:5

2

e

,0

:

25

=2 = 0:2565.

Na koniec obliczmy parametry w rozkªadzie Poissona { warto±¢ oczekiwan¡

i wariancj¦.

Twierdzenie 2.3.2.

Je»eli zmienna losowa

X ma rozkªad Poissona z parame-

trem

, to EX = i D

2

X = .

7

Simeon Denis Poisson (1781 { 1840), francuski mechanik, zyk i matematyk

background image

2.3 Rozkªady dyskretne

28

Dowód.

Korzystaj¡c z twierdzenia 2.3.1 mo»na zauwa»y¢, »e przyjmuj¡c

!

np otrzymujemy

E

X = lim

n

!1

np =

oraz

D

2

X = lim

n

!1

np(1

,

p) = lim

n

!1

1

,

n

:

2.3.3. Zadania

1.

Prawdopobie«stwo sukcesu w jednej próbie wynosi 0

:01. Niech X

n

b¦dzie

liczb¡ sukcesów w

n niezale»nych próbach. Znale¹¢ Pr(X

¬

1), gdy a)

n = 3,

b)

n = 100.

2.

Ksi¡»ka o 500 stronicach zawiera 50 bª¦dów drukarskich. Obliczy¢ prawdo-

podobie«stwo tego, »e na przypadkowo wybranej stronicy znajd¡ si¦ co naj-

mniej 3 bª¦dy.

3*.

Pokaza¢, »e je±li

X ma rozkªad dwumianowy przy ustalonym n i p, to

b(n;k;p) ma tylko jedn¡ lub dwie równe warto±ci najwi¦ksze. Znale¹¢ takie k

przy których te warto±ci s¡ przyjmowane.

4*.

Pokaza¢, »e analogiczn¡ wªasno±¢ maj¡ prawdopodobie«stwa w rozkªadzie

Poissona.

5.

Bity przekazywane szeregowo s¡ przekªamywane niezale»nie od siebie, ka»dy

z prawdopodobie«stwem

p = 10

6

. Na ko«cu ka»dego bloku bitów dodajemy bit

parzysto±ci. Jaka jest najwi¦ksza dªugo±¢ bloku, przy której prawdopodobie«-

stwo niewykrycia bª¦du jest mniejsze od 0.001?

background image

2.4 Rozkªady ci¡gªe

29

2.4. Rozkªady ci¡gªe

2.4.1. Rozkªad jednostajny

Rozkªad jednostajny na odcinku [

a;b] ma g¦sto±¢ okre±lon¡ wzorem

f(x) =

8

<

:

1

b

,

a dla x

2

[

a;b],

0

dla

x =

2

[

a;b].

Momenty zwykªe

m

k

= 1

b

,

a

b

Z

a

x

k

dx = 1

b

,

a

x

k

+1

k + 1

b

a

= b

k

+1

,

a

k

+1

(

b

,

a)(k + 1)

maj¡ dla

a = 0 i b = 1 szczególnie prost¡ posta¢ (patrz zadanie 1 do roz-

dziaªu 2.2):

m

k

= 1

=(k + 1). St¡d obliczamy wariancj¦

2

=

m

2

,

m

2

1

= a

2

+

ab + b

2

3

,

a

2

+ 2

ab + b

2

4

= (b

,

a)

2

12 :

Dla rozkªadu jednostajnego momenty centralne nieparzystego rz¦du s¡ równe

zeru. Šatwo jest te» obliczy¢ momenty rz¦du parzystego, co jednak pozosta-

wimy jako zadania 6 i 7 do tego rozdziaªu. Zauwa»my tu jednak, (co b¦dzie

pomocne przy rozwi¡zywaniu tych zada«), »e je±li zmienna losowa

X ma roz-

kªad jednostajny na odcinku [0

;1], to zmienna losowa Y = (b

,

a)X + a ma

rozkªad jednostajny na odcinku [

a;b].

2.4.2. Rozkªad wykªadniczy

Rozkªad wykªadniczy z parametrem

> 0 ma g¦sto±¢ okre±lon¡ wzorem

f(x) =

(

e

,

x

dla

x

­

0,

0

dla

x < 0,

(2.4.1)

której wykres jest przedstawiony na rysunku 4. Ze wzoru (2.4.1) otrzymujemy

wzór na dystrybuant¦

F(x) =

(

1

,

e

,

x

dla

x

­

0,

0

dla

x < 0.

(2.4.2)

Obliczmy dwa pierwsze momenty i wariancj¦.

m

1

=

1

Z

0

xe

,

x

dx;

sk¡d obliczaj¡c caªk¦ przez cz¦±ci, (

e

x

=

,

,

e

,

x

0

), otrzymujemy

Warto±¢

oczekiwana

background image

2.4 Rozkªady ci¡gªe

30

6

-

x

f(x)

= 1
= 0:5

= 2

Rysunek 4: Wykres g¦sto±ci rozkªadu wykªadniczego

m

1

=

0

@

,

x

e

,

x

1

0

+ 1

1

Z

0

dx

1

A

=

,

1

e

,

x

1

0

= 1 :

Podobnie, ale dwukrotnie caªkuj¡c przez cz¦±ci, obliczamy

m

2

=

1

Z

0

x

2

e

,

x

dx = 2

2

;

sk¡d

Wariancja

2

= 1

2

:

Rozkªad wykªadniczy jest cz¦sto u»ywany w teorii niezawodno±ci, gdzie dobrze

opisuje czas pracy elementów niestarzej¡cych si¦. Je»eli zmienna losowa

T jest

czasem pracy elementu, to

= 1= jest ±rednim czasem pracy, a parametr

= 1= jest nazywany intensywno±ci¡ uszkodze«. Niestarzenie si¦ elementu

oznacza, »e prawdopodobie«stwo uszkodzenia si¦ elementu w czasie

t od chwili

obecnej, nie zale»y od dotychczas przepracowanego czasu

t

0

. Wªasno±¢ ta nazy-

wana jest brakiem pami¦ci rokªadu wykªadniczego. Sformuªujemy j¡ w postaci

twierdzenia.

Twierdzenie 2.4.1.

Je»eli

T jest zmienn¡ losow¡ o rozkªadzie wykªadniczym,

to

Pr(

T > t + t

0

j

T > t

0

) = Pr(

T > t):

(2.4.3)

Dowód.

Poniewa»

f

T > t+t

0

g

f

T > t

g

oraz Pr(

T > t) = 1

,

F(x) = e

,

t=

,

to

Pr(

T > t + t

0

j

T > t

0

) = Pr(T > t + t

0

)

Pr(

T > t

0

)

=

e

(

t

+

t

0

)

=

e

,

t

0

=

=

e

,

t=

= Pr(

T > t):

background image

2.4 Rozkªady ci¡gªe

31

Mo»na te» pokaza¢, czego jednak nie b¦dziemy robi¢, »e tylko rozkªad wykªad-

niczy ma wªasno±¢ braku pami¦ci, to znaczy speªnia równanie (2.4.3).

Uogólnieniem rozkªadu wykªadniczego jest rozkªad Weibulla, którego dystry-

Rozkªad

Weibulla

buanta jest modykacj¡ dystrybuanty danej równaniem (2.4.2)

F(x) =

(

1

,

e

,

x

dla

x

­

0,

0

dla

x < 0.

(2.4.4)

G¦sto±¢ tego rozkªadu wyra»a si¦ wzorem

f(x) =

(

x

,1

e

,

x

dla

x

­

0,

0

dla

x < 0,

(2.4.5)

której wykres dla

= 1 i = 0:5, = 1:5, = 2:5 jest przedstawiony na

rysunku 5. Przypadek

= 1 daje rozkªad wykªadniczy. Rozkªad Weibulla jest

6

-

x

f(x)

= 0:5

= 1:5

= 2:5

Rysunek 5: Wykres g¦sto±ci rozkªadu Weibulla

stosowany w teorii niezawodno±ci.

2.4.3. Rozkªad normalny

Rozkªad normalny N(0

;1) ma g¦sto±¢ dan¡ wzorem

f(x) = 1

p

2

e

,

x

2

=

2

;

(2.4.6)

której wykres jest przedstawiony na rysunku 6. Je±li zmienna losowa

Y ma

rozkªad normalny N(0

;1), to zmienna losowa

Rozkªad

normalny

N(

m;

)

X = Y + m

(2.4.7)

ma rozkªad normalny N(

m;). W ten sposób deniuje si¦ rozkªad normalny o

parametrach

m i . Z drugiej strony, je±li X ma rozkªad normalny N(m;), co

oznaczamy symbolicznie jako

X

N(

m;), to jak ªatwo sprawdzi¢

e

X = X

,

m

N(0

;1):

(2.4.8)

background image

2.4 Rozkªady ci¡gªe

32

Operacj¦ dan¡ równaniem (2.4.8), (odwrotn¡ do (2.4.7)), nazywa si¦ standa-

ryzacj¡ zmiennej losowej

X.

Poniewa» g¦sto±¢ zmiennej losowej

Y = aX +b, a > 0, gdy X ma g¦sto±¢ f(x),

wyra»a si¦ wzorem (patrz zadanie 9),

f(x)

Y

= 1af

X

x

,

b

a

;

to g¦sto±¢ rozkªadu normalnego N(

m;) wyra»a si¦ wzorem

G¦sto±¢

rozkªadu

N(

m;

)

f(x) = 1

p

2

e

,(

x

,

m

)

2

=

2

:

(2.4.9)

Wzór (2.4.9) jest bezpo±rednim wnioskiem ze wzorów (2.4.7) i (2.4.6). Ponie-

wa» g¦sto±¢

f(x) rozkªadu N(0;1) jest funkcj¡ parzyst¡, to xf(x) jest funkcj¡

nieparzyst¡, a wi¦c dla

X

N(

m;) otrzymujemy E

e

X = 0, sk¡d ze wzorów

(2.4.7) i (2.4.8): E

X = m. Nieco wi¦cej zachodu wymaga obliczenie D

2

X.

Wystarczy jednak obliczy¢, »e D

2

e

X = 1, (zadanie 10), sk¡d od razu, ze wzoru

(2.4.7) otrzymujemy, »e D

2

X =

2

.

Dystrybuant¦ zmiennej losowej

X

N(0

;1) oznacza si¦ tradycyjnie symbolem

(

x). Dystrybuanta rozkªadu normalnego nie jest funkcj¡ elementarn¡, dlatego

jej warto±ci trzeba odczytywa¢ z tablic rozkªadu normalnego lub korzysta¢ z

programów komputerowych. Bez »adnych oblicze« mamy jednak (0) = 0

:5.

Ze wzgl¦du na (2.4.7), warto±ci dystrybuanty rozkªadu N(

m;) mo»na otrzy-

ma¢ z warto±ci dystrybuanty rozkªadu N(0

;1). Czasem w tablicach zamiast

warto±ci dystrybuanty (

x) podaje si¦ warto±ci funkcji

0

(

x) = 1

p

2

x

Z

0

e

,

t

2

=

2

dt = (x)

,

0

:5:

Dla

x >

background image

2.4 Rozkªady ci¡gªe

33

Dla rozkªadu normalnego mo»na z tablic odczyta¢ nast¦puj¡c¡ wªasno±¢,

Reguªa

3-sigmowa

znan¡ jako reguªa trzy-sigmowa.

Fakt 2.4.1.

Je»eli zmienna losowa

X ma rozkªad normalny N(m;), to

Pr(

j

X

,

m

j

> 3) < 0:01:

(2.4.10)

Dowód.

Poniewa» Pr(

e

X > x) = 1

,

(

x) = (

,

x), to

Pr(

j

X

,

m

j

> 3) = Pr

X

,

m

> 3

= 2(1

,

(

x))

= 2

0

:00135 = 0:0027 < 0:01:

Dla rozkªadów innych ni» normalny, nierówno±¢ (2.4.10) nie musi by¢ praw-

dziwa.

Przykªad.

Dla zmiennej losowej

X o g¦sto±ci

f(x) = 2e

,

j

x

j

;

jest E

X = 0, gdy» f(x) jest funkcj¡ parzyst¡, a caªka

1

Z

,1

xf(x)dx = 2

1

Z

0

xf(x)dx

jest bezwzgl¦dnie zbie»na (i równa 1

=, b¦d¡c warto±ci¡ oczekiwan¡ w rozkªa-

dzie wykªadniczym). Wariancja

D

2

X = 2

1

Z

,1

x

2

e

,

j

x

j

dx =

1

Z

0

x

2

e

,

j

x

j

dx = 2

jest drugim momentem zwykªym rozkªadu wykªadniczego, sk¡d

=

p

2

=.

Obliczamy

Pr(

j

X

,

m

j

> 3) = 2Pr

X > 3

p

2

!

=

e

,3

=

p

2

0

:1199;

a wi¦c nierówno±¢ (2.4.10) jest dla tego rozkªadu nieprawdziwa.

background image

2.4 Rozkªady ci¡gªe

34

2.4.4. Zadania

1.

Niech

R b¦dzie zmienn¡ losow¡ o rozkªadzie jednostajnym na odcinku [0;1],

tzn.

f(x) = 1 dla x

2

[0

;1] oraz f(x) = 0 dla x =

2

[0

;1]. Niech F(x) b¦dzie

ci¡gª¡ i ró»nowarto±ciow¡ dystrybuant¡ pewnej zmiennej losowej. Pokaza¢, »e

X = F

,1

(

R) ma dystrybuant¦ F(x).

2.

W oparciu o zadanie 1 poda¢ algorytm generowania zmiennej losowej o

rozkªadzie wykªadniczym z parametrem

, maj¡c do dyspozycji generator liczb

losowych o rozkªadzie jednostajnym na odcinku [0

;1].

3.

Korzystaj¡c z tablic rozkªadu normalnego obliczy¢

Pr(

X < 0:5), Pr(X >

,

1), Pr(1

:5 < X

¬

3)

dla zmiennych losowych

X

N(1

;1), X

N(

,

1

;0:5), X

N(1

:5;1) i X

N(1

:5;0:1).

4.

Korzystaj¡c z tablic rozkªadu normalnego obliczy¢ parametr

x

0

speªniaj¡cy

równanie Pr(

X > x

0

) =

dla warto±ci = 0:1 oraz warto±ci = 0:05 dla

zmiennej losowej

X

N(0

;1) oraz X

N(

,

0

:5;2).

5.

Przez analogi¦ do reguªy 3{sigmowej sformuªowa¢ ÿreguª¦

n{sigmow¡" je-

±li termin ÿbardzo maªy" chcemy rozumie¢ jako ÿmniejszy od 0.0001". Jak

nale»aªoby rozumie¢ termin ÿbardzo maªy" chc¡c mie¢ ÿreguª¦ 2{sigmow¡"?

6.

Pokaza¢, »e w rozkªadzie jednostajnym momenty centralne rz¦du nieparzy-

stego s¡ równe zeru.

7.

Obliczy¢ momenty centralne parzystego rz¦du dla zmiennych losowych o

rozkªadzie jednostajnym na odcinku [

a;b].

8**.

Niech

X i S b¦d¡ niezale»nymi zmiennymi losowymi takim, »e X b¦dzie

miaªa rozkªad wykªadniczy oraz Pr(

S = 1) = Pr(S =

,

1) = 1

=2. Znale¹¢

rozkªad zmiennej losowej

Z = SX.

9.

Niech

Y = aX + b, a > 0 oraz niech X ma dystrybuant¦ F(x) i g¦sto±¢

f(x). Znale¹¢ dystrybuant¦ i g¦sto±¢ zmiennej losowej X.

10.

Niech

X ma rozkªad normalny N(0;1). Obliczy¢ D

2

X.

11*.

Korzytaj¡c z rozwini¦cia g¦sto±ci rozkªadu normalnego w szereg Maclau-

rina, znale¹¢ rozwini¦cie dystrybuanty. Korzystaj¡c z niego napisa¢ procedur¦

obliczania warto±ci dystrybuanty rozkªadu N(

m;).

background image

35

3. Twierdzenia graniczne

3.1. Nierówno±¢ Czebyszewa i prawa wielkich-72B5p4--249k7znBf7 0 0 -0.24 532.8 5

background image

3.1 Nierówno±¢ Czebyszewa i prawa wielkich liczb

36

Przykªad.

Niech

X ma dowolny rozkªad speªniaj¡cy zaªo»enia twierdze-

nia 3.1.2. Wtedy z (3.1.2) mamy

Pr(

j

X

,

m

j

­

3

) = Pr

X

,

m

­

3

¬

1

9 :

Je»eli za±

X

N(

m;), (X speªnia równie» zaªo»enia twierdzenia 3.1.2), to z

(2.4.10) wynika oszacowania lepsze o rz¡d, to znaczy ponad dziesi¦ciokrotnie

lepsze.

Przykªad.

Niech

X b¦dzie liczb¡ sukcesów w 20 próbach, gdzie prawdopo-

dobie«stwo sukcesu w jednej próbie wynosi

p = 0:4. Oszacujmy z doªu praw-

dopodobie«stwo, »e liczba sukcesów b¦dzie zawarta mi¦dzy 4 i 12.

Poniewa»

m = EX = 20

0

:4 = 8 oraz

2

= D

2

X = 20

0

:4

0

:6 = 4:8 to

Pr(4

¬

X

¬

12) = Pr(

j

X

,

m

j

¬

4 = 1

,

Pr(

j

X

,

m

j

> 4)

­

1

,

Pr(

j

X

,

m

j

­

2)

­

1

,

p

4

:8

16 = 0:7;

przyjmuj¡c

t = 4=

p

4

:8 we wzorze (3.1.2).

3.1.2. Prawa wielkich liczb

Z nierówno±ci Czebyszewa mo»na wyprowadzi¢ sªabe prawo wielkich liczb dla

zmiennychlosowych. Takie sformuªowanie prawa wielkichliczb jest ogólniejsze,

ni» sformuªowanie tylko dla zdarze«, jak to zrobiono w punkcie 1.2.1.

Twierdzenie 3.1.3.

Niech

X

1

;X

2

;::: b¦d¡ ci¡giem niezale»nych zmiennych

Sªabe prawo

wielkich liczb

losowych o tym samym rozkªadzie, o warto±ci oczekiwanej

m i wariancji

2

<

1

. Wtedy dla ka»dego

" > 0

lim

n

!1

Pr

X

1

+

X

2

+

+

X

n

n

,

m

< "

= 1

:

(3.1.3)

Dowód.

Dla skrócenia zapisu oznaczmy

S

n

= X

1

+

X

2

+

+

X

n

n

:

Z niezale»no±ci zmiennych losowych

X

i

wynika, »e D

2

S

n

=

2

=n, a tak»e

E

S

n

=

m. Z nierówno±ci Czebyszewa (3.1.2) mo»na przyjmuj¡c " = t na-

pisa¢

Pr(

j

S

n

,

m

j

­

")

¬

2

n"

2

;

co daje tez¦ twierdzenia dla

n

!

1

.

background image
background image

3.2 Funkcje charakterystyczne

38

3.2. Funkcje charakterystyczne

3.2.1. Denicje i wªasno±ci

Zmienn¡ losow¡ zespolon¡ nazywamy funkcj¦

Z :

!

Z

tak¡, »e

Zmienna

losowa

zespolona

Z(!) = X(!) + iY (!);

gdzie

X(!) i Y (!) s¡ rzeczywistymi zmiennymi losowymi zdeniowanym w

rozdziale 2.1.1.

Funkcj¡ charakterystyczn¡ nazywamy funkcj¦ zmiennej rzeczywistej

'(t) okre-

Funkcja cha-

rakterystyczna

±lon¡ wzorem

'(t) = Ee

itX

=

1

Z

,1

e

itx

dF(x):

(3.2.1)

Funkcja charakterystyczna ma nast¦puj¡ce wªasno±ci, które w wielu przypad-

kach pomagaj¡ oblicza¢ i bada¢ ró»ne charakterystyki zmiennych losowych i

ich rozkªadów.

Twierdzenie 3.2.1.

Funkcja charakterystyczna

'(t) okre±lona wzorem (3.2.1)

(i) jest jednostajnie ci¡gªa,

(ii)

'(0) = 1,

(iii)

j

'(t)

j

¬

1,

(iv)

'(

,

t) =

'(t).

Poni»sze twierdzenie pomaga oblicza¢ rozkªady i funkcje charakterystyczne

Niezale»ne

zmienne

losowe

sum zmiennych losowych.

Twierdzenie 3.2.2.

Je»eli zmienne losowe

X i Y s¡ niezale»ne, to

'

X

+

Y

(

t) = '

X

(

t)'

Y

(

t);

gdzie

'

X

(

t) i '

Y

(

t) s¡ funkcjami charakterystycznymi zmiennych losowych X

i

Y .

Równie» obliczanie momentów zmiennych losowych mo»e by¢ znacznie prost-

Momenty

sze, gdy znamy ich funkcje charakterystyczne.

Twierdzenie 3.2.3.

Istnienie

k-tego momentu zmiennej losowej jest równo-

wa»ne istnieniu

k-tej pochodnej jej funkcji charakterystycznej, przy czym

E

X

k

= '

(

k

)

(0)

i

k

:

Bezpo±rednio ze wzoru (3.2.1) wynika wzór, analogiczny do znanych wzorów

w przeksztaªceniu Laplace'a:

'

aX

(

t) = '

X

(

at):

background image

3.2 Funkcje charakterystyczne

39

Z kolei z twierdzenia 3.2.2 wynika, »e

'

X

+

a

(

t) = e

ita

'

X

(

t);

gdy» staª¡

a mo»na traktowa¢ jako zmienn¡ losow¡ przyjmuj¡c¡ tylko jedn¡

warto±¢

a, a taka zmienna losowa jest niezale»na od dowolnych zmiennych

losowych i ma funkcj¦ charakterystyczn¡ (co ªatwo sprawdzi¢) równ¡

e

ita

.

Omówimyteraz funkcje charakterystyczne rozkªadów typu ci¡gªego, które byªy

przedstawione w rozdziale 2.4. Obliczenie funkcji charakterystycznej rozkªadu

jednostajnego pozostawimy jako zadania 1 i 3, policzmy natomiast funkcje cha-

rakterystyczne rozkªadu wykªadniczego (strona 29) i normalnego (strona 31).

Przykªad.

Dla rozkªadu wykªadniczego z parametrem

funkcj¦ charaktery-

Rozkªad

wykªadniczy

styczn¡ obliczamy ze wzoru (3.2.1)

'(t) =

1

Z

0

e

itx

e

,

x

dx = 1

1

,

it

:

(3.2.2)

Przykªad.

Dla rozkªadu normalnego:

Rozkªad

normalny

'(t) = 1

p

2

1

Z

,1

e

,(

x

,

it

)

2

=

2

e

,

t

2

=

2

dx = e

,

t

2

=

2

:

3.2.2. Rozkªad gamma

Rozkªad gamma deniujemy jako rozkªad, którego funkcja charakterystyczna

Rozkªad

gamma

ma posta¢

'(t) =

1

,

1

,

it

b

p

;

(3.2.3)

gdzie

b > 0 i p > 0.

Z porównania wzorów (3.2.2) i (3.2.3) wynika, »e rozkªad wykªadniczy jest

szczególnymprzykªadem rozkªadu gamma.Ponadto z Twierdzenia 3.2.2 otrzy-

Rozkªad

Erlanga

mujemy, »e je±li

p = n jest liczb¡ naturaln¡, to zmienna losowa o takim roz-

kªadzie gamma jest sum¡

n zmiennych losowych niezale»nych, o tym samym

rozkªadzie wykªadniczym. Taki szczególny przypadek rozkªadu gamma nazywa

si¦ rozkªadem Erlanga o

n stopniach swobody.

Dla rozkªadu gamma mo»na wyznaczy¢ g¦sto±¢. Wyra»a si¦ ona wzorem

f(x) =

8

<

:

b

p

,(p)x

p

,1

e

,

bx

dla

x

­

0,

0

dla

x < 0,

background image

3.2 Funkcje charakterystyczne

40

gdzie

,(p) =

1

Z

0

x

p

,1

e

,

x

dx

jest funkcj¡ specjaln¡ zwan¡ funkcj¡ Gamma. Funkcja ta ma ciekaw¡ wªasno±¢,

,(p + 1) = p,(p), która pozwala ograniczy¢ si¦ jedynie do znajomo±ci jej

warto±ci dla 0

< p

¬

1. Proste obliczenia pokazuj¡ te», »e

,(1) = 1, sk¡d

ªatwo ju» otrzyma¢ równo±¢:

,(n) = (n

,

1)!.

3.2.3. Zadania

1.

Obliczy¢ funkcj¦ charakterystyczn¡ rozkªadu jednostajnego na odcinku

[0

;1].

2.

Obliczy¢ funkcj¦ charakterystyczn¡ rozkªadu o g¦sto±ci

f(x) = e

,

j

x

j

=2.

3.

Korzystaj¡c z wyniku zadania 1 i wªasno±ci funkcji charakterystycznych,

znale¹¢ funkcj¦ charakterystyczn¡ rozkªadu jednostajnego na odcinku [

a;b].

4.

Korzystaj¡c z funkcji charakterystycznej rozkªadu N(0

;1), obliczy¢ mo-

menty

k-tego rz¦du tego rozkªadu.

5*.

Pokaza¢, »e

1

Z

0

b

p

,(p)x

p

,1

e

,

bx

dx = 1

dla

b > 0 i p > 0.

6.

Korzystaj¡c z funkcji charakterystycznej rozkªadu gamma obliczy¢ warto±¢

oczekiwan¡ i wariancj¦ w tym rozkªadzie.

7.

Niech

X i Y b¦d¡ niezale»ne o rozkªadzie jednostajnym na odcinku

[

,

0

:5;0:5]. Udowodni¢, »e ich suma ma rozkªad o g¦sto±ci

f(x) =

8

>

<

>

:

x + 1 dla x

2

[

,

1

;0),

,

x + 1 dla x

2

[0

;1],

0

dla

x =

2

[

,

1

;1].

background image

3.3 Centralne twierdzenie graniczne

41

3.3. Centralne twierdzenie graniczne

3.3.1. Twierdzenie Lindeberga-Levy'ego

Dystrybuant¦ rozkªadu normalnego N(0

;1) oznaczamy jak zwykle jako (x).

Twierdzenie 3.3.1.

(Lindeberga-Levy'ego) Niech

X

1

;X

2

;:::;X

n

b¦d¡ nieza-

D

2

X <

1

istnieje

wariancja

le»nymi zmiennymi losowymi o tym samym rozkªadzie, warto±ci oczekiwanej

m = EX i wariancji 0 <

2

= D

2

X <

1

. Wtedy

lim

n

!1

Pr

X

1

+

X

2

+

+

X

n

,

nm

p

n

< x

= (

x):

(3.3.1)

Dowód.

Funkcja charakterystyczna rozkªadu normalnego N(0

;1) jest równa

'(t) = e

,

t

2

=

2

. Oznaczmy przez

'

X

(

t) funkcj¦ charakterystyczn¡ zmiennej lo-

sowej

X

0

i

=

X

i

,

m, a przez '

Z

n

(

t) funkcj¦ charakterystyczn¡ zmiennej losowej

Z

n

= X

0

1

+

X

0

2

+

+

X

0

n

p

n

wyst¦puj¡cej po lewej stronie wzoru (3.3.1). Uwzgl¦dniaj¡c znane ju» wªasno±ci

(paragraf 3.2.1) funkcji charakterystycznej otrzymujemy, »e

'

Z

n

(

t) =

'

X

t

p

n

n

:

(3.3.2)

Rozwiniemy teraz funkcj¦

'

X

(

t) w szereg Maclaurina. Poniewa» '

X

(0) = 1,

'

0

X

(0) =

m oraz '

0

0

X

(0) =

,

2

, to

'

X

(

t) = 1

,

1

2

2

t

2

+

R

3

(

t

2

)

;

gdzie

R

3

(

t

2

)

=t

2

!

0 dla

t

!

0. Ze wzoru (3.3.2) otrzymujemy z kolei

'

Z

n

(

t) =

1

,

t

2

2

n + R

3

(

t

2

=n)

n

oraz

lim

n

!1

nR

3

(

t

2

=n) = 0:

Podstawiaj¡c

u = t

2

=2n + R

3

(

t

2

=n) otrzymujemy

ln

'

Z

n

(

t) = nln(1

,

u) = n

,

,

t

2

=2n + R

3

(

t

2

=n)

=

,

t

2

=2 + nR

3

(

t

2

=n);

sk¡d

lim

n

!1

ln

'

Z

n

(

t) =

,

t

2

=2;

czyli

lim

n

!1

'

Z

n

(

t) = e

,

t

2

=

2

:

background image

3.3 Centralne twierdzenie graniczne

42

Bezpo±rednio z twierdzenia 3.3.1 wynika

Twierdzenie 3.3.2.

(Moivre'a-Laplace'a) Niech Pr(

Y

n

=

k) = b(n;k;p),

(patrz strona 26), czyli

Y

n

ma rozkªad dwumianowy z parametrami

n i p.

Wtedy

lim

n

!1

Pr

Y

n

,

np

p

npq < x

= (

x):

Wªasno±¢ wyra»on¡ w twierdzeniu 3.3.2 mo»na interpretowa¢ tak, »e

f

Y

n

ma dla

Asymptotycz-

na

normalno±¢

du»ych

n rozkªad w przybli»eniunormalny N(0;1) albo »e Y

n

ma w przybli»eniu

rozkªad normalny N(

np;

p

npq). Mówimy te», »e Y

n

ma rozkªad asymptotycznie

normalny z parametrami

np i

p

npq.

3.3.2. Rozkªady chi-kwadrat i t-Studenta

Niech

X

i

,

i = 1;2;:::;n b¦d¡ niezale»nymi zmiennymi losowymi o rozkªadzie

Rozkªad

chi-kwadrat

normalnym N(0

;1). Zmienn¡ losow¡

2

okre±la si¦ wzorem:

2

=

2

n

=

X

2

1

+

X

2

2

+

+

X

2

n

:

(3.3.3)

Mówimy, »e zmienna losowa

2

okre±lona wzorem (3.3.3) ma rozkªad chi-

kwadrat Pearsona

10

o

n stopniach swobody. Poniewa» E

2

= E

X

2

i

=

2

oraz

ED

2

2

= D

2

X

2

i

= 2 to z twierdzenia 3.3.1 wynika asymptotyczna normalno±¢

rozkªadu zmiennej losowej

2

o

n stopniach swobody, przy czym ten rozkªad

normalny ma parametry

n i

p

2

n, czyli

Asymptotycz-

na normalno±¢

2

lim

n

!1

Pr

2

n

,

n

p

2

n < x

= (

x):

Asymptotyczn¡ normalno±¢ rozkªadu chi kwadrat mo»na okre±li¢ te» przez

zdeniowanie zmiennej

p

2

2

, która te» ma rozkªad asymptotycznie normalny,

ale N(

p

2

n

,

1

;1).

Zbie»no±¢ rozkªadu chi-kwadrat do rozkªadu normalnego jest tak szybka, »e

dla

n > 30 dystrybuanta (x) przybli»a dystrybuant¦ rozkªadu chi-kwadrat

wystarczaj¡co dobrze. Z tego powodu dla

n >

background image

3.3 Centralne twierdzenie graniczne

43

Studenta okre±lony jako rozkªad zmiennej losowej

t danej wzorem

t = t

n

= X

p

2

n

=n ;

(3.3.4)

gdzie

X

N(0

;1), a

2

n

ma rozkªad chi-kwadrat o

n stopniach swobody oraz X

i

2

s¡ niezale»ne. Rozkªad

t-Studenta jest równie» asymptotycznie normalny

N(0

;1), przy czym podobnie jak dla rozkªadu chi-kwadrat, przybli»enie jest

dobre ju» dla

n > 30.

3.3.3. Zadania

1.

Korzystaj¡c z twierdzenia Lindeberga-Levy'ego pokaza¢, »e rozkªad chi-

kwadrat o

n stopniach swobody jest asymptotycznie normalny N(n;

p

2

n).

2.

Niezale»ne zmienne losowe

X

1

;X

2

;:::;X

60

maj¡ rozkªad jednostajny na

odcinku [1

;3]. Niech

X =

60

X

k

=1

X

k

Obliczy¢ przybli»on¡ warto±¢ wyra»e« Pr(

X > 130), Pr(X < 115) oraz

Pr(118

< X < 123). Które z tych przybli»e« mo»na otrzyma¢ równie» z nie-

równo±ci Markowa lub Czebyszewa? Porówna¢ dokªadno±¢ tych oszacowa«.

3.

Niezale»ne zmienne losowe

X

1

;X

2

;:::;X

100

maj¡ rozkªad Poissona o para-

metrze

= 2:5. Obliczy¢ przybli»on¡ warto±¢ wyra»enia

Pr

100

X

k

=1

X

k

> 220

!

:

4.

Korzystaj¡c z tablic znale¹¢

2

takie, »e Pr(

2

>

2

=

dla = 0:1,

= 0:05 i = 0:01, gdy zmienna losowa

2

ma rozkªad chi-kwadrat Pearsona

o

n = 2, n = 5, n = 15 i n > 30 stopni swobody.

5.

To samo co w zadaniu 4, ale dla zmiennej losowej

=

j

t

j

, gdy

t ma rozkªad

t-Studenta.

6.

Korzystaj¡c z tablic znale¹¢ Pr(

2

< x) dla zmiennej losowej o rozkªadzie

chi-kwadrat Pearsona o

n = 2, n = 5, n = 15 i n > 30 stopniach swobody oraz

x = 0:5 i x = 5.

7.

To samo co w zadaniu 6, ale dla zmiennej losowej

t, o rozkªadzie t-Studenta.

background image

44

4. Podstawowe poj¦cia statystyki

4.1. Denicje

W rozdziale tym podane s¡ najwa»niejsze poj¦cia statystyczne oraz najcz¦±ciej

spotykane funkcje, którymi posªuguje si¦ statystyka. W tym i w nast¦pnych

rozdziaªach skupiono si¦ na matematycznych tre±ciach statytystyki, pozosta-

wiaj¡c zagadnienia zastosowa« do samodzielnej lektury. Popularne podej±cie

do zagadnie« statystyki zawiera przyst¦pnie napisana ksi¡»ka F. Clegga [1].

Podr¦cznik J. Grenia [3] podaje najpotrzebniejsze denicje i wiele gotowych

wzorów potrzebnych do rozwi¡zywania problemów statystycznych, tak»e wiele

zada« oraz niezb¦dnie tablice statystyczne.

4.1.1. Sªownik poj¦¢ statycznych

Statystyka posªuguje si¦ specycznym j¦zykiem, dlatego najpierw podamy jej

podstawowe poj¦cia w postaci sªownika.

Populacja generalna { zbiorowo±¢ statystyczna, tzn. zbiór dowolnych elemen-

tów, nieidentycznych z punktu widzenia badanej cechy

X.

Próba { cz¦±¢ populacji, dost¦pnej bezpo±redniej obserwacji ze wzgl¦du na

ustalon¡ cech¦,

i-ty element populacji ma cech¦ X

i

, czyli prób¦ mo»na

traktowa¢ jako ci¡g zmiennych losowych (

X

1

;X

2

;:::;X

n

).

Próba prosta { próba, w której cechy elementów

X

i

s¡ niezale»ne i o tym

samym rozkªadzie co cecha

X w populacji generalnej.

Statystyka { zmienna losowa b¦d¡ca dowoln¡ funkcj¡ wyników próby losowej,

tzn. dowoln¡ funkcj¡

Z = f(X

1

;X

2

;:::;X

n

).

Estymator { dowolna statystyka

Z sªu»¡ca do oszacowania nieznanej warto±ci

parametru

populacji generalnej.

Hipoteza statystyczna { dowolne przypuszczenie dotycz¡ce rozkªadu populacji

generalnej.

Test statystyczny { reguªa post¦powania, która na podstawie wyników próby

ma doprowadzi¢ do decyzji przyj¦cialub odrzucenia postawionej hipotezy

statystycznej.

Podane powy»ej hasªa b¦d¡ dalej uzupeªniane o nowe poj¦cia.

4.1.2. Najwa»niejsze statystyki

Momenty zmiennych losowych, zwykªe

m

k

= E

X

k

i centralne

c

k

= E(

X

,

m

1

)

k

zwane s¡ w statystyce momentami teoretycznymi. Momenty empi-

ryczne b¦dziemy dla odró»nienia oznacza¢ du»ymi literami

M

k

i

C

k

. Niech

(

X

1

;X

2

;:::;X

n

) b¦dzie

n-elementow¡ prób¡ prost¡. Okre±limy k-ty moment

empiryczny (zwykªy) wzorem

M

k

= 1n

n

X

i

=1

X

ki

;

background image

4.1 Denicje

45

a

k-ty empiryczny moment centralny wzorem

C

k

= 1n

n

X

i

=1

(

X

i

,

M

1

)

k

:

Moment

k-ty nazywany jest te» momentem rz¦du k.

Podobnie jak dla momentów teoretycznych, dla momentu pierwszego i dla

drugiego momentu centralnego istniej¡ specjalne oznaczenia i nazwy. S¡ to

‘rednia

empiryczna

X

±rednia empiryczna

X = 1n

n

X

i

=1

X

i

;

(4.1.1)

zwana potocznie statystyk¡ ÿ

X z kresk¡" oraz wariancja empiryczna

Wariancja

empiryczna

S

2

S

2

= 1n

n

X

i

=1

(

X

i

,

M

1

)

;

(4.1.2)

zwana statystyk¡ ÿ

S kwadrat". Ponadto wprowadza si¦ jeszcze wariancj¦ em-

piryczn¡ poprawion¡

^S

2

= 1

n

,

1

n

X

i

=1

(

X

i

,

M

1

)

;

(4.1.3)

zwan¡ statystyk¡ ÿ

S kwadrat daszkiem".

Jest ªatwe do sprawdzenia, »e E

X = EX, gdy X jest cech¡ w populacji

generalnej, (

X

1

;X

2

;:::;X

n

) jest prób¡ prost¡ z tej populacji oraz warto±¢

oczekiwana istnieje. Trudniej ju» sprawdzi¢, »e E ^

S

2

= D

2

X, co oznacza te»,

»e

E

S

2

= n

,

1

n D

2

X :

Niech

b¦dzie pewnym parametrem rozkªadu cechy X w populacji generalnej.

Przez

Z

n

=

oznaczymy estymator tego parametru, czyli jego statystyczne

oszacowanie. B¦dziemy mówi¢, »e statystyka

Z

n

jest estymatorem nieobci¡»o-

Wªasno±ci

estymatorów

nym parametru

, gdy EZ

n

=

. Estymator jest zgodny, gdy

lim

n

!1

Pr(

j

Z

n

,

j

< ") = 1

dla ka»dego

" > 0. Estymator jest asymptotycznie nieobci¡»ony, gdy

lim

n

!1

E

Z

n

=

:

Z powy»szych okre±le« wynika, »e

X jest estymatorem nieobci¡»onym war-

to±ci oczekiwanej, a ze sªabego prawa wielkich liczb wynika, »e jest równie»

estymatorem zgodnym.

background image

4.1 Denicje

46

Przykªad.

Proste obliczenia pokazuj¡, »e je»eli

X jest cech¡ w populacji o

rozkªadzie normalnym N(

m;), to X

N(

m;=

p

n).

Trudniej jest dowie±¢ nast¦puj¡ce wa»nego wyniku.

Twierdzenie 4.1.1.

Je»eli

X jest cech¡ w populacji o rozkªadzie normal-

nym N(

m;), to statystyka n^S

2

=

2

ma rozkªad chi-kwadrat o

n

,

1 stopniach

swobody.

Zaskakuj¡cy jest natomiast wynik nast¦puj¡cy.

Twierdzenie 4.1.2.

Je»eli cecha

X w populacji generalnej ma rozkªad nor-

malny, to statystyki

X i S

2

s¡ niezale»ne.

Nale»y tu zwróci¢ uwag¦, »e

X i S

2

o których mowa w twierdzeniu 4.1.2 po-

chodz¡

z tej samej

próby.

4.1.3. Zadania

1.

Dokonano 20 niezale»nych prób, otrzymuj¡c nast¦puj¡e wyniki: 0.50 0.93

0.75 0.89 0.15 0.94 0.16 0.00 0.63 0.57 0.33 0.10 0.14 0.21 0.05 0.15 0.37 0.51

0.09 0.25. Obliczy¢

X, S

2

i ^

S

2

.

2.

Dokonano 30 niezale»nych prób, otrzymuj¡c nast¦puj¡e wyniki: 1.05 1.13

0.41 0.12 0.12 0.19 3.02 0.08 3.87 0.54 2.63 0.40 1.15 0.24 0.46 1.07 0.58 0.29

0.56 2.11 0.40 0.04 0.74 1.41 0.18 3.14 0.40 0.64 0.29 2.47. Obliczy¢

X, S

2

i ^

S

2

.

3.

Przeprowadzi¢ nast¦puj¡cy eksperyment: rzuci¢ 50 razy monet¡, obliczy¢

X, S

2

i ^

S

2

oraz porówna¢ z E

X, D

2

X.

4**.

Niech

X

1

;X

2

;:::X

n

b¦d¡ niezale»nymi zmiennymi losowymi o jednako-

wych rozkªadach normalnych N(

m;). Dla jakiej warto±ci k estymator

W = k

n

X

j

=1

X

j

,

X

jest nieobci¡»onym estymatorem parameru

?

5**.

Niech

X

1

;X

2

;:::X

n

b¦d¡ niezale»nymi zmiennymi losowymi o jednako-

wych rozkªadach normalnych N(

m;). Dobra¢ staª¡ k tak, aby funkcja

W

2

=

k

n

,1

X

i

=1

(

X

i

+1

,

X

i

)

2

byªa nieobci¡»onym estymatorem wariancji.

6.

Zmienna losowa

X ma rozkªad jednostajny na [a;a + 1]. Otrzymano n

niezale»nych obserwacji tej zmiennej losowej. Sprawdzi¢, »e

T

n

= 1n

n

X

i

=1

X

i

,

1

2

jest estymatorem zgodnym i nieobci¡»onym parametru

a.

background image

4.2 Dystrybuanta empiryczna i histogramy

47

4.2. Dystrybuanta empiryczna i histogramy

4.2.1. Dystrybuanta empiryczna

Podobnie jak dla momentów, istnieje empiryczny odpowiednik dystrybuanty,

zwanej ju» dalej teoretyczn¡. Niech (

X

1

;X

2

;:::;X

n

) b¦dzie prób¡ prost¡. Dys-

trybuanta empiryczna jest funkcj¡ okre±lon¡ wzorem:

F

n

(

x) = 1n

jf

i : X

i

< x

gj

:

Poniewa» wszystkie

X

i

=

X

i

(

!) s¡ funkcjami okre±lonymi na przestrzeni zda-

rze« elementarnych , to dystrybuanta empiryczna

F

n

(

x) jest zmienn¡ losow¡

dla ka»dego ustalonego

x. Je»eli natomiast ustalimy zdarzenie elementarne !,

to

F

n

(

x) jest funkcj¡ zmiennej rzeczywistej, która speªnia wszytkie wn-7 TD[())-140To121 cb

background image

48

5. Estymacja

5.1. Estymacja punktowa

5.1.1. Metoda momentów

Metoda momentów jest jedn¡ z wielu metod konstruowania estymatorów para-

metrów rozkªadu cechy w populacji generalnej. Przyjmijmy, »e parametr

jest

jednoznacznie okre±lony przez warto±ci pierwszych

k momentów teoretycznych

cechy. Oznacza to, »e

= f(m

1

:::;m

k

)

:

Estymator ^

parametru okre±la si¦ wzorem

^= f(^m

1

:::; ^m

k

)

gdzie ^

m

i

=

M

i

s¡ momentamiempirycznymi.W szczególno±ci parametr

mo»e

by¢ funkcj¡ tylko pierwszego momentu teoretycznego

m, wtedy estymator jest

funkcj¡ tylko statystyki

X.

Przykªad.

Niech

X ma rozkªad jednostajny na odcinku [a;b]. Przyjmijmy,

»e

a = 0 oraz = b jest nieznanym parametrem tego rozkªadu. Poniewa»

E

X = a + b

2 D

2

X = (b

,

a)

2

12 ;

(5.1.1)

to

= 2m, a wi¦c ^ = 2x. Nie jest to estymator najlepszy, gdy» mo»na spotka¢

takie dane, »e niektóre z nich wyjd¡ poza prawy koniec tak oszacowanego

przedziaªu. Je»eli chcemy oszacowa¢ oba ko«ce

a i b, które nie s¡ znane, to

najpierw trzeba rozwi¡za¢ ukªad dwóch równa« (5.1.1) obliczaj¡c

a i b w funkcji

m i .

Przykªad.

Dla rozkªadu wykªadniczego, którego g¦sto±¢ jest okre±lona wzo-

rem (2.4.1), E

X = 1=. St¡d ^ = 1=^x.

5.1.2. Metoda najwi¦kszej wiarogodno±ci

Idea metody najwi¦kszej wiarogodno±ci polega oszacowaniu nieznanych pa-

rametrów tak, aby empiryczne dane byªy przy tym oszacowaniu najbardziej

prawdopodobne. Dla znalezieniatakiego estymatora konstruuje si¦ funkcj¦ wia-

rogodno±ci

L. Jest ona ró»na dla przypadku ci¡gªego i dyskretnego.

Najpierw omówimy przypadek dyskretny. Niech Pr(

X = x

(

k

)

) =

p(x

(

k

)

;),

gdzie

= (

1

;:::;

m

) jest wektoremparametrów lub w szczególnymprzypadku

{ parametrem. Funkcj¦ wiarogodno±ci okre±la si¦ wzorem

Funkcja

wiarogodno±ci

L() = L(x

1

;x

2

;:::;x

n

;) = p(x

1

;)p(x

2

;):::p(x

n

;):

(5.1.2)

background image

5.1 Estymacja punktowa

49

Zwró¢my tu uwag¦, »e

x

(

k

)

jest ci¡giem warto±ci, które dyskretna zmienna

losowa mo»e przyj¡¢, a

x

i

s¡ danymi, czyli warto±ciami, otrzymanymi w rze-

czywisto±ci, na przykªad z eksperymentu.

Dla cechy typu ci¡gªego o g¦sto±ci

f(x;), funkcja wiarogodno±ci okre±lona

jest wzorem

L() = L(x

1

;x

2

;:::;x

n

;) = f(x

1

;)f(x

2

;):::f(x

n

;):

(5.1.3)

Estymatorem parametru

jest ta jego warto±¢, przy której funkcja wiaro-

MNW

godno±ci osi¡ga warto±¢ najwi¦ksz¡. Jest to estymator otrzymany metod¡ naj-

wi¦kszej wiarogodno±ci { MNW. Je»eli funkcja

L okre±lona wzorami (5.1.2)

lub (5.1.3) jest ró»niczkowalna, jej maksimum mo»na znale¹¢ szukaj¡c miejsca

zerowania si¦ pochodnej. Ze wzgl¦du na to, »e

L jest iloczynem funkcji, to

wygodnie jest bada¢ pochodn¡ nie

L, a pochodn¡ lnL.

Przykªad.

Niech

X ma rozkªad Poissona z parametrem okre±lonym wzo-

rem (2.3.5). Wtedy dla danych (

k

1

;k

2

;:::;k

n

)

L() = e

,

n

k

1

+

k

2

+

+

k

n

k

1

!

k

2

!

:::k

n

! ;

sk¡d

ln

L() =

,

n + (k

1

+

k

2

+

+

k

n

)ln

,

ln(

k

1

!

k

2

!

:::k

n

!)

:

Po obliczeniu pochodnej otrzymujemy dla znalezienia maksimum równanie

,

n + k

1

+

k

2

+

+

k

n

= 0

;

a wi¦c ^

= x.

Przykªad.

Dla rozkªadu wykªadniczego z parametrem

okre±lonego wzorem

(2.4.1),

L() =

n

e

,

(

x

1

+

x

2

++

x

n

)

:

Po zlogarytmowaniu i zró»niczkowaniu otrzymujemy równanie

n

,

x

1

+

x

2

+

+

x

n

= 0

;

a wi¦c ^

= 1=x.

Je»eli

L nie jest funkcj¡ ró»niczkowaln¡, to jej maksimum nie mo»e by¢ znale-

zione w ten sposób.

Przykªad.

Niech

X ma rozkªad jednostajny na odcinku [0;]. Wtedy

L() =

(

1

=

n

dla

x

i

< ,

0

dla

< max

f

x

i

g

.

Taka funkcja

L osi¡ga swoje maksimum w punkcie max

f

x

i

g

, w którym nie ma

pochodnej. St¡d ^

= max

f

x

i

g

.

background image

5.1 Estymacja punktowa

50

5.1.3. Zadania

1.

Skonstruowa¢ metod¡ momentów estymatory parametrów

p i n w rozkªadzie

dwumianowym.

2.

G¦sto±¢ wyra»a si¦ wzorem

f(x) =

(

0

;

dla

x < ,

=x

2

; dla x

­

,

gdzie

> 0. Obliczy¢ i nast¦pnie wyznaczy¢ metod¡ najwi¦kszej wiarogod-

no±ci estymator parametru

.

3.

Niech g¦sto±¢ wyra»a si¦ wzorem

f(x) = 2e

,

j

x

j

:

Wyznaczy¢ metod¡ najwi¦kszej wiarogodno±ci estymator parametru

.

4.

Niech g¦sto±¢ wyra»a si¦ wzorem

f(x) =

(

x + ; dla 0

¬

x

¬

1,

0

;

poza tym.

Wyznaczy¢ metod¡ momentów estymatory parametrów

i .

background image

5.2 Estymacja przedziaªowa

51

5.2. Estymacja przedziaªowa

5.2.1. Przedziaªy ufno±ci

Idea estymacji przedziaªowej polega na tym, aby zamiast szacowania para-

metru

za pomoc¡ jednej liczby, znale¹¢ przedziaª, w którym nieznany nam

parametr znajdzie si¦ z zadowalaj¡cym nas prawdopodobie«stwem. Ko«ce tego

przedziaªu musz¡ by¢ wobec tego zmiennymi losowymi { statystykami b¦d¡-

cymi funkcjami próby

Z

1

=

u

1

(

X

1

;X

2

;:::;X

n

) i

Z

2

=

u

2

(

X

1

;X

2

;:::;X

n

)

takimi, aby Pr(

2

(

Z

1

;Z

2

)) byªo bliskie 1. Blisko±¢ jedynki okre±la si¦ liczb¡

Poziom

ufno±ci

1

,

i nazywa poziomem ufno±ci. Šatwo jest zauwa»y¢, »e im mniejsze ,

tym dªu»szy jest przedziaª ufno±ci. Zazwyczaj

przybiera jedn¡ z warto±ci

0.1, 0.05, 0.01, przy czy warto±¢

= 0:05 jest najcz¦±ciej u»ywana { mówimy

wtedy o 95 procentowym przedziale ufno±ci.

Sposób okre±lenia przedziaªu ufno±ci zale»y od rozkªadu w którym wyst¦puje

nieznany parametr, od tego czy znamy pozostaªe parametry w tym rozkªadzie

i od liczebno±ci próby. W nast¦pnych punktach omówimy szerzej dwa typowe

przypadki: przedziaªy ufno±ci dla parametru

m = EX i =

p

D

2

X. Wiele

innych u»ytecznych wzorów mo»na znale¹¢ w ksi¡»ce [3]. Wszystkie te wzory

opieraj¡ si¦ na tej samej zasadzie, omówionej bardziej szczegóªowo w nast¦p-

nym punkcie.

5.2.2. Przedziaªy ufno±ci dla ±redniej

Rozpatrywane s¡ trzy przypadki, w zale»no±ci od przyj¦tych zaªo»e«. We

wszystkich jednak przypadkach, przedziaª ufno±ci jest symetryczny wzgl¦dem

±redniej empirycznej

X okre±lonej wzorem (4.1.1).

Model I

. Populacja generalna ma rozkªad N(

m;), odchylenie standardowe

Rozkªad

normalny,

znane

jest znane. Nieznany jest parametr

m, dla którego szukamy przedziaªu ufno±ci.

Dla próby o liczebno±ci

m, ko«ce przedziaªu ufno±ci wyra»aj¡ si¦ wzorami

Z

1

=

X

,

u

p

n ;

Z

2

=

X + u

p

n ;

gdzie

u

jest takie, »e Pr(

j

U

j

> u

) =

oraz U

N(

m;). Wtedy

Pr

X

,

u

p

n < m <

X + u

p

n

= 1

,

(5.2.1)

Aby dla otrzymanychju» danych, a wi¦c ustalonego zdarzenia elementarnego

!

wyznaczy¢ przedziaª ufno±ci, nale»e w miejsce

X we wzorze (5.2.1) podstawi¢

x.

background image

5.2 Estymacja przedziaªowa

52

Model II

. Populacja generalna ma rozkªad N(

m;), odchylenie standardowe

Rozkªad

normalny,

nieznane

jest nieznane. Nieznany jest te» parametr

m, dla którego szukamy przedziaªu

ufno±ci. Dla próby o liczebno±ci

m ko«ce przedziaªu ufno±ci wyra»aj¡ si¦ wzo-

rami

Z

1

=

X

,

t

S

p

n

,

1 ;

Z

2

=

X + t

S

p

n

,

1 ;

gdzie

t

jest takie, »e Pr(

j

t

j

> t

) =

oraz t ma rozkªad t-Studenta o n

,

1

stopniach swobody. Statystyka

S =

p

S

2

okre±lona jest wzorem (4.1.2). Wtedy

Pr

X

,

t

S

p

n

,

1 < m <

X + t

S

p

n

,

1

= 1

,

(5.2.2)

lub równowa»nie przy pomocy statystyki ^

S =

p

^S

2

Pr

X

,

u

^S

p

n < m <

X + u

^S

p

n

!

= 1

,

:

(5.2.3)

Poniewa» we wzorach (5.2.1), (5.2.2) i (5.2.2) znamy dokªadne rozkªady staty-

styk, to mo»na je stosowa¢ nawet przy maªych próbach.

Model III

. Rozkªad dowolny, ale

n musi by¢ du»e, (co najmniej kila dzie-

Rozkªad

dowolny, du»a

próba

si¡tków) oraz istnieje wariancja,

2

= D

2

X <

1

. Wtedy przedziaªy ufno±ci

wyznaczane s¡ ze wzoru (5.2.1), przy czym zamiast

podstawiamy S lub ^S,

(dla du»ego

n ró»nica mi¦dzy S i ^S jest nieznaczna).

Przykªad.

Przyjmijmy poziom ufno±ci 1

,

= 0:95. Poniewa»

Pr(

j

U

j

> u

) = 2Pr(

U > u

) = 2(1

,

(

u

)) =

= 0:05

czyli (

u

) = 1

,

=2 = 0:975. Z tablic rozkªadu normalnego odczytujemy, »e

u

= 1

:96. Z n = 100 danych o rozkªadzie normalnym obliczono x = 2:0031 i

^

s = 0:1967.

Ze wzoru (5.2.2) po podstawieniu

= ^s otrzymujemy przedziaª ufno±ci dla

±redniej

(2

:0031

,

1

:960:1967

10 ;2:0031 + 1:96

0

:1967

10 );

a wi¦c przedziaª (1

:965;2:042).

Gdyby do oblicze« dost¦pne byªy tylko pocz¡tkowe cztery dane: 2.17, 1.85,

1.87, 1.97, to

x = 1:9650 oraz ^s = 0:1464. Wtedy korzystaj¡c z rozkªadu t-

Studenta o trzech stopniach swobody, (model II), otrzymujemy

t

= 3

:182. Ze

wzoru (5.2.2) otrzymujemy przedziaª ufno±ci (1

:918;2:011).

background image

5.2 Estymacja przedziaªowa

53

Je»eli wiadomo byªoby, »e

= 0:2, to z modelu I, wzór (5.2.1) mamy jak

na pocz¡tku

u

= 1

:96, sk¡d przedziaª ufno±ci (1:926;2:004). Dane do tego

przykªadu zostaªy wzi¦te z populacji o rozkªadzie N(2

;0:2):

2.17

1.85

1.87

1.97

2.27

2.15

1.74

2.06

1.98

1.94

2.01

1.94

2.27

1.71

2.01

1.59

1.73

2.32

1.83

2.07

1.76

1.97

1.85

1.90

2.30

2.03

1.80

2.12

2.09

1.88

2.03

1.95

1.76

1.88

2.04

1.94

2.24

2.11

1.80

2.03

2.30

2.06

1.89

1.87

2.10

2.06

2.09

2.09

2.13

1.79

1.67

1.82

1.82

1.88

2.17

2.60

2.12

1.65

2.18

2.02

2.07

2.12

1.86

2.40

2.14

1.86

2.07

2.05

1.99

2.03

2.02

2.01

2.19

1.96

2.18

1.99

2.27

2.06

1.59

2.27

1.91

2.36

1.72

1.77

1.80

2.42

2.36

1.74

2.05

1.85

2.10

1.92

2.04

2.13

2.01

1.88

1.82

1.94

2.37

1.72.

Na zako«czenie zwró¢my uwag¦ na istotn¡ rol¦ zaªo»enia o rozkªadzie normal-

nym populacji. Tylko przy tym zaªo»eniu próba mo»e by¢ maªa. Je»eli to za-

ªo»enie nie jest speªnione, to musi by¢ du»a próba. To ostatnie zaªo»enie ozna-

cza asymptototyczn¡ normalno±¢ na mocy twierdzenia Lindeberga-Levy'ego,

(Twierdzenie 3.3.1).

5.2.3. Przedziaªy ufno±ci dla wariancji

Przedziaª ufno±ci dla wariancji nie zale»y od warto±ci oczekiwanej

m = EX.

St¡d tylko dwa rozwa»ane przypadki.

Model I

. Populacja generalna ma rozkªad normalny. Nieznany jest parametr

Rozkªad

normalny,

maªa próba

, dla którego szukamy przedziaªu ufno±ci. Próba jest maªa (n < 30). Przedziaª

ufno±ci okre±lony jest wzorem

Pr

nS

2

c

2

<

2

< nS

2

c

1

= 1

,

(5.2.4)

lub równowa»nie wzorem

Pr

(

n

,

1)^

S

2

c

2

<

2

< (n

,

1)^

S

2

c

1

!

= 1

,

;

(5.2.5)

gdzie

c

1

i

c

2

speªniaj¡ równania

Pr(

2

< c

1

) = Pr(

2

> c

2

) =

=2

dla zmiennej losowej

2

o rozkªadzie chi-kwadrat o

n

,

1 stopniach swobody.

Zwró¢my uwag¦, »e tak otrzymany przedziaª ufno±ci nie jest symetryczny

wzgl¦dem

s

2

.

Zaªo»enie, »e próba jest maªa ma charakter czysto rachunkowy { dla

n > 30

rozkªad chi-kwadrat jest na tyle zbli»ony do normalnego, »e tablice zawieraj¡

na ogóª warto±ci tylko do

n = 30.

Model II

. Populacja generalna ma rozkªad normalny i

n

­

30 lub zbli»ony

Rozkªad

normalny,

du»a próba

do normalnego i próba jest du»a. Wtedy przybli»ony przedziaª ufno±ci wyra»a

si¦ wzorem

Pr

s

1 +

u

p

2

n

< s

1

,

u

p

2

n

!

1

,

;

(5.2.6)

gdzie

u

jest takie, »e Pr(

j

U

j

> u

) =

oraz U

N(

m;).

background image

5.2 Estymacja przedziaªowa

54

5.2.4. Zadania

1.

Dla danych -0.23, 0.61, -0.85, -0.72, -0.39, 0.73, oszacowa¢ na poziomie ufno-

±ci 0.9 warto±¢ oczekiwan¡ i wariancj¦, przyjmuj¡c, »e rozkªad jest normalny.

2.

Dla danych -1.09, 0.26, 1.09, 0.56, -1.35, 0.65, oszacowa¢ na poziomie ufno±ci

0.9 warto±¢ oczekiwan¡ i wariancj¦, przyjmuj¡c, »e rozkªad jest normalny.

3*.

Napisa¢ procedur¦ generuj¡c¡

n niezale»nych zmiennych losowych X

i

=

f(R

i

), gdzie

R

i

maj¡ rozkªady jednostajne na odcinku [0

;1], a f(x) jest dowol-

nie wybran¡ funkcj¡, której dziedzin¡ jest odcinek [0

;1]. Obliczy¢ m = EX

i

i

2

= D

2

X

i

, a nast¦pnie z wygenerowanej próby znale¹¢ przedziaªy ufno±ci dla

m i

2

dla poziomów ufno±ci 1

,

= 0:90, 1

,

= 0:95 i 1

,

= 0:99.

background image

55

6. Testowanie hipotez

6.1. Testy parametryczne

Testy statystyczne maj¡ za zadanie werykacj¦ pewnej hipotezy, na podsta-

Intuicje testów

wie danych statystycznych. Testy parametryczne sªu»¡ do werykacji hipotez o

warto±ciach parametrów w rozkªadach zmiennych losowych. Testy nieparame-

tryczne, o których b¦dzie mowa w nast¦pnym rozdziale, b¦d¡ sprawdza¢ praw-

dziwo±¢ hipotez, w których nie s¡ b¡d¹ nie musz¡ by¢ sprecyzowane warto±ci

parametrów. Testowanie hipotez statystycznych ma (w ka»dym razie w zakre-

sie tego wykªadu) charakterystyczn¡ posta¢ { hipoteza ma posta¢ równo±ci

=

0

, gdzie

jest prawdziw¡, a nam nieznan¡ warto±ci¡ parametru rozkªadu,

natomiast

0

jest warto±ci¡ hipotetyczn¡. Oznacza to, »e taka równo±¢ jest

sprawdzan¡ (werykowan¡) hipotez¡, któr¡ mo»na przyj¡¢ (cho¢ tego raczej

si¦ nie robi) albo odrzuci¢ i w zamian przyj¡¢ inn¡, (na przykªad

6

=

0

) albo

postanowi¢, »e nie ma podstaw do jej odrzucenia, cho¢ nie oznacza to jej przy-

j¦cia, a mo»e oznacza¢ konieczno±¢ przeprowadzenia dalszych bada«. Kiedy

jeste±my skªonni hipotez¦ odrzuci¢? Intuicyjnie zrobimy tak, gdyby przyj¦cie

hipotezy oznaczaªoby, »e zaszªo zadarzenie bardzo maªo prawdopodobne, na

przykªad zdarzenie, którego prawdopodobie«stwo byªoby mniejszeod

= 0:05,

czyli takie, które zadarzaªoby si¦ ±rednio 5 razy na 100.

Rozumowanie to sprecyzujemy nast¦puj¡co. Niech

b¦dzie parametrem w

Formalizacja

testów

pewnym rozkªadzie o dystrybuancie

F(x;). Niech

H

0

:

=

0

vs

H

1

:

0

oznacza, »e stawiamy hipotez¦

H

0

:

=

0

zwan¡ hipotez¡ zerow¡ któr¡ mo-

»emy odrzuci¢ na korzy±¢ hipotezy

H

1

:

0

zwanej hipotez¡ alternatywn¡,

któr¡ przyjmujemy. Znak

oznacza tu jeden z trzech operatorów: =,

< lub

>. Z rozkªadem F(x;) i parametrem zwi¡zujemy statystyk¦

Z = Z(X

1

;X

2

;:::;X

n

)

oraz obszar

Q

R

sªu»¡ce do werykacji hipotezy

H

0

w ten sposób, aby przy

zaªo»eniu prawdziwo±ci

H

0

byªa speªniona równo±¢

Pr(

Z

2

Q) = :

(6.1.1)

Wtedy odrzucamy

H

0

i przyjmujemy

H

1

o ile istotnie zdarzy si¦, »e

z = Z(!)

2

Q, czyli gdy zajdzie zdarzenie maªo prawdopodobne. W praktyce statystycznej

przyjmuje si¦ zwykle, »e

= 0:05 albo czasem = 0:01 lub ewentualnie

= 0:1.

Obszar

Q nazywa si¦ obszarem krytycznym, a liczb¦ nazywa si¦ poziomem

Obszar

krytyczny i

poziom

istotno±ci

istotno±ci. A wi¦c hipotez¦ zerow¡ odrzucamy na korzy±¢ alternatywnej, gdy

warto±¢ zwi¡zanej z hipotez¡ statystyki znajdzie si¦ w obszarze krytycznym.

Mo»e si¦ oczywi±cie zdarzy¢, »e

z

2

Q mimo, »e hipoteza H

0

jest prawdziwa.

Zdarzy si¦ to jednak z maªym prawdopodobie«stwem

. Popeªniamy wtedy

background image

6.1 Testy parametryczne

56

bª¡d polegaj¡cy na odrzuceniu hipotezy prawdziwej, zwany bª¦dem pierw-

szego rodzaju. Przyj¦cie hipotezy

H

0

faªszywej stanowi bª¡d drugiego rodzaju.

W przyj¦tej tutaj procedurze nie ma jednak przyjmowania

H

0

, co najwy»ej

stanowi si¦, »e nie ma podstaw do jej przyj¦cia. Tak¡ procedur¦ post¦powa-

nia przyj¦to, gdy» nie precyzuje si¦ tu prawdopodobie«stwa popeªnienia bª¦du

drugiego rodzaju. W nast¦pnych dwóch punktach omówimy dwa przykªadu

testów statycznych, gdzie nieznanymi parametrami próby b¦d¡ warto±¢ ocze-

kiwana i wariancja. Liczne przykªady innych testów mo»na znale¹¢ w ksi¡»ce

[3].

6.1.1. Testy dla ±redniej

Podobnie jak dla przedziaªów ufno±ci, rozpatrujemy trzy modele: rozkªad nor-

malny i znana wariancja, rozkªad normalny i nieznana wariancja, rozkªad do-

wolny ze sko«czon¡ wariancj¡ i du»a próba. We wszystkich modelach

n oznacza

liczebno±¢ próby.

Model I

. Populacja generalna ma rozkªad N(

m;), odchylenie standardowe

Rozkªad

normalny,

znane

jest znane. Nieznany jest parametr

m, dla którego stawiamy hipotez¦ H : m =

m

0

przeciwko jednej z trzech hipotez:

H

1

:

m

6

=

m

0

;

H

1

:

m > m

0

;

H

1

:

m < m

0

:

Statystyka sªu»¡ca do werykacji hipotezy dana jest wzorem

U =

X

,

m

0

p

n;

(6.1.2)

która przy zaªo»eniu prawdziwo±ci hipotezy

H

0

ma rozkªad N(0

;1).

W przypadku hipotezy alternatywnej

H

1

:

m

6

=

m

0

obszar krytyczny jest

dwustronny, symetryczny i dla poziomu istotno±ci

okre±lony jest wzorem

Q = (

,1

;

,

u

)

[

(

u

;

1

), gdzie

u

wyznaczone jest z zale»no±ci Pr(

j

U

j

>

u

) =

. Dla hipotezy alternatywnej H

1

:

m < m

0

obszar krytyczny jest

lewostronny i okre±lony jest wzorem

Q = (

,1

;u

), a dla

H

1

:

m > m

0

obszar

krytyczny jest prawostronny i okre±lony jest wzorem

Q = (u

;

1

) gdzie

u

wyznaczone jest z zale»no±ci Pr(

U > u

) =

. Zmienna losowa U ma tutaj

rozkªad normalny N(

m;).

Model II

. Populacja generalna ma rozkªad N(

m;), odchylenie standardowe

Rozkªad

normalny,

nieznane

jest nieznane. Hipoteza zerowa i hipotezy alternatywne s¡ takie same jak w

poprzednim modelu. Poniewa» jednak

nie jest znane, to statystyka sªu»¡ca

do werykacji hipotezy dana jest wzorem

t = X

,

m

0

s

p

n

,

1 =

X

,

m

0

^

s

p

n;

(6.1.3)

która przy zaªo»eniu prawdziwo±ci hipotezy

H

0

ma rozkªad

t-Studenta o n

,

1

stopniach swobody. Wobec tego

u

jest zast¡pione przez

t

wyznaczone ze

wzorów Pr(

j

t

j

> t

) =

lub Pr(t > t

) =

.

background image

6.1 Testy parametryczne

57

Poniewa» dost¦pne tablice statyczne podaj¡ warto±¢

t

dla danych

i n, to

przy jednostronnych (lewo i prawostronnych) obszarach krytycznych trzeba

skorzysta¢ z zale»no±ci 2Pr(

t > t

) = Pr(

j

t

j

> t

).

Model III

. Populacja generalna ma rozkªad N(

m;), parametr mo»e, ale

Rozkªad

normalny,

du»a próba

musi by¢ znany, natomiast próba jest du»a, (

n conajmniejkilkadziesi¡t).Wzory

takie same jak w modelu I lub II, to znaczy (6.1.2) lub (6.1.3), gdzie

jest

zast¡pione przez

s

2

lub ^

s

2

.

Przykªad.

Posªó»my si¦ danymi ze strony 53. Dla takich danych mamy

x = 2:0031 i ^s = 0:1967. Je»eli postawimy hipotez¦ H

0

:

m = 2 przeciw

hipotezie

H

1

:

m

6

= 2 na poziomie istotno±ci

= 0:05, to obliczona ze wzoru

(6.1.2) statystyka

j

u

j

= 0

:16 < u

= 1

:

background image

6.1 Testy parametryczne

58

Obliczaj¡c otrzymujemy ^

s

2

= 0

:004779 oraz ^s = 0:06913. St¡d i ze wzoru

(6.1.4) mamy

2

= 17

:20. Poniewa» dla 9 stopni swobody

2

= 16

:919, to

odrzucamy hipotez¦ zerow¡ na korzy±¢ alternatywnej czyli przyjmujemy, »e

dokªadno±¢ jest gorsza ni» 0

:05 jednostki. Je»eli jednak zadowala nas dokªad-

no±¢ 0

:1 jednostki, to wtedy

2

= 4

:30 i stwierdzamy, »e nie ma podstaw do

odrzucenia takiej hipotezy.

6.1.3. Testy dla dwóch ±rednich
6.1.4. Zadania

1.

Cecha w populacji generalnej ma rozkªad normalny. Z pomiarów otrzymano

4 wyniki: 121, 120, 133, 122. Na poziomie istotno±ci

= 0:05 zwerykowa¢

hipotez¦, »e

m = 125 oraz hipotez¦, »e = 5. Na poziomie ufno±ci 1

,

oszacowa¢ metod¡ przedziaªow¡ parametry

m i . Powtórzy¢ obliczenia dla

= 0:01 i = 0:02.

2.

Cecha w populacji generalnej ma rozkªad normalny N(

m;1:2). Z pomiarów

otrzymano 5 wyników: 2.3922, 3.9655, 5.2769, 2.2171, 1.9742. Na poziomie

istotno±ci

= 0:05 zwerykowa¢ hipotez¦, »e m = 3. Na poziomie ufno±ci

1

,

oszacowa¢ metod¡ przedziaªow¡ parametr m. Powtórzy¢ obliczenia dla

= 0:01 i = 0:02.

3.

Z próby 100 elementowej obliczono

x = 1:28 i s

2

= 0

:21. Czy na poziomie

istotno±ci

= 0:01 mo»na zwerykowa¢ hipotez¦, »e m = 1:25 oraz hipotez¦, »e

2

= 0

:2? Na poziomie ufno±ci 1

,

oszacowa¢ metod¡ przedziaªow¡ parametr

m.

4*.

Dla danych z zadania 3 zwerykowa¢ hipotez¦, »e

m i maj¡ warto±ci

obliczone jako parametry teoretyczne. Przyj¡¢ poziom istotno±ci

= 0:1, =

0

:05 i = 0:01.

background image

6.2 Testy nieparametryczne

59

6.2. Testy nieparametryczne

6.2.1. Testy zgodno±ci

Testy zgodno±ci sªu»¡ do werykacji hipotez o postaci rozkªadów, a dokªadniej

o postaci dystrybuant rozkªadów. Hipoteza zerowa, któr¡ b¦dziemy weryko-

wa¢ b¦dzie miaªa posta¢

H

0

:

F(x) = F

0

(

x) lub H

0

:

F(x;) = F

0

(

x;), prze-

ciw hipotezie alternatywnej

H

1

:

F(x)

6

=

F

0

(

x) lub H

1

:

F(x;)

6

=

F

0

(

x;),

gdzie

jest parametrem rozkªadu, które warto±¢ te» mo»e by¢ werykowana.

Przykªad.

Hipotez¡ mo»e by¢

H

0

:

F(x)

N(

m;), gdzie m i s¡ pew-

nymi, nie interesuj¡cymi nas parametrami. Hipoteza mo»e te» by¢ postaci

H

0

:

F(x)

N(0

;) albo te» H

0

:

F(x)

N(0

;1).

Test sªu»¡cy do werykacji hipotezy o postaci dystrybuanty rozkªadu, powinien

mierzy¢ rozbie»no±ci pomi¦dzy dytrybuant¡ hipotetyczn¡

F

0

(

x) a wynikami

otrzymanymiz próby. Pierwszym takim testemjest test chi-kwadrat Pearsona.

Test zgodno±ci

Pearsona

Polega on na tym, »e o± liczbow¡ dzielimyna rozª¡czne przedziaªy

i

punktami

d

i

,

i = 1;2;:::;r

,

1. Otrzymujemy w ten sposób

n przedziaªów,

1

= (

,1

;d

1

)

;

2

= [

d

1

;d

2

)

; :::;

r

= [

d

r

,1

;

1

)

:

Oznaczmy przez

n

i

liczb¦ wyników w przedziale

i

,

n = n

1

+

n

2

+

+

n

r

. Niech

p

i

= Pr(

X

2

i

, gdzie

X jest zmienn¡ losow¡ (cech¡ w populacji generalnej),

a

F(x) jej dystrybuant¡ (hipotetyczn¡). Statystyka

2

=

r

X

i

=1

(

n

i

,

np

i

)

2

np

i

(6.2.1)

mierzy tak¡ wªa±nie rozbie»no±¢ mi¦dzy wynikami otrzymanymi a dystrybu-

ant¡ hipotetyczn¡. Nale»y jednak zwróci¢ uwag¦, »e dla efektywnego obliczenia

prawdopodobie«stw

p

i

nale»y zna¢ równie» wszystkie parametry wyst¦puj¡ce

w dystrybunancie

F(x). Je»eli nie s¡ one jednak znane, to trzeba je estymowa¢.

Twierdzenie 6.2.1.

Je»eli nieznane parametry dystrybuanty

F(x) s¡ oszaco-

wane metod¡ najwi¦kszej wiarogodno±ci, to dystrybuanta statystyki okre±lonej

wzorem (6.2.1) jest zbie»na dla

n

!

1

do dystrybunaty rozkªadu chi-kwadrat

Pearsona o

r

,

k

,

1 stopniach swobody, gdzie

k jest liczb¡ nieznanych para-

metrów.

Je»eli

n jest dostatecznie du»a (n równe kilkadziesi¡t, na przykªad n = 60)

oraz w ka»dej klasie

i

jest conajmniej 8 wyników,

n

i

­

8, to mo»na na pod-

stawie twierdzenia 6.2.1 przyj¡¢, »e statystyka okre±lona wzorem (6.2.1) ma w

przybli»eniu rozkªad chi-kwadrat. Je»eli w jakiej± klasie jest mniej ni» 8 wyni-

ków, to tak¡ klas¦ nale»y poª¡czy¢ z s¡siedni¡. Obszar krytyczny jest postaci

przedziaªu (

2

;

1

), a wi¦c hipoteza zerowa zostanie odrzucona na poziomie

istotno±ci

, gdy

2

>

2

, a

2

jest wyznaczone ze wzoru (i odczytane z

tablic) Pr(

2

>

2

) =

.

Innym testem zgodno±ci jest test Koªmogorowa. W porównaniu z testem

Test zgodno±ci

Koªmogorowa

Pearsona ma on liczne ograniczenia. Wymaga on wyników dokªadnych, nie

background image

6.2 Testy nieparametryczne

60

pogrupowanych w klasy, du»ej próby i mo»na nim sprawdza¢ tylko hipotezy

dotycz¡ce rozkªadów ci¡gªych, w których sprecyzowano warto±ci parametrów.

Idea testu Koªmogorowa polega na mierzeniu odchylenia dystrybuanty teore-

tycznej od empirycznej. Stawiamy hipotez¦

H

0

:

F(x) = F

0

(

x), gdzie F

0

(

x)

jest dystrybuant¡ typu ci¡gªego, z wszystkimi sprecyzowanymi parametrami.

Niech

F

n

(

x) b¦dzie dystrybuan¡ empiryczn¡. Oznaczmy

=

p

nsup

x

j

F

n

(

x)

,

F(x)

j

:

(6.2.2)

Twierdzenie 6.2.2.

Statystyka okre±lona wzorem (6.2.2) ma w granicy przy

zaªo»eniu prawdziwo±ci hipotezy

H

0

oraz dla

n

!

1

, rozkªad niezale»ny od

postaci

F(x).

Rozkªad graniczny statystyki

okre±lonej wzorem (6.2.2) nazywa si¦ rozkªa-

dem Koªmogorowa. Jest on stablicowany, przy czym najcz¦±ciej podaje si¦

warto±ci

, przy których Pr(

­

) =

. Obszar krytyczny tworzy przedziaª

(

;

1

), czyli hipotez¦

H

0

odrzucamy, gdy

>

.

6.2.2. Testy niezale»no±ci

Populacj¦ generaln¡ badamy ze wzgl¦du na dwie cechy,

X i Y . Testujemy

hipotez¦ zerow¡

H

0

:

X i Y s¡ niezale»ne, czyli H

0

:

F(x;y) = F

X

(

x)F

Y

(

y)

przeciwko hipotezie alternatywnej

H

1

:

F(x;y)

6

=

F

X

(

x)F

Y

(

y).

Oznaczmy przez

n liczebno±¢ próby. Warto±ci cechy X dzielimy na r klas, a

warto±ci cechy

Y na s klas. W ten sposób wszytkie elementy dzielimy na rs

klas. Przez

n

ij

oznaczmy liczb¦ elementów, które ze wzgl¦du na cech¦

X s¡

w klasie

i-tej, a ze wzgl¦du na cech¦ Y s¡ w klasie j-tej. Okre±lmy ponadto

liczebno±ci brzegowe

n

i

=

s

X

j

=1

n

ij

; n

j

=

X

i = 1

r

n

ij

:

Wtedy

n =

r

X

i

=1

s

X

j

=1

n

ij

=

r

X

i

=1

n

i

=

s

X

j

=1

n

j

:

Z liczebno±ci brzegowych szacuje si¦ prawdopodobie«stwa brzegowe

p

i

= n

i

n ; p

j

= n

j

n :

Zakªadaj¡c prawdziwo±¢

H

0

, to znaczy niezale»no±¢ cech

X i Y , oblicza si¦

prawdopodobie«stwa hipotetyczne

p

ij

=

p

i

p

j

:

background image

6.2 Testy nieparametryczne

61

St¡d podobnie jak we wzorze (6.2.1) konstruuje si¦ statystyk¦

2

=

r

X

i

=1

s

X

j

=1

(

n

ij

,

np

ij

)

2

np

ij

:

(6.2.3)

Twierdzenie 6.2.3.

Dystrybuanta statystyki okre±lonej wzorem (6.2.3) jest

zbie»na dla

n

!

1

do dystrybunaty rozkªadu chi-kwadrat Pearsona o (

r

,

1)(

s

,

1) stopniach swobody.

Obszar krytycznyjest okre±lony tak samo jak dla statystyki (6.2.1). Ze wzgl¦du

na to, »e statytystyka (6.2.3) ma rozkªad chi-kwadrat tylko przy

n

!

1

, to

n

musi by¢ bardzo du»e, a wszystkie

n

ij

­

8.

Je»eli

r = s = 2, to tablica [n

ij

] nazywa si¦ tablic¡ czteropolow¡. W tym

przypadku mamy jeden stopie« swobody statystyki

2

.

6.2.3. Zadania

1.

Przy pomocy testu chi-kwadrat Pearsona sprawdzi¢, czy cecha w populacji

generalnej ma rozkªad jednostajny, gdy z próby uzyskano nast¦puj¡ce wyniki:

2.07, 2.35, 1.52, 2.73, 2.30, 2.56, 1.46, 2.61, 2.86, 1.82, 1.81, 2.56, 1.97, 1.21,

2.16, 1.66, 2.62, 2.07, 1.29, 2.32. Czy mo»na odrzuci¢ hipotez¦, »e rozkªad jest

jednostajny na odcinku [1

;3] lub [1:2;2:2]? Przyj¡¢ poziom istotno±ci = 0:05.

2.

Dane z próby

n-elementowej zostaªy pogrupowane w tabeli, gdzie

Przedziaª Liczba wyników

0

,

1

44

1

,

2

36

2

,

3

20

3

,

4

14

4

,

5

10

5

,

6

8

6

,

7

4

7

,

8

6

8

,

9

5

9

,

10

3

Na poziomie istotno±ci

= 0:02

zwerykowa¢ hipotez¦, »e rozkªad

jest a) wykªadniczy, b) wykªadni-

czy z parametrem

= 0:5.

3*.

Wygenerowa¢ w dowolny sposób 100 liczb o rozkªadzie normalnym z pa-

rametrami N(

m;), a nast¦pnie zwerykowa¢ przy pomocy testu chi-kwadrat

Pearsona, »e jest to a) rozkªad normalny, b) rozkªad normalny z parametrem

m, c) rozkªad normalny z parametrem , d) rozkªad normalny z parametrami

m i .

4*.

Dla danych z zadania 3 zwerykowa¢ przy pomocy testu Koªmogorowa

hipotez¦, »e s¡ to dane z rozkªadu normalnego z parametrami

m i .

5.

Niech

x

i

b¦dzie liczb¡ rzutów kostk¡, w których wyrzucono

i oczek. W 180

rzutach otrzymano

x

1

= 25,

x

2

= 31,

x

3

= 24,

x

4

= 32,

x

5

= 28. Czy taki

wynik mo»na na poziomie istotno±ci

= 0:05 usprawiedliwi¢ przypadkiem?

background image

6.2 Testy nieparametryczne

62

6.

Ka»dy element ma dwie cechy, cech¦

X

2

(0

;1) oraz cech¦ Y przyjmuj¡c¡

tylko warto±ci 0 i 1. Czteropolowa tablica wygl¡da nast¦puj¡co:

X < 0:5 X

­

0

:5

Y = 0

72

29

Y = 1

53

26

Na poziomie istotno±ci

= 0:05 zwerykowa¢ hipotez¦ o niezale»no±ci cech X

i

Y .

background image

Literatura

[1] F. Clegg, Po prostu statystyka, Wyd. Szk. i Pedag., Warszawa 1994.

[2] M. Fisz, Rachunek prawdopodobie«stwa, PWN, (wiele wyda«).

[3] J. Gre«, Statystyka matematyczna, modele i zadania, PWN, (wiele wy-

da«)

[4] T. Inglot, T. Ledwina, Z. Šawniczak, Materiaªy do ¢wicze« z rachunku

prawdopodobie«stwa i statystyki matematycznej, skrypt P. Wr., 1979.

[5] W. Feller, Wst¦p do rachunku prawdopodobie«stwa, t. I, PWN, 1966.

[6] W. Feller, Wst¦p do rachunku prawdopodobie«stwa, t. II, PWN, 1969.


Wyszukiwarka

Podobne podstrony:
Wojciech Kordecki Rachunek prawdopodobienstwa i statystyka matematyczna przyklady i zadania
Kordecki W, Jasiulewicz H Rachunek prawdopodobieństwa i statystyka matematyczna Przykłady i zadania
Kordecki W, Jasiulewicz H Rachunek prawdopodobieństwa i statystyka matematyczna Przykłady i zadania
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 01.06.2008
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 18.05.2008
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 11.05.2008
RACHUNEK PRAWDOPODOBIEŃSTWA I STATYSTYKA MATEMATYCZNA wprowadzenie
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 16.03.2008
Kotłowska M Rachunek prawdopodobieństwa i statystyka matematyczna
Rachunek prawdopodobienstwa-1, Statystyka matematyczna
Rachunek prawdopodobieństwa i statystyka, Rachunek prawdopodobieństwa i statystyka/Test 2: Statystyk
ćwiczenia rachunek prawdopodobieństwa i statystyka, Z Ćwiczenia 06.04.2008
Rachunek prawdopodobieństwa i statystyka matematyczna, wykład 3
Podstawy statystyki - zadania, budownictwo pwr, Rachunek prawdopodobieństwa i statystyka matematyczn
Zadanie 3, Niezawodność konstr, niezawodność, Niezawodność konstrukcji, 1-Rachunek prawdopodobieństw
Rachunek prawdopodobieństwa i statystyka matematyczna, wykład 2
Lipińska K, Jagiełło D, Maj R Rachunek prawdopodobienstwa i statystyka
p grzegorzewski k bobecka rachunek prawdopobienstwa i statystyki
Zadanie 2 - arkusz, kbi, niezawodność, Niezawodność konstrukcji, 1-Rachunek prawdopodobieństwa i sta

więcej podobnych podstron